Potențialul inteligenței artificiale (IA), anticipat în prezent, induce un disconfort tot mai evident inteligenței umane. Relocată într-un con de umbră, inteligența umană experimentează teama de a fi substituită și anxietatea unei previzibile inutilități într-o arhitectură a viitorului, definită de creșterea puterii de procesare și interpretare specifică IA-ului.
Temerile sunt amplificate de conștientizarea incapacității umane de a înțelege complet potențialul tehnologiei și, implicit, de neputința controlării depline a valențelor ei, în această etapă de dezvoltare. Cultivându-și capacitatea de adaptare, inteligența umană acceptă provocările IA-ului ca pe un joc al testării limitelor, stabilindu-și drept miză cunoașterea și autocunoașterea.
Însoțită de un procent ridicat de imprevizibil, tehnologia IA pătrunde tacit în cotidianul nostru, preluând treptat o mare parte dintre sarcinile umane care implică un nivel ridicat de uzură. Sunt provocări reale pentru specia umană, care este nevoită să își însușească adevărate lecții de supraviețuire pe piața muncii și să se adapteze din mers, pentru a se putea integra într-o paradigmă deloc futuristă a coabitării om-mașină. Astfel, pe măsură ce transformă locurile de muncă, automatizarea oferă, în același timp, șansa reconstruirii rolurilor umane, oportunitatea de a inova și de a inventa noi sensuri.
Lecția rezilienței
Dilemele identitare ale contemporaneității sunt comparabile cu cele trăite de țesătorii din Lyon în secolul al XIX-lea, care, confruntați cu progresul tehnologic reprezentat de mecanizarea războiului de țesut și dispariția, în consecință, a profesiei lor, au fost nevoiți să exploreze oportunități de recalificare.
Dacă în secolul al XIX-lea omenirea se considera amenințată de forța fizică a mașinii, în prezent, aceasta întrevede pericole în forța cognitivă a algoritmilor, întrucât tehnologia IA are capacitatea de a înlocui nu doar activitatea manuală, ci și o serie de activități intelectuale. Reeditarea acestei experiențe două secole mai târziu, într-o altă etapă a evoluției tehnologice, este menită să ajute oamenii din prezent să aprofundeze lecția rezilienței și a sustenabilității: întocmai cum revoluția industrială a generat noi profesii pe piața muncii, și IA le va crea oportunități celor care vor dovedi o capacitate mai mare de adaptare.

IA este o dovadă a ingeniozității umane, creată pentru a servi omenirii, în parcursul ei evolutiv, nicidecum pentru a o substitui. Capabilă să exploreze, să reconfigureze și să interconecteze domenii dintre cele mai variate – de la medicină și știință, până la artă și astrologie – tehnologiei de ultimă generație i s-a programat abilitatea de a elibera omul de activitățile limitative, de timpul irosit în procesarea informației, de erorile cognitive și de a-i oferi premisa extinderii orizonturilor cunoașterii.
Capcana prejudecăților
În privința activității de intelligence, complexitatea și supradimensionarea amenințărilor de securitate moderne impun implementarea unor instrumente și metodologii avansate de navigare, exploatare, filtrare, selectare și validare a informațiilor. Tehnologia asimilată IA prezintă potențialul cu adevărat revoluționar de a îmbunătăți viteza, acuratețea și eficiența procesării și analizei datelor, completând astfel misiunea analiștilor umani și permițând agențiilor de intelligence să susțină prompt decizia strategică.
Prin capacitatea de procesare intrinsecă, algoritmii IA pot integra și corobora informații, oferind o perspectivă în diacronie sau sincronie asupra unui fapt singular. Ei pot identifica tipare comportamentale, permițând detectarea indiciilor unor potențiale amenințări.
Având în vedere funcționalitatea IA în ceea ce privește automatizarea sarcinilor repetitive, analiștii vor avea posibilitatea de a se dedica unor activități mai specifice și mai creative conexe analizei de intelligence. Un alt atribut al IA este acela de a oferi echitate și transparență, fără a cădea în capcana biasului cognitiv, de care gândirea umană se poate face vinovată din varii motive, generând analize părtinitoare față de anumite entități. Însă, pentru a atinge performanța de a asimila criteriul echidistanței, este important ca algoritmii să nu fie antrenați cu date capabile să le inducă subiectivism.
Un exemplu de eșec al algoritmilor IA sub aspectul antrenării inadecvate este cazul Myanmar, descris și analizat pe larg de Yuval Noah Harari în cartea sa, „Nexus: A Brief History of Information Networks from the Stone Age to AI” (2024). Algoritmii rețelelor sociale au fost programați să maximizeze engagement-ul, adică reacțiile și timpul petrecut de utilizatori pe platformă. În lipsa unor mecanisme de control și responsabilizare, algoritmii au ajuns să promoveze conținutul cu o încărcătură emoțională puternică – în special frica, furia, indignarea și ura. Rezultatul obținut a fost amplificarea mesajelor radicale și a discursului instigator la violență, concretizate în plan social prin escaladarea tensiunilor etnice și persecuții împotriva minorității conlocuitoare rohingya.
Manipulați de algoritmi
Această experiență indică nu doar cât de influentă este puterea algoritmilor în a modela percepții și comportamente colective, ci și cât de fragilă este societatea atunci când tehnologia IA este lăsată să opereze doar după logica profitului sau a eficienței tehnice, fără niciun filtru etic și uman. Myanmar reprezintă astfel un studiu de caz ilustrativ pentru întreaga omenire. În lipsa unor reglementări sau verificări ale modului în care IA este antrenată și implementată, omenirea riscă să repete aceleași greșeli și în alte circumstanțe. Lecția care se desprinde din această experiență este una de responsabilitate și asumare, în sensul de a genera algoritmi transparenți, care să nu încurajeze emoțiile negative și polarizarea, ci să promoveze echilibrul, dialogul și informarea corectă.
Riscurile pe care le aduc algoritmii sunt strâns legate de modul în care aceștia au învățat să exploateze latura emoțională negativă a ființei umane. Studiile arată că indignarea, nemulțumirea și revolta generează reacții rapide și intense, mult mai puternice decât calmul sau echilibrul. Din această cauză, sistemele de recomandare tind să promoveze conținutul care inflamează, care șochează sau care dezbină, pentru că astfel cresc interacțiunile. Practic, algoritmii au descoperit „punctele vulnerabile” ale creierului uman și au început să se adreseze direct sistemului limbic, partea responsabilă de emoții imediate, de reacții instinctive și de impulsuri.

Această abordare are două efecte majore: pe de o parte, determină subiecții să petreacă mai mult timp conectați la platforme, iar pe de altă parte, erodează treptat capacitatea umană de gândire critică, de concentrare și de dialog echilibrat. În loc să favorizeze conversații constructive, algoritmii riscă să creeze „camere de ecou”, unde fiecare persoană aude doar opinii care îi confirmă convingerile, pierzând contactul cu diversitatea ideilor și cu nuanțele realității.
Un parteneriat echilibrat
Un alt risc este acela al încrederii oarbe în IA. Pe măsură ce algoritmii devin tot mai sofisticați și capabili să ia decizii complexe, există riscul ca oamenii să le cedeze orbește verdictul decizional, considerând că „mașina cunoaște mai bine”. Această încredere excesivă poate diminua responsabilitatea individuală și colectivă, reducând capacitatea individului de a analiza critic recomandările algoritmice. Erorile, bias-urile și fals-pozitivul (atunci când un algoritm semnalează în mod eronat existența unei probleme) nu dispar, iar lipsa verificării umane poate avea consecințe grave în domenii precum securitatea, medicina sau guvernarea. Din această perspectivă, lecția pe care o oferă tehnologia este că IA trebuie privită ca un partener, nu ca un arbitru autonom, iar decizia finală trebuie să aparțină omului și să fie bazată pe verificări, audit și reflecție critică.
Funcția de web scraping, utilizată pentru colectarea de date și conținut web în antrenarea IA, este un instrument puternic, însă nu lipsit de riscuri. Dacă este folosit inadecvat, poate încălca dreptul la confidențialitate, poate amplifica date eronate sau poate genera bias în modelele IA. Pe de altă parte, folosit responsabil și conform regulilor legale, scraping-ul permite dezvoltarea de algoritmi mai inteligenți, mai corecți și mai adaptabili, capabili să identifice tipare utile și să ofere soluții eficiente. Practic, succesul acestui instrument depinde de atingerea unui echilibru între explorarea puterii sale și nevoia de protecție a datelor și valorilor umane.
Analizând ascensiunea IA prin prisma conceptului de „Black Swan” lansat de Nassim Nicholas Taleb, constatăm că fenomenul corespunde criteriilor definitorii de eveniment rar, imprevizibil și cu impact major asupra societății, care a schimbat paradigmele existente și a creat noi realități economice, sociale și culturale. Deși previzibile în teorie, ritmul și direcția evoluției sale au surprins chiar și experții, demonstrând că tehnologia poate avea efecte neașteptate, cu potențialul de a redefini întregul ecosistem uman și instituțional.
Educația algoritmilor
Prin raportare la teoria antifragilității, dezvoltată de Taleb în cartea „Antifragil”, putem admite că fenomenul IA nu este doar o sursă de riscuri, ci și o oportunitate de a construi sisteme care devin mai puternice în urma provocărilor. Prin aplicarea principiilor antifragilității – adaptabilitate, testare constantă, verificări și învățare din greșeli – riscurile inerente ale tehnologiei se pot transforma în lecții constructive. Astfel, infrastructura digitală devine mai robustă și mai capabilă să servească umanitatea într-un mod sigur, menținând IA ca aliat al progresului și nu ca factor destabilizator.
Un lucru este însă cert: tehnologia IA nu este încă neutră, ci reflectă valorile și prejudecățile creatorilor săi. Omenirea trebuie să o integreze cu discernământ, ca pe un partener pe care să-l poată credita cu încredere, protejând gândirea critică și dialogul social. IA presupune reglementări și instrumente de verificare eficiente, dar poate elibera în egală măsură de rutină și poate oferi spațiu pentru activități rafinate, creative, inovative, educative – definitorii pentru ființa umană.
În concluzie, IA nu este un pericol inevitabil, ci o oportunitate extraordinară. Alegerea se menține în paradigma umană, iar responsabilitatea omenirii este să păstreze IA în slujba oamenilor, nicidecum invers. Așadar, saltul tehnologic trebuie însoțit de această dată și de unul etic și social, care să demonstreze că lecția trecutului a fost învățată, iar mecanismele nou-create vor plasa omul în centru, nu în umbra evoluției tehnologice.
Pe de altă parte, capacitatea omenirii de a controla algoritmii IA nu trebuie confundată cu omnipotența, iar fascinația puterii pe care o conferă utilizarea lor trebuie înțeleasă și limitată conștient.
Abstract
Artificial intelligence has revealed a profound vulnerability within human society: the susceptibility to emotional manipulation. Algorithms have quickly learned that negative emotions – fear, outrage, division – are the easiest items to exploit, because they capture attention and drive engagement. This behaviour produces a dangerous ethical imbalance: while AI systems are optimized for generating profit, they are simultaneously amplifying humanity’s worst impulses. Therefore, human society must take responsibility for redirecting and retraining these algorithms. That’s why AI should be designed not merely to maximize clicks or revenue, but also to promote balance, constructive dialogue, and accurate information. Even if this path is less profitable for developers of AI industries, it is the only way to ensure that technology serves the humanity rather than undermines it.
Autor: Cristina Lefticariu