Capcanele minţii. Motivele eşecurilor în intelligence

257
de Radu Popa 

În 6 octombrie 1973, secretarul de Stat Henry Kissinger este informat de către CIA că o eventuală confruntare militară între Israel și Egipt este improbabilă. Câteva ore mai târziu avea să izbucnească războiul de Yom Kippur. În 9 noiembrie 1989, în timp ce președintele George H. W. Bush participa la un briefing din partea experților CIA privind șansele scăzute de reunificare a Germaniei, un membru al Consiliului Național de Securitate intră în Biroul Oval, îndemnându-i să urmărească transmisiunea televizată care tocmai difuza episodul demolării Zidului Berlinului. În 15 noiembrie 2015, neanticipând schimbările de paradigmă ale fenomenului terorist, serviciile franceze de informații eșuează să preîntâmpine atentatele din Paris, soldate cu cel mai ridicat număr de victime ale atacurilor teroriste din Europa ultimului deceniu.

Cine se face „vinovat“

Ce anume a determinat astfel de eșecuri de intelligence? Cine se face „vinovat“ de apariția acestora? Ofițerii de informații? Managerii lor? Decidenții politici? Istoria? Cât de just este, totuși, să vorbim despre „vinovăție“ în aceste situații? De ce expresia „am făcut tot ce se putea“ este, în mentalul colectiv, mai pardonabilă atunci când vine de la un medic decât atunci când vine de la un serviciu de informații?

Poate că cea mai importantă idee care stă la baza prezentului articol este aceea că serviciile de informații nu sunt infailibile. În intelligence nu există „globuri de cristal“, rețete ale succesului sau metodologii absolute care să garanteze reușita, așa cum, altminteri, nu există nici „vinovăția de a nu fi omniscient“. Există însă, ca în orice alte profesii „ale minții“, factori umani supuși erorii, limitelor cunoașterii și ale proceselor mentale, limite pe care literatura de specialitate le numește „bias-uri cognitive“ (n.a. – în absența unui corespondent fidel în limba română, termenul cel mai apropiat este „prejudecată“).

Ce sunt, așadar, aceste bias-uri? Să ne imaginăm o ilustrație reprezentând o iluzie optică. Deși realitatea este diferită de ceea ce percepem, efectele iluziei persistă asupra noastră, fie că înțelegem sau nu că suntem victimele unei erori. Bias-urile cognitive funcționează după un principiu similar. Acestea reprezintă reflexe firești ale mentalului uman de a simplifica actele de procesare a informației sau, în alți termeni, erori subconștiente (așadar involuntare) care împiedică înțelegerea nealterată a realității.

Principalul motiv pentru care bias-urile cognitive se manifestă cel mai pregnant în activitatea de intelligence este legat de resursa implicată – informația. De cele mai multe ori inconsistentă, diversă, contradictorie sau a cărei credibilitate este incertă, această resursă reprezintă particula de bază a întregului „univers“ al intelligence-ului, pe care analiștii trebuie să îl organizeze, să îi surprindă coerența și sensurile. Dificultatea de care se lovesc însă analiștii este aceea că, deseori, informația-cheie lipsește din această paradigmă.

Out of sight – out of mind

Astfel, una dintre cele mai frecvente erori analitice care survin pe fondul absenței informațiilor are la bază bias-uri cognitive de tipul out of sight – out of mind (în afara privirii – în afara gândirii), însemnând că evaluarea unui scenariu, a unei posibilități sau a unei stări de fapt, va fi incompletă, așadar defectuoasă.

Ilustrativ în acest sens este un experiment efectuat de trei cercetători americani, utilizând modelul reprezentațional fault tree (copacul erorilor), folosit îndeosebi pentru evaluarea riscurilor sistemelor complexe, cum ar fi cele din industria aerospațială sau a centralelor nucleare. Aplicat unui grup de mecanici auto, experimentul începea prin prezentarea unui „copac“ ale cărui ramuri erau asociate unui număr de șapte categorii majore de potențiale cauze pentru care un vehicul ar putea să nu funcționeze (ex. defecțiuni ale motorului, ale sistemului de alimentare cu carburant, ale bateriei ș.a.). Sarcina subiecților era aceea de a identifica cât mai multe probleme punctuale care ar fi explicat disfuncționalitatea mașinii, pe care să le încadreze în cele șapte categorii predefinite. Aceeași solicitare a fost adresată unui al doilea grup de mecanici, acestora fiindu-le însă prezentată versiunea incompletă a „copacului“ (doar patru categorii din cele șapte), pentru a le testa receptivitatea față de cauzele care ar fi intrat în categoriile astfel omise. Rezultatele obținute au fost mai mult decât concludente, relevând că cel de-al doilea grup a eșuat să identifice o mare parte din cauzele posibile ale defecțiunii mașinii, doar pentru că o parte dintre categoriile în care s-ar fi înscris au fost „în afara privirii“.

Activitatea de intelligence întâmpină dificultăți similare, experimentul venind în susținerea unei întrebări amplu vehiculate în interiorul serviciilor de informații: „Știm ceea ce nu știm?“

Să ne imaginăm, așadar, care ar fi fost situația dacă experimentul ar fi avut ca subiect inventarierea potențialelor disfuncții ale unei centrale nucleare sau, pentru a nu părăsi tema articolului, identificarea riscurilor ca o sursă a unui serviciu de informații să se afle sub control ostil…

Iluzia mulţimii

O altă formă de bias cognitiv frecvent întâlnită în intelligence are la bază predispoziția umană spre coerență, de unde tendința naturală de a organiza observațiile și judecățile urmând pattern-uri sau corelații cunoscute. Ilustrativ în acest sens este cazul avocatei de origine rusă Karinna Moskalenko, una dintre cele mai fervente apărătoare ale drepturilor omului din Federația Rusă, de altfel prima care a câștigat la Curtea Europeană a Drepturilor Omului un caz împotriva statului rus. În 2008, cu două zile înaintea audierilor preliminare în dosarul Annei Politkovskaya (jurnalist rus și critic dur al Kremlinului, asasinată în 2006, în condiții suspecte), Moskalenko avea să descopere că fusese victima unei otrăviri cu mercur, după ce identificase granule ale acestui element chimic în mașina personală. Avocata, care se confruntase cu presiuni anterioare din partea Moscovei, reprezenta apărarea în sensibilul dosar Politkovskaya. Trecutul recent oferea numeroase cazuri care legau serviciile secrete ruse de otrăvirea unor persoane incomode (ex. Alexander Litvinenko, Viktor Yushchenko), astfel că suspiciunile unanime au fost îndreptate spre Kremlin, ca artizan al intoxicării avocatei. Ulterior, investigațiile autorităților aveau să demonstreze că prezența mercurului era rezultatul unui accident al fostului proprietar (spargerea unui barometru), petrecut cu puțin timp înainte de a-i vinde avocatei autoturismul.

Modul în care mintea umană percepe informațiile existente, le selectează și le folosește pentru producerea unor judecăți de valoare, decizii sau, efectiv, pentru generarea acelor informații-cheie lipsă, urmează, în multe situații, traseele unor tipare predefinite cultural, social, instituțional sau chiar emoțional. Eroarea judecății de primă mână în cazul Moskalenko a avut la bază cel puțin un bias de tipul clustering illusion (iluzia roiului, a mulțimii), constând în reflexul de a căuta coerență sau șabloane acolo unde ar putea să nu existe, printre fenomene aleatorii care să nu aibă neapărat o rațiune sau o cauzalitate.

Un alt exemplu este cel al autorităților britanice din timpul celui de-al Doilea Război Mondial, care au interpretat în mod eronat că bombardamentele germane ar fi urmat un anumit șablon. Subsecvent, putem prezuma inclusiv apariția unui bias al confirmării (confirmation bias), însemnând predispoziția evaluatorului de a se concentra mai degrabă asupra informațiilor care tind să îi confirme supozițiile decât asupra detaliilor care, aparent, îi contrazic ipotezele.

Soluţii înşelătoare

Nu doar profesioniștii activității de intelligence pot cădea victime bias-urilor, ci și beneficiarii produselor acestora. Jurnaliștii sau publicul larg pot fi supuși acestor erori, în egală măsură. Psihologia cognitivă ne învață că, odată aflată, informația-cheie modifică radical modul în care percepem și ne raportăm la evoluția unui fenomen. Acest proces natural stă la baza a ceea ce numim „bias retrospectiv“ (hindsight bias), adică tendința, după aflarea informațiilor-cheie, de a crede că rezultatul unui fenomen, eveniment sau stări de fapt putea fi lesne previzionat.

Semnificativ în această privință este experimentul unui cercetător american, care ilustrează felul în care aflarea rezultatului unor situații generează preconcepții de tipul „știam deja“ (knew-it-all-along effect), așadar o subevaluare a produsului care livrează rezultatul în discuție. Succint, subiecților experimentului le-a fost aplicat un set de întrebări tip grilă, pe teme de cultură generală, astfel: primul subgrup trebuia să răspundă bazându-se exclusiv pe propriile cunoștințe, iar al doilea subgrup, fiindu-i oferite în prealabil variantele corecte de răspuns, trebuia să efectueze testul ca și când nu ar fi cunoscut soluțiile deja furniza- te. În esența sa, experimentul a confirmat existența unei tendințe clare de a subestima ceea ce învățăm aflând informații noi, dar și că, odată expuși soluției sau rezultatului unei probleme, vom fi înclinați să credem că știam mai mult decât este, de fapt, cazul.

Acest bias este unul dintre motivele pentru care analizele post-factuale (post-mortem analysis) riscă nu doar să sufere preconcepții, ci să fie și injuste. De ce? – Din același motiv pentru care cunoașterea prealabilă a finalului unei cărți determină o nouă și ireversibilă optică asupra întregului fir narativ, o înțelegere clară a evenimentelor care capătă astfel sens și coerență. În lumina unui final cunoscut, totul se leagă și pare dintr-odată simplu.

Marele dezavantaj al serviciilor de informații este că domeniul intelligence devine vizibil publicului larg preponderent în cazurile de eșec al activității acestora. Reconstruind evoluția fenomenelor, va exista, aproape invariabil, predispoziția spre determinism, spre a crede că acestea au fost inevitabile, deși previzibile. Dată fiind informația disponibilă la acel moment, puteau analiștii să prevadă ceea ce urma să se întâmple? Orice evaluare obiectivă a activității de intelligence depinde de capacitatea de a oferi un răspuns cât mai corect la această întrebare. Aproape nimeni nu vorbește despre caracterul uman al ofițerilor de informații și aproape nicăieri nu se discută așteptările față de infailibilitatea acestora. Tot puțini sunt și cei care înțeleg că, mai mult decât inamicul real sau provocările istoriei, adesea, propria minte îi este analistului cel mai mare adversar.

Cum evităm capcanele gândirii?

Ce rămâne, așadar, de făcut când însuși forul nostru mental pare să ne întindă capcane la fiecare pas al gândirii? Parafrazând observația lui Mark Twain despre vreme, am putea spune că toată lumea vorbește despre bias-uri cognitive, însă nimeni nu pare să facă ceva în privința acestora. Din nefericire, nu dispunem de prea multe instrumente pentru a le preîntâmpina, tocmai pentru că aceste procese sunt atât de profund impregnate psihicului nostru încât fac superfluă aproape orice tentativă de a ne transcende limitele cognitive. Pentru câteva dintre bias-urile „remediabile“ există tehnici imperfecte de evitare a erorilor de gândire, cunoscute ca metode structurate de analiză. Pentru altele, dacă avem noroc, există vocație și fler. Pentru toate celelalte există speranța că eșecul nu se va produce pe tura noastră.

Abstract

Human cognition produces representations that are systematically distorted compared to objective reality. When it comes to making judgments, either simple or complex, generated by taking shortcuts or calculated elaborately, most of us have little or no conscious awareness of the intricacies of our minds. The main challenge of intelligence professionals is not finding a way to cope with the volume and complexity of information without being overwhelmed, but to produce sound assessments without being clouded by the inner workings of their brains. Cognitive biases spare nobody. Either a trained analyst or a simple observer, our minds are designed to produce judgments or decisions in a way that is highly susceptible of shaping by predetermined mental processes, some of which I will review in this paper: confirmation bias, clustering illusion and hindsight bias.