foto : Profimedia
O nouă eroare logică pentru era sinteticului
Imaginați-vă:
Apare o fotografie care arată un politician proeminent întâlnindu-se în secret cu un adversar străin. Imaginea se răspândește rapid, stârnind indignare. În câteva ore, echipa politicianului sau canale afiliate (direct sau indirect) acestuia lansează un videoclip generat de AI care pare a fi „sursa" fotografiei: un video în care fotografia inițială este un cadru. Însă, videoclipul este sintetic, generat în baza fotografiei, iar posturile de știri îl identifică, în mod corect, ca video deepfake. Și așa, pur și simplu, fotografia originală este și ea aruncată la coșul falsurilor. Publicul concluzionează: dacă există o versiune falsă, totul trebuie să fie fabricat.
Dar dacă fotografia era autentică? Dacă singurul fals era videoclipul creat pentru a o discredita?
Sau să luăm în considerare acest scenariu: Un politician, știind că ar putea apărea dovezi compromițătoare față de anumite acțiuni ale sale, generează proactiv zeci de „documente" incriminatoare create de AI și videoclipuri false care arată corupție sau alte acțiuni detestabile. Acestea circulă pe Internet pe site-uri și conturi nepopulare luni de zile sau chiar ajung în mass-media, dar sunt discreditate în mod corect drept fiind false. Când dovezi reale (documente autentice, înregistrări) cu privire la acțiuni ilegale sau nepopulare apar în cele din urmă, auditoriul a fost deja antrenat și politicianul declară: „Am mai văzut asta. Doar mai multe falsuri." Dovezile reale sosesc atunci pre-discreditate.
Ambele scenarii exploatează aceeași vulnerabilitate cognitivă. În era AI, învățăm să facem o eroare catastrofală de inferență și nici măcar nu avem încă un nume pentru ea.
Voi numi această eroare eroarea alibi-ului sintetic sau sofismul alibi-ului sintetic. Aceasta este eroarea de a trata dovezile autentice ca fiind false pentru că există sau poate fi ușor produsă o versiune generată de AI convingătoare: geamănul sintetic devine un alibi pentru a respinge realul. Nu este necesar ca informația și dovezile să aibă caracter juridic, cum ar fi în cazurile prezentate mai sus. Această eroare se poate generaliza la orice informație care poate fi dovedită drept fiind adevarată.
Logica sofismului
Logica eronată funcționează astfel: există o dovadă falsă, sintetică a evenimentului X (sau ar putea fi ușor creată), prin urmare dovezi ale evenimentului X sunt mereu inautentice. Această implicație nu este corectă: existența unui geamăn sintetic pentru dovezile unei informații nu ne spune nimic definitiv despre dacă informația este reală sau falsă. Într-o lume în care generarea de media plauzibilă a devenit ieftină și accesibilă, multe lucruri adevărate vor avea versiuni sintetice. Existența unui contrafăcut nu este dovadă împotriva originalului, nu mai mult decât existența ceasurilor Rolex false dovedește că compania Rolex nu a fabricat niciodată ceasuri reale.
Sofismul alibi-ului sintetic operează în două moduri distincte:
Respingere reactivă (post-hoc): După ce apar dovezi legitime, se produce (rapid) un înlocuitor plauzibil al lor, pentru a susține că dovezile autentice ale informației sunt de fapt false, probabil de aceeași origine falsă cu înlocuitorul sintetic.
Însămânțare proactivă (pre-hoc): În anticiparea că vor fi popularizate anumite informații (cum ar fi dovezi compromițătoare), sau fără vreo anticipare, în mod total aleatoriu, se însămânțează în prealabil ecosistemul informațional cu înlocuitori sintetici verosimili. Când apar dovezi reale, acestea aterizează într-o ceață de contrafaceri preexistente, făcându-le mult mai ușor de respins.
Problema “celulelor dormante”: De ce informațiile false pot deja să aștepte
Există un motiv pentru care varianta de însămânțare proactivă cu fals a spațiului de informații nu era cu adevărat posibilă până recent: nu exista unde să stea și să aștepte informațiile false.
În era mass-media centralizate, informațiile trebuiau să treacă prin porți editoriale. Pentru a introduce un fals în circulație, trebuia să compromiți canale media scumpe, trasabile, cu oameni ținuți responsabili atașați lor. Mai important, odată demascate, informațiile false erau eliminate din înregistrări sau marcate clar drept fiind false. Falsul era la orice punct din viața sa privit de foarte mulți ochi.
Peisajul mediatic de astăzi este fundamental diferit. Oricine poate crea un site web, un cont de social media, un canal YouTube sau un canal de Telegram. Conținutul poate fi postat pe forumuri, pe panouri de imagini, pe site-uri de partajare de fișiere, pe aplicații de mesagerie criptate. Nu există o autoritate centrală care să decidă ce se distribuie.
Această descentralizare creează condiții perfecte pentru celule dormante de conținut sintetic. Se pot planta videoclipuri false pe site-uri obscure cu luni sau ani în avans. Stau acolo, în mare parte neobservate. Per total, falsurile acestea nu sunt suficient de proeminente pentru a justifica verificarea faptelor, dar sunt suficient de ușor de găsit pentru a servi ca puncte de referință mai târziu.
Când dovezile reale apar în cele din urmă, actorii răi pot indica înapoi către aceste falsuri plantate, care pot fi chiar sute la număr: „Asta circulă de luni de zile. Este doar dezinformare reciclată." Alibi-ul sintetic a îmbătrânit în mod potrivit, gata de a fi utilizat.
Scala fără precedent a abundenței sintetice
Dar mai este ceva care face acest moment unic periculos: ușurința cu care poate fi acum generată media sintetică.
O singură persoană cu un laptop poate genera zeci de deepfake-uri convingătoare într-o după-amiază. Modelele moderne de AI generativă răspund la comenzi simple de text: „Creează un videoclip cu [politician] acceptând o mită. Fă-l să pară înregistrare de la camera de securitate." Nu este necesară expertiză tehnică specială și nici timp. Totul fără echipament scump, fără vreo echipă mare.
Asta schimbă totul despre desfășurarea strategică a sofismului. Se poate genera acum un întreg ecosistem de conținut sintetic compromițător și să fie însămânțat pe internet cu luni înainte ca orice dovadă reală să apară. Această abundență servește perfect sofismul. Nu este vorba despre a face un singur fals suficient de convingător pentru a înșela experții: este vorba despre crearea suficientelor falsuri, chiar și mii, încât categoria însăși să devină suspectă. Volumul, nu doar calitatea, contribuie la impactul cognitiv, anume la dubiu.
Capcana hiperreală: De ce audiovizualul este diferit
Am intrat în ceea ce teoreticienii media numesc era hiperreală: o eră în care simulările de înaltă fidelitate devin de nedistins de realitate. Imaginile și videoclipurile sunt procesate de creierele noastre ca fiind mai vii, mai concrete și mai memorabile decât textul. Această vivacitate este o sabie cu două tăișuri: face dovezile audiovizuale mai convingătoare, dar face și respingerea lor mai absolută.
Când ni se spune că o fotografie este falsă, creierele noastre nu doar își actualizează credințele despre acea imagine specifică. Ne actualizăm credințele despre întreaga categorie de imagini ca ea. Construim un model mental: „Fotografiile cu X făcând Y sunt genul de lucru care se falsifică." De atunci înainte, orice fotografie verosimilă, a lui X făcând Y, sau în general a adevărului Z, trebuie să depășească suspiciunea la nivel de categorie.
Acest lucru este agravat de ceea ce am putea numi paradoxul diligenței: fiind avertizați despre deepfake-uri, ne-am antrenat să fim suspicioși față de dovezile audiovizuale. Această diligență este bună, însă doar când este aplicată corect. Pe măsură ce AI-ul generativ avansează, nicio cantitate de analiză “criminalistică” asupra stabilirii originii unei material audiovizual s-ar putea să nu fie suficient de bună. Gemenii sintetici ai bucăților de informație vor fi în viitorului apropiat de nedistins de realitate la nivel tehnic. Iar atunci, în loc să examinăm cu atenție fiecare bucată de dovadă pe meritele sale și să construim verificarea prin multiple surse independente, riscăm să respingem categorii întregi en-gros pur și simplu pentru că există falsuri perfecte în ele. În același timp, trebuie să recunoaștem: nu e un act total leneș de a trage astfel de concluzii, deoarece nu avem fizic timpul să analizăm originea absolut fiecărui lucru pe care îl vedem sau auzim.
Rezultatul este ca o paralizie cognitivă. Odată ce am văzut un videoclip fals, odată ce am fost păcăliți, construim un zid defensiv în jurul acelei categorii de dovezi și informații. Hiperrealitatea oferită de media sintetică ne antrenează nu doar să verificăm, ci să nu credem în mod implicit.
Eroarea logică despre care vorbesc exploatează exact acest instinct defensiv: producând falsuri evidente, ne pot face să nu credem realul din cauza dubiului.
Cum ar putea arăta sofismul în practică
Slovacia: Însămânțare proactivă ca strategie electorală
În septembrie 2023, cu doar două zile înainte de alegerile parlamentare din Slovacia, înregistrări audio deepfake au inundat rețelele sociale arătând un jurnalist și un lider al opoziției discutând despre trucarea alegerilor. Țin să subliniez: acestea erau înregistrări false. Audio-ul a fost identificat rapid ca sintetic. [1]
Dar efectul mai insidios poate să fi fost unul de învățare: episodul a învățat alegătorii slovaci un reflex. I-a antrenat să gândească: „înregistrările audio care vorbesc despre asta sunt probabil false." Dacă ar fi apărut mai târziu dovezi autentice de comportament similar al opoziției politice, publicul le-ar fi respins: „Am mai văzut asta - doar mai multe deepfake-uri."
Astfel, audio-ul sintetic devine un punct de referință, iar audio-ul autentic de mai târziu ar trebui să treacă cu succes peste un deal de dubiu pe care l-a construit sinteticul.
Un alt exemplu ipotetic de construire a ceții protectoare
Când un parlamentar conservator din Regatul Unit a fost vizat luna trecută de un videoclip generat de AI anunțând plecarea sa fictivă către un alt partid, răspunsul imediat a fost să respingă acel videoclip, în mod evident. [2]
Chiar neintenționat, în acest fel el ridică suspiciuni despre orice afirmații similare în viitor. Chiar dacă el va face vreodată această mișcare între partide mai târziu, afirmații despre plecarea sa ar trebui să treacă prin ceața falsului pre-însămânțat, iar ar lua cel puțin câteva zile publicului să se convingă, abia după eventuale afirmații în plus făcute de către politician și de către partidele implicate. Mai mult, asta face și ca în viitor un eventual anunț adevărat al altui politician despre o astfel de mișcare să fie văzută inițial cu dubiu, fie ea acompaniată și de un videoclip.
Alte erori logice asemănătoare
Dividendul mincinosului
În 2019, specialiștii în drept Bobby Chesney și Danielle Citron au identificat ceea ce au numit „dividendul mincinosului": beneficiul pe care îl primesc mincinoșii din simpla existență a tehnologiei deepfake. Deoarece falsurile convingătoare sunt acum posibile, orice dovadă reală care arată ceva incomod, jenant poate fi respinsă cu o afirmație simplă: „Asta e un deepfake." [3]
Dividendul mincinosului este o tactică, o mișcare pe care o fac interlocutorii pentru a scăpa de responsabilitate. Sofismul alibi-ului sintetic este sofismul din partea receptorului care face această tactică eficientă. Este eroarea logică pe care o comitem când auzim „asta e un deepfake" și chiar credem, nu pentru că am examinat dovezile, ci pentru că știm că falsurile sunt posibile. Ori putem crea chiar noi eroarea logică, fără a ni se spune „asta e un deepfake", ci noi ne auto-afirmăm asta în baza dubiului deja format.
Cele două concepte sunt simbiotice. Dividendul mincinosului poate fi colectat doar dacă audiențele sunt vulnerabile la sofismul alibi-ului sintetic.
Furtunul de hidrant al falsității
Think-tank-ul RAND a documentat o strategie de propagandă pe care ei o numesc „furtunul de hidrant al falsității", caracterizată prin mesagerie de mare volum, pe mai multe canale, concepută pentru a crea confuzie. [4] Scopul nu este să facă audiențele să creadă o anumită minciună, ci să creeze atâta confuzie încât nimic nu pare în mod fiabil adevărat.
Varianta de însămânțare proactivă a sofismului alibi-ului sintetic este o variantă mai precisă a acestui furtun. În loc să fie inundată zona cu fabricații aleatorii, inundația informatică se realizează cu variații sintetice ale evenimentelor potențial adevărate. Apoi, când realitatea încearcă să se afirme, nu poate prinde aderență, fiind prea multe dubluri, prea mult zgomot.
Ce putem face
Proveniență în mod implicit: Promisiunea acreditărilor de conținut
Un răspuns tehnic promițător în așa atmosferă informațională este inițiativa de autenticitate a conținutului și standardul C2PA. Acesta creează metadate semnate criptografic care călătoresc cu imaginile și videoclipurile, documentând capturarea, istoricul editării și lanțul de custodie. [5]
O fotografie cu acreditări C2PA intacte poate fi urmărită înapoi până la dispozitivul care a capturat-o, cu fiecare editare înregistrată și semnată digital. În același timp, absența acreditării nu este egală cu falsitatea într-o lume post-adoptare protocolului C2PA. O imagine neacreditată ar putea fi reală, dar capturată pe un dispozitiv mai vechi sau pe un dispozitiv non-adaptat, ori a fost partajată prin canale care elimină metadatele.
Coroborare paralelă: Linii multiple de dovezi
Știind deci că pot exista videoclipuri false care vor să afecteze valoarea de adevăr a unor surse reale, devine și mai necesară verificarea mai profundă prin fluxuri de dovezi independente a informației reale, dacă acest lucru este posibil. Multe evenimente autentice lasă urme pe canale multiple, necorelate: fișiere originale de pe camere și microfoane cu metadate, unghiuri multiple de captură, mărturii ale martorilor, jurnale de server ale platformei care găzduiește informația, posibile documente oficiale coroboratoare.
Pre-demascarea: Inoculare împotriva tacticii
Cercetările de la Cambridge și Google Jigsaw au arătat că videoclipuri scurte de „inoculare" care învață oamenii despre tacticile de manipulare pot îmbunătăți semnificativ rezistența la dezinformare. [6]
Trebuie să pre-demascăm eroarea alibi-ului sintetic însăși, motiv pentru care și scriu această postare. Este necesar ca această eroare să fie făcută recognoscibilă.
Într-o paralelă biologică, inocularea împotriva unei erori logice este mai eficientă decât dezmințirea pentru că creează anticorpi cognitivi înainte de expunere.
Schimbări instituționale
Organizațiile de știri au nevoie de standarde clare pentru gestionarea dovezilor audiovizuale controversate: cine le-a filmat, când, cum au ajuns la redacție, ce verificare a fost efectuată, dacă sunt prezente acreditări. După caz, o soluție este și evidențierea a versiuni concurente ale aceleași informații astfel încât utilizatorii să poată vedea când există multiple afirmații despre același lucru.
Instanțele se vor confrunta în curând și ele cu o provocare dificilă: ridicarea standardelor probatorii pentru a ține cont de existența falsurile sofisticate fără a face imposibilă admiterea dovezilor autentice.
Cea mai mare amenințare
Cea mai mare amenințare a erei AI pentru democrație nu este că vom crede minciuni. Am crezut întotdeauna minciuni. Pericolul cu adevărat nou este că vom înceta să credem adevăruri. Că vom construi un sistem de cunoaștere a lumii defensiv și atât de concentrat pe evitarea înșelăciunii încât vom face adevărul de necrezut. Vom lăsa existența geamănului sintetic să veto-uiască realitatea originalului.
Aceasta nu este o problemă tehnologică pe care o putem rezolva cu detectoare mai bune de deepfake-uri. Este o problemă cognitivă, o eroare de raționament. Tehnologia poate ajuta prin standarde de proveniență, instrumente de autentificare, dar în esență, este vorba despre menținerea disciplinei credinței bazate pe dovezi într-un mediu conceput pentru a face acea disciplină greu de implementat.
Într-adevăr, stăm la o răscruce. O cale duce către un viitor în care dovezile încă contează, unde verificarea răbdătoare poate distinge realul de fals, unde adevărul are o șansă de luptă. Cealaltă cale duce către nihilism epistemic, unde totul este suspect, nimic nu este demonstrabil și cine are cea mai sofisticată infrastructură de media sintetică câștigă în mod implicit.
[1]: CNN (2024). "A fake recording of a candidate saying he'd rigged the election went viral." https://www.cnn.com/2024/02/01/politics/election-deepfake-threats-invs
[2]: The Guardian. (2025). "Tory MP reports AI-generated deepfake video of him announcing defection to Reform UK." https://www.theguardian.com/politics/2025/oct/18/tory-mp-reports-ai-generated-deepfake-video-of-him-announcing-defection-to-reform-uk
[3]: Chesney, R., & Citron, D. K. (2019). "Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security." California Law Review, 107, 1785-1786. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3213954
[4]: Paul, C., & Matthews, M. (2016). "The Russian 'Firehose of Falsehood' Propaganda Model: Why It Might Work and Options to Counter It." RAND Corporation. https://www.rand.org/pubs/perspectives/PE198.html
[5]: Coalition for Content Provenance and Authenticity. "About C2PA." https://c2pa.org/about/
[6]: Roozenbeek, J., van der Linden, S., Goldberg, B., Rathje, S., & Lewandowsky, S. (2022). "Psychological inoculation improves resilience against misinformation on social media." Science Advances, 8(34). DOI: 10.1126/sciadv.abo6254 https://www.science.org/doi/10.1126/sciadv.abo6254
Urmăriți Republica pe Google News
Urmăriți Republica pe Threads
Urmăriți Republica pe canalul de WhatsApp




Alătură-te comunității noastre. Scrie bine și argumentat și poți fi unul dintre editorialiștii platformei noastre.
E o concurență feroce între gigantii AI, un entuziasm enorm care pompează miliarde peste miliarde, creând deja ceea ce se numește o "bulă speculativă", care, la un moment dat, s-ar putea sparge corectând exagerările. În urma acestor investiții excesive, desigur că se așteaptă profituri pe măsură, unii vor pierde, dar depinde de cei care rămân în joc încotro vor împinge dezvoltarea AI spre scopuri benefice omenirii, sau nu.