sursa foto: Profimedia
Acum aproape doi ani, Uniunea Europeană a adoptat AI Act, o lege complexă care încearcă să reglementeze foarte multe aspecte legate de inteligența artificială. Una dintre cele mai interesante părți ale legii este articolul 50, care descrie câteva mecanisme prin care publicul trebuie să fie informat când vede un clip, o imagine sau un text generate ori manipulate de AI. În principiu, articolul 50 spune că dezvoltatorii de sisteme AI au obligația de a marca orice conținut generat cu AI, iar platformele care pun acel conținut în fața utilizatorilor au obligația de a îi informa că a fost creat cu AI.
De exemplu, dacă o imagine este generată cu ChatGPT, OpenAI este obligat să introducă niște informații suplimentare în acea imagine, care să indice că a fost folosit AI. Iar când imaginea din ChatGPT este apoi pusă pe Instagram, Meta trebuie sa pună un indicator vizibil pe acea imagine, care sa ne spună că este AI.
Procesul de mai sus pare simplu în teorie, dar în practică lucrurile sunt mai complicate, fiindcă e nevoie ca aceste platforme care sunt într-o concurență acerbă să lucreze împreună pentru a dezvolta soluții universale.
Într-o încercare de a accelera colaborarea dintre companiile de AI și societatea civilă, UE a recrutat anul trecut un grup de cercetători în domeniul media și AI, care au fost rugați sa redacteze un Cod de bune practici, un document cu niște măsuri concrete ce pot fi adoptate de platformele digitale. A doua versiune a codului a fost publicată acum câteva săptămâni, așa că am luat legătura cu profesoara Mădălina Boțan de la SNSPA, care face parte din grupul de cercetători europeni, pentru a-i pune câteva întrebări.
Înainte să citiți discuția noastră de mai jos, trebuie să menționez că și eu sunt implicat în acest grup. Spre deosebire de Mădălina, care face parte din comitetul principal, rolul meu este mult mai redus: eu ofer doar păreri din când în când, din perspectiva companiei de AI unde lucrez. Dialogul de mai jos însă conține doar părerile mele personale, nu poziția angajatorului meu.
Alexandru: Cum te-ai implicat în proiectul acesta? Ai făcut o cerere să faci parte din comitetul acesta sau ei te-au invitat?

Mădălina Boțan (SNSPA): Am aplicat. A fost o dezbatere publică legată de Cod, lansată de AI Office (n.a. centru de expertiză în AI al Comisiei Europene), care căutau experți. Mi-am depus CV-ul și o scrisoare de intenție, în care le-am explicat de ce cred eu că aș fi relevantă să fac parte din echipă. Pe mine m-a ajutat foarte mult faptul că lucrasem la DSA (n.a. Digital Services Act, legea europeană care prevede cum trebuie platformele digitale să monitorizeze conținutul ilegal), pe Codul de practică pentru dezinformare. De aici venea expertiza mea. Fiind afiliată EDMO (n.a. European Digital Media Observatory), eu și coordonez activitatea pe subiectul acesta în Bulgaria și România. Și atunci, prin EDMO, am lucrat foarte mult în domeniu și asta i-a făcut pe ei să creadă că aș fi o alegere bună. Înțeleg că au aplicat foarte mulți. Munca aceasta nu e remunerată, e voluntară. AI Office voiau pe cineva din zona academică, fiindcă e o alegere mai sigură. Dar și faptul că mai lucrasem la un Cod similar cumva cred că a ajutat.
Alexandru: Cum ai evalua succesul acestui Cod, să zicem, în cinci ani?
Mădălina: Eu cred că aș lucra un pic la întrebare. Adică nu cred că va mai fi relevant acest cod în cinci ani dacă nu este revizuit și adăugit. E clar că, la cum evoluează tehnologia AI, el trebuie recalibrat. În primul rând, sunt sceptică legată de succesul lui și în momentul de față, pentru că sunt interese divergente printre potențialii semnatari (i.e. companiile big tech). Toate companiile negociază foarte feroce să fie scoase cât mai multe măsuri prescriptive din Cod, fiindcă sunt interese comerciale la mijloc. Dar nu cred că acest Cod se vrea ca un instrument static, a cărui eficiență să fie măsurată într-un număr de ani. Tocmai de-asta, am propus să continue cumva munca de ajustare a măsurilor legate de transparență în AI și după ce este publicat Codul. Asta înseamnă că, din start, acest instrument voluntar are o valabilitate limitată de realitățile tehnologice, cu care trebuie să țină pasul. Valabilitatea lui e constrânsă și de susținerea din partea autorităților și a semnatarilor.
Alexandru: Mi se pare că acest cod a fost scris pentru a aduce un fel de reguli, fie ele si voluntare, în principal pentru rețelele de social media. Dar au aceste companii aceeași dorință de a colabora față de acum, să zicem, cinci ani de zile? Situația politică s-a schimbat foarte mult între Statele Unite și Europa, de exemplu. Iar apoi mai sunt și platformele relativ noi din China, care nu vor sa audă de reguli europene, dar au o prezență din ce în ce mai mare în Europa, după cum am văzut la alegerile prezidențiale de la noi, unde TikTok a avut un rol major în primul tur.
Mădălina: Hai să-ți zic perspectiva mea. Codul vrea să semnalizeze ceva, și anume că industria se poate alinia cu niște standarde la nivel de sectoare. Acesta este scenariul ideal. Pe de altă parte, AI Act intră în aplicare din august 2026, adică există și nucleul dur. Știi, nu e doar așa, o chestiune voluntară. Adică e îndrumată și de legislație, ceea ce contează.
Da, companiile americane negociază dur, dar ele știu foarte clar că e în interesul lor să semneze. De ce? Rolul unui cod de practică este să arate bunăvoința acestor companii de a se alinia și de a demonstra că iau în calcul cel puțin reglementările europene. Am văzut asta și la DSA, unde sunt amenzi foarte mari. Codul DSA a fost un fel de tranziție sau, dacă vrei, un fel de interfață în relația cu autoritățile, care a arătat bunăvoința acelor semnatari.
Deci, până la urmă, trebuie accentuat că, în momentul în care o companie face foarte mulți bani în Europa și în mod sigur face bani din dezinformare generată de AI, dar totuși semnează acest cod de bune practici, arată cel puțin o bunăvoință de a colabora cu autoritățile. Cât despre companiile chineze: da, e adevărat că n-au fost niciodată prezenți la întâlnirile noastre pentru AI Act. Dar uite, spre exemplu, știu că sub DSA au fost mult mai disponibile să colaboreze decât companiile americane. TikTok a dat în timp util Comisiei toate datele cerute în momentul în care a fost deschisă ancheta. Dezinformarea cu AI e prinsă foarte bine de DSA și acolo amenzile sunt usturătoare (n.a. 6% din cifra de afaceri). Sunt deja investigații deschise pentru Meta și pentru TikTok.
Alexandru: Știi care e concluzia mea după participarea in discuțiile din grupul nostru? Sunt companiile acestea americane foarte mari și sunt o grămadă de ONG-uri sau alte grupări din societatea civilă. Și ceea ce m-a surprins pe mine foarte mult, din interacțiunile pe care le-am avut, a fost că avem discuții foarte aprinse pe aspecte tehnice, de exemplu prin ce metode să fie marcate imaginile față de un clip audio și care este diferența dintre o tehnologie față de alta. Dar n-am discutat deloc despre cum putem să lucrăm împreună să încercăm să îmbunătățim nivelul de educație al populației despre ce se întâmplă pe internet. Din păcate, o bună parte din populația Europei și o parte foarte mare din populația României este needucată, poate chiar analfabetă digital. Putem să ne certăm o mie de ani pe partea tehnică, dar dacă nu facem nimic pe partea de educație, nu o sa rezolvăm problemele astea.
Mădălina: Sunt de acord. Nu știu dacă ai observat, dar, în prima variantă a codului, existau niște măsuri pe partea de educație digitală și AI. Dar au fost scoase fiindcă presupuneau o responsabilitate pe care companiile de tehnologie nu vor să și-o asume, nici măcar la nivel simbolic. Eu am lucrat foarte mult pe raportări de transparență ale platformelor și acolo e un limbaj deliberat ambiguu. Dau niște bani către o companie internațională ca să pretindă că fac educație media la nivelul țărilor unde operează, dar nu se întâmplă nimic la nivelul statelor membre. Bifează niște lucruri de fațadă, dar de fapt aceste companii nu vor să fie responsabile, că nu fac bani din asta, știi? Angajează mai mulți avocați ca să scape de orice responsabilitate. Da, e cum spui tu, dacă ar investi o mică parte din profitul lor, s-ar putea mișca ceva, fiindcă ei au mijloacele de a derula campanii la scară largă. Apropo de responsabilitate și de încredere, dacă ar fi mai mulți implicați cu adevărat în educația legată de AI, așa ar putea funcționa și măsurile acestea tehnice pe care le discutăm. Ar însemna că întreg circuitul este acoperit - de la producătorii de conținut generat cu AI, la cei care îl distribuie, îl monetizează și amplifică, la utilizatorii care ar trebui să îl înțeleagă corect și să îl folosească responsabil și, la capătul circuitului, autoritățile naționale și supranaționale, care ar trebui să se asigure că există transparență și responsabilitate în acest ecosistem al informației.
Conversația mea cu Mădălina și experiența cu grupul care lucrează la acest Cod mi se par foarte relevante pentru România și alte țări din Estul Europei. În Finlanda sau Olanda, oamenii au reflexe digitale formate de când sunt copii, la școală: să se uite foarte atent când citesc un articol sau văd o imagine în online, să se documenteze din mai multe surse și, în general, să aibă o relație mai sănătoasă cu platformele online.
Dar într-un mediu precum cel din România, unde educația este slabă, unde încrederea în instituții este aproape zero și unde internetul este consumat în cantități mari fără discernământ, întrebarea care contează cu adevărat este: ce se presupune că va înțelege, concret, un cetățean cu alfabetizare digitală redusă în momentul în care i se va spune că o imagine sau un clip au fost generate cu AI? În momentul de față, e foarte probabil că va ignora notificările și va trimite imaginea mai departe.
Urmăriți Republica pe Google News
Urmăriți Republica pe Threads
Urmăriți Republica pe canalul de WhatsApp





Alătură-te comunității noastre. Scrie bine și argumentat și poți fi unul dintre editorialiștii platformei noastre.