Foto: Profimedia Images
Imaginați-vă o lume în care algoritmii de inteligență artificială sunt omniprezenți: ei ne recomandă ce produse să cumpărăm, ce conținut să consumăm, chiar și cu cine să interacționăm online. Nu e greu să vă imaginați, nu? În fond, este deja lumea în care trăim astăzi.
La început, această lume nu ne este foarte evidentă și, de altfel, comoditatea ne-ar putea convinge că este un paradis al vieții bune și al personalizării. Nu mai trebuie să navigăm prin nesfârșite opțiuni sau să luăm decizii dificile. Algoritmii fac asta pentru noi, bazându-se pe vaste cantități de date care analizează, constant, comportamentul și preferințele noastre.
Ce să se poată întâmpla rău, pentru că, în fond, nu avem nimic de ascuns?
Cu toate astea, pe măsură ce algoritmii devin mai puternici și mai autonomi, chiar încep să apară probleme. De exemplu, o companie care, din dorința de a-și maximiza profiturile, ajustează algoritmii săi de recomandare pentru a împinge produse mai scumpe sau de calitate inferioară. Sau o platformă de social media, în goană după atenția utilizatorilor săi, ajustează algoritmii să arate mai mult conținut controversat și provocator. Și poate cel mai înfricoșător, un stat, autoritar sau nu, abuzează de algoritmi ai inteligenței artificiale (AI) pentru supravegherea în masă și controlul populației. Algoritmii săi monitorizează fiecare mișcare online, fiecare conversație și îi vizează pe cei care exprimă opinii disidente.
Dar și acest lucru se întâmplă deja în lumea în care trăim, nu-i așa? Cumva, în timp, ne dăm seama că acești algoritmi, deși incredibil de inteligenți și abili, sunt doar la fel de buni precum valorile și obiectivele celor care îi controlează. Și, când acele valori sunt distorsionate de lăcomie, putere, prostie sau control, rezultatele pot fi dezastruoase.
Inteligența artificială (AI) nu trebuie să devină, singură, precum roboții din filmul Terminator, ca să ne facă rău. Ăsta este un scenariu înfricoșător, dar va trebui să ne concentrăm și pe alte scenarii, mai probabile, până să ne facem griji, cu adevărat, în această privință. Primele probleme cu AI ni le vor provoca oamenii care o produc, modifică, popularizează ori controlează. De ei trebuie să ne temem la început, nu de creația lor care devine independentă și ne extermină pe toți.
Ca să ducem lucrurile mai departe în povestea noastră, nu este greu de imaginat că, de la un moment încolo, comunitatea internațională intervine și decide că este nevoie de reglementări. Ultimii ani au adus nenumărate astfel de știri. AI Act (nn – norme de reglementare) este o expresie a nevoii de care vorbim acum.
Dar, în povestea noastră, într-un viitor nu foarte îndepărtat, oamenii conștientizează că a încerca să prezică fiecare detaliu al modului în care un algoritm ar trebui să funcționeze ar fi/ a devenit imposibil. Sunt, pur și simplu, prea multe variabile și prea multe situații neprevăzute. Și atunci, soluțiile utile vor fi la mare căutare.
În anticiparea acelui moment, povestim, mai jos, despre ideea unei reglementări a algoritmilor inteligenței artificiale.
În loc să dicteze comportamente specifice pe care constructorii unor modele de AI trebuie să le urmeze atunci când își pun la treabă creațiile, aceste reglementări ale algoritmilor stabilesc obiective și valori generale pe care formulele din spatele unui AI trebuie să le urmeze. Am văzut, deja, în filme și cărți SF, cum arată o astfel de regulă: „Un algoritm nu trebuie să facă niciodată rău unui om, intenționat sau din neglijență”. Sau: „Un algoritm trebuie să respecte drepturile și libertățile fundamentale ale omului”. Aceste reguli sunt, apoi, traduse într-un cod pe care algoritmii îl pot înțelege și urma.
Și, mai important, în loc să afișeze aceste reguli undeva, pe un perete real sau virtual, de unde să fie citite, înțelese ori preluate de sistemele AI, regulile despre care vorbim vor deveni seturi de condiții care sunt impuse tuturor soluțiilor AI, un set de reguli prin care sistemele de inteligență artificială vor trebui să își filtreze toate deciziile interne, atunci când le iau.
Poate sună prea similar cu legile roboticii imaginate de Asimov. Așa este! Asimov a construit, în mod genial, trei legi menite să ajute oamenii și roboții să conviețuiască, urmate de o Lege 0, un fel de lege supremă la care trebuie să se raporteze toate celelalte. Le-am inclus în text, pentru că mi se par mai actuale ca oricând. E nevoie doar să înlocuiți robotul cu algoritmul și s-ar putea ca aceste idei să fie utile și în zilele noastre.
- „Legea zero: Un robot nu poate răni specia umană sau, prin inacțiune, să permită speciei umane să sufere vreun rău.”
- „Prima Lege: Un robot nu poate răni o ființă umană sau, prin inacțiune, să permită unei ființe umane să sufere vreun rău.”
- „A Doua Lege: Un robot trebuie să asculte ordinele date de ființe umane, cu excepția cazului în care aceste ordine ar intra în conflict cu Prima Lege.”
- „A Treia Lege: Un robot trebuie să-și protejeze propria existență atâta timp cât această protecție nu intră în conflict cu Prima sau a Doua Lege.”
Evident, reglementarea despre care vorbesc eu este mai mult decât o simplă înșiruire de patru legi ale roboticii, ci este o încercare de fixare, în reguli simple, a valorilor pe care oamenii le consideră importante în viața, evoluția și mediul lor. Poate că Asimov considera că specia umană este singura în măsură să fie protejată de roboți. În felul ăsta, s-ar putea să avem algoritmi care omoară toate albinele din lume doar pentru că, din când în când, înțeapă oameni. Iar unii oameni mor, ca urmare a înțepăturilor, din cauza unor alergii. Consecințele sunt ușor de înțeles.
Știu, pe măsură ce ne gândim mai mult la o astfel de reglementare, ea pare o utopie. Ceva imposibil de imaginat de mintea umană. Doar că eu cred că noi, oamenii, avem, mereu, nevoia de a fi perfecți în ceea ce facem. Privim, adesea, în jur, la alți oameni sau alte întâmplări și le judecăm pentru că nu s-au apropiat de perfecțiunea pe care am fixat-o sus, în tavanul societății noastre, dându-i puterea să ne modeleze viața și deciziile.
Nu suntem, însă, zei și nici perfecți. Dacă ne gândim la regulile noastre de astăzi, legi pe care le citim și încercăm să înțelegem, o să observăm că ele abordează, de obicei, comportamentul individului, nu valorile sale de bază. Legile tradiționale pot spune unui algoritm ce să facă, dar nu de ce să o facă. Iar în lumea AI, unde sistemele au o autonomie și o capacitate de luare a deciziilor din ce în ce mai mare, valorile de bază contează enorm.
De aceea, probabil că, în anii următori, va deveni evidentă nevoia de-a crea o Cartă a drepturilor și libertăților umane din perspectiva interacțiunii cu sisteme algoritmice. Ceva similar cu Declarația universală a drepturilor omului și multe alte tratate internaționale care definesc valorile umane de bază, în diverse contexte.
Adevărata putere a regulilor de acest gen va fi că nu sunt rigide și nici nu își pierd valoarea în timp. Ele funcționează mai mult ca niște orientări pe care algoritmii învață să le interpreteze și să le aplice în diferite situații, folosind propria lor inteligență artificială.
Să luăm exemplul companiei care a ajustat algoritmii de recomandare pentru a le împinge cumpărătorilor săi produse mai puțin bune. Sigur, din perspectiva legislației privind protecția datelor, s-ar putea să fie în regulă. Chiar și din perspectiva legislației privind protecția consumatorului ar putea fi ok. Până la urmă, aceste decizii ar putea fi atât de subtile încât să zboare „pe sub radarul” reglementărilor tradiționale.
Cu reglementările algoritmice în vigoare, însă, soluția nu urmează orbește comanda de a maximiza profiturile. În schimb, cântărește acea comandă în raport cu alte valori care i-au fost programate, cum ar fi ideea de a „nu produce un rău consumatorului”, luând în considerare o definire a „răului” într-un mod algoritmic. Având în vedere datele despre calitatea și valoarea produselor, algoritmii săi de învățare îi spun că este mai bine să ignore anumite recomandări pentru anumite persoane, chiar dacă asta înseamnă că profitul nu va crește decât cu un procent mai mic din cel dorit de acționari.
Știu, este greu de imaginat o astfel de situație. Până la urmă, am auzit oameni care spun că libertatea înseamnă chiar definirea unui cadru atât de lejer în societate, încât indivizii să poată alege ce vor să facă, fără a fi, cumva, îngrădiți în deciziile lor. Dacă unii aleg să facă infracțiuni ori acțiuni care afectează viața, sănătatea ori interesele celorlalți, atunci asta este tot o formă de libertate. Sigur, vor răspunde pentru faptele lor, după un proces birocratic, dar la baza deciziei lor a stat conceptul general de libertate.
Cred, însă, că viitorul ne va obliga să regândim astfel de idei. Sunt unul dintre oamenii care iubesc să fie liberi mai mult decât orice altceva. Doar că înțeleg, în același timp, că libertatea noastră, așa cum a fost imaginată timp de mii de ani de filosofi, juriști și politicieni din toată lumea, ar putea căpăta perspective noi într-o lume ce integrează algoritmii atât de mult în viața oamenilor.
Putem avea curajul să oferim o astfel de libertate unui algoritm cu potențial de a fi autonom și cu abilități clare de autoadaptare? Îl putem lăsa liber într-un mediu pe care îl poate schimba radical odată ce ajunge să îl înțeleagă și să îl controleze?
De asta vremurile ce vin vor fi complicate. Nu pentru că AI ne va „fugări” prin casă, obligându-ne să mâncăm sănătos, altfel asigurarea medicală nu ne suportă diverse costuri ale unor servicii medicale. Nu. Dacă se va întâmpla asta, atunci va fi decizia oamenilor să se întâmple așa.
Partea complicată vine atunci când implementările unor soluții de inteligență artificială vor viza sisteme și un context în care nu mai e nevoie doar de reguli rigide. Să nu furi, să nu ucizi, toate acestea s-ar putea trezi aruncate la coș pentru că a fura ori a ucide s-ar putea să însemne cu totul altceva. Oare să „arzi” creierul cuiva, dacă ești o soluție AI care controlează o interfață creier - computer așa cum dezvoltă, spre exemplu, Neuralink, e o formă de-a „ucide” persoana respectivă?
Știu, mi-ați putea spune că există, deja, legi care pedepsesc astfel de comportamente. Că „arderea creierului cuiva” ar fi o vătămare corporală ori alt tip de infracțiune, iar cei care au programat respectivul AI ar putea plăti pentru faptele lor. Deși, poate, ei n-au habar cum a ajuns acel model de AI să afecteze omul în cauză. Cine știe ce obiectiv o fi considerat el că se poate atinge mai ușor dacă „prăjește” creierul utilizatorul X?
Adevărata noastră problemă este că trebuie să vedem dincolo de cadrul în care ne-am obișnuit să trăim de mulți ani. Sigur, este foarte probabil să existe legi pentru absolut toate faptele sau rezultatele acțiunilor unui model de AI. Contravenții, infracțiuni, încălcări comerciale sau civile, toate se pot pedepsi conform legislației noastre de astăzi.
Vă întreb, însă, dacă nu cumva astfel de legi se vor dovedi inutile într-o lume în care o soluției AI decide să „prăjească”, într-o singură secundă, creierul a mai multe miliarde de oameni. Vor mai fi suficiente „legile” noastre, care o pedepsesc pe ea ori creatorii săi? Nu cumva avem nevoie de reguli care să împiedice AI-ul să facă rău, înainte de a-l face?
Asta e soluția despre care spuneam că mă obsedează de ani buni. Un set de idei constituționale, daca vreți, un set de reguli primordiale pe care societatea să le impună tuturor producătorilor de soluții AI și pe care sistemele de inteligență artificială să fie obligate să le integreze în procesul lor decizional.
Ar fi ca și cum un model de AI ar avea, dincolo de logica insuflată de creatorii săi, un set de reguli de bază pe care ar trebui să le respecte, chiar și impotriva logicii sale interne de programare. Iar aceste idei, transmise programatic (în flux) dintr-un „depozit” central de cod, într-un flux block-chain care să permită imposibilitatea controlului acestor instrucțiuni de către un singur actor, dintr-o singură locație, ar putea fi actualizate pe măsură ce guvernele lumii decid să codifice și alte valori umane în algoritmi ușor de înțeles de sistemele inteligente.
Eu asta susțin. Că lumea noastră va trebui să decidă, la un moment dat că viața alături de algoritmi ne obligă să renunțăm la reglementările de tipul „reactiv” și să trecem la reglementări de tipul „proactiv”, în relația cu inteligența artificială.
Într-un fel, este fix ceea ce religia a schimbat în creierele noastre. Cu mulți ani în urmă, am întrebat cam o sută de mii de oameni, într-un sondaj realizat pe avocatnet.ro, dacă decizia de-a nu ucide alte ființe umane vine din frică de lege sau din frică de Dumnezeu. Și răspunsul mi-a confirmat un lucru pe care și eu îl cred. Că oamenii se gândesc la zeii lor mai mult decât la o lege, atunci când sunt aproape să facă un rău altor oameni. Dumnezeu cel „răzbunător” este mai temut decât judecătorul din societatea noastră.
Dacă ar fi să încercăm ceva printr-o astfel de reglementare a algoritmilor, atunci ne-ar prinde bine să construim un soi de religie a binelui pentru sistemele de inteligență artificială.
Cum ar arăta, în practică, aceste reglementări algoritmice? Aici intră în joc colaborarea strânsă între dezvoltatorii de soluții AI, analiști ai eticii, filosofi, factori de decizie politică și societate civilă. Împreună, ei pot încerca o codificare a valorilor și principiilor noastre umane fundamentale într-un limbaj pe care mașinile îl pot înțelege.
Bineînțeles, utopia va fi să credem că astfel de soluții ar putea fi universal aplicabile, că state autoritare vor accepta „regulile imperialiste” ori state care se războiesc de când lumea vor accepta, vreodată, să construiască reguli comune cu dușmanii lor. Evident că legislația va avea conotații naționaliste, în unele state, că va depinde mult de conducător, partide și vremuri pentru a vira într-o direcție sau alta.
Dar Declarația universală a drepturilor omului, de care am vorbit mai devreme, a fost discutată, inițial, în 1948, de doar 58 de țări membre ale Organizației Națiunilor Unite. Dintre acestea, 48 au votat pentru, 8 s-au abținut, iar 2 au evitat să voteze. Și, totuși, efectele ei se simt, astăzi, în multe zone ale lumii. Ulterior, a devenit un fundament comun pentru modul în care noi, oamenii, vedem viața.
Nu avem nevoie de unanimitate în privința unor reglementări care pot schimba lumea în timp. Apoi, sigur, va rămâne mereu riscul ca una dintre soluțiile AI dezvoltate în state care nu participă la astfel de proiecte de reglementare să ne „înghită” pe toți și să extermine ori să afecteze mare parte din populația lumii. Dar asta se poate întâmpla și acum. Se poate întâmpla și în timp ce se aplică o mulțime de reglementări tradiționale precum este AI Act.
Secretul ideii despre care vorbesc eu este prevenția. Inducerea acelei „religii” care să facă algoritmul să respecte valori umane chiar și atunci când programarea lui îi cere să facă altfel.
Și asta s-ar putea face prin utilizarea unor tehnici de traducere în limbaj matematic al valorilor umane. Sau ar putea implica utilizarea unor tehnici cum este Inverse reinforcement learning with preferences and constraints”, procedeu prin care un sistem AI observă comportamentul etic al organizațiilor și indivizilor și încearcă să deducă valorile care stau la baza sa. Prin expunerea la nenumărate exemple de decizii etice luate în diferite contexte, AI-ul poate începe să internalizeze aceste valori și să le aplice propriilor sale operațiuni.
Încet-încet, toate aceste reguli, traduse în limbaj matematic, vor deveni o constituție fundamentală a regulilor de respectat de către algoritmi. Iar soluțiile AI vor trebui să treacă toate deciziile interne pe care le iau sistemele lor prin filtrul acestor linii „constituționale” de cod.
De asemenea, ar fi nevoie de structuri de guvernanță pentru a supraveghea aceste sisteme și pentru a le ajusta în timp. Un organism internațional dedicat, alcătuit din experți tehnici, oameni preocupați de etica AI și reprezentanți ai societății civile, ar putea fi însărcinat cu monitorizarea performanței sistemelor AI și cu ajustarea valorilor și obiectivelor lor programate.
În multe feluri, această abordare recunoaște că tehnologia AI este o reflectare a valorilor noastre umane - atât a celor bune, cât și a celor rele. Și, la fel cum ne străduim să creăm societăți mai empatice și mai drepte, trebuie să ne străduim să creăm sisteme AI care întruchipează aceste idealuri.
Reglementarea algoritmică este o modalitate de a face acest lucru. Și efectele se pot obține nu prin constrângerea inovației, ci prin canalizarea ei spre binele comun. Cum spuneam, însă, asta e doar una dintre ideile care mă obsedează de ceva vreme. Cred, însă, că mizele nu ar putea fi mai mari.
--
Acest text face parte din viitoarea carte „Viitorul Deciziilor noastre. AI Act, pe înțelesul tuturor”. O mulțime din tehnologiile de astăzi sunt simple iluzii. Fum ce dispare în doar câteva secunde. Altele sunt ca focul, ard aprig și apoi îneacă totul în jurul lor într-un fum gros și negru. Și mai există cele care, asemeni ceții cumplite, întunecă privirea suficient de mult încât să nu mai vedem, cu adevărat, încotro mergem. Despre ele, toate, scriu în seria de cărți care a debutat în 2023 cu „Viitorul cuvintelor noastre. Digital Services Act, pe înțelesul tuturor” și continuă cu analiza celor mai importante reglementări europene ale tehnologiei. Despre ele și despre noi, cei sortiți să le trăim istoria.
Cred, cu tărie, că e nevoie de cărți și proiecte care să prezinte legislația și într-o altă perspectivă. Cred că e nevoie ca magia tehnologiei să fie, și ea, explicată. De aceea, am construit aceste cărți avându-i în minte pe oamenii care lucrează cu legi și vor să înțeleagă tehnologia, dar și pe oamenii care lucrează cu tehnologia și vor să înțeleagă legile. Într-un viitor în care specializarea va fi din ce în ce mai strictă, vom avea nevoie de un limbaj comun, de punți ale unui dialog fără de care lumea noastră va fi în pericol.
Urmăriți Republica pe Google News
Urmăriți Republica pe Threads
Urmăriți Republica pe canalul de WhatsApp
Alătură-te comunității noastre. Scrie bine și argumentat și poți fi unul dintre editorialiștii platformei noastre.