Foto - Profimedia
Adepții îmbrățișării necondiționate a inteligenței artificiale (IA) argumentează această atitudine prin faptul că suntem în fața unui important salt tehnologic care nu face decât să pună la dispoziția oamenilor un nou instrument de natură a-i face mai productivi și a le ușura munca. Însă o astfel de abordare simplificatoare, că să nu spunem simplistă, conține o capcană.
Acest important semnal a fost tras într-un webinar, ținut recent sub auspiciile INSEAD, în care profesorul Theodoros Evgeniou, expert în Știința deciziilor și managementul tehnologiilor, remarca o diferență esențială dintre o unealtă oarecare, precum un ciocan, și inteligența artificială: spre deosebire de toate uneltele cu care am fost obișnuiți până acum, inteligența artificială poate să ne influențeze modul de a gândi și de a percepe lumea din jur. Un rol important în acest sens, spunea profesorul Evgeniou, îl are vulnerabilitatea minții umane reflectată de exemplu de sindromul “amintirilor false”.
Există numeroase studii care sugerează că, într-un anumit context, oamenii capătă convingerea trăirii unor evenimente/experiențe care de fapt nu au avut loc. Iar inteligența artificială vă putea crea acest context care să dea oamenilor convingerea trecerii prin niște evenimente inexistente și, că urmare, să-i facă să își modifice comportamentul și gândirea.
Însă manipularea minții umane a început de mai multă vreme, devenind un fenomen din ce în ce mai prezent odată cu largă utilizare a rețelelor sociale. Să o denumim o manipulare “pasivă” în condițiile în care “tribalismul” stimulat de rețelele sociale șterge granița dintre, pe de o parte, competență, cunoștințe autentice, științifice și, pe de altă parte, pseudo-competențe, impostură. Posibilitatea pe care o are oricine de a împarți pseudo-informații în grupuri care împărtășesc aceeași opinie creează iluzia competenței și a veridicității informației. De aici până la punerea semnului de egalitate între falsuri și adevăr, între mituri și știință, prin modelarea în minte a certitudinii că individul deține competențe de fapt inexistente, nu mai este decât un pas.
Și, probabil, aceasta este marea vulnerabilitate pe care social media a creat-o în serviciul inteligenței artificiale: depersonalizarea competenței. Iar asta riscă să “ofere pe tavă” grupuri mari de oameni unei utilizări neetice a inteligenței artificiale. Înainte de explozia social media, competența era îndeobște asociată unor persoane cu un profil profesional credibil și consistent. Vorbim aici despre persoane cu o educație și experiență solidă în domeniile despre care vorbesc, beneficiind de o recunoaștere a competențelor lor în cercurile profesioniale/academice.
Astăzi însă, este mult mai ușor să capeți o astfel de recunoaștere publică, în condițiile în care rețelele sociale nu au făcut decât să cultive până la paroxism o slăbiciune a naturii umane numită eroarea de confirmare (confirmation bias). Adică “tendința oamenilor de a favoriza acele informații care le confirmă credințele și ipotezele deja existente și de a ignora în totalitate informația care infirmă respectivele prejudecăți sau, în cel mai bun caz, le acordă o importanță diminuată”.
În acest fel, criteriul principal de validare al pseudo-experților nu mai este bagajul lor solid de cunoștințe, ci măsura în care grupuri de oameni își găsesc justificarea propriilor prejudecăți în argumentațiile lor, indiferent cât de nefundamentate sunt sau, nota bene, indiferent dacă persoana care le emite este total necunoscută. Iar lipsa notorietății merge mână în mână cu lipsa riscului reputaȚional. Asta înseamnă că, chiar dacă în final se dovedește că informația a fost falsă, nimeni nu își va vedea pătată reputația științifică sau profesională. Pentru că ea nu a existat de la bun început…
Inteligența artificială poate însă să meargă și mai departe. Și chiar dacă multe scenarii catastrofice se referă la o societate în care IA preia controlul, Geoffrey Hinton, unul dintre pionierii IA, ne avertizează că, până la ajunge la o lume controlată de IA în detrimentul oamenilor, mai riscant și apropiat în timp este scenariul utilizării cu rea intenție a IA chiar de oameni. Ca și cum ai avea un ciocan cu care spargi multe lucruri de valoare ale altora aș adăuga eu.
Un articol recent din FT citează un studiu al companiei Kaspersky care identifica o cerere semnificativă de deep fakes pe darkweb care sunt oferite la prețuri care variază de la 300 la 20.000 de dolari pe minut. În acest context, articolul semnalează că, până acum, s-a discutat mai ales despre modul în care pot fi influențate opțiunile politice și voturile populației prin crearea de imagini și știri false. Însă lucrurile pot avea consecințe la fel de dramatice și când vine vorba de piețele financiare.
Un deep fake video care arată o explozie lângă Pentagon a fost preluat și promovat de canalul media Russia Today. A fost suficient pentru că piețele financiare să treacă printr-o scurtă sincopa cu evoluții similare contextelor de criză: scădere a bursei și creșterea prețului titlurilor de stat americane și a aurului.
Știrile false rostogolite în media pot avea consecințe cu adevărat semnificative, procesul fiind favorizat și de tranzacțiile algoritmice care iau decizii de tranzacționare în fracțiuni de secundă pe baza titlurilor de știri pe care le scanează permanent. Aceasta înseamnă că o prăbușire a piețelor financiare poate fi produsă intenționat prin generarea cu ajutorul IA a unor știrii false suficient de credibile încât să fie preluate și cascadate de cât mai multe canale media și rețele sociale.
Paradoxul e că în astfel de situații nici nu mai vorbim doar de manipularea minții umane, ci și a unor algoritmi la fel de incapabili să identifice știrile false ca mulți dintre investitorii umani. În final, comportamentul și al unora și al altora va genera un efect de bulgăre de zăpadă pe piețele financiare.
Drumurile pe care le deschide IA sunt egală măsură uimitoare și înfricoșătoare, iar miza este uriașă. Pentru că, în final, așa cum profesorul Evgeniou spunea, “cine ne controlează gândirea, ne va controla și destinul".
Urmăriți Republica pe Google News
Urmăriți Republica pe Threads
Urmăriți Republica pe canalul de WhatsApp
Alătură-te comunității noastre. Scrie bine și argumentat și poți fi unul dintre editorialiștii platformei noastre.