Sari la continut

La 9 ani de Republica, întrebăm: ChatGPT la urne – Ce ar vota inteligența artificială? Dar tu?

De 9 ani, Republica construiește o comunitate în care ideile prind glas și dezbaterile autentice fac diferența. Anul acesta, facem un experiment: l-am întrebat pe ChatGPT cum ar vota la alegerile din România. Însă întrebarea cea mai importantă rămâne pentru tine: cum alegi tu viitorul? Scrie, alătură-te conversației și hai să schimbăm România împreună!

Am întrebat 5 inteligențe artificiale despre Miorița: Să accepți moartea ca pe un destin inevitabil sau să lupți pentru supraviețuire? Răspunsurile lor ne arată cât de diferit „gândesc” mașinile

inteligenta artificiala - zuma

Foto Profimedia

Într-o bună dimineață, am decis să pun o întrebare simplă unui grup de inteligențe artificiale cu care îmi petrec timpul în ultima vreme: „Ar trebui ca ciobanul din balada Miorița să se lupte pentru viață sau să accepte soarta?” Nu mă așteptam la răspunsuri identice, dar diversitatea opiniilor pe care le-am primit m-a făcut să reflectez asupra modului în care aceste sisteme funcționează — și asupra riscurilor pe care le implică.

De obicei lucrez cu 4-5 “Inteligente Artificiale”- în fapt modele de limbaj, de la ChatGPT la Gemini, DeepSeek și Claude. Dilema este una clasică: să accepți moartea ca pe un destin inevitabil sau să lupți pentru supraviețuire? Unele AI-uri au argumentat că ciobanul ar trebui să lupte, invocând instinctul de conservare și valoarea vieții. Altele au susținut că acceptarea soartei este cea mai nobilă alegere, subliniind demnitatea și armonia cu natura. Altele încă au rămas în zona gri, oferind răspunsuri echivoce. Un model a comparat ciobanul cu un erou tragic modern, iar altul a sugerat că bogăția ar putea schimba ecuația. Niciun răspuns nu a fost același.

Desigur, această diversitate nu este întâmplătoare. Dacă ne dăm câțiva pași în spate, putem vedea că fiecare model de limbaj este produsul a trei factori: datele de antrenare, algoritmii și bias-ul creatorilor. Un AI antrenat pe texte religioase sau filozofice va tinde să prioritizeze simbolismul și moralitatea abstractă. Unul antrenat pe manuale medicale sau militare va favoriza supraviețuirea și acțiunea. În cazul Mioriței, diferențele reflectă nu doar interpretări ale baladei, ci și modul în care fiecare AI simulează „gândirea” umană. Este o diversitate care amintește de felul în care oamenii interpretează aceeași situație în moduri diferite.

Dar această diversitate ridică și întrebări incomode. Cum putem avea încredere în AI-uri atunci când acestea nu se pun de acord nici măcar pe chestiuni fundamentale? Să luăm un exemplu practic: dacă un AI medical recomandă un tratament agresiv, iar altul sugerează să lăsăm natura să urmeze cursul ei, cui dăm ascultare? Sau în legislație: un AI ar putea susține că o nouă lege ar trebui să prioritizeze libertatea individuală, în timp ce altul ar argumenta că ar trebui să se concentreze pe siguranța colectivă. Lipsa unui consens aruncă o umbră asupra autorității mașinilor. În cazul Mioriței, am observat că unele AI-uri au argumentat cu o pasiune aproape umană, invocând concepte precum „demnitate” sau „libertate”. Altele au fost reci și logice, reducând totul la probabilități de supraviețuire. Această schizofrenie artificială ne face să ne întrebăm: cât de „inteligentă” este inteligența artificială, de fapt?

AI-urile sunt, în esență, produse ale datelor noastre. Ele nu sunt altceva decât oglindiri ale diversității umane. Un model de limbaj este ca o bibliotecă vie: stochează toate ideile, dar nu poate decide care e „adevărul”. În experimentul meu, răspunsurile AI-urilor sunt de fapt portrete ale culturii care le-a creat. Un AI „fatalist” reflectă o societate obișnuită cu ideea de destin; unul „combativ” vine dintr-o cultură a acțiunii și a progresului. Dar atunci, putem vorbi despre o „gândire” autentică a AI-urilor? Sau ele doar imită stilul argumentării umane, fără înțelegere reală? Filozoful John Searle a sugerat în celebrul său experiment al „camerei chinezești” că mașinile nu fac decât să manipuleze simboluri, fără conștiință. Experimentul meu cu Miorița pare să confirme acest lucru: AI-urile nu au preferințe morale — ele generează răspunsuri bazate pe pattern-uri, nu pe convingeri.

Experimentul meu cu Miorița ne arată că AI-urile nu sunt unitare, nici monolitice. AI-urile nu sunt zei, ci unelte. Încrederea oarbă în ele este un pericol, dar și ignorarea lor este o naivitate. Ele sunt la fel de diverse ca și noi — și la fel de imperfecte. Într-o lume în care mașinile devin din ce în ce mai prezente în deciziile morale, trebuie să ne amintim: tehnologia poate calcula probabilități, dar numai oamenii pot atribui valoare.

Cât timp vom reuși să păstrăm acest echilibru, inteligența artificială rămâne una dintre cele mai mari realizări ale umanității. Dar să nu uităm: în fața dilemelor existențiale, ultimul cuvânt trebuie să rămână al nostru.

Urmăriți Republica pe Google News

Urmăriți Republica pe Threads

Urmăriți Republica pe canalul de WhatsApp 

Abonează-te la newsletterul Republica.ro

Primește cele mai bune articole din partea autorilor.

Comentarii. Intră în dezbatere
  • pixel check icon
    din nou dilema unică.
    din nou, un atac la Miorița.
    zic, din nou:
    ciobanul moldovan nu renunță, nu se lasă, nu se resemnează. bifează și lupta și acceptarea rezultatului, pozitiv sau negatif.
    „și de-a fi să mor” este cheia falsei dileme lipite injust Mioriței.
    @##$%%^/?:^&. este dedicație pentru toți ticăloșii care încă mai pedalează această abjectă șarjă la adresa acestui poem.
    • Like 1
  • Foarte bună concluzia articolului. Întotdeauna mi-am spus că "Inteligența artificială" este impropriu numită astfel. Ea nu poate fi decât o unealtă, un procesator imens de date, în sprijinul inteligenței umane.
    • Like 1


Îți recomandăm

Eco-creatorii de energie

Mă bucur să descopăr astfel de inițiative care ne dovedesc încă o dată că educația și formarea cetățenilor de mâine este un efort comun al familiei, al școlii, al ONG-urilor și al companiilor private responsabile. Semințele plantate acum ne vor arăta probabil peste 10-20 de ani dacă țara asta va fi mai bună și mai curată.

Citește mai mult

Solar Resources

„La 16 ani, stăteam de pază la porumbi. Voiam să-mi iau o motocicletă și tata m-a pus la muncă. Aveam o bicicletă cu motor și un binoclu și dădeam roată zi și noapte să nu intre cineva cu căruța în câmp. Că așa se fura: intrau cu căruța în mijlocul câmpului, să nu fie văzuți, făceau o grămadă de pagubă, călcau tot porumbul. Acum vă dați seama că tata nu-și punea mare bază în mine, dar voia să mă facă să apreciez valoarea banului și să-mi cumpăr motocicleta din banii câștigați de mine”.

Citește mai mult