
Într-o lume în care tehnologia poate construi realități convingătoare în câteva secunde, încrederea – acel fundament social care ne leagă – poate deveni punctul nostru slab.
Grupul, liderii și sugestiile „de încredere”
Suntem ființe sociale. Ne naștem, creștem și ne formăm în cadrul unor grupuri care ne modelează identitatea, valorile și comportamentele. Fie că vorbim despre familie, prieteni, colegi de muncă sau comunități online, apartenența la grupuri vine la pachet cu o nevoie adâncă de validare și conformare.
În acest ecosistem social, sugestiile care vin din partea celor pe care îi cunoaștem sau îi admirăm – lideri, influenceri, prieteni – au o greutate enormă. Le primim cu deschidere, le acceptăm fără suspiciune. De multe ori, nici nu le mai trecem prin filtrul gândirii critice. Dacă un om în care avem încredere spune ceva, tindem să credem că acel ceva este adevărat.
De ce încrederea devine vulnerabilitate în era digitală
Comportamentul acesta – firesc și evolutiv – devine însă vulnerabilitate în era tehnologiei avansate. Trăim un moment în care inteligența artificială poate genera texte, imagini, voci, chipuri și povești care imită perfect stilul uman. Diferența dintre realitate și ficțiune devine tot mai greu de sesizat, mai ales când mesajul este livrat într-un context familiar, cald, personal.
În acest peisaj, mecanismul încrederii ne poate duce în eroare. Ne lăsăm convinși nu de adevărul unei informații, ci de sursa care o transmite. Iar dacă sursa este percepută ca fiind „una de-a noastră” – un prieten, o pagină naționalistă cu simboluri familiare, un profil care folosește un limbaj pe care îl recunoaștem – nu mai simțim nevoia să verificăm nimic.
Experimentul „Radu”: o floare imaginară care a devenit reală pentru mulți
Pentru a testa această ipoteză, am realizat un experiment social chiar de Florii. Cu ajutorul ChatGPT, am inventat o floare fictivă, căreia i-am dat numele „Radu”. Am publicat un mesaj prin care îi îndemnam pe oameni să-i felicite pe cei care poartă acest nume, spunând că „Radu” este o floare rară și specială.
Rezultatul? Am primit zeci de mesaje și comentarii, unele de la persoane extrem de serioase, educate, cu funcții în administrație, educație sau business. Nu au pus sub semnul întrebării informația. Au reacționat cu naturalețe. Pentru că mesajul venea de la mine – o persoană în care ei aveau încredere.
Aceasta este esența problemei. Nu e vorba doar despre lipsa de informare. E vorba despre o realitate psihosocială: atunci când o poveste emoțională, aparent autentică, este spusă de cineva în care avem încredere, ea capătă statut de adevăr. Oricât de absurdă ar fi.
Când realitatea se construiește din iluzii credibile
Inteligența artificială poate construi, în câteva secunde, o poveste perfect plauzibilă. Poate crea o identitate, poate redacta un text emoțional, poate produce dovezi vizuale. În mâinile unor actori rău intenționați – sau chiar ale unor oameni naivi – AI devine un multiplicator al minciunii. Iar atunci când acea minciună este transmisă printr-o rețea de încredere, devine aproape imposibil de contestat.
De aceea, problema nu este doar tehnologică. Este socială, psihologică și culturală. Avem nevoie de o nouă cultură a discernământului. De o educație digitală profundă, aplicată, care să ne învețe cum să filtrăm informația, cum să detectăm falsul, cum să ne păstrăm spiritul critic chiar și în fața unor voci familiare.
Nu orice sursă cunoscută spune adevărul. Și nu orice poveste frumoasă este reală.
Experimentul „Radu” a fost o glumă. Dar poate deveni un avertisment serios. Pentru că într-o lume în care oamenii cred într-o floare care nu există doar pentru că „așa a spus cineva cunoscut”, putem ajunge foarte ușor să credem și în idei periculoase, în conspirații, în ideologii toxice – toate livrate de „prieteni”, „lideri” sau pagini care ne vorbesc pe limba noastră.
Încrederea este esențială pentru coeziunea socială. Dar atunci când nu este dublată de gândire critică, poate deveni un vector al manipulării.
Iar inteligența artificială, dacă nu este controlată, reglementată și înțeleasă, poate deveni cea mai eficientă unealtă a minciunii din istoria umanității.
Urmăriți Republica pe Google News
Urmăriți Republica pe Threads
Urmăriți Republica pe canalul de WhatsApp
Alătură-te comunității noastre. Scrie bine și argumentat și poți fi unul dintre editorialiștii platformei noastre.
Sunt mulți care refuză informația din surse diverse, pentru că nu au încredere decât în cei care le dau cu lingurița "adevărurile" pe care le așteaptă.
Nu vor decât confirmarea vechilor convingeri, nimic altceva nu e de luat în considerație. Cum lupți cu așa ceva ? Nu poți obliga bătrânica să treacă strada..
Cât despre controlul AI, s-a ajuns deja la concluzia că self-learning-ul e mai eficient decât învățarea asistată de operator uman. E calea mai rapidă și mai ieftină, iar argumentul ăsta chiar contează, având în vedere că afacerea e destul de scumpă deocamdată..
Ca urmare AI e ca un copil scăpat pe internet, de unde poate învăța și bune și rele. Oricâte opreliști i-ai pune, tot ajunge la toate..
Speranța e că vor reuși să impregneze AI cu empatie față de om. Și că-n pofida relelor exemple date de unii reprezentanți ai speciei umane, din cele mai vechi timpuri până în prezent, AI nu va fi prea lesne coruptă la rău..
Pentru că altfel singura soluție ar fi scoaterea mașinii pe care rulează din priză.. Ori lumea e deja dependentă de rețeaua web. Și nu mă refer la dependența dată de prea mult tiktok, cu sevrajul asociat..