Sari la continut

La 9 ani de Republica, întrebăm: ChatGPT la urne – Ce ar vota inteligența artificială? Dar tu?

De 9 ani, Republica construiește o comunitate în care ideile prind glas și dezbaterile autentice fac diferența. Anul acesta, facem un experiment: l-am întrebat pe ChatGPT cum ar vota la alegerile din România. Însă întrebarea cea mai importantă rămâne pentru tine: cum alegi tu viitorul? Scrie, alătură-te conversației și hai să schimbăm România împreună!

Va înlocui inteligența artificială inteligența umană? Răspunsul meu la această dilemă

chatgpt -  Foto: vicva / Alamy / Alamy / Profimedia

Foto: Alamy / Profimedia

Discutăm adesea despre inteligența artificială ca fiind soluția-panaceu pentru toate problemele cu care ne confruntăm în prezent. Alteori despre temerile legate de supraviețuirea meseriilor noastre din prezent, în contextul noilor tehnologii. Deși inteligența artificială cu siguranță va avea impact asupra lumii întregi, există limite și considerente majore de luat în calcul atunci când ne imaginăm cum va arăta viitorul.

Dacă vrem să evaluăm în ce măsură domeniul în care activăm ar putea fi afectat sau chiar înlocuit de inteligența artificială, există două condiții care trebuie îndeplinite concomitent: activitatea să fie algoritmabilă și să se desfășoare într-un mediu stabil.

Altfel spus, activitatea trebuie să fie într-o mare măsură repetitivă, să aibă variabile majoritar identificate și să își păstreze obiectivul pe întreg parcursul ei. Având toate aceste componente, se poate crea un model pe baza căruia se realizează codul acelei inteligențe artificiale. În majoritatea cazurilor, este nevoie de o etapă în care inteligența artificială este alimentată cu informații pentru a fi antrenată în atingerea scopului pentru care a fost creată.

Așa cum a fost cazul celebru din șah din 1997 când Garry Kasparov a fost învins de inteligența artificială Deep Blue dezvoltată de IBM. Ultimul oară când un jucător uman de șah, Ruslan Ponomariov, a învins inteligența artificială, programul Fritz, a fost în 2005. Însă jocul de șah întrunește cele două condiții: este algoritmabil și se desfășoară într-un mediu stabil.

Inteligența artificială, cel puțin până în prezent, are nevoie de un mediu stabil. De exemplu, în cazul mașinilor autonome, performează bine atunci când rulează în jurul altor mașini autonome. Șoferii sau pietonii umani transformă mediul acestora într-unul instabil, greu de anticipat. Altfel spus, mașinile autonome sunt sigure atunci când funcționează într-un trafic populat doar de alte mașini conduse tot de inteligența artificială.

Sunt însă domenii mult mai complexe, cum este cel medical. Inteligența artificială Watson dezvoltată de IBM a impresionat o lume întreagă la concursul american de cultură generală Jeopardy. Însă atunci când a fost implicată în medicina oncologică, lucrurile n-au funcționat. Și din cauza deficiențelor modelului pe baza căruia a fost creat, dar și din cauza incapacității de a contextualiza și a percepe nuanțele din datele cu care a fost alimentat. Concluzia a fost că Watson nu poate fi un doctor, însă poate asista personalul medical cu activități care întrunesc cele două condiții: algoritmabile și derulate într-un mediu stabil.

Însă dincolo de limitările tehnice, sunt elemente care țin fundamental de umanitatea noastră. De exemplu, un medic ține cont de modul individual de a percepe durerea sau de modul în care fiecare pacient răspunde diferit aceluiași tratament din motive diferite. Un stomatolog care are de făcut o intervenție dificilă va fi în permanență atent la micro-reacțiile pacientului și își va adapta modul de acțiune în funcție de acestea.

Chiar și în cazul avocaților, inteligența artificială poate oferi suport prin a găsi date și conexiuni relevante dintr-un volum masiv de informații. Însă dincolo de litera legii, există spiritul legii și contextul unic al acelui caz care nu pot fi prevăzute într-un cod generalist. Dacă în cazul complexității și volumului de informații procesate nu putem concura cu inteligența artificială, captarea complexității experienței umane într-un singur cod este mai puțin probabilă.

Vremurile recente ne-au dovedit cât de importantă este conexiunea umană pentru sănătatea emoțională și fizică a oamenilor. Iar dezvoltarea noilor tehnologii trebuie să plece de la condiția expansiunii existenței noastre, nu limitarea acesteia.

Și încrederea oarbă în tehnologie și frica generalizată de ea sunt în egală măsură dăunătoare progresului nostru. Scopul nu este reducerea rolurilor oamenilor din organizații, ci valorificarea abilităților acestora în cele mai performante modalități.

Inteligența artificială nu va înlocui inteligența umană, ci va completa și extinde abilitatea noastră de a transforma lumea într-un loc mai bun. Sau cel puțin acesta este scopul ultim care ar fi benefic pentru a ne conduce pașii spre viitor. 

Articol preluat de pe blogul autorului

Urmăriți Republica pe Google News

Urmăriți Republica pe Threads

Urmăriți Republica pe canalul de WhatsApp 

Abonează-te la newsletterul Republica.ro

Primește cele mai bune articole din partea autorilor.

Comentarii. Intră în dezbatere
  • Valentin check icon
    Discuție reală purtată cu ChatGPT, încercând sondarea capacităților și limitelor pe care le are inteligența artificială.
    Utilizatorul i se adresează cu aconimul GPT (Generative Pre-trained Transformer), iar răspusurile robotului conversațional (chatbot) sunt deosebit de interesante, atingând câteva mituri la modă:

    Utilizator:
    ===========
    Ce este un GPT?

    ChatGPT:
    ===========
    GPT este un acronim pentru "Generative Pre-trained Transformer", și se referă la o familie de modele de limbaj bazate pe arhitectura Transformer. Aceste modele sunt dezvoltate de OpenAI și sunt concepute să înțeleagă și să genereze limbaj natural. Ideea cheie din spatele GPT este pregătirea prealabilă (pre-training) a modelului pe un set de date masiv și variat, astfel încât să înțeleagă structurile și regulile limbajului.

    Principala componentă a modelului GPT este arhitectura Transformer, care utilizează atenție pentru a analiza relațiile dintre cuvinte într-o propoziție sau într-un text mai lung. Aceasta permite modelului să captureze dependențele lungi și să îndeplinească sarcini de înțelegere și generare a limbajului natural.

    Modelul GPT este "pre-antrenat" pe un set masiv de date nestructurate, cum ar fi fragmente de texte de pe internet, astfel încât să învețe modele de limbaj generalizate. După această fază de pre-antrenament, modelul poate fi "fine-tunat" pentru sarcini specifice, cum ar fi traducerea automată, rezolvarea întrebărilor, generarea de texte creative și altele.

    GPT-3 este una dintre cele mai recente versiuni ale acestei familii de modele, și a fost dezvoltată de OpenAI. Este cunoscută pentru dimensiunile sale mari, cu până la 175 de miliarde de parametri, ceea ce o face una dintre cele mai puternice și versatilie modele de limbaj natural disponibile până în prezent.

    Utilizator:
    ===========
    Câte modele de GPT există în prezent?

    ChatGPT:
    ===========
    Până la ultima actualizare a cunoștințelor mele în ianuarie 2022, existau mai multe modele GPT dezvoltate de OpenAI. Cele mai notabile sunt:

    GPT-3 (Generative Pre-trained Transformer 3): Este cea mai recentă versiune și cea mai mare în ceea ce privește numărul de parametri, având până la 175 de miliarde de parametri. GPT-3 este cunoscut pentru capacitatea sa impresionantă de a realiza o varietate de sarcini legate de limbaj natural.

    GPT-2 (Generative Pre-trained Transformer 2): Preceda GPT-3 și este, de asemenea, un model de limbaj foarte puternic, având până la 1,5 miliarde de parametri. GPT-2 a fost notabil pentru abilitatea sa de a genera texte coerente și creative.

    Este posibil să fi avut loc dezvoltări ulterioare și lansări noi după ianuarie 2022. Pentru informații actualizate, recomand să verifici direct sursele oficiale ale OpenAI sau alte surse de știri din domeniu.

    Utilizator:
    ===========
    Poate un model GPT să învețe și după ce a fost programat?

    ChatGPT:
    ===========
    Modelul GPT, după ce a fost pre-antrenat (adesea pe o cantitate masivă de date nestructurate), este capabil de "fine-tuning" pentru a se adapta la anumite sarcini specifice. Fine-tuning-ul implică antrenarea modelului pe un set de date mai restrâns și specializat pentru a îmbunătăți performanța sa pe o anumită sarcină.

    Cu toate acestea, într-un sens mai larg, atunci când te referi la "învățare după programare", este important să înțelegem că modelele GPT nu au o capacitate de învățare continuă sau de adaptare în timp real în timpul utilizării normale. Ele sunt pre-antrenate pe un set de date și ulterior pot fi fine-tunate, dar această adaptare nu se realizează în mod autonom odată ce modelul este implementat și în funcțiune.

    Dacă vrei să actualizezi sau să îmbunătățești un model GPT existent, ar trebui să efectuezi un proces de re-antrenare cu date actualizate sau extinse. Acest proces necesită resurse semnificative și expertiză în domeniu. Este important să fii atent la potențialele implicații etice și de securitate atunci când lucrezi cu modele de limbaj puternice, mai ales în contextul actualizărilor sau re-antrenării.

    Utilizator:
    ===========
    Înseamnă că orice model GPT devine bun în măsura în care a fost antrenat cu un set finit de date.

    ChatGPT:
    ===========
    Da, în mare măsură, performanța unui model GPT este determinată de calitatea și varietatea datelor pe care a fost antrenat. Cu cât setul de date de antrenare este mai vast și mai reprezentativ pentru diversele utilizări ale limbajului natural, cu atât modelul are șanse mai mari să înțeleagă și să genereze text în mod corespunzător într-o gamă largă de contexte.

    Există totuși câteva aspecte importante de luat în considerare:

    Calitatea Datelor: Calitatea datelor de antrenare este esențială. Dacă setul de date conține informații incorecte sau bias-uri, modelul poate învăța aceste erori și poate genera rezultate incorecte sau nedorite.

    Cantitatea Datelor: În general, un set de date mai mare permite modelului să captureze mai bine complexitatea limbajului natural și să înțeleagă structurile mai subtile ale acestuia.

    Fine-Tuning: După pre-antrenare, fine-tuning-ul pe un set de date specific poate îmbunătăți performanța modelului pentru sarcini specifice.

    Este important să subliniem că, în ciuda capacităților impresionante ale modelelor GPT, ele nu sunt conștiente și nu au înțelegere asemănătoare cu cea umană. Ele operează pe baza probabilităților și a pattern-urilor învățate din datele de antrenare. De aceea, evaluarea și interpretarea rezultatelor generate de astfel de modele trebuie să fie realizate cu discernământ și să țină cont de posibilele limitări și bias-uri.

    Utilizator:
    ===========
    Cine decide ce date trebuie să figureze și ce date nu?

    ChatGPT:
    ===========
    Decizia cu privire la datele care trebuie să fie incluse în seturile de date de antrenare pentru modelele GPT (sau pentru orice alt model de învățare automată) este luată de cei care pregătesc și antrenează modelele. Aceștia sunt adesea cercetători și ingineri de date care pot avea diferite obiective, cum ar fi obținerea unui model generalizat, evitarea bias-urilor, sau focalizarea pe sarcini specifice.

    Decizia privind datele trebuie să țină cont de mai multe aspecte:

    Reprezentativitatea: Seturile de date ar trebui să fie reprezentative pentru variabilitatea de utilizări a limbajului natural. Dacă setul de date este prea restrâns sau biasează anumite perspective, modelul poate să nu generalizeze corect la alte contexte.

    Calitatea: Calitatea datelor este crucială. Informațiile incorecte sau bias-urile din date pot fi preluate de către model și pot afecta performanța acestuia.

    Etica și Implicații Sociale: Este important să se ia în considerare aspecte etice și sociale în ceea ce privește datele utilizate. Prevenirea și gestionarea bias-urilor în modelele de limbaj, evitarea propagării unor conținuturi ofensive sau discriminatorii sunt aspecte esențiale.

    Fine-Tuning: Atunci când modelele sunt fine-tunate pentru sarcini specifice, seturile de date pentru aceasta trebuie să fie relevante pentru acele sarcini.

    Deciziile privind datele pot avea un impact semnificativ asupra performanței și aplicabilității modelelor, de aceea este important să existe o atenție sporită la acest aspect și să se încerce minimizarea bias-urilor și a efectelor negative ale datelor de antrenare. De asemenea, transparența în procesul de antrenare și selecție a datelor este un aspect important pentru a permite o evaluare și o îmbunătățire corespunzătoare a modelelor.

    Utilizator:
    ===========
    Cum sunt eliminate datele potențial nocive din setul de antrenament?

    ChatGPT:
    ===========
    Eliminarea datelor potențial nocive din setul de antrenament este un proces complex și implică diverse strategii pentru a minimiza impactul acestora asupra modelelor. Iată câteva metode și practici comune:

    Filtrarea Datelor la Sursă: În prima etapă, este important să se filtreze și să se curățe datele la sursă. Acest lucru poate include eliminarea conținutului ofensator, discriminatoriu sau incorect.

    Etichetare cu Atenție: Atunci când se etichetează seturile de date, se recomandă o atenție deosebită pentru a evita introducerea bias-urilor în procesul de etichetare. O etichetare echilibrată și corectă este esențială.

    Analiză a Bias-ului: Realizarea unei analize a bias-ului în seturile de date poate ajuta la identificarea și cuantificarea potențialelor disproporții sau discriminări. Există tehnici și metrici specifice pentru a evalua și a cuantifica bias-urile în datele de antrenament.

    Augmentarea Datelor: Augmentarea datelor poate consta în crearea de variante ale datelor existente pentru a diversifica setul de antrenament. Aceasta poate contribui la reducerea influenței unor exemple specifice.

    Algoritmi de Reducere a Bias-ului: Există algoritmi specializați care vizează reducerea bias-ului în modelele de limbaj. Aceștia pot fi utilizați în timpul pre-antrenării sau în etapele ulterioare pentru a ajusta ponderile și a minimiza impactul datelor cu bias.

    Feedback și Iterație: Prin monitorizarea continuă a performanței modelelor în producție și prin colectarea de feedback, se pot face ajustări ulterioare pentru a gestiona și a îmbunătăți impactul datelor de antrenament.

    Este important să se abordeze eliminarea datelor potențial nocive printr-o combinație de metode și să se acorde o atenție deosebită la transparența procesului. De asemenea, implicațiile etice și sociale trebuie luate în considerare în timpul întregului proces de antrenare și implementare a modelelor de limbaj.

    Desemenea, implicațiile etice și sociale trebuie luate în considerare în timpul întregului proces de antrenare și implementare a modelelor de limbaj.

    Utilizator:
    ===========
    Vom numi conversațiile noastre sesiuni. Poate GPT să-și amintească replicile din cadrul aceleași sesiuni? Dar din sesiunile anterioare?

    ChatGPT
    ===========
    Nu, modelele GPT, inclusiv GPT-3, nu au memorie între sesiuni sau replici. Fiecare replică este generată independent, fără cunoașterea contextului sau a conținutului replicelor anterioare. Asta înseamnă că GPT nu "ține minte" conversațiile individuale sau replicile din cadrul aceleiași sesiuni.

    Fiecare interacțiune este tratată ca o entitate independentă, iar modelul nu are capacitatea de a accesa sau de a aminti informații despre conversații anterioare. Dacă dorești să menții consistența sau să integrezi o formă de memorie între replici sau sesiuni, va trebui să gestionezi această logică în cadrul aplicației sau a sistemului care utilizează modelul GPT. Poți salva și gestiona manual informațiile relevante între interacțiuni, dacă este necesar.

    Utilizator:
    ===========
    E de dorit ca o persoană să capete încredere și să urmeze sfaturile unui model GPT?

    ChatGPT:
    ===========
    Este important să abordăm sfaturile sau informațiile furnizate de modelele GPT cu o anumită prudență. Iată câteva aspecte de luat în considerare:

    Lipsa de Conștientizare și Înțelegere: Modelele GPT nu au o înțelegere conștientă sau convingerile asemănătoare cu oamenii. Ele generează răspunsuri pe baza pattern-urilor și probabilităților învățate din datele de antrenament, dar nu au o conștientizare a contextului sau a impactului social.

    Sursa Datelor de Antrenament: Calitatea și diversitatea datelor de antrenament influențează rezultatele generate de modelele GPT. Dacă datele de antrenament conțin bias-uri, erori sau informații incorecte, acestea pot fi reflectate în răspunsurile generate.

    Necesitatea de Verificare Umană: Sfaturile sau informațiile furnizate de modelele GPT ar trebui întotdeauna verificate de către oameni. Utilizatorii trebuie să aibă discernământ și să nu ia automat în considerare tot ceea ce este generat de un model, în special în situații critice sau în domenii sensibile.

    Posibilitatea de Generare a Conținutului Incorect sau Confuz: Modelele pot genera răspunsuri care par corecte, dar care sunt incorecte, confuze sau incomplete. Este important să se verifice și să se valideze informațiile înainte de a le considera adevărate sau utile.

    Sensibilitatea la Instrucțiuni Ambigue: Modelele pot fi sensibile la instrucțiuni ambigue sau dubioase, generând răspunsuri care nu sunt în întregime conforme cu intențiile utilizatorului.

    În concluzie, încrederea în sfaturile unui model GPT ar trebui să fie echilibrată cu o evaluare critică și cu verificarea ulterioară a informațiilor de către oameni. Utilizarea acestor modele poate fi utilă în contexte neprelucrate sau pentru brainstorming, dar nu ar trebui să înlocuiască niciodată expertiza umană în decizii critice sau în domenii în care este crucială precizia și responsabilitatea.
    • Like 2
    • @ Valentin
      Cred ca ar merita sa incerci sa extinzi textul asta si sa il propui ca articol de sine statator pe site.
      • Like 0


Îți recomandăm

Solar Resources

„La 16 ani, stăteam de pază la porumbi. Voiam să-mi iau o motocicletă și tata m-a pus la muncă. Aveam o bicicletă cu motor și un binoclu și dădeam roată zi și noapte să nu intre cineva cu căruța în câmp. Că așa se fura: intrau cu căruța în mijlocul câmpului, să nu fie văzuți, făceau o grămadă de pagubă, călcau tot porumbul. Acum vă dați seama că tata nu-și punea mare bază în mine, dar voia să mă facă să apreciez valoarea banului și să-mi cumpăr motocicleta din banii câștigați de mine”.

Citește mai mult

Octavian apolozan

Tavi, un tânăr din Constanța, și-a îndeplinit visul de a studia în străinătate, fiind în prezent student la Universitatea Tehnică din Delft (TU Delft), Olanda, una dintre cele mai renumite instituții de învățământ superior din Europa. Drumul său către această prestigioasă universitate a început încă din liceu, când și-a conturat pasiunea pentru matematică și informatică.

Citește mai mult

Green Steps

100.000 de români au participat la marcarea a 100 de kilometri din traseul Via Transilvanica într-un mod ingenios. „Drumul care unește”, este un traseu turistic de lungă distanță, care traversează România pe diagonală, de la Putna la Drobeta Turnu Severin și este destinat drumeției pe jos, cu bicicleta sau călare. Via Transilvanica este semnalizată cu marcaje vopsite și stâlpi indicatori. Pe parcursul drumeției, călătorii vizitează ceea ce constructorii spun că este cea mai lungă galerie de artă din lume, pentru că la fiecare kilometru se găsește o bornă din andezit sculptată individual.

Citește mai mult
sound-bars icon