Foto: Kommersant Photo Agency / ddp USA / Profimedia
„Sistemele puternice de inteligență artificială ar trebui să fie dezvoltate numai după ce suntem siguri că efectele lor vor fi pozitive și că riscurile lor vor fi gestionabile", se arată într-o scrisoare deschisă semnată de Elon Musk și un grup de experți în inteligență artificială și manageri din domeniul AI, notează Reuters.
Semnatarii - între care regăsim nume grele din zona inteligenței artificiale, precum directorul general al Stability AI, Emad Mostaque, cercetători de la DeepMind a companiei Alphabet, printre care Yoshua Bengio și Stuart Russell - solicită o pauză de șase luni în antrenarea unor sisteme mai puternice decât modelul GPT-4 recent lansat de OpenAI din cauza unor potențialele riscuri pentru societate și umanitate.
„Sistemele de inteligență artificială cu inteligență uman-competitivă pot prezenta riscuri profunde pentru societate și umanitate, după cum arată ample cercetări și după cum recunosc laboratoarele de vârf de inteligență artificială”, argumentează semnatarii, scrie Hotnews.ro.
În scrisoare sunt detaliate potențiale riscuri la adresa societății și civilizației din cauza sistemelor de inteligență artificială ce pot provoca dereglări economice și politice, documentul solicitând dezvoltatorilor de astfel de sisteme să colaboreze cu factorii de decizie politică și autoritățile de reglementare.
Aceasta vine în contextul în care forța de poliție a UE, Europol, s-a alăturat luni valului de preocupări etice și juridice cu privire la inteligența artificială avansată precum ChatGPT, avertizând cu privire la potențiala utilizare abuzivă a sistemului în încercările de phishing, dezinformare și criminalitate informatică.
Musk, al cărui producător de automobile Tesla folosește inteligența artificială pentru un sistem de pilot automat, și-a exprimat în mod vehement îngrijorarea cu privire la inteligența artificială.
De la lansarea sa de anul trecut, ChatGPT al OpenAI, susținut de Microsoft, a determinat rivalii să accelereze dezvoltarea unor modele lingvistice similare de mare amploare, iar companiile să integreze modele generative de inteligență artificială în produsele lor.
Sam Altman, directorul executiv al OpenAI, nu a semnat scrisoarea, a declarat pentru Reuters un purtător de cuvânt al Future of Life. OpenAI nu a răspuns imediat la solicitarea de declarații.
„Scrisoarea nu este perfectă, dar spiritul este corect: trebuie să încetinim până când vom înțelege mai bine implicațiile", a declarat Gary Marcus, profesor emerit la Universitatea din New York, semnatar al scrisorii.
„Ele pot provoca daune serioase... marii jucători devin din ce în ce mai secretoși cu privire la ceea ce întreprind, ceea ce face ca societății să-i fie greu să se apere împotriva oricăror efecte negative care s-ar putea materializa”, a adăugat el.
Urmăriți Republica pe Google News
Urmăriți Republica pe Threads
Urmăriți Republica pe canalul de WhatsApp
Alătură-te comunității noastre. Scrie bine și argumentat și poți fi unul dintre editorialiștii platformei noastre.