
Foto: Omar Ashtawy / Zuma Press / Profimedia
Israelul folosește pe scară largă tehnologii noi și sofisticate de inteligență artificială în cadrul ofensivei sale în Gaza. Și, pe măsură ce numărul de morți în rândul civililor crește, grupurile regionale pentru drepturile omului se întreabă dacă sistemele de alegere a țintelor cu inteligență artificială ale Israelului au suficiente bariere de protecție.
Politico Europe indică faptul că în acest moment există o presiune pentru responsabilitatea operațiunii armatei israeliene în Gaza, care ar putea forța Washingtonul să se confrunte cu unele întrebări incomode cu privire la măsura în care SUA își lasă aliatul să scape de vreo răspundere pentru faptul că utilizează inteligența artificială în război.
În loviturile sale în Gaza, armata israeliană s-a bazat pe un sistem de inteligență artificială numit Gospel pentru a ajuta la determinarea țintelor, care au inclus școli, birouri ale organizațiilor de ajutorare, lăcașuri de cult și unități medicale.
Oficialii palestinieni controlați de gruparea teroristă Hamas estimează că peste 30.000 de oameni au fost uciși în acest conflict, inclusiv multe femei și copii. Nu este clar dacă vreuna dintre victimele civile din Gaza este un rezultat direct al utilizării de către Israel a țintelor stabilite cu ajutorul AI. Dar activiștii din regiune cer mai multă transparență, notează Politico, subliniind potențialele erori pe care le pot face sistemele de inteligență artificială și susținând că sistemul de țintire rapidă a AI este cel care a permis Israelului să bombardeze părți mari din Gaza.
Grupul palestinian pentru drepturile digitale 7amleh a susținut într-un document recent că utilizarea armelor automate în război „reprezintă cea mai nefastă amenințare pentru palestinieni”. Iar cea mai veche și cea mai mare organizație israeliană pentru drepturile omului, Asociația pentru drepturile civile din Israel, a înaintat în decembrie o cerere pentru libertatea de informare către divizia juridică a Forțelor de Apărare israeliene, cerând mai multă transparență în ceea ce privește alegerea automată a țintelor în conflictul din Gaza.
Conform presei ameriane, sistemul Gospel, despre care IDF a oferit puține detalii, folosește învățarea automată pentru a analiza rapid cantități mari de date pentru a genera potențiale ținte de atac.
Forțele de Apărare israeliene au refuzat să comenteze cu privire la utilizarea bombelor ghidate de inteligența artificială în Gaza sau orice altă utilizare a inteligenței artificiale în conflict. Un purtător de cuvânt al IDF a declarat public în februarie că, deși sistemul Gospel este folosit pentru a identifica țintele potențiale, decizia finală de a lovi este întotdeauna luată de o ființă umană și aprobată de cel puțin o altă persoană din lanțul de comandă.
Cu toate acestea, IDF a precizat în noiembrie că, pe lângă creșterea preciziei, sistemul Gospel „permite utilizarea de instrumente automate pentru a produce ținte într-un ritm rapid”. Aceeași declarație spunea că Israelul a lovit peste 12.000 de ținte în primele 27 de zile de luptă.
Biden se concentrează mai mult pe decizia Israelului de a viza infrastructura civilă, decât pe tehnologia folosită în acest scop
Presiunea pentru mai multe răspunsuri din partea Israelului despre cum folosește inteligența artificială în război are potențialul de a reverbera în SUA. Există deja voci care cer ca SUA să supravegheze tehnologia aliaților săi din străinătate, iar acest lucru creează o situație politică delicată pentru legislatorii americani, care doresc la rândul lor să folosească inteligența artificială pe viitoarele câmpuri de luptă.
Unii dintre observatorii modalităților de folosire a inteligenței artificiale în război susțin că Israelul denaturează scopul tehnologiei, folosindu-o pentru a extinde listele de ținte, mai degrabă decât pentru a proteja civilii din Gaza. Experții mai spun că, având în vedere cele peste 30.000 de victime din Gaza, este greu de spus dacă armata israeliană folosește inteligența artificială de înaltă tehnologie pentru a identifica țintele.
Statele Unite ar trebui să își folosească pârghiile politice pentru a modela aceste operațiuni, dar până acum, administrația Biden nu a fost dispusă să facă acest lucru. Până în prezent, utilizarea AI de către Israel în ofensiva sa militară nu a atras prea mult atenția în discuțiile de la Washington privind conflictul Israel-Hamas.
Grupurile pentru drepturile omului din SUA spun că eforturile administrației Biden se concentrează mai mult pe decizia Israelului de a viza infrastructura civilă, decât pe tehnologia folosită în acest scop.
Organizațiile umanitare și unitățile medicale palestiniene au fost lovite de armata israeliană chiar și după ce coordonatele lor GPS au fost furnizate autorităților israeliene. Așa cum precizează Politico, Israelul a declarat că în repetate rânduri că infrastructura civilă, cum ar fi spitalele și școlile, este o țintă corectă, deoarece teroriștii Hamas au ascuns luptători și arme în aceste clădiri.
Oficialii americani au evitat, de asemenea, în mare parte, să aducă în discuție utilizarea AI de către Israel, după cum notează Reuters.
Întrebată despre amploarea utilizării de către Israel a țintelor de inteligență artificială în război, Anne Neuberger, consilier adjunct al Casei Albe pe probleme de securitate națională pentru tehnologie cibernetică și tehnologii emergente, s-a grăbit să se axeze pe pericolele pe care le prezintă această tehnologie în război, în general.
„Suntem foarte îngrijorați de sistemele de inteligență artificială. De aceea, președintele a lucrat atât de intens ca să adopte cât mai rapid ordinul său executiv privind AI”, a declarat Neuberger într-un interviu. Ordinul executiv la care a făcut referire oferă orientări pentru utilizarea inteligenței artificiale de către armata americană și agențiile de informații ale SUA, făcând totodată presiuni pentru a contracara utilizarea inteligenței artificiale ca armă de către adversarii străini.
Un alt motiv pentru care utilizarea AI în războiul Israelului în Gaza nu primește atât de multă atenție la Washington este natura opacă a operațiunilor militare ale Israelului. Există semne că Israelul ar putea să nu folosească supravegherea la nivelul pe care și l-ar dori SUA. De ce? Pentru că Israelul nu a semnat tratatul susținut de SUA prin care se promovează utilizarea responsabilă a AI în război. Printre cele peste 50 de țări semnatare se numără Marea Britanie, Germania și Ucraina, celălalt aliat al SUA aflat într-un război activ.
Sistemul israelian Gospel este folosit de agenția de elită a serviciului de informații cibernetice israeliene, Unitatea 8200, pentru a analiza comunicațiile, imaginile și informațiile de pe internet și prin rețelele mobile pentru a înțelege unde se află oamenii. Susținătorii sistemului Gospel spun că acesta este foarte precis și a fost realizat cu acuratețe, având unicul scop de a minimiza victimele civile. De cealaltă parte, criticii susțin că orice sistem de țintire cu inteligență artificială implică riscuri ridicate.
SUA au o strategie de utilizare a AI în război
Conform CBS News, Statele Unite folosesc inteligența artificială pentru a ajuta la gestionarea navigației și supravegherii dronelor în zonele de conflict și dezvoltă sisteme care ar folosi țintirea cu ajutorul inteligenței artificiale pentru lovituri ofensive.
Mai mult, Pentagonul a publicat o strategie privind AI la sfârșitul anului trecut, în care a prezentat modul în care intenționează să integreze în siguranță tehnologiile AI în operațiunile sale.
SUA testează, de asemenea, o varietate de tehnologii de inteligență artificială care au fost dezvoltate în Israel pentru a fi utilizate de forțele americane, unele cu finanțare americană.
Statele Unite oferă Israelului 3,3 miliarde de dolari pe an sub formă de granturi pentru finanțare militară externă, la care se adaugă 500 de milioane de dolari pe an pentru programe de apărare antirachetă, în cadrul unui pact de un deceniu privind ajutorul militar.
Israelul a folosit aceste fonduri în parte pentru a-și consolida capacitățile de înaltă tehnologie de luptă, antirachetă și de supraveghere, deși nu există indicii că banii merg către Gospel.
În plus față de sistemele de atac, Israelul a investit bani în puștile de asalt cu precizie AI, cum ar fi SMASH, care utilizează algoritmi avansați de procesare a imaginilor pentru a se concentra asupra unei ținte. Utilizarea sa a fost înregistrată atât în Gaza, cât și în Cisiordania ocupată.
Unii membri ai Congresului SUA, mai spune Politico, au încercat să impună mai multe reguli în ceea ce privește modul în care SUA utilizează tehnologia AI. Iar anul trecut s-a introdus un proiect de lege care vizează măsuri pentru asigurarea faptului că tehnologiile bazate pe inteligență artificială nu se ocupă de sistemele de comandă și control nuclear. Dar puțini sunt cei care susțin renunțarea la armamentul bazat pe tehnica AI, atât în SUA, cât și printre aliații americani din străinătate.
Andrew Borene, fost ofițer în domeniul contraterorismului în cadrul Biroului Directorului de Informații Naționale al SUA, susine că războaiele de astăzi sunt, în mod implicit, locurile de testare pentru a afla ce tehnologie de inteligență artificială poate funcționa în război și care ar trebui să fie regulile. „Aceste evenimente din Ucraina, precum și din Gaza sunt ca niște laboratoare care, din păcate, fac o parte din munca tragică și cinetică necesară pentru a ne ajuta să dezvoltăm o politică mai bună în materie de inteligență artificială și considerații etice la nivel global”, a mai spus acesta.
Urmăriți Republica pe Google News
Urmăriți Republica pe Threads
Urmăriți Republica pe canalul de WhatsApp
Alătură-te comunității noastre. Scrie bine și argumentat și poți fi unul dintre editorialiștii platformei noastre.
I-ar fi trebuit și Hamasului o aplicație AI care să evalueze consecințele unui atac în Israel și poate s-ar fi găsit soluții pașnice la acest conflict milenar.