Sari la continut

Vorbește cu Republica și ascultă editorialele audio

Vă mulțumim că ne sunteți alături de nouă ani Ascultați editorialele audio publicate pe platformă. Un proiect de inovație în tehnologie susținut de DEDEMAN.

Ce aplicații de inteligență artificială sunt considerate cu risc inacceptabil de către Actul AI al UE

AI Risk

Foto: Przemyslaw Klos/ Panthermedia/ Profimedia

Începând cu 1 august 2024, Actul AI al UE va intra oficial în vigoare, stabilind noi standarde pentru utilizarea inteligenței artificiale (IA) în întreaga Uniune Europeană. Acest cadru de reglementare esențial este conceput pentru a valorifica potențialul IA, asigurând în același timp protecția drepturilor fundamentale. Iată o privire detaliată asupra practicilor IA considerate “risc inacceptabil” conform Actului, împreună cu exemple relevante:

Scoruri sociale acordate de către guverne

Sistemele IA folosite de guverne pentru a evalua indivizii pe baza comportamentului, statutului economic sau caracteristicilor personale, care duc la rezultate discriminatorii, sunt interzise.

Exemplu: Un sistem care monitorizează comportamentul cetățenilor și le atribuie scoruri pentru conformitate socială, care ulterior influențează accesul la servicii publice sau oportunități de angajare.

Practici exploatatoare care țintesc grupuri vulnerabile

Actul interzice sistemele IA care exploatează vulnerabilitățile grupurilor specifice, cum ar fi copiii sau persoanele cu dizabilități, asigurând protecția împotriva manipulării și vătămării.

Exemplu: O aplicație de jocuri care folosește IA pentru a targeta copii cu oferte și recompense care să-i determine să cheltuie sume mari de bani.

Identificarea biometrică la distanță în timp real în spațiile publice

Utilizarea identificării biometrice la distanță în timp real, cum ar fi recunoașterea facială în spațiile publice, este interzisă, cu excepția scenariilor strict definite pentru forțele de ordine, cu supraveghere riguroasă.

Exemplu: Camere de supraveghere care identifică și urmăresc persoanele în timp real în centrele comerciale sau în alte spații publice, fără consimțământul lor explicit.

Manipularea subliminală

Sistemele IA care utilizează tehnici subliminale pentru a distorsiona semnificativ comportamentul într-un mod dăunător sunt interzise. Această măsură protejează indivizii de manipularea ascunsă.

Exemplu: O aplicație de marketing care folosește IA pentru a insera mesaje subliminale în reclame video, influențând comportamentul consumatorilor fără ca aceștia să fie conștienți.

Supravegherea nediscriminată

Supravegherea în masă prin IA, care implică monitorizarea la scară largă fără obiective specifice sau justificare legală, este interzisă pentru a proteja confidențialitatea și a preveni intruziunile nejustificate.

Exemplu: Un sistem de monitorizare care colectează și analizează datele de la toate dispozitivele electronice dintr-o zonă urbană, fără a avea un scop precis sau autorizație legală.

Decizii automatizate fără supraveghere umană

Sistemele de luare a deciziilor critice care afectează viețile, sănătatea și drepturile oamenilor trebuie să includă supraveghere umană. Acest lucru asigură protecția împotriva deciziilor nedrepte sau eronate luate doar de procese automatizate.

Exemplu: Un sistem IA folosit pentru a decide acordarea sau refuzul creditelor bancare, fără nici o verificare sau intervenție umană, ceea ce poate duce la erori sau discriminare.

Înțelegerea acestor interdicții este crucială pentru companiile care dezvoltă sau implementează tehnologii IA. Conformitatea cu Actul AI al UE nu doar evită riscurile legale, dar și consolidează încrederea și credibilitatea în soluțiile IA. Companiile trebuie să prioritizeze practicile etice în domeniul IA pentru a se alinia cu standardele de reglementare și așteptările societății.

Consider că Actul AI al UE reprezintă un pas esențial în asigurarea utilizării responsabile a inteligenței artificiale. Reglementările stricte privind riscurile inacceptabile sunt necesare pentru a proteja drepturile fundamentale ale cetățenilor și pentru a preveni utilizările abuzive ale tehnologiei.

Aceste măsuri vor stimula inovația în mod etic, oferind companiilor cadrul necesar pentru a dezvolta soluții AI care nu doar că sunt avansate tehnologic, dar și în concordanță cu valorile societății noastre. Cred cu tărie că, prin respectarea acestor reglementări, putem construi un viitor în care IA să fie un aliat de încredere, nu o sursă de îngrijorare.

Declinarea clară a riscurilor inacceptabile de către Actul AI al UE servește ca o bază pentru inovarea responsabilă în domeniul IA. Companiile care navighează eficient aceste reglementări vor fi lideri în crearea soluțiilor IA care sunt atât inovatoare, cât și etic solide.

Nu ezitați să mă contactați pentru discuții suplimentare sau perspective asupra reglementărilor în domeniul IA. 

Urmăriți Republica pe Google News

Urmăriți Republica pe Threads

Urmăriți Republica pe canalul de WhatsApp 

Abonează-te la newsletterul Republica.ro

Primește cele mai bune articole din partea autorilor.

Comentarii. Intră în dezbatere


Îți recomandăm

Nicusor Dan - foto Profimedia

Consilierii președintelui Nicușor Dan au socotit că șeful statului nu poate umbla „teleleu” pe la Davos, alături de șefii tuturor statelor democratice din lume, acolo unde mai marii lumii se văd, își strâng mâinile, povestesc și iau decizii. Despre întâlnirea de la München (Conferința pentru Securitate) la fel, au judecat că nu e ok să se afle-n treabă pe acolo, România fiind reprezentată de ministra de externe, Oana Țoiu.

Citește mai mult

Nirvana Georgescu

Dincolo de clădiri și de oamenii care lucrează în ele există o mașinărie complicată, care presupune 400.000 de monitorizări ale procedurilor și actelor medicale, pentru fiecare clinică într-un singur an. „Vrem o țară ca afară” nu e un refren, ci realitate medicală certificată internațional la fiecare trei ani, spune Nirvana Georgescu, director Diviziei Calitate și Siguranța Pacientului Regina Maria.

Citește mai mult
sound-bars icon