Un antreprenor primește decizia de respingere a contestației de la ANAF. O citește. Argumentele par solide. Articolele de lege sunt invocate cu număr și alineat, hotărârile judecătorești sunt citate cu instanță, număr de dosar și an. Totul pare în regulă.
Doar că, după ce verifică, descoperă ceva ciudat. Articolul invocat nu există. Hotărârea judecătorească nu există. Practica organismului internațional invocat nu există. Sunt plăsmuiri ale unei inteligențe artificiale care a fost rugată să găsească argumente pentru a respinge contestația.
Nu este un scenariu ipotetic. Este realitatea descrisă, săptămâna aceasta, de un avocat dintr-o firmă internațională. Dar este de asemenea situația tot mai frecventă în interacțiunea cu autoritățile publice care motivează deciziile de respingere a contestațiilor cu ajutorul unor soluții de inteligență artificială care inventează prevederi legale și jurisprudență.
Citiți și:
Aici se deschide o întrebare pe care, ca avocat care lucrează zi de zi cu antreprenori, nu o pot evita.
Dacă privim cu atenție ce se întâmplă, observăm o cascadă. Un administrator de firmă e nemultumit de o situație. Nu dorește să mai apeleze la avocat și o contestă singur (“pentru că are ChatGPT varianta plătită și știe să o folosească”). Trimite contestația. Un funcționar primește această contestație si o încarcă, integral sau pe fragmente, într-un sistem de inteligență artificială. AI-ul formulează „argumente împotrivă". Funcționarul, ca să fie sigur că argumentele „sunt bune", le verifică dar...tot cu AI-ul. AI-ul confirmă, eventual le rafinează. Decizia este redactată, automat sau semi-automat, pe baza aceluiași output. Funcționarul semnează.
AI scrie. AI verifică. AI, în fapt, decide.
Ce mai rămâne pentru om? În cazul cel mai bun, o lectură rapidă a textului final. În cazul cel mai rău, doar semnătura.
Iar dacă pe traseu AI-ul a inventat un articol de lege sau o hotărâre judecătorească, nu există niciun moment în această cascadă în care cineva, cu pregătire juridică reală și cu timpul necesar, să fi deschis Codul fiscal și să fi verificat că articolul există.
De ce contează asta, juridic.
Codul de procedură fiscală (Legea nr. 207/2015) prevede la art. 46 că actul administrativ-fiscal trebuie să cuprindă motivele de fapt și temeiul de drept. Nu este o cerință formală. Este o cerință de fond. Practica instanțelor de contencios administrativ a stabilit constant că un act fără motivare reală, verificabilă și în acord cu legea aplicabilă este lovit de nelegalitate și poate fi anulat în temeiul art. 18 din Legea nr. 554/2004.
Un act motivat pe articole inexistente nu îndeplinește această cerință. Mai mult, dacă funcționarul nu poate explica de ce a invocat un articol pe care nu îl poate găsi în Codul fiscal, atunci nici unul dintre cele două elemente esențiale ale motivării (temeiul de drept și raționamentul juridic aplicat la situația de fapt) nu este, în realitate, prezent. Există un text, dar nu există un raționament. Există formă, dar nu există conținut.
Pe planul european, lucrurile sunt și mai limpezi. Regulamentul (UE) 2024/1689 privind inteligența artificială (AI Act) clasifică drept sisteme „cu risc ridicat" acele aplicații care influențează semnificativ drepturile fundamentale ale persoanelor. Pentru aceste sisteme, articolul 14 al regulamentului impune o obligație clară: supraveghere umană efectivă, adică un om care să poată înțelege, evalua și, dacă este cazul, infirma rezultatul algoritmic. Articolul 15 cere acuratețe și robustețe, adică sistemul nu poate fabrica informații.
Iar articolul 22 din GDPR garantează cetățeanului dreptul de a nu fi supus unei decizii bazate exclusiv pe prelucrare automată, atunci când decizia produce efecte juridice semnificative. Cu drept la intervenție umană reală. Nu formală.
Aici apare problema cea mai delicată. Supravegherea umană prevăzută de AI Act nu este îndeplinită prin simpla existență a unui funcționar care semnează. Trebuie să fie efectivă. Adică acel om să aibă competența să verifice, timpul să verifice și mandatul instituțional să verifice.
În practica administrativă, presiunea volumului, lipsa de specialiști și cultura organizațională „a vitezei" fac ca verificarea critică să devină, treptat, o ficțiune. Funcționarul semnează ce a generat algoritmul, pentru că nu are nici timpul, nici instrumentele să facă altceva.
Situația nu este unică pentru România. În Statele Unite, în 2023, doi avocați de la firma Levidow, Levidow & Oberman au fost sancționați de Judecătoria Federală din Sudul New York-ului în cauza Mata v. Avianca (dosar 22-cv-1461) pentru că au depus în instanță un memoriu cu șase hotărâri judecătorești inventate de ChatGPT. Au crezut, sincer, că AI-ul le-a căutat jurisprudență reală. Diferența esențială este însă următoarea: acolo, instanța a sancționat avocații. Aici, dacă AI-ul folosit de ANAF inventează un articol de lege, contribuabilul este cel care trebuie să demonstreze că articolul nu există.
Sarcina probei autenticității s-a inversat. Iar inversarea aceasta nu este permisă de niciun text legal românesc sau european.
Ce mai face, totuși, omul?
Digitalizarea nu este inamicul. Inteligența artificială poate fi un instrument util, inclusiv pentru un inspector fiscal bine pregătit, care o folosește ca să identifice jurisprudență reală, să sintetizeze un dosar voluminos, să verifice rapid o practică administrativă consacrată. Aceasta este utilizarea „cu mâna pe volan".
Problema apare atunci când AI-ul scrie, AI-ul verifică, iar omul doar semnează. Pentru că într-un asemenea sistem nu există, în fapt, un act administrativ-fiscal motivat. Există un text generat algoritmic, ștampilat administrativ și opozabil contribuabilului. Diferența pare subtilă. În drept este însă fundamentală.
Pentru contribuabilul care primește o asemenea decizie, întrebarea pe care va trebui să o ridice în contestație și, ulterior, în instanță, este una directă: cine, ca persoană competentă și responsabilă, a verificat că articolele și hotărârile invocate în decizia împotriva mea există și sunt aplicabile cazului meu?
Dacă răspunsul este „nimeni", decizia nu este motivată. Iar o decizie nemotivată este, în Dreptul român și european, o decizie nelegală.
Așa că, înainte de a discuta cât poate să facă AI-ul, ar fi cazul să decidem ce vrem să facă omul. Pentru că dacă omul nu mai face nimic, AI-ul nu mai e un instrument. Este, pur și simplu, autoritatea.
Urmăriți Republica pe Google News
Urmăriți Republica pe Threads
Urmăriți Republica pe canalul de WhatsApp





Alătură-te comunității noastre. Scrie bine și argumentat și poți fi unul dintre editorialiștii platformei noastre.
Se aude, "justiția"?