Ghidul britanic pentru AI în justiție oferă un model excelent pentru România. Vezi cum îl traduci în reguli clare de utilizare a AI în avocatură.
De ce contează ghidul britanic pentru AI în justiție
Un detaliu aparent tehnic din 31.10.2025 ar trebui să aprindă toate becurile de avertizare și în România: în Marea Britanie a intrat în vigoare ghidul oficial privind folosirea inteligenței artificiale de către judecători. Nu o strategie vagă, ci reguli concrete: ce au voie să facă, ce nu, cum verifică, cine răspunde.
Pentru avocați și cabinete de avocatură din România, momentul acesta nu e doar „o știre din UK”. Este un semnal direct: AI în sectorul juridic nu mai e un experiment, ci o realitate care are nevoie de reguli. Dacă instanțele încep să-și clarifice rolul, bareourile și firmele de avocatură nu-și mai pot permite să meargă la întâmplare cu LegalTech și chatboți.
În această serie „AI în Sectorul Juridic din România: LegalTech pentru Avocați”, articolul de față traduce, adaptează și comentează ideile esențiale din ghidul britanic, cu un obiectiv clar: cum folosești AI în avocatură și în relația cu instanțele fără să-ți pui în pericol clientul, reputația și dosarele.
1. Ce este ghidul britanic și de ce ar trebui să-l intereseze pe un avocat român
Ghidul britanic – „Artificial Intelligence (AI) Guidance for Judicial Office Holders” – este un regulament intern care spune, pe scurt, cum pot folosi judecătorii AI în activitatea lor, în condiții de etică și siguranță.
Chiar dacă e scris pentru un sistem de common law, mesajul e foarte clar și pentru noi:
- AI este acceptată ca instrument de lucru, nu ca „înlocuitor de judecător”;
- există beneficii clare (eficiență, rezumate, sarcini administrative);
- dar și riscuri serioase (confidențialitate, halucinații, prejudecăți);
- responsabilitatea finală rămâne 100% la om.
Pentru România, unde se vorbește mult despre digitalizare, dar încă nu există un ghid oficial de etică privind AI în sistemul judiciar, documentul britanic e un model excelent. Nu trebuie copiat, dar oferă o structură foarte bună pentru:
- ÎCCJ, CSM, INM – în zona de politici judiciare;
- UNBR, barouri, cabinete – în zona de LegalTech pentru avocați;
- furnizori de soluții de AI juridică – în zona de produs și conformitate.
2. Cele 5 principii-cheie din ghid, traduse pentru practica avocațială
Ghidul britanic formulează cinci principii simple, dar tăioase. Dacă le aplici într-un cabinet de avocatură, îți poți construi o strategie sănătoasă de AI în avocatură.
2.1. Înțelegerea AI și a limitărilor ei
Mesajul central: nu folosi un instrument pe care nu-l înțelegi măcar la nivel de bază.
Chatboții de tip LLM (inclusiv cei juridici) nu fac „cercetare” în sens clasic. Ei generează text pe baza unui model statistic, în funcție de datele cu care au fost antrenați. Rezultatul:
- ton convingător;
- structură logică aparent solidă;
- dar posibil fals, incomplet sau depășit.
Pentru un avocat, asta înseamnă:
- AI poate fi un „motor de idei” (îți amintește de spețe, concepte, soluții posibile);
- nu poate fi sursa finală pentru un argument de drept sau o opinie juridică;
- tot ce iese dintr-un chatbot trebuie tratat ca ipoteză de lucru, nu ca adevăr.
Dacă ai un departament de litigii, cel mai sănătos este să formalizezi asta în proceduri interne:
- „Nicio informație de drept nu se folosește în notă, concluzii sau opinie fără verificare în baze de date autorizate.”
2.2. Confidențialitate și viață privată
Aici, ghidul britanic e foarte ferm: nu bagi în chatboți publici nimic ce nu e deja public.
Pentru un cabinet de avocatură din România, riscurile sunt și mai mari:
- date sensibile despre clienți;
- strategii procesuale;
- informații comerciale confidențiale;
- date cu caracter personal (GDPR).
Câte reguli practice ar trebui să existe în orice firmă de avocatură în 2025:
- avocații nu folosesc chatboți publici (gen AI generalist) pentru:
- redactare cereri în care introduc date de caz;
- analiza contractelor reale ale clienților;
- formularea de strategii în litigii.
- dacă se folosește un AI public, se pornește de la scenarii anonime, fără date de identificare;
- se dezactivează, unde există opțiunea, istoricul conversațiilor;
- se preferă soluții AI juridice dedicate, cu contracte de confidențialitate, hosting în UE și control clar asupra datelor.
Confidențialitatea nu e negociabilă. Un singur prompt neglijent poate ajunge, indirect, să alimenteze modelul și să se întoarcă în altă speță. Asta înseamnă potențial conflict de interese, încălcarea secretului profesional, risc disciplinar și litigios.
2.3. Responsabilitate și acuratețe
Ghidul insistă pe un adevăr pe care mulți preferă să-l ignore: AI halucinează. Inventarea de spețe, articole, doctrină este o problemă reală.
Pentru un avocat:
- orice rezultat generat de AI intră obligatoriu în circuitul de verificare umană;
- doar ceea ce a fost confirmat în legislație, jurisprudență sau doctrină devine material de lucru în dosar;
- verificarea trebuie făcută de un profesionist (nu de alt AI).
Câteva exemple de bune practici în LegalTech intern:
- check-list obligatoriu înainte de a cita o „speță găsită de AI”:
- este decizia accesibilă în baza de date oficială?
- are număr, dată, instanță și obiect clar?
- conținutul corespunde sumarului dat de AI?
- pentru cercetare juridică, AI se folosește după, nu în locul bazelor oficiale:
- întâi verifici în bazele dedicate (Sintact, Lege5, etc.);
- apoi poți folosi AI ca să-ți structureze argumentele sau să testezi contra-argumente.
2.4. Atenție la prejudecăți
Modelele mari de limbaj învață din date istorice. Datele istorice poartă prejudecăți: de gen, rasă, vârstă, statut socio-economic, orientare sexuală, etnie. Justiția nu are voie să le preia orbește.
Pentru AI în avocatură, asta înseamnă:
- să fii foarte atent când folosești AI pentru predicția rezultatelor („șansele de câștig în acest litigiu sunt de 70%”);
- să nu lași un model, antrenat pe jurisprudență istorică, să devină normă morală;
- să-ți păstrezi propria analiză critică: „modelul spune X, dar eu știu că practica recentă a instanței Y merge în direcția opusă”.
În plus, dacă începi să folosești AI pentru managementul dosarelor sau prioritizarea cauzelor, trebuie să te asiguri că nu creezi tu însuți prejudecăți interne (de exemplu, cauzele mici sau cu clienți noi fiind constant deprioritizate de algoritm).
2.5. Asumarea responsabilității
Punctul final al ghidului britanic e esențial:
„Deținătorii de funcții judiciare sunt personal responsabili pentru materialele produse în numele lor.”
Pentru avocați, formula e identică: niciun AI nu îți ia răspunderea profesională.
Dacă lași chatbotul să redacteze concluzii și tu doar semnezi, ai o problemă profesională, etică și, potențial, delictuală. Clientul nu are contract cu „modelul de limbaj”, are contract cu tine.
În practică, o abordare sănătoasă arată așa:
- AI este tratată ca asistent junior: propune, rezumă, structurează;
- avocatul este seniorul: verifică, taie, rescrie, asumă;
- în firmă există o politică scrisă despre cum și unde e permisă utilizarea AI.
3. Ce tipuri de sarcini sunt potrivite pentru AI în justiție și în cabinetele de avocatură
Ghidul britanic distinge clar între sarcini potrivite pentru AI și sarcini nerecomandate. Logica lor se aplică excelent și în cabinetele de avocatură din România.
3.1. Sarcini unde AI este foarte utilă
-
Rezumarea volumelor mari de text
- dosare cu sute de pagini;
- transcripturi de ședință;
- corespondență stufoasă.
AI poate oferi:
- cronologii de fapte;
- extragerea punctelor-cheie;
- liste de probleme juridice potențiale.
-
Scrierea și structurarea prezentărilor
- seminare interne;
- prezentări pentru clienți corporate;
- materiale de training.
AI te poate ajuta cu:
- structură logică de slide-uri;
- formulări clare pentru audiență non-juridică;
- adaptări de ton (formal, prietenos, tehnic).
-
Sarcini administrative
- drafturi de emailuri;
- rezumate de ședințe cu clientul;
- clasificarea și prioritizarea task-urilor.
Aici AI chiar face diferența de timp și energie, permițând avocaților să se concentreze pe miezul juridic.
3.2. Sarcini unde AI nu ar trebui să decidă
Ghidul britanic e tranșant pe două zone, și sunt exact cele mai tentante pentru mulți avocați:
-
Cercetare juridică primară
- AI nu e sigură ca sursă unică pentru identificarea normelor aplicabile;
- halucinațiile și omisiunile sunt prea riscante;
- jurisprudența inventată este deja o problemă globală.
În România, cercetarea juridică serioasă se face în:
- baze de date specializate;
- monitorul oficial;
- jurisprudență oficială a ÎCCJ, CCR, CJUE, CEDO.
AI poate interveni după aceea: să-ți ajute la structurarea memoriilor, la generarea de contra-argumente, la simplificarea limbajului pentru client.
-
Analiză juridică și raționament
Chatboții publici, inclusiv cei avansați, nu produc încă o analiză juridică la nivelul așteptat de o instanță sau de un client sofisticat:- nu înțeleg nuanțele practicii locale;
- nu văd „linia fină” din jurisprudența recentă;
- pot rata aspecte practice evidente pentru un avocat cu experiență.
AI poate propune schelete de argumente, dar:
- analiza de drept rămâne responsabilitatea avocatului;
- adaptarea la stilul și așteptările unei anumite instanțe e tot muncă umană.
4. Cum poate recunoaște un judecător un document scris de AI – și de ce contează pentru avocați
Un capitol foarte interesant din ghidul britanic oferă „semne” că un material a fost generat de AI. Pare un detaliu tehnic, dar pentru avocați e vital.
Printre indicii menționate:
- jurisprudență necunoscută sau cu citări „ciudate”, uneori din alte țări;
- mai multe părți care, pe aceeași problemă, invocă spețe complet diferite;
- conținut impecabil ca limbaj, dar cu erori de fond evidente;
- folosirea ortografiei americane;
- fraze de tip „ca model de limbaj AI, nu pot…” rămase în text din greșeală.
De ce contează asta pentru un avocat român?
- pentru că, mai devreme sau mai târziu, judecătorii noștri vor începe să caute aceleași indicii;
- pentru că nu vrei ca instanța să aibă impresia că ți-ai „outsourcuit” pledoaria unui chatbot fără să o citești;
- pentru că încrederea în avocat se construiește și prin calitatea umană a analizei, nu doar prin fluența textului.
Un sfat practic: dacă folosești AI pentru drafturi,
- citește textul cap-coadă;
- verifică fiecare citare;
- rescrie în stilul tău, nu lăsa „amprenta generică” de chatbot;
- nu trimite niciodată în instanță un text pe care nu l-ai înțeles în detaliu.
5. România are nevoie de un ghid propriu – și avocații trebuie să fie în avangardă
Autorul analizei de pe care pornim are dreptate într-un punct sensibil: sistemul judiciar român are nevoie de propriul ghid de etică pentru utilizarea AI, cât mai repede.
Din perspectiva avocaților, eu aș merge mai departe:
- UNBR și barourile ar trebui să lucreze la recomandări clare pentru AI în avocatură;
- cabinetele medii și mari ar trebui să-și scrie politici interne de AI:
- ce unelte sunt aprobate;
- cum se tratează datele clienților;
- ce nu se face niciodată cu un chatbot;
- cum se documentează verificarea umană;
- firmele de LegalTech ar trebui să-și proiecteze produsele având în minte exact aceste principii: transparență, auditabilitate, securitate, control al datelor.
Acest articol se înscrie în seria „AI în Sectorul Juridic din România: LegalTech pentru Avocați” tocmai pentru că nu e suficient să vorbim despre beneficii – analiză automată de contracte, management de dosare, predicția rezultatelor. Avem nevoie de:
- un limbaj comun între instanțe și avocați despre ce este acceptabil și ce nu;
- proceduri interne în firmele de avocatură;
- o cultură profesională în care AI este un instrument serios, nu o scurtătură periculoasă.
Ce poți face concret în cabinetul tău în următoarele 30 de zile
Dacă vrei să transformi principiile de mai sus în acțiuni reale, ai câțiva pași simpli, dar puternici:
- Inventariază toate instrumentele AI pe care le folosesc oamenii din firmă (oficial sau „pe ascuns”).
- Definește zone roșii: ce este interzis (date de caz în chatboți publici, cercetare de drept exclusiv cu AI etc.).
- Alege 1–2 cazuri de utilizare „safe” (rezumare documente, drafturi de emailuri) și standardizează-le.
- Scrie o mini-politică internă de 2–3 pagini despre AI în firmă.
- Educa-ți echipa: un workshop intern de 1–2 ore face mai mult decât 100 de mailuri.
Realitatea? AI în drept este aici să rămână. Avocații și judecătorii care o înțeleg devreme, o folosesc disciplinat și își asumă responsabilitatea vor avea un avantaj clar. Restul vor descoperi pe propria piele limitele „automatizării fără reguli”.
Acest articol face parte din seria „AI în Sectorul Juridic din România: LegalTech pentru Avocați”, dedicată avocaților care vor să folosească inteligența artificială profesionist, etic și profitabil.