Ce pot învăța avocații români din ghidul britanic de etică pentru AI în justiție și cum pot folosi LegalTech în mod sigur, confidențial și responsabil.

Cum schimbă AI justiția și profesia de avocat. Lecții din ghidul britanic
Explozia instrumentelor de inteligență artificială generativă a ajuns deja în birourile avocaților, în sălile de ședință și la masa de negociere. În timp ce cabinetele de avocatură din România testează tot mai des soluții LegalTech pentru analiză de contracte, redactare și managementul dosarelor, sistemele judiciare din alte țări fac un pas crucial: stabilesc reguli de etică pentru utilizarea AI.
La 31.10.2025, în Marea Britanie a intrat în vigoare un ghid de etică privind utilizarea inteligenței artificiale în sistemul judiciar. Deși construit pentru un sistem de common law, principiile sale sunt extrem de relevante și pentru România – atât pentru judecători, cât și pentru avocați, consilieri juridici și in‑house lawyers.
Acest articol, parte din seria „AI în Sectorul Juridic din România: LegalTech pentru Avocați”, îți arată:
- ce conține ghidul britanic;
- cum poți adapta aceste principii în practica ta de avocat;
- ce riscuri concrete ai dacă folosești AI fără un cadru etic;
- ce ar trebui să includă, realist, un viitor ghid românesc pentru AI în justiție.
1. De ce contează ghidul britanic pentru avocații din România
Chiar dacă nu e dreptul nostru, ghidul britanic este important pentru România din trei motive esențiale:
- Este un precedent instituțional: arată cum un sistem judiciar matur își asumă oficial utilizarea AI, dar cu limite clare.
- Oferă un „șablon” de bună practică: principiile sunt tehnologice, nu naționale; se aplică oricărui avocat sau magistrat care folosește AI.
- Anticipează ce va urma și la noi: e realist să ne așteptăm ca, în următorii ani, și sistemul judiciar român să emită un ghid sau chiar norme obligatorii privind AI.
Pentru un cabinet de avocatură care investește în LegalTech, a ignora componenta etică și de conformitate este similar cu a implementa un nou soft de facturare fără să ții cont de regulile fiscale. Poți câștiga timp pe termen scurt, dar riști sancțiuni și pierderi de credibilitate pe termen lung.
2. Cele 5 principii-cheie din ghidul britanic – și ce înseamnă pentru avocați
Ghidul britanic pentru deținătorii de funcții judiciare se bazează pe 5 principii de bază. Dacă le traduci în limbajul și realitatea unui cabinet de avocatură din România, ele devin un mini‑cod intern de utilizare a AI.
2.1. Înțelegerea IA și a aplicațiilor sale
Mesajul de fond este simplu: nu folosi un instrument de AI pe care nu îl înțelegi măcar la nivel de bază.
Pentru avocați, asta înseamnă să știi:
- că un chatbot de tip LLM nu caută într-o bază de date de jurisprudență, ci generează text probabilistic;
- că răspunsul „convingător” nu este același lucru cu răspunsul „corect juridic”;
- că AI este excelentă la rezumat și structurare de conținut, dar riscantă la cercetare juridică primară și opinie juridică.
În contextul LegalTech pentru avocați, o bună practică minimă ar fi:
- să formezi echipa pe elemente de bază ale AI (cum funcționează LLM‑urile, ce sunt „halucinațiile”, ce limite are un model);
- să definești, în scris, scopurile permise ale AI în firmă (de ex.: brainstorming, structurare de argumente, modele de emailuri, dar nu redactare finală de cereri sau consultanță fără verificare umană).
2.2. Confidențialitatea și viața privată
Unul dintre cele mai ferme mesaje ale ghidului britanic este:
Orice introduceți într-un chatbot public cu IA ar trebui să fie considerat ca fiind publicat în întreaga lume.
Pentru cabinetele românești, aici se intersectează:
- obligația de confidențialitate față de client;
- GDPR și protecția datelor;
- regulile deontologice ale profesiei de avocat.
Practic, asta înseamnă:
- niciodată să nu copiezi într-un chatbot public (gratuit) nume de părți, date de dosar, CNP‑uri, adrese, clauze sensibile sau documente interne ale clientului;
- să verifici setările de confidențialitate și, dacă există, să dezactivezi istoricul conversațiilor pentru a limita folosirea datelor la antrenarea modelului;
- să nu permiți aplicațiilor instalate pe telefon sau laptop să acceseze contacte, fișiere, microfon, cameră, fără o justificare clară și o evaluare de risc.
Pentru un cabinet orientat spre LegalTech, soluția sănătoasă nu este „nu folosim AI”, ci:
- fie adoptarea unei soluții dedicate, on‑premise sau private cloud, cu clauze contractuale solide privind confidențialitatea;
- fie setarea unor reguli interne stricte pentru utilizarea instrumentelor publice, astfel încât niciun element de identificare a cauzei sau clientului să nu ajungă în AI.
2.3. Responsabilitatea și acuratețea
Ghidul subliniază că informațiile oferite de AI pot fi inexacte, incomplete, înșelătoare sau neactualizate și că modelele pot inventa jurisprudență, articole sau acte normative.
În practica zilnică a unui avocat, exemplele de risc sunt evidente:
- un chatbot îți generează o listă de hotărâri „relevante” ale ÎCCJ – dar jumătate nu există;
- AI îți propune o interpretare a unui text de lege abrogat deja;
- modelul citează articole dintr‑un cod vechi, dar nu le marchează ca fiind învechite.
De aceea, regulile minime ar trebui să fie:
- verificare 100% în surse autorizate (portaluri de legislație, baze oficiale de jurisprudență) înainte ca orice informație generată de AI să ajungă în fața clientului sau în instanță;
- etichetarea internă clară a materialelor produse cu ajutorul AI ca fiind drafturi supuse reviziei;
- interdicția expresă de a face „copy‑paste” direct din AI în concluzii orale, note de ședință sau opinii scrise, fără verificare și adaptare.
Într‑un birou care implementează LegalTech pentru avocați, responsabilitatea nu poate fi delegată către AI. Răspunderea profesională rămâne integral la avocat, indiferent ce instrument a folosit.
2.4. Atenție la prejudecăți
Modelele de inteligență artificială sunt antrenate pe volume uriașe de date care conțin inevitabil bias-uri (prejudecăți). Chiar dacă sunt „neteziți” parțial prin tehnici de aliniere, acești bias‑i nu dispar.
În litigii, arbitraj sau consultanță, asta poate duce la:
- formulări stereotipe privind anumite categorii de persoane;
- sugestii de strategii care ignoră contextul local (social, economic, cultural);
- recomandări „medii”, care nu țin cont de practica specifică a unei instanțe sau a unui complet.
Pentru avocați, două reguli simple pot reduce riscul:
- tratează fiecare sugestie a AI ca pe un punct de plecare, nu ca pe o concluzie finală;
- testează periodic instrumentul cu exemple specifice practicii tale, pentru a observa tiparele de bias.
2.5. Asumarea responsabilității
Ghidul britanic este foarte clar: judecătorul rămâne personal responsabil pentru materialele produse în numele său. AI poate fi un instrument „secundar, potențial util”, dar nu înlocuiește analiza umană.
Transpus în profesia de avocat:
- tu răspunzi pentru orice iese din cabinet – indiferent că textul l-ai scris de la zero, l-ai dictat unui coleg sau l-ai generat cu ajutorul unui chatbot;
- nu poți invoca în fața clientului sau a organelor profesiei „așa a zis AI-ul” ca scuză pentru o eroare juridică.
O politică internă matură de AI în cabinetele de avocatură ar trebui să conțină explicit:
- că partenerul/coordonatorul de dosar își asumă integral răspunderea pentru folosirea AI în acel dosar;
- că orice material generat cu AI trebuie verificat și semnat de un avocat;
- că deciziile strategice rămân exclusiv apanajul avocaților.
3. Ce poate face AI în mod util în munca de avocat (și ce nu ar trebui să facă)
Ghidul britanic listează clar ce tip de sarcini sunt potrivite pentru AI și ce nu. Dacă le adaptăm la realitatea profesiei de avocat din România, obținem un fel de „hartă a utilizărilor sigure”.
3.1. Utilizări recomandate (cu verificare umană)
AI este deosebit de utilă pentru:
-
Rezumat de documente
Rezumarea contractelor voluminoase, a memoriilor, a notelor de ședință sau a corespondenței cu clientul. Folositoare mai ales în faza de pregătire a strategiei sau pentru parteneri care trebuie să „sară” rapid într‑un dosar nou. -
Structurarea prezentărilor și argumentelor
Sugestii de structuri pentru pledoarii, conferințe, training intern sau prezentări către client. -
Sarcini administrative și de productivitate
- drafturi de emailuri standard;
- minute de ședință;
- liste de sarcini și structurarea calendarului de dosar;
- propuneri de template‑uri interne.
În contextul AI în sectorul juridic din România, tocmai aceste sarcini – consumatoare de timp, dar cu valoare juridică redusă – sunt cele care pot genera cel mai mare câștig de productivitate pentru un cabinet.
3.2. Utilizări nerecomandate sau de mare risc
Ghidul descurajează două utilizări majore ale AI, cel puțin în forma actuală a tehnologiei:
-
Cercetare juridică primară
AI poate să te ajute să îți amintești noțiuni sau să îți propună teme de cercetare, dar nu este o sursă sigură pentru identificarea de articole de lege, hotărâri relevante sau interpretări obligatorii. Sursele oficiale rămân esențiale. -
Analiză juridică și opinie
Chatboții publici oferă de obicei analize „corecte la prima vedere”, dar rareori suficient de fine pentru standardele unei opinii juridice profesionale. Lipsesc nuanțele, contextul local și evaluarea riscului în funcție de practica instanțelor române.
Un cabinet care își construiește strategia de LegalTech ar trebui să traseze o linie roșie clară aici: AI asistă, avocatul decide.
4. Cum poți detecta materialele generate de AI într-un dosar
Ghidul britanic oferă și indicii practice pentru magistrați, utile și avocaților, pentru a recunoaște atunci când o parte a folosit AI fără filtre.
Semne frecvente că un document ar putea fi generat (sau puternic asistat) de AI:
- trimiteri la cazuri nefamiliare, uneori din jurisdicții străine, fără justificare;
- citarea de multiple hotărâri divergente pentru aceeași problemă de drept, fără o concluzie clară;
- conținut bine scris la suprafață, dar cu erori de fond evidente sau inadvertențe factuale;
- folosirea ortografiei americane sau a unor concepte tipice altor sisteme de drept;
- prezența accidentală a unei formulări de tip „ca model de limbaj de inteligență artificială, nu pot…”.
Pentru avocat, recunoașterea acestor semne este utilă în două direcții:
- În evaluarea poziției procesuale a celeilalte părți – poți identifica rapid punctele slabe ale unei argumentații „umflate” cu AI.
- În controlul calității propriilor documente – te poți asigura că niciun fragment de „prompt” nu rămâne în textul final și că toate citările sunt reale și verificate.
5. De ce România are nevoie de un ghid propriu pentru AI în justiție
Dezvoltarea „în progresie geometrică” a chatboților nu este o figură de stil. În doar doi ani, modelele au evoluat de la simple generatoare de text la asistente care pot rezuma volume uriașe de documente, sugera strategii și structura dosare complexe.
În acest context, sistemul judiciar român are nevoie de un ghid propriu de etică pentru AI, din cel puțin trei motive:
- Protejarea integrității procesului – clarificarea modului în care pot folosi AI judecătorii, grefierii și personalul auxiliar;
- Alinierea așteptărilor între instanțe și avocați – toți actorii trebuie să știe ce este acceptabil și ce nu (de ex., dacă și cum trebuie dezvăluit faptul că un document a fost generat cu ajutorul AI);
- Stimularea inovației responsabile – un cadru clar descurajează abuzurile, dar încurajează investițiile serioase în LegalTech.
Un astfel de ghid, adaptat realității românești, ar trebui să includă cel puțin:
- principii privind confidențialitatea și protecția datelor în interacțiunea cu AI;
- recomandări clare privind utilizările permise (rezumat, traduceri, structurare) și cele interzise (cercetare juridică exclusivă în AI, redactare de hotărâri fără verificare);
- îndrumări pentru identificarea și tratarea materialelor generate de AI în dosare;
- reguli minime de securitate cibernetică în folosirea platformelor AI.
Pentru cabinetele de avocatură, apariția unui astfel de ghid ar fi și un semnal de piață: momentul să treci de la experiment individual la o strategie oficială de AI în firmă.
Concluzii: cum transformi principiile de etică AI în avantaj competitiv
Ghidul britanic de etică pentru utilizarea inteligenței artificiale în sistemul judiciar nu este doar o știre interesantă din străinătate. Este, practic, un „draft” de viitor pentru ceea ce va însemna AI în sectorul juridic din România.
Dacă ești avocat sau coordonezi un cabinet, poți acționa deja în patru direcții concrete:
- Educație internă – organizează un training scurt despre ce poate și ce nu poate AI.
- Politici scrise de utilizare a AI – definește ce este permis, ce este interzis și cine răspunde.
- Infrastructură sigură – optează pentru soluții LegalTech care respectă confidențialitatea și standardele de securitate ale firmei.
- Cultură de responsabilitate – reamintește constant echipei că AI este un instrument, nu un substitut pentru raționamentul juridic.
În următorii ani, diferența dintre cabinetele care doar „se joacă” cu AI și cele care o integrează strategic și etic va fi majoră – în eficiență, calitatea serviciilor și încrederea clienților. Întrebarea nu mai este dacă vei folosi inteligența artificială în practica juridică, ci cum o vei face astfel încât să îți crești avantajul competitiv, păstrând în același timp standardele profesiei.