AI Act și avocații din România: de la teorie la practică

AI în Sectorul Juridic din România: LegalTech pentru AvocațiBy 3L3C

AI Act schimbă rapid modul în care cabinetele de avocatură din România folosesc LegalTech. Vezi ce ai de făcut concret pentru AI etică, sigură și conformă.

AI ActLegalTech pentru avocațietica AIAIEI Legal Committeeconformare AIsector juridic România
Share:

AI Act și avocații din România: de la știre la strategie

În următorii doi ani, AI Act va schimba felul în care funcționează aproape orice cabinet de avocatură care folosește tehnologie – de la simple unelte de redactare până la soluții complexe de LegalTech și analiză de date.

Numai că majoritatea discuțiilor rămân încă prea teoretice: principii, etică, „high-level policy”. Vestea că Buju Stanciu & Asociații intră în AIEI Legal Committee, principalul comitet juridic al unei asociații internaționale de etică și integritate în AI, contează tocmai pentru că mută conversația într-o zonă foarte practică: cine scrie standardele, cum ajung ele în firmele de avocatură și ce înseamnă concret pentru un avocat din România în 2026–2027.

Postarea asta face legătura dintre această știre și realitatea de zi cu zi din cabinete. Dacă ești avocat, consilier juridic in-house sau coordonezi un departament de conformitate, scopul e simplu: să pleci cu o imagine clară despre cum să abordezi AI în practică, nu doar cum să o discuți la conferințe.


1. De ce contează AIEI Legal Committee pentru avocații români

Intrarea unei firme românești în comitetul juridic AIEI nu e doar o mențiune onorantă în CV. E un semnal clar că piața juridică din România a intrat în cercul în care se scriu regulile pentru AI.

AIEI Legal Committee:

  • reunește juriști, experți în politici publice și specialiști tech;
  • lucrează direct cu mediul de afaceri și instituții europene;
  • dezvoltă standarde și instrumente de conformare pentru utilizarea responsabilă a AI.

Pentru o firmă ca Buju Stanciu & Asociații, asta înseamnă acces direct la:

  • discuțiile tehnice despre cum se interpretează în practică AI Act;
  • modele de politici interne și coduri de conduită pentru AI;
  • bune practici pentru guvernanță tehnologică și etică.

Pentru un avocat român, beneficiul e indirect, dar real: aceste standarde ajung destul de repede în proiectele de conformare, în clauzele contractuale și în procedurile interne ale clienților – bănci, fintech, IT, healthtech, energie, dar și firme de avocatură care implementează soluții de LegalTech.

Realitatea e simplă: regulile de mâine ale AI în firmă se scriu azi în astfel de comitete.


2. AI Act: calendar, riscuri și unde se „prinde” de LegalTech

AI Act (Regulamentul (UE) 2024/1689) este primul cadru legislativ cuprinzător dedicat inteligenței artificiale. Nu e un „white paper” de principii, e drept hard, cu sancțiuni și obligații concrete.

2.1. Calendar pe scurt (util pentru planificare)

Obligațiile nu se aplică toate dintr-o dată, dar nici nu e timp infinit:

  • 2025 – încep să se aplice prevederile pentru sistemele de AI cu risc inacceptabil și primele obligații de transparență;
  • 2026 – obligații consistente pentru sistemele de AI cu risc ridicat (unde intră multe soluții folosite în sectoare reglementate);
  • 2027 – regimul se consolidează, inclusiv pentru modelele de AI generice (GPAI), folosite masiv în instrumentele de LegalTech.

Pentru piața românească, asta înseamnă că timpul pentru „să vedem mai încolo” a cam expirat. Firmele care folosesc AI – inclusiv cabinete de avocatură – trebuie să știe:

  • ce sisteme de AI folosesc;
  • în ce categorie de risc intră;
  • ce proceduri interne trebuie adaptate.

2.2. Unde se intersectează AI Act cu LegalTech

AI în sectorul juridic din România nu mai înseamnă doar „jocuri” cu ChatGPT. În 2025–2027, vedem deja:

  • analiză automată de contracte (extragere de clauze, detectare de riscuri);
  • cercetare juridică asistată de AI (căutări avansate, sumarizare de jurisprudență);
  • predicția rezultatelor litigiilor (modele ce oferă probabilități, scenarii);
  • management de dosare și workflow cu componente de AI (prioritizare, alocare automată);
  • asistenți juridici virtuali pentru întrebări recurente (in-house sau B2C).

Multe dintre aceste sisteme pot deveni:

  • AI cu risc ridicat, atunci când influențează decizii cu impact semnificativ (ex.: scoruri de risc pentru clienți, decizii de conformitate);
  • sisteme generice integrate (GPAI), când sunt bazate pe modele mari folosite și în alte domenii.

Aici devine importantă experiența din comitete precum AIEI Legal Committee: ele modelează standarde care afectează direct cum trebuie conceput, cumpărat și utilizat LegalTech-ul în România.


3. Ce înseamnă, practic, „etica și integritatea în AI” pentru un cabinet de avocatură

Etica AI sună academic, dar pentru un avocat e în primul rând un set de riscuri concrete și decizii operaționale.

3.1. Patru întrebări simple care fac diferența

Orice firmă de avocatură care folosește AI ar trebui să poată răspunde clar la:

  1. Pentru ce folosim AI?

    • doar pentru taskuri interne (drafturi, rezumate);
    • și pentru servicii către clienți (analiză de contracte, due diligence, opinii).
  2. Ce date urcăm în sistemele de AI?

    • informații publice;
    • date sensibile, secrete comerciale, informații confidențiale din dosare.
  3. Cine răspunde dacă AI-ul greșește?

    • avem un proces de verificare umană;
    • avem disclaimere clare față de clienți;
    • documentăm deciziile bazate pe AI.
  4. Cum păstrăm independența judecății profesionale?

    • AI-ul asistă, dar nu decide;
    • avocatul semnează, avocatul își asumă.

AI nu anulează răspunderea avocatului, doar o face mai ușor de documentat sau, uneori, mai greu de apărat.

3.2. Zone de risc tipice pentru cabinete

Pentru sectorul juridic românesc, riscurile apar cam în aceleași locuri:

  • GDPR și confidențialitate – încărcarea de documente confidențiale în servicii AI externe, fără DPA și fără claritate pe locația serverelor;
  • conflicte de interese – utilizarea de modele instruite pe date din dosare ale mai multor clienți, fără separație riguroasă;
  • dezinformare juridică – utilizarea AI generativ pentru opinii juridice, fără verificare, dar cu brandingul firmei;
  • bias și discriminare – în scoruri de risc, algoritmi de screening clienți, proceduri KYC/AML automatizate.

Standardele de etică și integritate dezvoltate la nivel internațional (inclusiv prin AIEI) devin, în timp, „benchmark”-ul implicit: autoritățile, instanțele și chiar clienții mari se uită deja la ele când evaluează dacă un proces AI e „responsabil”.


4. Cum se pregătește, concret, un cabinet de avocatură din România

Pentru multe firme, următoarea întrebare este: „Bine, și noi ce facem luni dimineață?”. Răspunsul nu e complicat, dar cere disciplină.

4.1. Pasul 1: inventarierea utilizărilor de AI

Înainte de politici, traininguri și contracte, ai nevoie de un AI inventory:

  • ce aplicații AI folosesc avocații (oficial și „shadow IT” – conturi gratuite, pluginuri, chatbots);
  • ce face exact fiecare aplicație (draftare, sumarizare, analiză de date, recomandări);
  • ce tipuri de date procesează (publice, confidențiale, date cu caracter personal);
  • dacă este un produs LegalTech dedicat sau un model generalist folosit creativ.

Fără acest inventar, orice politică de AI rămâne teorie.

4.2. Pasul 2: politică internă de utilizare a AI

O politică internă de AI pentru cabinete de avocatură ar trebui să includă, cel puțin:

  • scopurile permise și cele interzise (ex.: interdicția de a urca documente confidențiale neanonimizate în servicii fără DPA);
  • rolul AI-ului în redactare și cercetare (asistență, nu decizie);
  • regulile de verificare umană („four-eyes principle” pentru output critic);
  • procedura de aprobare pentru noi soluții AI;
  • reguli de păstrare și ștergere a datelor folosite în sisteme AI.

Aici, insight-urile din AIEI Legal Committee sunt valoroase: se lucrează exact pe genul acesta de instrumente practice de conformare.

4.3. Pasul 3: due diligence juridic la achiziția de LegalTech

Dacă firma cumpără sau implementează o soluție de LegalTech bazată pe AI, due diligence-ul juridic nu se oprește la „e GDPR compliant?”. Trebuie analizate și:

  • categoria de risc AI Act în care se încadrează sistemul;
  • obligațiile furnizorului vs. ale utilizatorului (law firm ca „deployer”);
  • documentația tehnică disponibilă (descriere sistem, date de antrenare, teste);
  • mecanisme de audit și logging (poți explica, la nevoie, cum s-a ajuns la un anumit output?).

Clauzele contractuale cu furnizorii de AI vor începe să semene, inevitabil, cu:

  • DPA + AI Addendum (garanții privind datele și modelul);
  • limiti de răspundere adaptate la riscurile specifice AI;
  • proceduri clare de incident management când sistemul generează erori grave.

4.4. Pasul 4: training țintit pentru avocați

Nu e realist să transformi toți avocații în ingineri de prompt, dar e realist să-i ajuți să fie „AI-literate”:

  • să știe ce poate și ce nu poate face un model generativ;
  • să recunoască halucinațiile juridice;
  • să pună întrebările corecte furnizorilor de tehnologie;
  • să explice clienților cum folosesc (responsabil) AI în dosarele lor.

Aici se schimbă și poziționarea avocatului: nu mai e doar „user” de LegalTech, devine consilier de guvernanță AI pentru clienți.


5. De ce implicarea în inițiative internaționale contează pentru piața locală

Faptul că un avocat român, precum Alexandru-Mihai Alexandrescu, participă în AIEI Legal Committee nu e doar un succes personal sau al firmei. E un indicator că România nu mai e doar „taker” de reguli, ci începe să conteze în conversația despre guvernanța tehnologică.

Efectele pentru practicieni:

  • acces la interpretări timpurii ale AI Act, înainte să apară ghiduri oficiale detaliate;
  • posibilitatea de a adapta abordările de conformare la specificul pieței românești;
  • argumente solide în discuții cu clienți, autorități și instanțe („așa se discută în forurile de standardizare internaționale”).

Pentru întreaga serie „AI în Sectorul Juridic din România: LegalTech pentru Avocați”, un astfel de moment marchează trecerea de la „AI ca modă” la AI ca infrastructură de business și reglementare.

Nu mai e vorba dacă folosești AI, ci cum o faci responsabil, documentat și aliniat la standarde europene.


Ce urmează pentru cabinetele de avocatură din România

AI Act, AIEI, coduri de bune practici, LegalTech – par multe lucruri în mișcare simultan. De fapt, traseul e clar pentru orice firmă de avocatură care vrea să rămână relevantă în 2026–2027:

  1. Acceptă că AI va face parte din practica zilnică. Fie că e analiza contractelor, fie cercetarea juridică, competiția va folosi AI.
  2. Construiește un cadru intern clar. Inventar, politică, due diligence, training – acestea sunt „minimul decent” pentru un cabinet modern.
  3. Conectează-te la ce se întâmplă la nivel internațional. Standardele, de la AI Ethics and Integrity International Association la coduri europene de practică, vor deveni rapid referință și în România.

Dacă vrei ca firma ta să fie în partea dreaptă a istoriei digitale a profesiei, întrebarea nu mai este „folosim sau nu AI?”, ci „ce fac azi ca, peste doi ani, AI să fie un atu profesional și nu un risc juridic?”.

Seria „AI în Sectorul Juridic din România: LegalTech pentru Avocați” va continua cu articole dedicate pe:

  • cum arată o politică internă de AI pentru o firmă de avocatură;
  • exemple concrete de analiză automată de contracte și ce spune AI Act despre ele;
  • modele de clauze contractuale pentru furnizori de AI și LegalTech.

Dacă vrei să folosești AI în cabinetul tău și să rămâi în zona de confort juridic, acum e momentul să începi să construiești acest cadru, nu când apar primele controale sau litigii.