Declarația de la Lisabona schimbă regulile pentru AI în drept. Află ce înseamnă pentru avocați, LegalTech românesc și practica juridică din România.

Declarația de la Lisabona: semnal de alarmă pentru avocați și LegalTech în România
Pe 10 decembrie 2025, Consiliul Europei a publicat Declarația de la Lisabona privind inteligența artificială și guvernanța globală. Nu este doar încă un document diplomatic, ci un indicator clar: standardele internaționale pentru AI se mută rapid din teorie în practică, inclusiv în profesiile juridice.
Pentru avocații din România și pentru firmele de IT care dezvoltă soluții LegalTech, acest text e mai degrabă o hartă decât o știre. Arată ce așteaptă Europa de la viitoarele tehnologii juridice bazate pe inteligență artificială și ce vor verifica mâine clienții, judecătorii și autoritățile.
În seria „AI în Industria IT din România: Servicii și Produse”, Declarația de la Lisabona este punctul în care discuția trece de la „ce putem construi tehnic” la „ce avem voie și cum trebuie construit, ca să fie legal, etic și vandabil în Europa”.
1. Ce este, de fapt, Declarația de la Lisabona și de ce contează pentru juriști
Declarația de la Lisabona sintetizează concluziile Lisbon Forum 2025, axat pe tema „AI and Global Governance: Rights, Representativity and Readiness”. Participanții au venit din Europa, Africa, Orientul Mijlociu, America Latină și Asia – deci vorbim de un document cu ambiții globale, nu doar europene.
Mesajul central este clar: AI nu mai e doar o chestiune tehnologică sau de reglementare punctuală, ci o transformare civică și culturală care schimbă:
- identități și moduri de participare civică,
- accesul la drepturi,
- funcționarea instituțiilor democratice.
Declarația se sprijină pe un pilon juridic foarte important pentru noi: Convenția-cadru a Consiliului Europei privind inteligența artificială, drepturile omului, democrația și statul de drept. Asta înseamnă două lucruri esențiale pentru sectorul juridic din România:
- Limbajul juridic al AI se standardizează la nivel european. Termeni precum „human-centric”, „responsabilitate”, „transparență algoritmică” vor ajunge în contracte, politici interne și litigii.
- Cooperarea interregională devine normă. Soluțiile LegalTech românești care vor să iasă din țară trebuie gândite de la început pentru conformitate internațională, nu doar locală.
Pentru o casă de avocatură din București sau Cluj, Declarația e un semnal: clienții vor începe să întrebe ce AI folosiți, cum îl controlați și ce riscuri juridice există. Iar răspunsul „folosim un tool, nu știm exact cum funcționează” nu va mai ține mult.
2. Standardele internaționale pentru AI – cum ajung la ușa cabinetului de avocatură
Declarația insistă pe trei axe care lovesc direct în practica juridică: drepturi, reprezentativitate, pregătire (readiness).
2.1. Drepturi: AI trebuie să respecte drepturile omului, nu invers
Pentru avocați, drepturile omului nu mai sunt doar o chestiune de litigii la CEDO. Devine obligatoriu să gândim:
- Cum afectează un algoritm de scorare a riscului de credit nediscriminarea?
- Cum influențează un sistem de triere automată a dosarelor accesul la justiție?
- În ce fel un chatbot juridic poate induce în eroare clientul și afecta dreptul la informare corectă?

Un exemplu foarte concret:
Dacă un cabinet de avocatură folosește un sistem AI pentru analiza automatizată a contractelor, trebuie să poată explica măcar în linii mari de ce sistemul a marcat o clauză ca fiind cu risc ridicat și ce limite are analiza.
Asta nu este doar bun-simț profesional. E viitoarea linie de apărare în litigii: „ați folosit un algoritm opac, fără control uman adecvat”.
2.2. Reprezentativitate: datele strâmbe produc dreptate strâmbă
Declarația pune accent pe reprezentativitate. Tradus în lumea juridică și IT românească:
- Dacă antrenezi un model AI doar pe jurisprudență dintr-o anumită regiune sau doar pe anumite tipuri de dosare, vei avea predicții părtinitoare.
- Dacă soluțiile LegalTech sunt gândite doar pentru marile firme de avocatură, micile cabinete și justițiabilii obișnuiți rămân în afara „noii normalități digitale”.
Pentru furnizorii români de software juridic inteligent, asta înseamnă:
- să documenteze clar seturile de date folosite;
- să explice clienților unde modelul e puternic și unde e slab;
- să evite promisiuni nerealiste de tip „IA care știe tot dreptul românesc”.
2.3. Readiness: nu e suficient să ai AI, trebuie să știi să-l folosești
„Readiness” în Declarație înseamnă pregătirea actorilor – stat, sector privat, societate civilă – pentru a înțelege și guverna AI.
Pentru cabinete de avocatură:
- e nevoie de politici interne de utilizare a AI, nu doar de abonamente la tool-uri;
- formarea continuă devine critică: avocații trebuie să înțeleagă diferența dintre generative AI, predictive AI și simple motoare de căutare avansate;
- trebuie stabilit un minim standard de due diligence tehnologic când se selectează un furnizor de soluții AI.
Pentru firmele IT care construiesc produse LegalTech:
- „user education” devine parte din produs: ghiduri juridico-tehnice, explicarea limitelor AI, configurare orientată pe conformitate.
3. Unde lovește cel mai tare în practica avocatului: contracte, litigii, compliance
Declarația de la Lisabona nu enumeră explicit domenii de practică, dar efectele sunt ușor de anticipat. Sunt trei zone în care AI și noile standarde internaționale schimbă regulile jocului pentru avocații din România.
3.1. Analiza contractelor cu AI: oportunitate și risc în același ecran

Tot mai multe cabinete testează sau folosesc deja tool-uri de analiză automată a contractelor. Declarația și Convenția-cadru pun însă presiune pe:
- transparență: ce face concret algoritmul, ce tip de clauze știe să detecteze;
- control uman: cine verifică rezultatele, ce procedură internă există când AI „ratează” ceva important;
- protecția datelor: unde ajung contractele încărcate, cum sunt stocate, cine are acces.
Un flux de lucru responsabil poate arăta așa:
- Avocatul decide ce tip de contract poate fi analizat cu AI (de ex. contracte standardizate, nu tranzacții M&A complexe).
- AI marchează clauze cu risc (ex: penalități, confidențialitate, jurisdicție).
- Avocatul validează, corectează și își asumă opinia juridică; raportul AI nu ajunge direct la client.
- Cabinetul ține o evidență internă a tipurilor de erori pe care le face AI, pentru a calibra utilizarea.
3.2. Predicția rezultatelor procesuale: utilă, dar periculoasă dacă e luată „ca literă de lege”
În industria IT juridică se dezvoltă tot mai multe soluții de analiză statistică a jurisprudenței: șanse de admitere a unei acțiuni, profilul instanței, durata medie a procesului.
Prin prisma Declarației de la Lisabona:
- aceste instrumente sunt acceptabile doar ca suport decizional, nu ca înlocuitor al raționamentului juridic;
- trebuie clar comunicat clientului că „70% șanse de admitere” este un indicator probabilistic, nu o promisiune;
- avocații trebuie să fie atenți la riscul de automație: tendința de a urma orbește „sugestia AI” pentru că „așa zice tool-ul”.
Realitatea e simplă:
Avocatul care știe să folosească software de analiză a jurisprudenței câștigă timp și argumente mai bune; avocatul care îl transformă în „oracol infailibil” își asumă un risc profesional serios.
3.3. Compliance și audit de AI: noul tip de serviciu juridic
Pe măsură ce AI se reglementează mai strict (la nivel UE, Consiliul Europei, dar și național), companiile vor avea nevoie de audit juridic pentru sistemele lor AI.
Aici se deschide un segment de piață clar pentru avocați și firme mixte IT–drept:
- evaluarea conformității cu standardele de non-discriminare, transparență, guvernanță internă;
- redactarea de politici interne de utilizare a AI în companii (inclusiv pentru HR, marketing, vânzări);
- asistență în relația cu autorități de supraveghere (de ex. în contextul protecției datelor sau al viitoarei autorități naționale pentru AI).
Cabinetele care colaborează cu echipe IT românești specializate în audit tehnic de modele AI pot oferi un pachet complet: analiză juridică + analiză tehnică. Asta devine un avantaj competitiv serios atât pe piața locală, cât și pe proiecte transfrontaliere.
4. Ce trebuie să facă acum cabinetele de avocatură din România
Declarația de la Lisabona nu e un text facultativ pentru olimpici la drept, ci un reper pentru oricine vrea să rămână relevant profesional după 2026. Iată o foaie de parcurs realistă.

4.1. Politică internă de utilizare a AI în cabinet
Primul pas este să nu mai operați „la inspirație” cu AI. E nevoie de reguli scrise, chiar dacă sunteți un cabinet mic:
- în ce tipuri de activități e permisă utilizarea AI (research, drafturi inițiale, sumarizare);
- ce informații nu se introduc niciodată în tool-uri AI (date sensibile, informații confidențiale ale clienților, strategii procesuale);
- cine aprobă folosirea unui nou produs LegalTech și după ce criterii (securitate, confidențialitate, claritatea termenilor și condițiilor).
4.2. Formare minimă obligatorie în AI pentru avocați și personal
Nu e realist ca toți avocații să devină experți în machine learning. Dar este realist ca toți să înțeleagă:
- diferența între model generativ și bază de date căutabilă;
- ce înseamnă bias într-un algoritm și cum poate afecta un client;
- care sunt principalele riscuri juridice: confidențialitate, drepturi de autor, protecția datelor, răspundere profesională.
Un program intern de 4–6 ore pe an, eventual cu implicarea unei firme IT care dezvoltă produse cu AI, poate ridica radical nivelul de „readiness” al cabinetului.
4.3. Colaborare reală cu firme IT românești specializate în AI juridic
Seria „AI în Industria IT din România: Servicii și Produse” arată clar: avem deja pe piață dezvoltatori locali de software juridic inteligent, soluții SaaS pentru cabinete, instrumente de analiză a jurisprudenței și automatizare a documentelor.
Pentru cabinete, colaborarea poate lua forme concrete:
- pilotarea unor produse LegalTech românești, cu feedback juridic structurat;
- co-dezvoltarea de module specifice (de ex. pentru litigii de muncă, drept imobiliar, achiziții publice);
- parteneriate comerciale: cabinetul devine canal de recomandare pentru soluția IT, iar furnizorul oferă suport tehnic prioritar și personalizare.
Câștigă toată lumea:
- avocații au acces la tehnologie adaptată dreptului românesc;
- firmele IT au expertiză juridică solidă și un canal de validare în practică;
- clienții primesc servicii mai rapide și mai bine documentate.
5. Direcția de mers: LegalTech românesc aliniat la standardele Lisabona
Declarația de la Lisabona fixează direcția: AI centrat pe om, etic, incluziv și responsabil. Pentru ecosistemul juridic și IT din România, asta înseamnă câteva lucruri foarte clare:
- cabinetele de avocatură nu mai pot ignora AI, dar nici nu îl pot folosi haotic;
- produsele LegalTech românești care vor să conteze la nivel european trebuie proiectate „by design” pentru conformitate cu drepturile omului, democrația și statul de drept;
- serviciile juridice de tip consultantă și audit AI vor deveni o verticală importantă în următorii 2–3 ani.
Dacă ești avocat, întrebarea nu mai este „folosesc sau nu AI?”, ci „în ce condiții îl folosesc, ce îmi asum și ce explic clientului?”.
Dacă ești fondator sau product manager într-o firmă IT românească ce dezvoltă soluții juridice cu AI, întrebarea cheie este: „Poate produsul meu trece testul Lisabona: respectă drepturile, e transparent, e responsabil?”.
Cine răspunde onest, își ajustează practicile și construiește alianțe reale între juriști și specialiști IT va fi în avantaj. Restul vor descoperi standardele internaționale în sala de judecată, nu în faza de design.