Publicitatea generată de AI deschide un front juridic nou în România. Vezi ce aduce AI Act, DSA, GDPR și cum pot avocații folosi LegalTech pentru a-și consilia clienții.

Publicitate AI și răspundere juridică: ghid practic pentru avocați
În 2025, o campanie online pentru un client de e‑commerce din România și‑a triplat conversiile după ce agenția a trecut la reclame generate de AI și micro‑targetare comportamentală. La două luni distanță, același client primește o investigație de la ANPC pentru practici comerciale agresive și o notificare de la ANSPDCP privind profilarea excesivă.
Acesta nu e un scenariu teoretic. Este noul tip de dispută care va intra tot mai des pe biroul avocaților, mai ales în contextul intrării în vigoare a AI Act, DSA, Regulamentului privind publicitatea politică și presiunii crescânde pe protecția datelor. Pentru cabinetele de avocatură care lucrează cu retail, fintech, platforme, agenții de marketing sau partide politice, publicitatea generată de inteligență artificială a devenit un risc juridic major — dar și o oportunitate de specializare.
Articolul de față pornește de la analiza „Programat să crezi: provocări juridice ale publicității AI (2025)” și o duce într‑o zonă foarte practică pentru avocați din România: ce spune efectiv dreptul UE, unde sunt găurile de reglementare, cum ar trebui să arate o analiză de risc și cum vă poate ajuta LegalTech și AI juridic să gestionați acest nou tip de dosare.
1. De ce publicitatea generată de AI devine un subdomeniu juridic de sine stătător
Publicitatea AI nu mai înseamnă doar „bannere mai inteligente”. Înseamnă:
- mesaje hiper‑personalizate pe baza unui profil psihologic detaliat;
- conținut generat integral de modele generative (texte, imagini, video, deepfake);
- campanii optimizate în timp real de algoritmi, fără intervenție umană vizibilă;
- micro‑mesaje invizibile pentru publicul larg, dar decisive pentru un segment îngust.
Pentru un avocat, asta schimbă radical analiza clasică „e sau nu e publicitate înșelătoare?”. Nu mai discutăm doar despre un slogan sau o broșură, ci despre:
- lanțuri de răspundere (developer AI – platformă – agenție – client);
- profilare intensă și date sensibile (GDPR + AI Act);
- manipulare psihologică și tehnici subliminale (interzise direct de AI Act);
- riscuri de discriminare algoritmică și încălcarea egalității de tratament între consumatori.
Realitatea? Este un teren prea complex pentru a fi gestionat „din memorie”. Fără instrumente LegalTech și know‑how pe AI, un cabinet de avocatură riscă să nu poată evalua nici măcar factual cum funcționează sistemul care generează reclama.
2. Cadrul european: ce trebuie să știe, efectiv, un avocat
Pentru publicitatea generată sau targetată de AI, patru acte europene lucrează împreună:
- AI Act (Regulamentul 2024/1689)
- UCPD – Directiva 2005/29/CE privind practicile comerciale neloiale
- DSA – Regulamentul 2022/2065 privind serviciile digitale
- GDPR – Regulamentul 2016/679 privind protecția datelor
2.1. AI Act: interdicții, risc ridicat și etichetare
Pentru avocați, AI Act introduce trei lucruri cheie în zona de publicitate:
-
Interdicții directe (art. 5):
- tehnici subliminale care afectează comportamentul unei persoane;
- exploatarea vulnerabilităților de vârstă, handicap sau situație socială;
- sisteme AI proiectate pentru manipulare psihologică profundă.
-
Sisteme cu risc ridicat (art. 14 și urm.):
- anumite sisteme de recomandare și targetare pot fi clasificate ca „high‑risk”;
- obligația clientului dvs. (operatorul) de evaluare de risc, supraveghere umană reală și documentație tehnică.
-
Transparență pentru conținut generat sau alterat de AI:
- conținutul „substanțial modificat” sau generat de AI trebuie marcat vizibil;
- deepfake‑urile în publicitate (inclusiv politică) trebuie etichetate clar.
În practică, asta înseamnă că analiza juridică nu se mai oprește la textul reclamei. Trebuie să puneți întrebări tehnice: ce model a fost folosit, ce date de antrenament, există control uman efectiv, cum se marchează conținutul AI în UI.
2.2. UCPD și DSA: de la „reclamă mincinoasă” la micro‑targetare opacă
UCPD rămâne „coloana vertebrală” a protecției consumatorilor, dar aplicată într‑un context nou:
- orice informație falsă sau omisiune înșelătoare în conținutul generat de AI rămâne sancționabilă;
- presiunea psihologică artificială (false urgențe, FOMO, apel la frică) poate fi calificată drept practică agresivă;
- exploatarea credulității prin mesaje hiper‑personalizate pentru persoane vulnerabile intră tot în zona UCPD.
DSA mută însă o parte din responsabilitate pe platformele foarte mari:
- obligația de a eticheta clar reclamele, inclusiv cele generate de AI;
- transparență privind criteriile de targetare și posibilitatea utilizatorului de a înțelege „de ce văd eu asta?”;
- mecanisme rapide de raportare a conținutului problematic.

Pentru avocații care consiliază marketplace‑uri sau platforme media, asta înseamnă politici interne noi, proceduri și, ideal, instrumente AI de monitorizare automată a reclamelor.
2.3. GDPR: profilare intensivă, consimțământ și decizii automate
În publicitatea AI, GDPR contează mai mult decât oricând:
- profilarea în scop publicitar are nevoie de consimțământ explicit, informat și ușor revocabil;
- când decizii automate produc efecte semnificative (de ex. excluderea unor utilizatori de la anumite oferte), intervine art. 22 GDPR – dreptul de a nu fi supus exclusiv deciziilor automate;
- persoana vizată are dreptul la explicații clare privind logica deciziei și la intervenție umană reală.
Recomandare pragmatică: în cabinetele orientate spre business, un checklist standard pentru campanii bazate pe AI (UCPD + AI Act + DSA + GDPR) devine aproape obligatoriu. Acest checklist poate fi parțial automatizat cu un instrument LegalTech care generează analiza inițială și întrebările esențiale pentru client.
3. Riscuri noi: micro‑targetare, deepfake și camere de ecou
3.1. Micro‑targetare și hiper‑personalizare: unde începe manipularea?
Micro‑targetarea nu e, în sine, ilegală. Devine problematică atunci când:
- se folosesc date sensibile (opinie politică, sănătate, orientare sexuală) fără consimțământ;
- mesajul este proiectat să exploateze temeri sau traume personale;
- conținutul este atât de fragmentat încât nu mai poate fi analizat public (mesaje diferite pentru fiecare individ).
Exemplu practic pentru litigii viitoare: două persoane văd aceeași ofertă de credit, dar una primește doar mesaje optimiste, cealaltă mesaje care apasă pe anxietate și nesiguranță financiară. Ambele „au fost informate”, dar tratamentul e radical diferit.
Din perspectivă de avocat, întrebarea devine: este aceasta manipulare psihologică nepermisă sau doar marketing agresiv? AI Act împinge răspunsul în direcția manipulării atunci când se exploatează vulnerabilități ușor identificabile algoritmic.
3.2. Deepfake în publicitate și campanii politice
Deepfake‑urile sunt deja suficient de realiste încât un utilizator obișnuit nu le poate distinge. În publicitate comercială, un deepfake al unui influencer poate însemna:
- încălcarea dreptului la imagine;
- concurență neloială;
- practică comercială înșelătoare.
În publicitate politică, riscul este și mai mare:
- camere de ecou informaționale (fiecare grup vede „propriul adevăr”);
- amplificarea dezinformării în perioade electorale;
- încălcarea principiului de egalitate a informării.
Regulamentul 2024/900 impune deja:
- marcare vizibilă a mesajelor politice;
- indicarea clară a sponsorului;
- transparență privind costurile și mecanismele de targetare.
Pentru avocați, asta înseamnă o nouă nișă: audituri juridice pentru campanii politice algoritmice, pregătirea de politici interne pentru partide și consultanți, plus reprezentare în litigii privind dezinformarea și încălcarea legislației electorale.
4. Marea problemă: trasabilitate și răspundere în lanțul AI
Când o reclamă este „scrisă” de un copywriter, răspunderea se duce direct la comerciant și, eventual, la agenție. Când reclama este generată de un sistem AI dinamic, logica se rupe:
- modelul AI a fost dezvoltat de un furnizor A;
- este integrat într‑o platformă B;
- agenția C configurează prompturi și reguli;
- comerciantul D îl folosește în campaniile proprii.
Când conținutul final e înșelător sau discriminatoriu, cine răspunde?
Astăzi, dreptul tinde să arunce răspunderea în brațele comerciantului (UCPD), dar:

- dacă sistemul AI se comportă altfel decât a fost prezentat în contract;
- dacă platforma nu a oferit instrumentele de transparență cerute de DSA;
- dacă furnizorul de AI nu respectă obligațiile AI Act pentru sistemele cu risc ridicat,
apare spațiul pentru recursuri contractuale, regres și litigii între actorii din lanț.
Aici e zona unde avocații pot aduce valoare reală:
- structurarea contractelor de furnizare AI cu clauze clare de răspundere și audit;
- due diligence tehnico‑juridic asupra furnizorilor de AI utilizați de clienți;
- crearea de policy‑uri interne pentru folosirea AI în marketing.
Un instrument LegalTech bine calibrat poate automatiza:
- maparea lanțului de actori;
- identificarea obligațiilor specifice pentru fiecare (AI Act, DSA, GDPR);
- generarea de matrici de răspundere și recomandări de clauze contractuale.
5. Cum pot folosi avocații AI și LegalTech în analiza publicității AI
Există o ironie sănătoasă aici: pentru a consilia corect pe AI în publicitate, avocații au nevoie ei înșiși de AI juridic. Nu pentru a „înlocui avocatul”, ci pentru a gestiona volumul și complexitatea.
5.1. Trei utilizări concrete pentru un cabinet din România
-
Screening automat al campaniilor
- încărcați brieful de campanie, exemple de reclame, flow‑uri de funnel;
- sistemul AI juridic marchează automat zonele de risc (manipulare, lipsă consimțământ, profilare excesivă);
- primiți o listă structurată de întrebări de clarificat cu agenția/marketingul intern.
-
Analiză rapidă multi‑reglementare
- un LegalTech configurat pe dreptul UE și român poate genera:
- sinteza obligațiilor relevante (AI Act, DSA, GDPR, UCPD);
- diferențiere între publicitate comercială și politică;
- propuneri de etichetări și note de informare pentru utilizatori.
- un LegalTech configurat pe dreptul UE și român poate genera:
-
Șabloane dinamice de contracte și politici
- clauze pentru furnizori de AI (audit, transparență, garanții);
- politici interne de folosire AI în marketing și social media;
- proceduri pentru răspuns rapid la incidente (conținut înșelător, deepfake, plângeri ANSPDCP/ANPC).
Cabinetele care își construiesc acum astfel de fluxuri, cu ajutorul AI juridic, vor avea un avantaj competitiv clar: pot răspunde mai rapid, mai structurat și pot gestiona volume mari de campanii și clienți.
5.2. Ce întrebări ar trebui să puneți clienților, de fiecare dată
Un mic „checklist de conversație”, ușor de automatizat într‑un chatbot intern de firmă:
- Ce tip de AI folosiți în campanie (generativ, recomandare, scoring)?
- Ce date folosiți pentru profilare? Există date sensibile sau inferențe despre sănătate, politică, religie?
- Mesajele sunt identice pentru toți sau hiper‑personalizate?
- Sistemul poate fi controlat de o persoană sau funcționează complet autonom?
- Conținutul AI este etichetat ca atare pentru utilizatori?
- Puteți explica unui utilizator de ce a primit o anumită reclamă?
Răspunsurile la aceste întrebări determină instant unde trebuie să intrați mai adânc ca avocat și ce riscuri trebuie ridicate în scris către client.
6. Ce urmează și de ce e un moment bun să vă poziționați pe acest domeniu
AI în sectorul juridic din România nu mai înseamnă doar analiză automată de contracte sau research juridic. Unul dintre cele mai dinamice fronturi va fi consultanța pe publicitate generativă, manipulare informațională și protecția consumatorilor.
Acum, în decembrie 2025, regulile europene sunt suficiente ca structură, dar încă există multe zone gri: micro‑mesaje, hiper‑personalizare extremă, distribuția răspunderii între furnizori AI și utilizatori, standardele de audit. Tocmai de aceea, firmele care își fac timp să înțeleagă subiectul și investesc în LegalTech dedicat au șansa să devină referință națională pe acest tip de mandate.
Pentru un cabinet de avocatură din România, pașii următori logici sunt:
- definirea internă a unei practici „AI & Publicitate”;
- implementarea unui set minim de instrumente AI juridice pentru screening, research și generare de documente;
- educarea clienților prin newslettere, webinarii și opinii publice pe subiect.
Publicitatea AI va continua să se rafineze. Întrebarea nu e dacă va genera litigii și investigații, ci câte dintre ele vor ajunge pe masa avocaților pregătiți tehnic și câte vor fi tratate „la grămadă”. Dacă vă interesează zona LegalTech, acum este momentul să o conectați direct la acest val de reglementări și să transformați riscul clienților într‑o linie nouă de practică pentru firmă.