Investigația UE împotriva Google arată cum se schimbă regulile jocului în AI. Ce înseamnă pentru firmele IT românești și cum construiești produse AI conforme.
Comisia Europeană a deschis, pe 09.12.2025, o nouă investigație antitrust împotriva Google pentru modul în care compania folosește conținut online și videoclipuri YouTube la antrenarea și afișarea rezultatelor generate de inteligență artificială. Pentru multe firme IT din România care construiesc produse SaaS cu AI sau oferă servicii de dezvoltare software inteligentă, acesta nu e doar un titlu de știre. E un semnal clar: regulile jocului în AI se scriu acum, în timp real, iar cine le ignoră va plăti scump mai târziu.
Acest articol pune lupa pe ce urmărește exact Comisia Europeană, de ce contează pentru companiile românești de tehnologie și cum poți construi produse și servicii AI care să fie atât competitive, cât și conforme cu legislația UE – inclusiv cu viitorul AI Act.
Vom merge direct la esențial: ce se investighează la Google, ce riscuri există pentru orice firmă care își antrenează modelele pe date din online și ce pași concreți poți face ca să nu te trezești cu produsul blocat sau cu clienți mari care te scot de pe shortlist din motive de conformitate.
Ce investighează de fapt Comisia Europeană la Google
Comisia Europeană verifică dacă Google a abuzat de poziția sa dominantă în piață folosind inteligența artificială în moduri incorecte față de editori, creatori și competitori. Sunt trei zone-cheie:
- Sintezele AI în Google Search – Google generează rezumate cu AI folosind conținutul editorilor, afișând mai întâi sinteza și abia apoi linkurile către site-uri.
- Antrenarea modelelor AI cu video-uri YouTube – Google folosește conținutul încărcat de creatori pentru a antrena modele generative, fără compensații clare și fără un mecanism real de opt-out.
- Îngrădirea accesului competitorilor la date – suspiciunea că dezvoltatorii rivali de AI sunt dezavantajați în accesul la YouTube pentru antrenarea propriilor modele.
De ce e Comisia atât de agresivă aici? Pentru că, așa cum a spus Teresa Ribera, vicepreședinte executiv al Comisiei:
„O societate liberă și democratică depinde de diversitatea media, accesul deschis la informații și un mediu creativ vibrant.”
Tradus în limbaj de business IT: dacă un singur jucător deține datele, canalele de distribuție și modelele AI, piața se blochează. Iar UE vrea să evite exact asta.
Ce înseamnă investigația pentru companiile IT românești
Pentru firmele de software din România, reacția firească ar fi să spună: „Noi nu suntem Google, nu ne privește.” Asta e greșeala pe care o fac majoritatea.
Realitatea e următoarea: aceleași principii pe care Comisia le aplică acum unui gigant vor coborî foarte repede și în contractele comerciale dintre firme, în audituri de conformitate și în cerințele RFP-urilor de la clienții enterprise.
Trei efecte concrete pe care le vei vedea în 2026 dacă ești în industria IT:
-
Clienții mari vor cere transparență totală despre datele de antrenare
Dacă ai un produs SaaS cu AI (asistent pentru suport clienți, motor de căutare intern, analiză de documente), te vor întreba negru pe alb:- ce seturi de date folosești;
- dacă ai drepturi clare asupra lor;
- dacă utilizatorii au un mecanism de opt-out.
-
Proprietarii de conținut (media, e-commerce, platforme) vor cere compensații sau interdicții clare
Exact ca editorii din investigația Google, publisherii români vor începe să își pună problema: „Produsul tău AI se antrenează pe conținutul meu? Dacă da, cum sunt compensat?” -
Investitorii și partenerii internaționali vor verifica riscul de non-conformitate AI
Dacă vrei finanțare sau un parteneriat cu un jucător mare din UE sau SUA, întrebările despre AI governance vor sta lângă cele de securitate și GDPR. Un produs construit „la mișto”, pe date luate de peste tot, riscă să blocheze o rundă întreagă.
Pentru seria „AI în Industria IT din România: Servicii și Produse”, acesta e punctul de inflexiune: nu mai e suficient să știi să implementezi modele; trebuie să știi să le implementezi corect, legal și etic.
Lecțiile-cheie pentru firmele care construiesc produse AI
Orice companie IT din România care dezvoltă software inteligent, servicii de testare automatizată sau soluții DevOps cu AI poate extrage câteva lecții clare din cazul Google.
1. Datele pentru antrenarea modelelor nu mai pot fi „la grămadă”
Cea mai riscantă practică pe care încă o văd la multe echipe tehnice este: „Luăm ce găsim pe internet, scrapping, dataset-uri vag gratuite, și vedem după aceea.”
Acest mod de lucru nu va rezista nici juridic, nici comercial.
Ar trebui să știi la orice produs AI:
- din ce surse provin datele;
- în baza cărei licențe le folosești;
- dacă există drepturi de autor, condiții specifice sau obligații de atribuire;
- cum răspunzi dacă un client întreabă: „Ați folosit vreodată datele mele pentru a vă antrena modelul general?”
Recomandare practică:
- creează un
catalog de dateintern, cu sursa, proprietarul și licența fiecărui set de date; - notează explicit ce modele se antrenează pe date proprii, ce modele pe date ale clienților și care sunt strict pentru inferență.
2. Ai nevoie de un mecanism de opt-out, chiar dacă legea nu te obligă încă
Un punct central în investigația Comisiei este acuzația că editorii și creatorii nu pot refuza utilizarea conținutului lor pentru antrenarea AI fără să piardă acces la Google Search sau YouTube.
Pentru un startup sau un integrator AI din România, situația e mai simplă: nu ești poziție dominantă. Dar tocmai de asta poți să fii mai corect și mai transparent decât giganții.
Ce poți face concret:
- dacă ai o platformă cu conținut generat de utilizatori, include în setările de cont o opțiune clară: „Permite folosirea conținutului meu pentru îmbunătățirea modelelor AI”;
- documentează în politica de confidențialitate ce faci cu datele pentru antrenare;
- dacă lucrezi B2B, negociază în contract clauze specifice despre training vs. fine-tuning vs. simple predicții (inferență).
Asta nu doar că reduce riscul juridic, dar devine un argument comercial serios: „Produsul nostru AI respectă drepturile de conținut și vă oferă control asupra datelor.”
3. Nu copia modelul big tech de „mai cerem scuze, nu permisiune”
Marile platforme au crescut pe logica „move fast and break things”. În 2025, acest model e tot mai scump. Google, Meta, Amazon, Microsoft – toți sunt sub lupa autorităților, iar amenzile se duc ușor în zona miliardelor de euro.
O firmă românească nu își permite asta. Un singur litigiu mare îți poate omorî complet business-ul.
Există o abordare mai sănătoasă:
- mai întâi clarifici drepturile, abia apoi antrenezi modelul;
- mai întâi te uiți la legislația UE și la AI Act, apoi alegi arhitectura tehnică;
- mai întâi definești un proces intern de AI governance, apoi scalezi produsul.
Nu sună spectaculos, dar exact acest tip de maturitate caută acum clienții enterprise.
Cum influențează cazul Google strategiile de AI pentru produse SaaS românești
Dacă dezvolți un produs SaaS cu AI pentru piața globală (CRM inteligent, platformă de HR cu analiză predictivă, instrument de QA automatizat, observabilitate DevOps cu AI etc.), investigația împotriva Google îți arată ce va conta tot mai mult în deciziile clienților.
Întrebările la care trebuie să ai răspuns mâine, nu peste un an
-
Model propriu sau modele third-party?
Dacă folosești modele de la furnizori mari, trebuie să știi:- cum își antrenează ei modelele;
- ce garanții îți oferă contractele lor;
- ce poți răspunde dacă un client îți spune: „Nu vreau un model antrenat pe conținut furat.”
-
Cum tratezi datele clientului pentru îmbunătățirea modelului?
Sunt trei abordări:- nu folosești deloc datele clientului pentru training (siguranță maximă, dar înveți mai greu);
- folosești doar metadate/semnale agregate, fără conținut brut;
- folosești datele pentru fine-tuning, dar doar cu consimțământ explicit și cu izolare clară între clienți.
-
Poți demonstra că respecți concurența loială?
Dacă ai și o platformă de conținut, și un produs AI, ai grijă să nu „tragi covorul” de sub parteneri:- nu folosi datele partenerilor pentru a construi un produs care concurează direct cu ei, fără acord;
- nu modifica algoritmii de ranking în favoarea propriilor produse AI, în detrimentul altora, fără să explici clar regulile.
Exemplu realist pentru piața din România
Să zicem că ești o firmă românească ce construiește o platformă SaaS pentru e-learning corporativ, cu funcții AI: generare automată de quiz-uri, rezumate de cursuri, recomandări de conținut.
Unde apar riscurile de tip „Google” la scară mai mică?
- folosești prezentări, PDF-uri și video-uri încărcate de traineri ca să îți antrenezi modelul general;
- creezi un modul AI „smart insights” care concurează, practic, cu serviciile de consultanță ale unor parteneri;
- schimbi modul în care apar recomandările de cursuri, prioritizând conținutul „native” al platformei tale față de cel al partenerilor, fără transparență.
Dacă nu ai clauze clare în contracte și un minim de AI governance, riști conflicte comerciale, nu doar juridice. Iar un singur scandal public îți poate rupe piața exact când încerci să intri în Germania sau Franța.
Pași concreți pentru o strategie AI conformă în compania ta
Ca să nu rămână totul la nivel de principii, iată un checklist simplu pe care l-aș recomanda oricărei companii IT românești care construiește sau implementează AI.
1. Fă un audit intern de AI
Nu trebuie să fie complex sau scump. Dar trebuie să existe.
- listează toate proiectele și produsele unde folosești AI;
- pentru fiecare, notează: ce modele, ce date, ce scop;
- marchează zonele unde sursa datelor e „vagă” sau bazată pe „am găsit pe GitHub/StackOverflow/Google”.
2. Creează politici de AI interne, nu doar o prezentare frumoasă
Un document intern de tip AI Policy ar trebui să acopere:
- ce tipuri de date nu folosești niciodată pentru training (de ex. date sensibile, date personale fără bază legală);
- cum obții consimțământul pentru antrenare;
- cum răspunzi dacă un utilizator sau partener cere ștergerea datelor sale din seturile de training, în limita posibilului tehnic.
3. Pregătește „documentația de încredere” pentru clienți
Clienții serioși nu mai semnează contracte pe încredere verbală. Vor documente.
Pregătește:
- o pagină de documentație tehnică despre cum folosești AI în produs;
- un document de tip „AI & Data Governance Overview” care să explice, pe limba business, cum tratezi datele;
- un răspuns standardizat la întrebarea: „Modelul vostru poate reproduce conținut protejat de copyright?”
4. Urmărește activ AI Act și inițiativele UE
AI Act nu e doar pentru Big Tech. Orice furnizor de produse și servicii AI care ajung pe piața UE intră în joc.
Nu ai nevoie de un departament juridic uriaș, dar ai nevoie de:
- o persoană responsabilă de conformitate AI (poate fi CTO-ul, COO-ul sau chiar un product manager, la început);
- un calendar intern cu momentele-cheie (termene de implementare, ghiduri noi, eventuale linii directoare de la autoritățile române).
De ce merită să iei în serios cazul Google chiar dacă ești „doar” un startup
Investigația Comisiei Europene nu e un episod izolat. Vin la pachet cu alte anchete, amenzi, AI Act, DSA, DMA. Toate transmit același mesaj: era AI-ului „fără reguli” s-a închis.
Pentru ecosistemul IT din România, asta e o oportunitate, nu un handicap.
Cine reușește să îmbine:
- competența tehnică în AI (modele, MLOps, DevOps cu AI, testare automatizată inteligentă)
- cu maturitatea de conformitate (date curate, permisiuni clare, respect pentru creatori și competitori)
are o șansă reală să vândă produse SaaS pe piețe unde clienții au bugete mari și cerințe serioase – Germania, Franța, Olanda, țările nordice.
Iar când un potențial client te întreabă: „Cum abordați voi folosirea conținutului în produsele AI?”, poți răspunde simplu:
„Am învățat din ce se întâmplă acum cu Google și am construit produsul exact ca să evităm aceste probleme.”
Asta nu e doar o replică bună de sales. E o strategie de business care îți poate ține compania în joc și peste cinci ani.