Fraude de sărbători: cum protejezi firma înainte de AI

AI în Industria IT din România: Servicii și ProduseBy 3L3C

Fraudele online explodează de sărbători. Află cum securitatea cibernetică devine primul pas obligatoriu înainte de orice proiect AI în compania ta.

securitate ciberneticăAI în businessphishingfraude onlineproduse SaaSindustrie IT România
Share:

Most companiile pornesc greșit cu AI: cumpără licențe, fac proiecte pilot, dar ignoră complet securitatea cibernetică. Apoi se miră că apar incidente, date scurse, conturi sparte sau fraude făcute chiar cu datele pe care le-au „băgat” în AI.

În decembrie, fenomenul se vede cel mai clar. Volumul de emailuri, SMS-uri și mesaje pe social media explodează, iar atacatorii profită. Exact ce explică și specialiștii de la Directoratul Național de Securitate Cibernetică (DNSC): în perioada sărbătorilor, mesajele de phishing cresc puternic, inclusiv pe TikTok, iar escrocii se bazează pe emoție și grabă.

Pentru o companie IT sau pentru orice business românesc care vrea să implementeze AI (de la ChatGPT până la modele proprii de machine learning), asta nu mai este doar o problemă „de IT”. Este fundamentul pe care construiești sau pe care se dărâmă tot.

În articolul de față, legăm avertismentul DNSC de întrebarea-cheie pentru 2026: cum îți securizezi datele și infrastructura digitală ca să poți folosi în siguranță AI în business?

1. De ce securitatea cibernetică este prima investiție înainte de AI

Dacă vrei să folosești AI în companie – pentru analiză de date, automatizări, chatboturi sau detecție de fraudă – trebuie să pornești de la un adevăr simplu:

AI amplifică tot: și eficiența, și riscurile.

Dacă datele tale sunt prost protejate, un proiect AI nu doar că nu rezolvă problema, dar o face mai mare:

  • mai multe integrări,
  • mai multe conturi,
  • mai multe API-uri,
  • mai multe puncte de atac.

Avertismentul lui Mihai Rotariu (DNSC) despre mesajele de sărbători și conturile compromise lovește fix în miezul problemei: atacatorii nu mai atacă direct servere, ci oamenii și conturile lor digitale. Odată ce au compromis un cont de social media, un email sau un canal de suport, pot:

  • impersona brandul tău;
  • cere clienților date, coduri sau bani;
  • fura accesul la alte sisteme (inclusiv platforme AI și tooluri SaaS);
  • antrena în mod indirect modele AI pe date false (dacă fluxurile nu sunt curate și securizate).

De ce contează asta pentru AI în business?

Pentru că orice proiect AI respectabil în 2025–2026 se bazează pe:

  • date istorice (CRM, ERP, suport, social media);
  • integrări cu aplicații cloud (Jira, Slack, Teams, GitHub, Google Workspace, 365 etc.);
  • conturi de acces pentru angajați și parteneri.

Dacă aceste conturi sunt vulnerabile, orice sistem AI construit peste ele moștenește vulnerabilitatea.

2. Cum arată noile atacuri de tip phishing în România (și de ce „sună autentic”)

DNSC descrie foarte clar dinamica actuală a atacurilor:

Atacatorii folosesc conturi nou create care impersonează conturi de suport sau conturi existente, deja compromise, care au audiență și încredere.

Pe scurt, nu mai vorbim despre emailuri stângace, cu greșeli grosolane, ci despre:

  • Mesaje de sărbători: felicitări, „cadouri”, vouchere de Crăciun;
  • Mesaje aparent de la prieteni sau colegi: „Uită-te la poza asta”, „Vezi ce ți-am trimis”, „Votează-mă în concursul X” – dar linkul duce către o pagină de phishing;
  • Mesaje de la „suport oficial”: „Contul tău va fi suspendat”, „Trebuie să confirmi identitatea până la ora X”, „Actualizează parola acum”.

Iar în 2025, mai apare un nivel de rafinament: AI este folosit chiar de atacatori.

DNSC subliniază un detaliu esențial:

Nu te mai poți baza doar pe greșeli de gramatică sau exprimare. Un atacator poate folosi instrumente de inteligență artificială pentru a scrie un mesaj perfect în limba română.

Asta înseamnă că un email sau un mesaj pe TikTok, Facebook, Instagram, WhatsApp, care pare impecabil redactat în română, nu este automat legitim.

Semnale de alarmă pentru companii și IT

Pentru un business românesc, în special în IT, scenariul arată cam așa:

  • Un angajat primește un mesaj „oficial” de la un cont de suport (TikTok, Meta, Google, „Departamentul IT”) în care i se cere:
    • să dea click pe un link;
    • să introducă datele de autentificare;
    • să furnizeze un cod 2FA;
    • să descarce un atașament.
  • Atacatorul obține astfel acces la contul respectiv.
  • Din acel cont, trimite mai departe mesaje către:
    • colegi (intern);
    • clienți sau parteneri (extern);
    • canale de promovare (social media de brand);
    • eventual chiar aplicații interne, dacă SSO-ul este configurat superficial.

Rezultatul: compromitere în lanț. Iar dacă peste aceste sisteme rulezi și un proiect AI (de exemplu, un asistent intern antrenat pe datele din mail, chat și documente), atacatorul poate ajunge să „vadă” exact ceea ce vezi și tu.

3. AI ca scut, nu doar ca risc: folosirea machine learning pentru prevenirea fraudelor

Multă lume vorbește despre AI ca risc de securitate. Eu sunt destul de tranșant aici: AI este și cea mai bună unealtă de apărare, dacă știi ce faci.

Companiile IT din România care construiesc produse SaaS sau soluții enterprise deja folosesc AI pentru:

  • detecție de fraudă în timp real pe tranzacții;
  • scoruri de risc pentru utilizatori și dispozitive;
  • monitorizare de acces și anomalii în rețea;
  • filtrarea emailurilor și mesajelor suspecte.

Cum ajută AI la prevenirea phishing-ului și fraudelor

  1. Analiza comportamentală

    • Modelele de machine learning învață cum arată activitatea „normală” a unui utilizator sau a unui cont de firmă.
    • Când cineva se conectează dintr-o locație sau un dispozitiv neobișnuit, sau schimbă brusc tiparul de acțiuni (ex. descarcă într-o oră mai multe GB de date sensibile), sistemul trimite alertă sau blochează temporar accesul.
  2. Clasificarea mesajelor suspecte

    • Un model de AI poate analiza emailuri, mesaje de suport, DM-uri, comentarii și poate marca automat:
      • linkuri suspecte;
      • cereri de date sau coduri;
      • mesaje cu „strat de urgență” nenatural.
  3. Evaluarea reputației unui cont sau IP

    • AI poate agrega istoricul interacțiunilor și rapoartelor de abuz;
    • poate marca automat conturi „potențial compromise”, mai ales dacă au avut schimbări bruște de activitate (așa cum descrie DNSC).
  4. Protejarea canalelor de suport și social media

    • Pentru companiile care oferă suport clienților pe WhatsApp, Messenger, TikTok sau alte rețele, un layer AI poate verifica dacă:
      • cineva a schimbat adresa de contact oficială;
      • apar clone de conturi cu nume sau poze similare;
      • clienții raportează mesaje frauduloase în numele brandului.

Realitatea? Nu poți preveni frauda 100%, dar poți reduce dramatic impactul folosind AI ca filtru permanent.

4. Cum pregătești compania: pașii concreți înainte de orice proiect AI

Dacă ai o firmă de IT, un startup SaaS sau o companie care vrea să implementeze AI în 2026, ordinea firească este asta:

  1. Igienă digitală și proceduri clare

    • Politică explicită de securitate pentru angajați:
      • nu se dau coduri sau parole prin mesaje;
      • companiile (bănci, rețele sociale, furnizori SaaS) nu cer niciodată coduri 2FA prin email sau chat;
      • orice mesaj „urgent” se verifică printr-un alt canal (telefon, aplicație oficială).
    • Training periodic (măcar de două ori pe an) cu simulări de phishing.
  2. Autentificare robustă înainte de orice integrare AI

    • Activează MFA/2FA peste tot, în special pe:
      • conturi de cloud (AWS, Azure, GCP);
      • GitHub / GitLab;
      • sistemele interne de ticketing și suport;
      • toolurile AI folosite de echipă (de ex. platforme gen copil chatGPT enterprise, soluții RAG etc.).
    • Folosește SSO cu politici clare de offboarding (când pleacă cineva, îi tai accesul peste tot dintr-un singur loc).
  3. Segmentarea datelor pentru proiectele AI

    Înainte să „hrănești” un model AI cu datele firmei:

    • separă clar:
      • date sensibile (financiare, salariale, date de clienți);
      • date interne non-sensibile (proceduri, materiale de training);
      • date publice.
    • pornește proiectele AI cu setul non-sensibil, abia apoi extinde.
  4. Monitorizare și răspuns la incidente

    • Setează logare centralizată (SIEM, cel puțin bazat pe unelte standard open-source sau cloud native).
    • Definește clar cine face ce în caz de incident:
      • cine blochează conturile;
      • cine comunică cu clienții;
      • cine documentează incidentul;
      • cine colaborează cu autoritățile (inclusiv DNSC – numărul 1911 este relevant și pentru companii, nu doar pentru persoane fizice).
  5. Colaborare strânsă între echipa AI și echipa de securitate

    În multe firme românești, echipa care „face AI” lucrează separat de echipa de securitate. Asta e o greșeală.

    Orice:

    • nou pipeline de date;
    • nou model antrenat;
    • nouă integrare cu un API extern trebuie să fie revizuite și din perspectivă de securitate.

5. Mesaje de sărbători, conturi compromise și reputația brandului tău

Mihai Rotariu punctează un lucru pe care îl subestimează multe companii: mesajele aparent „de la prieteni” sau „din partea companiei” de sărbători sunt unealta ideală pentru atacatori.

Atacatorul îți poate folosi chiar brandul împotriva ta:

  • creează un cont fals de TikTok, Instagram sau Facebook cu logo-ul tău;
  • trimite mesaje de „campanie de Crăciun”, „concurs” sau „super ofertă”;
  • cere oamenilor să dea click pe un link, să introducă date sau să trimită bani.

Dacă nu ai:

  • proceduri;
  • mesaje oficiale standardizate;
  • pagină clară cu „Cum comunicăm cu voi și ce NU vă vom cere niciodată”,

clienții tăi nu știu să facă diferența între tine și un atacator care te impersonază.

În contextul în care tot mai multe companii IT din România își construiesc chatboturi de suport, asistenți virtuali și aplicații SaaS cu AI, problema devine și mai sensibilă:

  • Dacă un client primește un mesaj de la „asistentul tău AI” (sau dintr-un canal care pare oficial) și este păcălit, reputația ta suferă, chiar dacă tehnic nu e vina ta.
  • Dacă un atacator compromite contul de suport sau de social media și se folosește de el pentru fraudă, ai un incident de securitate care îți poate afecta vânzările luni de zile.

Ce poți face practic ca brand românesc

  • Comunică public, clar, pe toate canalele:
    • cum arată mesajele tale de campanie;
    • ce NU vei cere niciodată (parole, coduri 2FA, PIN-uri);
    • cum poate verifica cineva dacă un mesaj este autentic (telefon, email oficial, secțiune din aplicație).
  • Folosește AI pentru a monitoriza mențiuni ale brandului și clone de conturi.
  • Publică periodic avertismente când apar valuri de phishing (de Crăciun, Black Friday, început de an etc.).

6. De ce acest subiect ține direct de „AI în Industria IT din România”

Seria „AI în Industria IT din România: Servicii și Produse” vorbește despre cum construiesc firmele locale:

  • software inteligent;
  • testare automatizată;
  • DevOps cu AI;
  • produse SaaS pentru piața globală.

Realitatea este simplă: niciunul dintre aceste produse nu rezistă pe termen lung fără un fundament solid de securitate cibernetică.

Fie că ești:

  • un startup care face un motor de detecție fraudă;
  • o companie de outsourcing care integrează ChatGPT sau alte LLM-uri în aplicații enterprise;
  • un vendor de SaaS care vinde global,

vei fi evaluat după:

  • cum protejezi datele;
  • cum răspunzi la incidente;
  • cum folosești AI nu doar ca feature, ci ca parte a arhitecturii de securitate.

Avertismentul DNSC despre fraudele de sărbători nu e doar o știre de actualitate. Este un reality check pentru orice companie românească ce vrea să fie luată în serios pe piața globală de AI și IT.


Concluzie: securitatea azi, AI mâine – nu invers

Dacă ar fi să condensăm tot articolul într-o frază, ar fi asta:

Nu implementa AI peste un haos de conturi și proceduri inexistente. Curăță mai întâi casa.

Ce poți face concret în următoarele 30 de zile:

  • audit rapid al tuturor conturilor critice și al MFA;
  • training antifrauda (inclusiv scenarii de sărbători) pentru toată echipa;
  • proceduri scrise de răspuns la incidente și comunicare cu DNSC;
  • definirea clară a datelor care vor intra (și nu vor intra) în proiectele AI.

Abia după ce ai aceste lucruri la locul lor are sens să discuți despre chatboturi inteligente, modele de machine learning și produse SaaS cu AI.

Fraudele cresc, mesajele de sărbători sunt arma preferată a atacatorilor, iar AI este folosit deja de ambele tabere. Tu decizi în care parte vrei să fii.