Confidențialitate, curriculum și AI în școala românească

AI în Educația din România: Învățare PersonalizatăBy 3L3C

Declarația CNCE despre „nu vom divulga sub nicio formă informații” arată conflictul dintre protecția datelor, transparență și AI în educație. Iată ce putem face mai bine.

AI în educațieconfidențialitate datecurriculum liceuînvățare personalizatăGDPR în școliplatforme adaptivepolitici educaționale
Share:

Confidențialitate, curriculum și AI: ce ne spune declarația CNCE

„Nu voi divulga sub nicio formă informații” – această frază din declarația pe care profesorii din grupurile de lucru pentru noile programe de liceu trebuie să o semneze spune mult despre felul în care statul român înțelege, astăzi, confidențialitatea. Pe de o parte, avem obligații legale reale: protecția datelor cu caracter personal, secret de serviciu, răspundere penală. Pe de altă parte, avem nevoia de transparență publică, dezbatere și încredere într‑un curriculum care va afecta generații întregi de elevi.

În același timp, România vorbește tot mai des despre AI în educație, platforme adaptive, analiză de date despre progresul elevilor și învățare personalizată. Toate acestea se bazează pe colectarea și prelucrarea unor seturi masive de date educaționale. Adică exact zona în care discuția despre confidențialitate și transparență nu mai poate fi ignorată.

În articolul de față, folosesc exemplul concret al declarației CNCE pentru a arăta:

  • de ce protecția datelor este esențială în educație;
  • unde se rupe echilibrul între confidențialitate și secretomanie;
  • cum pot fi folosite soluții de inteligență artificială pentru a crea un ecosistem de date sigur, dar și transparent, care sprijină învățarea personalizată.

Ce prevede declarația CNCE, de fapt

Declarația impusă profesorilor din grupurile de lucru are două componente mari: acordul de prelucrare a datelor cu caracter personal și un angajament de confidențialitate întărit cu trimitere la Codul penal.

1. Acordul pentru date cu caracter personal

Profesorii își dau acordul ca Centrul Național pentru Curriculum și Evaluare (CNCE) să prelucreze date precum:

  • nume, prenume;
  • adresă completă;
  • CNP;
  • date din actul de identitate;
  • telefon, e‑mail;
  • instituția la care lucrează și funcția.

Sunt informați că datele:

  • sunt folosite în scopul îndeplinirii atribuțiilor legale și a interesului public;
  • sunt tratate conform Regulamentului UE 679/2016 (GDPR);
  • vor fi în parte făcute publice (nume, prenume, instituție, funcție) în Monitorul Oficial, ca anexe la ordinul de ministru.

Din perspectivă juridică, acest capitol este relativ standard și necesar. Avem un operator de date (CNCE), un scop clar, o bază legală și informarea persoanelor vizate. Exact genul de structură pe care ar trebui să o vedem și în proiectele care folosesc AI în școala românească.

2. Angajamentul de confidențialitate și „secret de serviciu”

Partea sensibilă începe în Declarația pe proprie răspundere. Aici, profesorii se angajează că:

  • nu vor include în programe conținuturi antisemite, rasiste, xenofobe sau extremiste;
  • vor elimina stereotipurile de gen;
  • vor lucra cu surse științifice și verificate.

Până aici, nimic problematic – sunt condiții firești pentru un curriculum modern.

Dar apare și clauza:

„Nu voi divulga sub nicio formă informații legate de activitatea specifică pe care o voi desfășura.”

În plus, se precizează că toate informațiile, textele și documentele elaborate în grupuri:

„se clasifică în categoria documentelor secret de serviciu din momentul demarării acțiunii de elaborare a acestora și până în momentul în care devin publice.”

Iar la final, profesorul este avertizat că, dacă încalcă angajamentul, poate răspunde administrativ, disciplinar, material, civil sau penal, plus referire directă la art. 326 – fals în declarații din Codul Penal.

Aici nu mai vorbim doar de protecția datelor personale, ci de o reglementare a tăcerii, cu un puternic efect de descurajare a dialogului public.

Problema reală: confidențialitate sau secretomanie?

Protejarea datelor și a documentelor de lucru este normală. Nimeni nu vrea drafturi de programe școlare plimbându‑se pe Facebook, scoase din context. Dar formulări de tipul „nu voi divulga sub nicio formă” și „secret de serviciu” ridică trei probleme mari.

1. Lipsa de claritate: ce e, concret, confidențial?

Confidențialitatea sănătoasă funcționează pe bază de definiții clare:

  • ce intră în categoria „documente de lucru”;
  • ce informații pot fi discutate (de exemplu principii, abordări generale);
  • după ce moment anumite informații devin publice.

Când spui doar „nu voi divulga sub nicio formă”, mesajul implicit este: „mai bine nu discuți deloc cu nimeni”. Asta blochează feedback‑ul, colaborarea reală cu profesori din teritoriu, ONG‑uri, experți independenți.

2. Dezechilibrul între interesul public și secret de serviciu

Curriculumul național nu e o strategie militară. E un bun public care stabilește ce învață toți copiii din țară. Societatea are dreptul să știe:

  • cine lucrează la programe;
  • care sunt opțiunile conceptuale majore;
  • cum sunt gândite competențele și evaluarea.

Sigur, nu e nevoie să fie publicat fiecare fișier intermediar. Dar să pui totul sub eticheta „secret de serviciu” transmite un mesaj destul de clar: „Nu vrem să fim deranjați până nu finalizăm”. Iar asta naște neîncredere.

3. Efectul de îngheț asupra profesorilor

Când semnezi un document cu:

„voi răspunde civil, material, penal”

mulți profesori vor prefera să nu vorbească deloc despre experiența lor în grupul de lucru. Nici măcar despre lucruri neconfidențiale: organizare, modul de colaborare, probleme de fond.

Pe termen lung, asta strică exact ce încercăm să construim prin AI în educație: o cultură a datelor, a feedback‑ului, a analizei deschise a ceea ce funcționează și ce nu.

Ce legătură are asta cu AI și învățarea personalizată

La prima vedere, declarația CNCE ține de hârtii și proceduri administrative. Dar în spatele ei este aceeași întrebare pe care trebuie să ne‑o punem când discutăm despre platforme educaționale bazate pe AI, evaluare automată și analiza progresului elevilor:

Cum protejăm datele, fără să sufocăm transparența și colaborarea?

Date educaționale sensibile + AI = nevoie mare de încredere

Un sistem de învățare personalizată pe bază de AI are nevoie de:

  • date despre rezultate la teste și teme;
  • date despre ritmul de lucru al elevului;
  • uneori, chiar date demografice sau socio‑economice.

Aceste date sunt mult mai sensibile decât numele unui profesor într‑un grup de lucru. Dacă elevii și părinții nu au încredere că:

  • datele sunt bine securizate;
  • sunt folosite doar în scop educațional;
  • pot vedea ce se întâmplă cu ele,

sistemele de AI în educație vor fi respinse sau folosite superficial.

Lecția din cazul CNCE: claritate și proporționalitate

Din punctul meu de vedere, cazul declarației pentru programe de liceu arată exact ce nu funcționează:

  • limbaj vag („nu voi divulga sub nicio formă”) – produce frică, nu responsabilitate;
  • clasificare automatizată „secret de serviciu” – ignoră interesul public legitim;
  • accent pe sancțiuni, nu pe reguli pozitive și mecanisme de suport.

În schimb, într‑un ecosistem sănătos de AI în educație, regulile ar trebui să fie:

  1. Clar definite – ce tipuri de date colectăm, în ce scop, cât timp.
  2. Explicate pe înțelesul tuturor – elevi, părinți, profesori, directori.
  3. Proporționale – cu acces diferențiat (profesor, director, inspector, dezvoltator de platformă).
  4. Transparent monitorizate – cine a accesat ce date și de ce.

Cum poate ajuta AI într-un cadru de protecție reală a datelor

AI nu înseamnă doar algoritmi de recomandare pentru elevi. În spate, există tehnologii care pot ajuta direct la protecția datelor și la respectarea confidențialității, inclusiv în procese precum elaborarea curriculumului.

1. Anonimizare automată și control al accesului

În loc să transformăm totul în „secret de serviciu”, putem folosi soluții tehnice concrete:

  • anonimizare automată a documentelor de lucru înainte de distribuire (nume de elevi, școli, date personale);
  • control de acces pe roluri în platformele de lucru pentru curriculum: fiecare vede doar ce are nevoie;
  • jurnale de acces bazate pe AI care detectează accesul neobișnuit la date sensibile.

Astfel, profesorii pot lucra colaborativ, știind că sistemul are grijă să protejeze datele personale, fără să existe nevoia de a amenința pe toată lumea cu penalul.

2. Asistenți AI pentru conformare cu GDPR

Deja există instrumente AI capabile să:

  • semnaleze automat dacă un document conține date personale sensibile;
  • sugereze formulări conforme cu GDPR;
  • genereze politici de confidențialitate clare, adaptate școlii sau proiectului.

Aplicate în educație, astfel de soluții pot ajuta ministerul, inspectoratele și școlile să treacă de la hârtii rigide la proceduri vii, înțelese și respectate în practică.

3. Transparență algoritmică în platformele de învățare

Un alt punct sensibil: cum explicăm părinților și elevilor ce face exact algoritmul?

AI poate fi folosit pentru a genera:

  • rapoarte clare despre modul în care sunt analizate datele elevilor;
  • explicații pe limbaj natural („platforma îți recomandă acest exercițiu pentru că...”).

Asta construiește încredere. Exact lucrul care lipsește când primești un formular cu „secret de serviciu” și „voi răspunde penal” fără context.

Cum ar arăta o abordare sănătoasă pentru România

Dacă vrem ca AI în educația din România să susțină pe bune învățarea personalizată, avem nevoie de un nou tip de contract social în jurul datelor educaționale.

1. Reguli simple, vizibile și negociate cu actorii din sistem

În loc de documente tehnice aruncate peste profesori, un cadru modern de confidențialitate ar trebui construit:

  • împreună cu profesori, directori, sindicate, ONG‑uri, experți în etică digitală;
  • cu exemple concrete: ce pot spune public, ce trebuie să rămână intern, ce devine public și când;
  • cu ghiduri vizuale pentru școli și profesori, nu doar paragrafe de cod penal.

2. Combinația: cadru juridic + infrastructură tehnică

Nu ajunge să semnăm hârtii. Avem nevoie de:

  • platforme educaționale securizate pentru colaborare la curriculum, nu schimb de fișiere pe mail;
  • sisteme centralizate de gestionare a consimțământului pentru datele elevilor, integrate în platformele de AI;
  • audit periodic al algoritmilor și al fluxurilor de date.

3. Educație digitală pentru profesori și elevi

Un profesor care semnează o declarație despre „secret de serviciu” fără să înțeleagă de ce și cum i se protejează datele nu va avea încredere să folosească o platformă de evaluare automată sau de analiză a progresului elevilor.

E nevoie de formări clare, practice:

  • ce sunt datele personale în context educațional;
  • ce înseamnă pseudonimizare, criptare, dreptul la ștergere;
  • cum explicăm elevilor și părinților de ce colectăm anumite date.

De ce această discuție nu e doar despre un formular

Declarația CNCE pentru profesorii din grupurile de lucru nu este un caz izolat. Ea arată reflexul administrativ clasic: punem totul sub „secret de serviciu” și ne asigurăm cu amenințarea cu penalul.

Dacă folosim același reflex și când vom implementa pe scară largă AI în școlile din România, riscăm:

  • să pierdem încrederea părinților și a profesorilor;
  • să avem date colectate formal, dar folosite minimal;
  • să ratăm beneficiile reale ale învățării personalizate.

Există o variantă mai bună: confidențialitate inteligentă, bazată pe AI, pe reguli clare și pe transparență. Asta înseamnă:

  • proceduri care protejează datele, nu opiniile celor de la vârf;
  • profesori și elevi care știu ce se întâmplă cu informațiile lor;
  • platforme adaptive care folosesc date bogate, dar într‑un mod controlat și auditat.

Dacă lucrăm în direcția asta, discuții dificile – cum e cea despre declarația CNCE – devin nu doar scandaluri punctuale, ci ocazii de a construi infrastructura etică de care AI în educația românească are nevoie.


Vrei să afli cum poate fi implementată practic o platformă de învățare personalizată care respectă confidențialitatea elevilor? În seria „AI în Educația din România: Învățare Personalizată” vom intra în exemple concrete de școli și universități care folosesc deja date și AI într‑un mod transparent, sigur și eficient.