Confidențialitatea în proiectele educaționale nu trebuie să blocheze AI și învățarea personalizată. Cum împăcăm protecția datelor cu programe școlare deschise.
Confidențialitate, programe școlare și AI în educație
În 2024, orice proiect educațional serios din România pornește de la două cuvinte-cheie: date și încredere. Fără protecția datelor, profesorii nu se simt în siguranță să creeze; fără încredere, părinții nu-și lasă copiii în platforme digitale sau sisteme de învățare personalizată.
Documentul recent al Centrului Național pentru Curriculum și Evaluare (CNCE), prin care profesorii din grupurile de lucru pentru noile programe liceale semnează un angajament de confidențialitate foarte strict, a stârnit reacții. Mai ales paragraful:
„nu voi divulga sub nicio formă informații legate de activitatea specifică pe care o voi desfășura”.
Pe fundalul acestui tip de reglementare, discuția despre AI în educația din România și despre învățarea personalizată nu mai e doar tehnică. Devine profund juridică, etică și legată de modul în care statul înțelege transparența.
În articolul acesta, pun cap la cap trei planuri:
- ce spune, de fapt, documentul CNCE;
- unde se oprește confidențialitatea legitimă și unde începe opacitatea periculoasă;
- cum poate fi folosită inteligența artificială în educație astfel încât să personalizăm învățarea, fără să sacrificăm protecția datelor elevilor și a profesorilor.
Ce prevede documentul CNCE și de ce contează
Documentul CNCE are două componente mari: acordul pentru prelucrarea datelor cu caracter personal și o declarație pe proprie răspundere privind modul de lucru în grupurile de elaborare a programelor școlare.
1. Partea de date cu caracter personal
Profesorii își dau acordul ca CNCE să prelucreze date precum:
- nume, prenume;
- adresă, CNP, date de contact;
- calitatea în grupurile de lucru (responsabil, coordonator științific, membru);
- imagini video/foto din ședințe.
Aceste date sunt folosite, între altele, pentru:
- derularea colaborării;
- includerea numelui în anexa la ordinul de ministru, publicat în Monitorul Oficial;
- comunicare oficială pe durata proiectului.
Din perspectiva GDPR, asta are sens, atâta timp cât:
- datele nu sunt folosite în alte scopuri decât cele declarate;
- există drept de acces, rectificare, ștergere, opoziție – iar documentul chiar le enumeră;
- există un responsabil clar (CNCE) și un canal de contact (email și adresă poștală).
2. Partea de confidențialitate și „secret de serviciu”
Aici apare miza. Profesorii declară, între altele, că:
- vor folosi doar surse autorizate și validate științific;
- nu vor introduce în programe elemente antisemite, rasiste, xenofobe sau de ură;
- vor evita stereotipurile de gen în conținuturi;
- nu vor divulga sub nicio formă informații legate de activitatea specifică;
- documentele de lucru sunt încadrate ca „secret de serviciu” până devin publice;
- încălcarea angajamentului poate avea consecințe administrative, disciplinare, civile sau penale.
Partea cu stereotipurile și eliminarea discursului de ură e foarte sănătoasă și aliniată cu ce înseamnă un curriculum modern. Problema e combinarea ei cu un nivel de secretizare care poate sugruma dezbatarea publică despre ce se întâmplă în aceste grupuri de lucru.
De ce e relevant pentru AI și învățare personalizată
Realitatea e simplă: orice platformă de învățare personalizată bazată pe AI trebuie să fie perfect sincronizată cu programele școlare oficiale. Dacă procesul prin care se construiesc aceste programe e opac, dezvoltatorii de soluții educaționale, profesorii și directorii de școli lucrează, practic, pe bănuieli.
Transparența în elaborarea curriculumului nu e un moft. E condiția minimă pentru:
- alinierea platformelor adaptive la competențele generale și specifice din programe;
- proiectarea corectă a evaluărilor automate și a rapoartelor de progres;
- construirea de parcursuri personalizate care respectă legislația și standardele naționale.
Confidențialitate vs. opacitate: unde tragem linia în educație
Confidențialitatea în proiecte educaționale are un rol clar: protejarea datelor personale și a unor etape de lucru interne. Dar când clauzele devin prea vagi sau prea dure, efectul e invers: blochează colaborarea și calitatea.
Ce e legitim să fie confidențial
În orice proiect de reformă curriculară, sunt normale câteva tipuri de protecție:
- datele personale ale membrilor echipelor;
- variante intermediare de documente, până se ajunge la o formă de lucru stabilă;
- detalii sensibile legate de licitații, contracte, bugete.
La fel, într-un sistem de AI în educație, trebuie protejate:
- datele individuale ale elevilor (note, răspunsuri, comportament de învățare);
- modele predictive care pot expune situații delicate (risc de abandon, tulburări de învățare);
- jurnalele de activitate ale profesorilor.
Asta nu înseamnă să pui totul sub „secret de serviciu”. Înseamnă să definești clar:
- cine are acces;
- în ce scop;
- pentru cât timp;
- cum se șterg sau se anonimizează datele.
Când confidențialitatea devine opacitate toxică
Formulări de tipul „nu voi divulga sub nicio formă informații legate de activitatea specifică” sună, practic, ca un embargo total pe orice discuție publică. Asta ridică trei probleme:
-
Lipsă de feedback
Fără posibilitatea de a discuta deschis, profesorii nu pot testa idei, nu pot cere opinii de la colegi sau experți independenți. -
Neîncredere în rezultate
Când programele apar gata scrise, fără ca procesul să fi fost transparent, încrederea scade. Iar profesorii tind să le aplice formal, nu ca pe un instrument viu. -
Blocaj pentru inovație și AI
Dezvoltatorii de platforme educaționale cu AI au nevoie de:
- acces la structura competențelor;
- exemple de activități de învățare;
- secvențiere pe ani și niveluri de dificultate.
Dacă aceste lucruri sunt ascunse prea mult timp sau comunicate haotic, învățarea personalizată pentru elevi rămâne doar pe hârtie.
Cum poate AI să protejeze datele și, în același timp, să personalizeze învățarea
Există o percepție falsă că „AI = risc maxim pentru date”. Realitatea? AI poate fi, dacă e bine proiectată, un aliat serios al confidențialității.
Principii de bază pentru AI sigură în școli
O platformă de învățare personalizată care respectă standardele românești și europene ar trebui să funcționeze pe câteva reguli clare:
-
Minimizarea datelor
Se colectează doar datele strict necesare: răspunsuri la itemi, timp de lucru, progres pe competențe. -
Pseudonimizare și anonimizare
Datele elevilor pot fi stocate astfel încât să nu fie legate direct de nume, CNP sau alte identificatoare, mai ales în rapoarte agregate folosite la nivel de școală sau inspectorat. -
Control granular al accesului
- Profesorul vede date detaliate despre propriii elevi;
- Dirigintele vede imagine de ansamblu;
- Directorul are acces la statistici agregate, nu la fiecare detaliu individual;
- Ministerul/ISJ văd doar date anonimizate, de sistem.
- Transparență pentru utilizatori
Elevii și părinții trebuie să știe, în termeni clari:
- ce se colectează;
- de ce;
- cât timp se păstrează;
- cum pot cere ștergerea datelor.
- Audit și jurnalizare
Platforma trebuie să poată arăta cine a accesat ce, când și de ce. Asta descurajează abuzurile și ajută la investigații, dacă apar probleme.
Exemple concrete de AI care respectă confidențialitatea
Pentru un liceu din România, în 2025, un scenariu sănătos ar arăta cam așa:
- Elevul se conectează cu un cont școlar, gestionat de unitate (nu cu email personal);
- Platforma de învățare adaptivă îi propune exerciții la matematică pe baza programei oficiale de clasa a IX-a;
- Sistemul nu stochează conversații personale, ci doar parametri de învățare: scoruri, timp, nivel de dificultate atins;
- Profesorul vede un tablou de bord cu competențe (de tip „poate să rezolve ecuații de gradul I”, „are dificultăți la probleme de tip text”), nu etichete de genul „slab la matematică”;
- Datele sunt șterse sau arhivate anonim după un anumit număr de ani, conform politicii școlii și cadrului legal.
Așa se împacă, în mod realist, încrederea cu personalizarea.
De ce programele școlare deschise ajută direct învățarea personalizată
Programele școlare nu conțin date personale. Sunt documente de politică publică. Tocmai de aceea, e în interesul tuturor să fie:
- clare;
- ușor de accesat;
- structurate într-un mod „prietos” pentru oameni și pentru mașini.
Structura programelor și rolul ei în AI
Documentul CNCE vorbește de o structură standard:
- notă de prezentare;
- competențe generale;
- competențe specifice și exemple de activități de învățare;
- conținuturi;
- sugestii metodologice.
Exact această structură e ideală pentru:
- platforme adaptive: fiecare competență specifică devine un „nod” în traseul de învățare;
- evaluare automatizată inteligentă: itemii pot fi etichetați pe competențe, nu doar pe conținut;
- analiză de progres: AI poate arăta, în timp real, pe ce competențe clasa e în urmă.
Dacă aceste programe sunt publice într-un format deschis (de exemplu, structuri care pot fi citite de software), atunci:
- furnizorii de soluții educaționale din România pot construi rapid instrumente aliniate cu curriculumul;
- profesorii pot contribui cu resurse digitale, știind exact unde se încadrează;
- ministerul poate urmări implementarea, nu doar aprobarea pe hârtie.
Cum arată un ecosistem sănătos: minister – profesori – AI
Un model funcțional, pe care l-aș susține oricând, ar avea trei piloni:
- Ministerul Educației / CNCE
- definește programe clare, publice, în format structurat;
- asigură consultări reale cu profesorii și societatea civilă;
- pune la dispoziție ghiduri despre cum pot fi folosite datele în siguranță.
- Profesorii și experții
- lucrează în grupuri de lucru cu confidențialitate doar pe ce ține de versiuni intermediare, nu pe întregul proces;
- pot discuta în spațiul public principii, structuri de competențe, abordări didactice;
- folosesc platforme bazate pe AI ca un „asistent inteligent”, nu ca un substitut al judecății profesionale.
- Platformele de AI în educație
- respectă legislația românească și GDPR;
- integrează direct programele școlare în logica de funcționare;
- oferă control clar profesorilor asupra modului în care datele elevilor sunt folosite.
Asta înseamnă, concret, învățare personalizată făcută cu cap, nu doar din prezentări frumoase.
Ce ar trebui să facă acum școlile, profesorii și decidenții
Dincolo de controversa punctuală a documentului CNCE, momentul e bun pentru câteva decizii lucide.
Pentru profesori
- Cereți clarificări: ce anume e „secret de serviciu” și pentru cât timp?
- Implicați-vă în discuțiile despre programe, măcar la nivel de inspectorat sau asociații profesionale.
- Când alegeți o platformă cu AI, întrebați direct:
- ce date colectează?
- cum sunt stocate?
- cine are acces?
Pentru directori și școli
- Elaborați sau actualizați o politică internă de protecție a datelor care include și utilizarea AI în procesul de învățare;
- Negociați cu furnizorii de soluții educaționale clauze clare de confidențialitate și drepturi asupra datelor;
- Informați părinții transparent despre ce platforme folosiți și de ce.
Pentru Minister și CNCE
- Faceți publice traseele logice ale noilor programe: competențe – conținuturi – evaluare;
- Clarificați statutul juridic al documentelor de lucru și limitele confidențialității;
- Deschideți un canal oficial pentru colaborare cu furnizori de tehnologie educațională care respectă standardele de protecție a datelor.
Realitatea e că AI în educația din România nu poate fi construită pe tăcere și frică de repercusiuni penale. Are nevoie de trei lucruri simple: programe școlare clare și accesibile, reguli ferme de protecție a datelor și un dialog onest între profesori, decidenți și furnizori de tehnologie.
Dacă le avem, învățarea personalizată devine posibilă pentru fiecare elev – nu ca un slogan, ci ca o experiență reală, zi de zi, la clasă.