Scandalul programei de română arată cât de fragile sunt procedurile din educație. Vezi cum poate fi folosit AI pentru transparență, integritate și curriculum mai bun.

Când cei care scriu programa o și avizează: simptomul unei probleme mai mari
Cincisprezece profesori care au lucrat la noua programă de Limba și literatura română pentru liceu sunt și în comisia care trebuie să o avizeze. Ministrul Educației, Daniel David, spune că nu știa de suprapuneri și recunoaște că „situația ar fi trebuit evitată”.
Asta nu e doar o știre de luni, 15.12.2025. E o radiografie a felului în care se fac, de ani de zile, politicile educaționale în România: opac, pe grupuri mici, cu proceduri greu de urmărit și cu riscuri mari de conflict de interese. Iar când vorbim de programe școlare care vor intra în vigoare în 2026–2027, vorbim direct de viitorul elevilor care astăzi sunt în gimnaziu.
În seria „AI în Educația din România: Învățare Personalizată”, subiectul acesta este ideal pentru a discuta ceva ce prea rar e pus pe masă: cum poate fi folosită inteligența artificială nu doar în clasă, ci și în culisele sistemului – în proiectarea, evaluarea și avizarea curriculumului – ca să avem mai multă transparență și mai puțină suspiciune.
Ce s-a întâmplat, de fapt, cu programa de română de liceu
Esențialul, pe scurt:
- Noua programă de Limba și literatura română pentru clasa a IX-a este în dezbatere publică și ar trebui aplicată din anul școlar 2026–2027.
- Scriitorul și profesorul universitar Radu Vancu a semnalat un „viciu de procedură”: coordonatoarea grupului de lucru este și președinta comisiei naționale care avizează programa.
- Cel puțin 15 din cei 24 de membri ai comisiei de avizare au lucrat și la elaborarea programei.
- Ministrul Daniel David spune că a aflat „recent” de suprapuneri, că procedurile de numire au fost diferite și că, deși avizul e consultativ, această situație „ar fi trebuit evitată” și va fi reglementată.
- Sute de profesori, cercetători ai Academiei Române, scriitori și artiști contestă programa și cer retragerea ei și reluarea procesului.
Așadar, avem:
- o procedură formal corectă pe hârtie, dar cu suprapuneri greu de explicat publicului;
- o dezbatere publică percepută ca „mimată”, unde mulți nu cred că feedbackul chiar contează;
- un minister care reacționează defensiv, nu proactiv.
Exact aici se vede cât de vulnerabil este un proces bazat aproape exclusiv pe oameni, comisii și documente greu de urmărit. Și aici intră în scenă discuția despre AI.
De ce ne arde acum: încrederea în curriculum, nu doar conținutul lui
Programa de română poate fi bună sau proastă, modernă sau învechită. Dar, dincolo de conținut, apare o întrebare mult mai grea:
Cum mai ai încredere într-un document care a trecut printr-un proces perceput ca fiind lipsit de independență și transparență?
În educație, încrederea e capital:
- Profesorii trebuie să creadă că programa e rezultatul unei dezbateri reale, nu al unui grup restrâns.
- Elevii și părinții trebuie să creadă că schimbările sunt făcute pentru binele lor, nu pentru orgoliul sau interesele cuiva.
- Decidenții au nevoie de legitimitate, nu doar de semnătură pe un ordin de ministru.
Când aceiași oameni scriu și avizează un document, chiar dacă sunt profesioniști impecabili, percepția publică e simplă: „și-au dat aviz singuri”. Asta slăbește orice reformă, oricât de bine intenționată ar fi.
Aici, AI nu poate înlocui factorul uman – și nici nu ar trebui – dar poate pune un strat de obiectivitate, urmăritor de date și tras la răspundere, peste procese care acum funcționează mai mult „pe încredere între noi”.
Cum ar putea fi folosit AI pentru transparență în politicile educaționale

Dacă luăm scandalul programei de română ca studiu de caz, se conturează câteva zone clare unde AI și automatizarea ar reduce mult spațiul de suspiciune.
1. Detectarea automată a conflictelor de interese
În loc să aflăm din presă că aceiași oameni sunt și autori, și avizatori, un sistem AI ar fi putut semnala asta din prima zi.
Un exemplu simplu de flux:
- Toți experții implicați își introduc datele într-o platformă centralizată: funcția, instituția, rolul (autor, evaluator, avizator etc.).
- Un modul de AI rulează reguli clare:
dacă persoana X = autor și persoana X = membru în comisia de avizare pentru același document -> flag roșu.
- Platforma generează automat:
- lista de suprapuneri;
- propuneri de redistribuire a rolurilor;
- raport public ce poate fi consultat de oricine.
Rezultatul? Ministrul nu mai poate spune „nu știam de suprapuneri”, pentru că sistemul îl anunță de la început. Iar publicul poate vedea clar cine și ce rol are.
2. Urmărirea și publicarea automată a traseului unui document
Astăzi, programele școlare trec prin grupuri de lucru, comisii, avizatori, dar traseul e opac pentru profesori și părinți. Un AI integrat într-o platformă națională de curriculum ar putea:
- înregistra toate versiunile succesive ale unui document;
- marca automat cine a propus ce modificare și când;
- genera o cronologie vizuală clară, publică;
- oferi un „changelog” ușor de înțeles de oricine.
Asta ar schimba complet dezbaterea publică. În loc de suspiciuni, ai date concrete despre:
- cum a evoluat documentul;
- ce feedback a fost acceptat sau respins;
- ce argumente au fost invocate.
3. Analiza feedback-ului din dezbaterea publică
Critica „dezbatere publică mimată” apare pentru că oamenii nu văd cum e folosit feedbackul lor. Aici AI e extrem de util.
Un sistem de analiză automată a textelor (NLP) poate:
- parcurge mii de contribuții trimise de profesori, ONG-uri, părinți;
- identifica temele principale:
- „prea puțini autori canonici”,
- „prea abstract”,
- „necorelat cu Evaluarea Națională / Bac”.
- calcula frecvența obiecțiilor (ex.: 47% dintre intervenții critică lipsa X);
- genera rapoarte clare pentru decidenți, dar și rapoarte publice.
Așa, ministerul ar putea spune: „am primit 2.130 de sugestii; 65% au vizat X, 40% au vizat Y; aceste trei mari teme au dus la următoarele modificări…”. Dintr-odată, dezbaterea publică nu mai e o formalitate, ci un proces măsurabil.
De la curriculum „politic” la curriculum „bazat pe date”
Seria „AI în Educația din România: Învățare Personalizată” vorbește în general despre cum AI poate adapta conținutul la nivelul fiecărui elev. Dar adevărul e că nu poți avea învățare personalizată pe scară largă dacă însăși arhitectura curriculumului rămâne opacă și politizată.

AI poate contribui și aici, în spatele scenei.
1. Modelarea impactului unei programe asupra rezultatelor elevilor
În loc să scriem programe „după instinct” sau după tradiție, putem folosi date:
- rezultate la Evaluarea Națională și Bac pe ultimii 10 ani;
- rezultate la teste internaționale (PISA, PIRLS);
- date despre abandon, medii, diferențe urban–rural;
- date despre timp efectiv alocat disciplinei.
Un model de AI poate simula:
- dacă introducem mai mult accent pe competențe de lectură funcțională, ce impact e probabil asupra rezultatelor PISA?;
- dacă încărcăm programa cu prea multe opere, ce efect are asupra timpului mediu de lucru pe temă și asupra motivației elevilor?;
- cum se corelează o anumită structură de conținut cu performanța elevilor din medii dezavantajate.
Nu vorbim de „AI care decide”, ci de AI care oferă scenarii și evidențiază riscuri, înainte ca o programă să fie impusă întregii țări.
2. Coerență între curriculum, evaluare și resurse
O plângere recurentă a profesorilor e ruptura dintre:
- ce scrie în programe;
- ce se cere la examene;
- ce manuale și resurse există.
AI poate ajuta la:
- verificarea automată a coerenței dintre competențele din programă și itemii de examen;
- generarea de sugestii de resurse digitale și scenarii de lecție aliniate cu noul curriculum;
- identificarea lacunelor: competențe prevăzute, dar neacoperite de manuale sau de platforme de învățare.
În felul acesta, programele noi nu mai sunt doar documente PDF publicate pe site, ci noduri centrale într-un ecosistem digital coerent.
Unde se întâlnesc AI, profesioniștii din educație și încrederea publică
E ușor să spui „să punem AI peste tot” și să rămână doar un slogan. Realist vorbind, în România de azi, următorii pași sunt fezabili și necesari:
1. Platformă națională de curriculum cu module AI
Un sistem unic în care:
- se gestionează toate programele școlare;
- se înscriu toți membrii comisiilor și grupurilor de lucru;
- se derulează dezbaterile publice;
- se rulează analize automate de conflict de interese și de feedback.

Acesta ar fi fundamentul pentru un proces transparent, auditat și ușor de urmărit, nu doar pentru programa de română, ci pentru toate disciplinele.
2. Formare pentru funcționarii din minister și experții din comisii
AI nu poate fi lăsat pe „pilot automat”. Avem nevoie de:
- funcționari și inspectori instruiți să interpreteze rapoartele generate de AI;
- coordonatori de grupuri de lucru care știu să folosească datele atunci când negociază conținutul programei;
- profesori universitari și de liceu care înțeleg cum se corelează curriculumul cu datele despre învățarea reală din clasă.
3. Legi și proceduri care obligă la transparență digitală
Ministrul a spus că va reglementa situații de tipul „autor și avizator în același timp”. E un pas necesar, dar insuficient. Avem nevoie de:
- reguli clare privind conflictele de interese;
- obligativitatea publicării componenței comisiilor și a traseului fiecărui document curricular;
- obligativitatea folosirii unei platforme digitale cu module AI pentru monitorizare.
Atunci, discuția nu va mai fi doar despre persoane, ci despre un sistem care se poate corecta în timp real, pentru că erorile ies la suprafață imediat.
Legătura cu învățarea personalizată: de la scandal la oportunitate
Poate părea că discuția despre programa de română și scandalul conflictului de interese e departe de tema centrală a seriei: învățare personalizată cu ajutorul AI. De fapt, e exact același film, doar că văzut din culise.
- Pentru ca platformele adaptive de învățare să funcționeze bine, au nevoie de un curriculum clar, coerent și stabil, nu de documente contestate din temelii.
- Pentru ca evaluarea automată și analiza progresului elevilor să aibă sens, trebuie ca obiectivele de învățare din programă să fie bine definite și susținute public.
- Pentru ca orientarea vocațională asistată de AI să fie credibilă, încrederea în sistemul care stă deasupra – minister, comisii, proceduri – trebuie reconstruită.
Scandalul actual poate fi folosit ca pretext pentru a schimba doar câteva nume în comisii. Sau poate fi folosit ca moment de inflexiune: să trecem de la „educație făcută pe bilețele și telefoane” la educație proiectată, monitorizată și ajustată pe baza datelor și a unor procese transparente, în care AI joacă rolul de arbitru tehnic, nu de stăpân.
Concluzie: dacă vrem încredere, avem nevoie de date și de AI în culisele reformei
Scandalul programei de română arată că în România nu e suficient să ai experți buni. Dacă procesul e opac, încrederea se prăbușește, iar programele – oricât de bine scrise – devin greu de aplicat în școli.
AI nu va rezolva singur problemele de integritate sau de profesionalism, dar poate aduce:
- detectarea automată a conflictelor de interese;
- trasabilitate completă a documentelor curriculare;
- analiză serioasă și transparentă a feedbackului public;
- modelarea impactului programelor asupra rezultatelor elevilor.
Dacă ne dorim cu adevărat „AI în Educația din România” nu doar ca slogan de laborator și aplicații simpatice pentru elevi, ci ca schimbare de sistem, atunci locul de pornire nu e doar în clasă. E chiar aici, în minister, în comisii, în modul în care scriem și avizăm programele pe care se va construi orice încercare de învățare personalizată.
Întrebarea reală pentru următorii ani nu e doar „cum folosim AI la oră?”, ci și „acceptăm ca AI să fie martorul rece și incomod al proceselor noastre de decizie, astfel încât încrederea în educație să nu mai depindă de cât de mult credem un ministru pe cuvânt?”