Session CNEC 2026 : ce que l’annonce révèle et comment l’IA peut simplifier l’évaluation des chercheurs via PROGRES, avec plus de clarté et d’équité.

Évaluer les chercheurs en Algérie : l’IA comme accélérateur
Le calendrier est déjà là : du 17/01/2026 au 05/02/2026, les chercheurs permanents en Algérie déposeront leurs dossiers via PROGRES pour la 30ᵉ session de la Commission Nationale d’Évaluation des Chercheurs Permanents (CNEC). Ensuite : validation par les centres, expertise, résultats, puis recours. Un processus balisé, indispensable, mais souvent vécu comme… lourd.
Et c’est justement là que cette annonce officielle devient intéressante pour notre série « Comment l’IA peut transformer l’éducation et la formation professionnelle en Algérie ». Parce que l’évaluation n’est pas qu’une affaire de promotion : c’est un système de reconnaissance des compétences, un outil de pilotage des carrières, et une manière d’aligner (ou non) la recherche avec les besoins économiques et sociaux.
Je vais prendre position : la numérisation via PROGRES est un bon début, mais ce n’est pas encore une modernisation du fond. Sans intelligence artificielle (et sans une vraie culture de la donnée), on digitalise surtout des formulaires. Avec l’IA, on peut rendre l’évaluation plus cohérente, plus rapide, plus personnalisée, tout en renforçant la transparence.
Ce que dit l’annonce CNEC (et ce qu’elle révèle du système)
Réponse directe : l’annonce ouvre la 30ᵉ session CNEC et précise qui peut candidater, comment déposer, et le calendrier détaillé. Mais en filigrane, elle met en évidence les défis classiques de l’évaluation des compétences dans le secteur public.
L’essentiel de l’annonce :
- La session concerne les chercheurs permanents exerçant dans des établissements publics à caractère scientifique et technologique.
- L’accès au grade supérieur s’appuie sur le cadre réglementaire (décret exécutif n° 08-131 du 03/05/2008, modifié et complété).
- Conditions d’ancienneté pour candidater :
- Maître de recherche classe “B” : 3 ans d’exercice effectif → candidature vers classe “A”
- Maître de recherche classe “A” : 4 ans d’exercice effectif → candidature vers directeur de recherche
- Le dépôt se fait exclusivement sur la plateforme PROGRES via le compte professionnel.
Calendrier (tel qu’annoncé) :
- 17/01/2026 → 05/02/2026 : dépôt des candidatures (PROGRES)
- 07/02/2026 → 12/02/2026 : validation par les directeurs des centres
- 26/02/2026 → 14/03/2026 : évaluation par les experts
- 16/03/2026 : proclamation des résultats
- 16/03/2026 → 21/03/2026 : dépôt des recours
- 22/03/2026 → 28/03/2026 : traitement des recours
- 30/03/2026 : résultats définitifs après recours
Le point clé : l’évaluation est un “goulot d’étranglement”
Quand un système dépend d’un dossier (pièces, justificatifs, grilles, preuves), il crée mécaniquement :
- des erreurs de saisie et des dossiers incomplets,
- des délais d’instruction,
- une expérience candidat stressante,
- et parfois un sentiment d’arbitraire si les critères sont mal compris.
Ce n’est pas une critique des experts. C’est une réalité organisationnelle : plus le volume augmente, plus la charge explose. Et à ce stade, la technologie peut faire mieux qu’un simple dépôt en ligne.
PROGRES : un premier pas utile… mais pas encore “intelligent”
Réponse directe : PROGRES structure le dépôt et la traçabilité, mais l’IA peut ajouter la couche qui manque : compréhension des dossiers, assistance, détection d’anomalies et personnalisation.
La plateforme PROGRES a déjà un impact concret :
- elle centralise les candidatures,
- impose un canal unique (moins de dispersion),
- laisse des traces (horodatage, statut),
- et facilite la coordination entre chercheurs, centres et commission.
Mais si on regarde froidement l’expérience : beaucoup de plateformes administratives restent transactionnelles. Elles ne comprennent pas ce qu’on leur donne. Elles stockent.
Ce que l’IA apporterait immédiatement (sans changer la loi)
Sans modifier les textes réglementaires, on peut déjà améliorer 4 points :
- Pré-contrôle automatique de complétude : pièces manquantes, formats, incohérences (dates, doublons).
- Aide contextuelle : explications intelligentes de la grille selon le profil (classe B vs A, ancienneté, type de production scientifique).
- Résumé automatique du dossier : une synthèse standardisée pour les évaluateurs (publications, projets, encadrement, impact).
- Traçabilité des décisions : journal des critères appliqués, pour réduire les incompréhensions et sécuriser les recours.
Une phrase utile à retenir : digitaliser un dossier réduit le papier ; “intelligenter” un dossier réduit l’incertitude.
L’IA au service de l’évaluation : plus rapide, plus équitable, plus utile
Réponse directe : l’IA peut transformer l’évaluation des chercheurs en un processus orienté compétences, en accélérant les tâches répétitives et en renforçant la cohérence des critères.
On parle souvent d’IA comme si elle devait remplacer l’expertise humaine. Mauvais angle. Dans une commission, l’enjeu est plutôt : laisser l’humain décider, mais lui enlever le bruit.
1) Standardiser ce qui doit l’être (et seulement ça)
Dans une évaluation, certaines tâches n’ont pas besoin d’interprétation :
- vérifier qu’une publication existe,
- repérer un DOI, une revue, une date,
- classer des productions (article, communication, brevet, chapitre),
- identifier les doublons.
Un système IA peut faire cette “mise à plat” et présenter un dossier dans un format identique pour tous, ce qui réduit l’effet “qualité de dossier” (le candidat qui sait mieux présenter vs celui qui produit mieux).
2) Rendre les critères lisibles pour le candidat
Le stress vient souvent d’une question simple : « Qu’est-ce qui compte vraiment dans ma grille ? ».
Une couche IA peut proposer un simulateur de candidature :
- ce qui est déjà acquis,
- ce qui manque pour être compétitif,
- les preuves attendues,
- une checklist personnalisée.
C’est exactement le lien avec la formation professionnelle : un système qui explique l’évaluation devient un système qui guide la montée en compétences.
3) Mieux gérer les recours (et éviter qu’ils explosent)
Les recours sont normaux. Ce qui coûte cher, c’est quand ils sont massifs et répétitifs.
Avec l’IA, on peut :
- générer une explication structurée de la décision (critères, pièces prises en compte, pondération),
- détecter les recours similaires pour un traitement homogène,
- repérer les points de friction récurrents afin d’améliorer la grille ou les consignes.
Du grade au “skill graph” : relier recherche, compétences et marché du travail
Réponse directe : l’évaluation des chercheurs peut devenir un outil national d’alignement compétences–économie si on structure les données (productions, projets, expertises) en référentiels exploitables.
Voici le pivot qui intéresse l’éducation et la formation en Algérie : aujourd’hui, beaucoup d’évaluations mesurent des preuves (publications, encadrement, projets). Demain, on doit aussi être capable de mesurer et cartographier des compétences :
- science des données,
- IA appliquée (vision, NLP, optimisation),
- cybersécurité,
- biotechnologies,
- matériaux,
- énergie,
- gestion de projet R&D,
- transfert technologique.
Si PROGRES (ou un module associé) structure les informations en données exploitables, on peut construire un “skill graph” national (cartographie des compétences de recherche), utile pour :
- identifier les pôles d’expertise par région,
- orienter la formation doctorale et la formation continue,
- anticiper les besoins de compétences à 3 ans,
- faciliter les partenariats université–entreprise.
Exemple concret (simple, mais parlant)
Un chercheur dépose un dossier avec : publications en traitement automatique de la langue, encadrement de mémoires, participation à un projet sur l’analyse de documents.
Un système IA peut :
- extraire automatiquement des mots-clés de compétences,
- suggérer des passerelles de formation (éthique IA, MLOps, évaluation de modèles),
- signaler des opportunités de collaboration (autres équipes proches),
- et produire un profil compétences utile au centre et au ministère.
On ne parle pas de surveillance. On parle d’orientation et de pilotage, sur des données que le candidat fournit déjà.
Comment avancer sans créer une “usine à gaz” : plan en 90 jours
Réponse directe : on peut introduire l’IA par petites briques : qualité des données, assistance candidat, synthèse évaluateur, puis analyse nationale.
Pour éviter l’effet “projet énorme qui n’aboutit pas”, voici un séquençage réaliste (et compatible avec des contraintes publiques) :
Étape 1 — Qualité & complétude (0–30 jours)
- règles automatiques de validation (formats, dates, champs obligatoires),
- détection de doublons,
- alertes de cohérence.
Étape 2 — Assistant candidat (30–60 jours)
- checklist personnalisée selon le grade visé,
- FAQ intelligente basée sur la grille,
- prévisualisation d’un dossier “tel qu’il sera lu”.
Étape 3 — Synthèse évaluateur (60–90 jours)
- résumé standardisé des productions,
- mise en évidence des éléments clés,
- comparaison structurée au référentiel (pas une note automatique, une aide à lecture).
Position claire : la notation finale doit rester humaine. L’IA sert à préparer, vérifier, structurer, expliquer.
Questions fréquentes (celles que tout le monde se pose)
L’IA risque-t-elle d’introduire des biais dans l’évaluation ?
Oui, si on lui demande de “noter” à partir de données historiques. Non, si on l’utilise pour des tâches objectives (complétude, extraction, mise en forme) et si la décision reste collégiale et traçable.
Est-ce compatible avec les procédures actuelles ?
Oui, parce que la première valeur de l’IA ici est administrative : réduire les erreurs, accélérer le traitement, standardiser la présentation. Aucun besoin de réécrire les règles du décret pour commencer.
Quel est le bénéfice pour la formation professionnelle ?
Un système d’évaluation intelligent peut produire des recommandations de montée en compétences (formations courtes, certifications, modules) et relier la recherche aux compétences attendues par l’économie.
Ce que cette session CNEC nous apprend pour 2026
La 30ᵉ session CNEC (dépôt entre 17/01/2026 et 05/02/2026, résultats le 16/03/2026, puis résultats définitifs le 30/03/2026) montre que l’Algérie avance sur la digitalisation des carrières scientifiques. C’est une base saine.
Le prochain cap, c’est d’utiliser l’IA pour faire trois choses très concrètes : réduire la friction administrative, améliorer l’équité de lecture, et transformer l’évaluation en boussole de compétences pour l’enseignement supérieur et la formation professionnelle.
Si on veut que l’IA serve vraiment l’éducation en Algérie, il faut commencer là où ça fait mal : les processus qui consomment du temps, créent de l’incertitude, et découragent les talents. L’évaluation des chercheurs est un excellent terrain.
Et vous, si PROGRES intégrait un assistant IA dès 2026, vous le voudriez d’abord pour sécuriser les dossiers, pour clarifier la grille, ou pour obtenir un vrai plan de progression de compétences ?