En 2025, les arnaques dopées à l’IA visent l’humain. Voici comment utiliser l’IA pour une sensibilisation efficace, ciblée et mesurable.

Former vos équipes contre les arnaques IA en 2025
En 2025, une attaque « réussie » ne ressemble plus forcément à un malware sophistiqué. Elle ressemble souvent à un message Teams pressant, à un e-mail parfaitement rédigé, ou à une note vocale qui imite la voix d’un dirigeant. Le paradoxe, c’est que vos collaborateurs restent la première ligne de défense, mais aussi la voie la plus simple pour des fraudeurs qui savent jouer sur la confiance, l’urgence et l’habitude.
Octobre est traditionnellement le mois de la sensibilisation à la cybersécurité. Et pourtant, je vois encore beaucoup d’organisations traiter la sensibilisation comme une formalité annuelle : un module e-learning générique, un quiz de fin, et on coche la case. Ça ne tient plus face à la fraude dopée à l’intelligence artificielle, notamment les deepfakes (voix/vidéo) et l’hyper‑personnalisation.
Ce qui change la donne en 2025, ce n’est pas seulement l’IA côté attaquants. C’est surtout la possibilité, côté défense, d’utiliser l’IA pour mieux entraîner, plus souvent, et de façon plus pertinente. Objectif : réduire les erreurs humaines qui déclenchent (ou aggravent) les incidents.
Pourquoi « l’humain » est encore le point de rupture n°1
Réponse directe : l’humain reste le point de rupture n°1 parce que la majorité des attaques rentables contournent la technique en exploitant la psychologie (confiance, routine, stress).
Les cybercriminels n’ont pas besoin d’exploiter une faille « zero-day » si un salarié valide un virement, partage un code MFA, ou ouvre une pièce jointe crédible. Les techniques de social engineering sont efficaces pour une raison simple : elles s’alignent sur le quotidien.
En décembre, cet effet est encore plus marqué. Fin d’année oblige : clôtures comptables, pression sur les délais, turnover, prestataires temporaires, fatigue. Le contexte opérationnel augmente mécaniquement le risque. Et les fraudeurs le savent.
Ce que l’IA a changé dans les arnaques (et pourquoi ça marche)
Réponse directe : l’IA rend les attaques plus crédibles, plus rapides à produire, et plus ciblées — donc plus difficiles à détecter « à l’œil nu ».
En 2025, trois évolutions sont frappantes :
- Hyper‑personnalisation : l’attaquant adapte le ton, les références internes, le niveau de langage, parfois même les habitudes d’écriture.
- Deepfake voix/vidéo : une consigne orale « du boss » devient une pièce de fraude.
- Industrialisation : des campagnes plus volumineuses, mieux segmentées, à coût marginal faible.
Une règle simple circule dans les équipes sécurité : si une demande touche à l’argent, aux accès ou aux données, l’urgence est un signal d’alerte — pas une raison d’obéir.
Le vrai problème des formations cybersécurité « classiques »
Réponse directe : les formations classiques échouent parce qu’elles sont trop génériques, trop rares, et déconnectées des risques réels de l’entreprise.
Beaucoup de programmes de sensibilisation se heurtent Ă trois limites :
- Fréquence insuffisante : un module annuel ne change pas les réflexes.
- Contenu non contextualisé : un comptable, un acheteur, une RH et un technicien n’ont pas les mêmes menaces.
- Absence de mise en situation : sans pratique, on retombe dans les automatismes.
La réalité ? La sensibilisation efficace ressemble plus à un entraînement (court, régulier, ciblé) qu’à un cours magistral.
Le mythe à casser : « il suffit de sensibiliser au phishing »
Réponse directe : se limiter au phishing e-mail est incomplet, car la fraude passe désormais par la messagerie instantanée, la voix, la visio, les réseaux sociaux et la chaîne fournisseur.
En 2025, les scénarios les plus coûteux ne sont pas toujours ceux qui installent un logiciel malveillant. Ce sont ceux qui détournent un processus :
- changement de RIB fournisseur,
- validation d’une facture « urgente »,
- partage d’un code MFA « pour débloquer une urgence »,
- extraction de données via une conversation apparemment anodine.
Si votre formation ne couvre pas ces scénarios, elle laisse un angle mort.
Comment l’IA améliore vraiment la sensibilisation (sans effet gadget)
Réponse directe : l’IA rend la sensibilisation plus efficace quand elle sert à personnaliser, simuler, mesurer et corriger — pas à « faire joli ».
Dans notre série Intelligence artificielle dans la cybersécurité, on insiste sur un point : l’IA est utile quand elle améliore la décision et le comportement, pas quand elle ajoute de la complexité. Sur la sensibilisation, l’IA apporte quatre leviers concrets.
1) Personnaliser par métier, niveau et exposition au risque
Réponse directe : une formation IA‑pilotée adapte les contenus à chaque population, ce qui augmente l’attention et l’adoption.
Exemples de personnalisation utile :
- Finance : BEC, faux RIB, faux appels « banque », fausses relances fournisseurs.
- RH : faux candidats, pièces d’identité falsifiées, demandes de dossiers salariés.
- IT : MFA fatigue, accès privilégiés, demandes « support » via chat.
- Direction : deepfake, usurpation d’identité, pression sur décisions rapides.
Le gain est immédiat : moins de temps perdu sur du générique, plus d’impact sur les risques prioritaires.
2) Simuler des attaques plus réalistes (y compris deepfake)
Réponse directe : l’IA permet des simulations proches du réel, ce qui prépare mieux aux attaques modernes.
On connaît les campagnes de phishing simulées. En 2025, on peut aller plus loin :
- scénarios de fraude via messagerie interne,
- demandes vocales (ex. note audio) qui exigent une validation de procédure,
- scénarios « multi‑étapes » (un message, puis un rappel, puis une escalade).
Le but n’est pas de piéger les employés. Le but est d’entraîner un réflexe : vérifier autrement que par le même canal.
Phrase à afficher dans les bureaux : « Une demande urgente se vérifie sur un canal indépendant. »
3) Micro‑apprentissages et coaching au bon moment
Réponse directe : l’IA aide à pousser des rappels courts au moment où le risque est élevé.
Au lieu d’un cours d’une heure, on privilégie :
- des capsules de 3–5 minutes,
- des rappels contextuels (périodes de clôture, campagnes d’achats, recrutement),
- des retours personnalisés après une simulation.
C’est souvent là que ça « colle » : répétition + feedback immédiat.
4) Mesurer ce qui compte vraiment
Réponse directe : l’IA permet de passer d’une mesure « taux de complétion » à une mesure « réduction du risque ».
Quelques indicateurs plus utiles que « 98% ont fini le module » :
- taux de signalement des tentatives (et délai de signalement),
- part d’employés qui vérifient via canal indépendant,
- baisse des clics/réponses sur scénarios ciblés,
- amélioration sur les populations les plus exposées.
L’IA peut aider à détecter les zones de fragilité (par équipe, métier, site) et à ajuster le plan.
Plan d’action : votre Cybersecurity Awareness Month, version 2025
Réponse directe : un bon plan tient en 30 jours : diagnostiquer, entraîner, corriger, ancrer.
Voici un plan pragmatique (et réaliste) pour une organisation qui veut profiter de la sensibilisation pour réduire le risque de fraude IA.
Semaine 1 : cadrer et choisir 3 scénarios « à fort impact »
- Identifiez vos 3 processus les plus à risque (paiements, accès, données sensibles).
- Recensez les canaux utilisés (e-mail, Teams, téléphone, WhatsApp pro, visio).
- Définissez la règle de vérification (double validation, rappel au numéro du référentiel, etc.).
Semaine 2 : lancer des simulations courtes et multi‑canal
- Une simulation e-mail, une simulation messagerie interne.
- Une simulation orientée deepfake/voix (même simple) centrée sur la procédure.
- Un message clair : on apprend, on ne sanctionne pas.
Semaine 3 : coaching ciblé et renforcement des procédures
- Micro‑modules pour les équipes qui ont le plus besoin.
- Mise Ă jour des processus : qui valide, comment, sur quel canal.
- Ajout de « phrases de sécurité » : formulations attendues, codes internes, rappels.
Semaine 4 : ancrer dans la durée
- Rituels mensuels de 5 minutes.
- Tableau de bord simple (3 indicateurs).
- Un point trimestriel en comité de direction sur la fraude et les signaux faibles.
FAQ terrain (les questions qu’on me pose souvent)
« Est-ce qu’on doit interdire les notes vocales et la visio ? »
Réponse directe : non, mais il faut sécuriser les décisions prises via ces canaux.
La bonne approche consiste à définir quels types de demandes ne sont jamais validées uniquement par audio/visio (ex. virement, changement d’accès, export de données) et à exiger une vérification indépendante.
« L’IA pour former, ça ne crée pas de nouvelles fuites de données ? »
Réponse directe : ça dépend de la mise en œuvre : privilégiez des contenus sans données sensibles, avec gouvernance, et des outils conformes à vos exigences.
Utilisez des scénarios réalistes mais anonymisés. Et faites valider l’outil par la DSI/sécurité et, si besoin, par la conformité.
« Comment éviter de culpabiliser les employés ? »
Réponse directe : en traitant la sensibilisation comme de la qualité opérationnelle, pas comme un test.
Le message à marteler : une erreur peut arriver à tout le monde ; un bon processus et un bon réflexe limitent les dégâts.
Ce que je ferais si je devais commencer lundi
La priorité, c’est de protéger vos décisions sensibles (argent, accès, données) contre la fraude dopée à l’IA. Pour ça, la sensibilisation doit devenir un entraînement régulier, ciblé, mesuré. Pas un rituel annuel.
Si vous ne deviez retenir qu’une seule règle à diffuser dès maintenant : toute demande urgente se vérifie sur un canal indépendant. C’est simple, mémorisable, et terriblement efficace contre les attaques les plus rentables.
La question pour 2026 n’est pas « est-ce qu’on va subir des tentatives ? ». C’est plutôt : vos équipes auront-elles le bon réflexe au moment où une voix “familière” leur demandera d’aller vite ?