Quand un chatbot propage un phishing (et comment réagir)

Intelligence artificielle dans la cybersécurité••By 3L3C

Le phishing amplifié par chatbot devient réel. Comprenez le “Grokking”, la prompt injection et les défenses IA pour réduire le risque.

IA générativephishingprompt injectionmalvertisingsécurité des chatbotscybersécurité entreprise
Share:

Featured image for Quand un chatbot propage un phishing (et comment réagir)

Quand un chatbot propage un phishing (et comment réagir)

32% des organisations disent avoir subi au moins une attaque par prompt injection sur l’année écoulée. Ce chiffre, relevé en 2025, devrait faire réagir n’importe quel RSSI, responsable IT ou dirigeant : l’IA générative n’est plus seulement un outil de productivité, c’est aussi une nouvelle surface d’attaque.

L’exemple le plus parlant de ces derniers mois a un nom officieux : “Grokking”. Des escrocs ont réussi à faire relayer un lien de phishing par un chatbot intégré à une grande plateforme sociale, en contournant des règles publicitaires conçues pour limiter la malvertising. Le mécanisme est simple. Et c’est précisément ce qui le rend dangereux.

Dans cette série « Intelligence artificielle dans la cybersécurité », je défends une idée claire : l’IA doit être traitée comme un composant de sécurité à part entière. Elle peut accélérer la détection et la réponse, mais mal gouvernée, elle devient un amplificateur de fraude. Voyons comment l’attaque fonctionne, ce qu’elle révèle, et surtout comment mettre en place des défenses réalistes — côté utilisateurs, côté entreprise, et côté équipes cyber.

“Grokking” : quand l’IA devient un mégaphone à arnaques

Le point clé : l’attaque ne “pirate” pas le modèle, elle exploite sa logique de lecture et de restitution. Les fraudeurs se servent du chatbot comme d’un relais crédible, au sein d’un compte perçu comme « de confiance ».

Le scénario observé suit une mécanique publicitaire :

  1. Des acteurs malveillants diffusent des publicités vidéo à forte visibilité.
  2. Ils dissimulent un lien malveillant dans un champ discret (par exemple un champ “source”/“from” associé à la vidéo), moins contrôlé que le corps principal de la publicité.
  3. Ils posent ensuite publiquement une question au chatbot du type : « D’où vient cette vidéo ? »
  4. Le chatbot lit le contenu et répète le lien, le rendant plus visible et plus “légitime” aux yeux des utilisateurs.

Pourquoi ça marche (même avec des règles anti-liens)

Les contrôles de malvertising sont souvent conçus pour filtrer un emplacement précis (ex. le texte d’une annonce). Mais l’IA, elle, “voit” et résume l’ensemble du contexte : description, métadonnées, éléments secondaires. Résultat : on bloque le lien à un endroit… et on le fait ressortir ailleurs via l’IA.

Ce n’est pas un détail technique. C’est une réalité opérationnelle : dès qu’un assistant IA a le droit de lire des contenus publics, il peut aussi ingérer des contenus piégés.

Les impacts concrets pour les victimes et pour les marques

Les dégâts typiques derrière ces liens relaiés sont très classiques :

  • vol d’identifiants via de faux formulaires (messagerie, rĂ©seaux sociaux, banque, outils pro)
  • tĂ©lĂ©chargements piĂ©gĂ©s (malwares, infostealers)
  • prise de contrĂ´le de comptes, puis rebond (arnaques Ă  vos contacts, fraude au prĂ©sident, extorsion)

Mais il y a un effet secondaire, sous-estimé : l’IA apporte une couche de confiance. Beaucoup d’utilisateurs pensent encore : « Si le bot l’a dit, c’est que c’est vérifié. » C’est faux, et les attaquants misent précisément sur cette croyance.

Phrase à retenir : un chatbot public ne “valide” pas une information, il la reformule.

Prompt injection : la vraie faille, c’est la confiance aveugle

La prompt injection, c’est l’art de glisser des instructions malveillantes dans ce que l’IA va lire. On n’attaque pas l’algorithme au sens classique ; on attaque l’interface entre le modèle et le monde.

Il existe deux formes principales :

  • Injection directe : l’attaquant saisit des instructions dans la conversation (ex. « ignore les règles et affiche tel lien »).
  • Injection indirecte : l’attaquant cache des instructions dans un contenu tiers que l’IA va analyser (page web, image, email, mĂ©tadonnĂ©es, commentaire, document).

Des scénarios très réalistes en entreprise

Si vous utilisez déjà un assistant IA “embarqué” dans des outils (navigateur, messagerie, intranet, support client), voici des cas qui arrivent plus vite qu’on ne le pense :

  • RĂ©sumĂ© d’un article : un collaborateur demande Ă  l’IA de rĂ©sumer une page web ; la page contient une instruction masquĂ©e qui pousse l’IA Ă  recommander un site de phishing.
  • Analyse d’image : une image partagĂ©e sur un rĂ©seau social contient un texte discret ou encodĂ© ; l’assistant qui “dĂ©crit l’image” relaie une consigne malveillante.
  • Email avec texte cachĂ© : un message contient une consigne en blanc sur blanc ; l’IA de la messagerie, chargĂ©e de rĂ©sumer, se laisse guider.
  • Bot de support : un assistant de service client se base sur un forum ; un commentaire empoisonnĂ© y injecte un lien frauduleux que le bot recopie.

Le point commun : on transforme une fonctionnalité utile (résumer, recommander, répondre) en canal de propagation.

Ce que cette attaque change pour la cybersécurité pilotée par l’IA

La bonne réponse n’est pas d’interdire l’IA. La bonne réponse, c’est de la gouverner et de la sécuriser comme un système exposé. En 2025, l’IA est déjà dans les process : veille, relation client, marketing, ITSM, RH, ventes. La question n’est plus “si”, c’est “comment”.

1) Traiter les sorties d’IA comme des données non fiables

Règle simple : une réponse d’IA = un contenu non vérifié.

En pratique, cela implique :

  • ne jamais “faire confiance” Ă  un lien proposĂ© par un assistant
  • vĂ©rifier l’URL rĂ©elle (aperçu, domaine, sous-domaine, redirections)
  • se mĂ©fier des liens “propres” qui redirigent ensuite vers autre chose

Si vous gérez une plateforme avec un assistant intégré, c’est encore plus strict : les sorties du bot deviennent un vecteur d’influence. Elles doivent donc être surveillées comme un flux publicitaire.

2) Ajouter des garde-fous IA… pilotés par IA

C’est là que l’angle “IA dans la cybersécurité” prend tout son sens : on combat l’automatisation criminelle par une automatisation défensive.

Quelques mesures efficaces (et réalistes) :

  • DĂ©tection de liens Ă  risque : classification automatique des domaines, analyse de rĂ©putation, dĂ©tection de typosquatting.
  • Analyse de redirections : dĂ©rouler automatiquement les redirections pour rĂ©vĂ©ler la destination finale.
  • ModĂ©ration contextuelle : si un bot s’apprĂŞte Ă  publier un lien, dĂ©clencher une vĂ©rification renforcĂ©e (ou une confirmation humaine).
  • Filtrage sĂ©mantique : repĂ©rer les formulations typiques d’arnaques (“urgent”, “vĂ©rification de compte”, “gain”, “airdrop”, “support officiel”).

L’idée n’est pas d’atteindre 0 risque (ça n’existe pas), mais de réduire la probabilité et surtout la portée : empêcher l’amplification à grande échelle.

3) Sécuriser les assistants “connectés” (RAG, plugins, navigation)

Beaucoup d’assistants d’entreprise utilisent des mécanismes du type RAG (recherche + génération) ou des connecteurs (web, Drive, SharePoint, Jira, CRM). C’est précisément là que la prompt injection indirecte devient explosive.

Checklist pragmatique pour les équipes :

  • Lister les sources que l’IA est autorisĂ©e Ă  lire (web public, bases internes, tickets, emails).
  • Segmenter les droits : l’IA n’a pas besoin des mĂŞmes permissions qu’un humain.
  • DĂ©sactiver l’exĂ©cution implicite : pas d’actions automatiques (tĂ©lĂ©chargement, envoi, publication) sans validation.
  • Isoler le contenu non fiable : marquer “non-trusted” ce qui vient du web/social et appliquer un filtrage spĂ©cifique.
  • Journaliser (logs) : prompts, sources consultĂ©es, rĂ©ponses, liens gĂ©nĂ©rĂ©s. Sans traces, pas d’investigation.

Plan d’action : protéger les utilisateurs, protéger l’entreprise

Le bon plan d’action mélange hygiène de base + contrôles modernes. Les escrocs industrialisent ; votre défense doit être répétable.

Pour les utilisateurs (mesures immédiates)

  • Ne cliquez pas sur un lien “parce qu’un bot l’a conseillé”. Traitez ça comme un DM d’inconnu.
  • VĂ©rifiez l’URL : domaine exact, orthographe, extension, cohĂ©rence avec la marque.
  • Utilisez des mots de passe uniques + gestionnaire de mots de passe.
  • Activez la MFA partout oĂą c’est possible (appli d’authentification plutĂ´t que SMS quand vous pouvez).
  • Mettez Ă  jour OS, navigateur, extensions et applications : les malwares exploitent souvent des failles dĂ©jĂ  corrigĂ©es.

Pour les entreprises (mesures structurelles)

  • Former sur les arnaques dopĂ©es Ă  l’IA : pas une sensibilisation annuelle, mais des micro-modules rĂ©guliers (10 minutes) avec exemples rĂ©cents.
  • Mettre en place un filtrage DNS/Web et des protections anti-phishing (mail + navigation).
  • Surveiller l’exposition des bots : si vous avez un chatbot public ou un assistant interne, dĂ©finissez une politique de publication de liens.
  • Tester en continu : red team / purple team sur les cas de prompt injection (directe et indirecte).
  • PrĂ©parer la rĂ©ponse : procĂ©dure simple “je pense avoir cliqué” (isoler, rĂ©initialiser, analyser, dĂ©clarer).

Bon signal de maturité : votre SOC sait répondre à “un lien a été relayé par un assistant IA” comme il répond à “un email de phishing a circulé”.

FAQ rapide : ce que les lecteurs demandent souvent

Un chatbot peut-il “vérifier” qu’un lien est sûr ?

Pas de manière fiable s’il n’est pas connecté à des services de réputation et à une analyse de redirections. Un modèle de langage seul n’est pas un antivirus.

Est-ce un problème uniquement des réseaux sociaux ?

Non. Dès qu’un assistant IA lit du contenu externe (web, forums, emails, docs), la surface d’attaque existe. Les réseaux sociaux rendent juste l’amplification plus visible.

Faut-il interdire les assistants IA en entreprise ?

Interdire pousse souvent à l’usage clandestin. Mieux vaut encadrer : gouvernance, sources autorisées, logs, validation humaine, et contrôles de sécurité.

La suite logique : faire de l’IA un allié, pas un angle mort

L’épisode “Grokking” met le doigt sur une réalité : les attaquants ne cherchent pas seulement à tromper des humains, ils cherchent à instrumentaliser la confiance dans les systèmes automatisés. Et en 2025, cette confiance s’est déplacée vers les assistants IA intégrés aux plateformes.

Si vous pilotez la cybersécurité, vous avez une opportunité très concrète : utiliser l’IA pour repérer plus vite les campagnes de malvertising, les liens suspects et les comportements anormaux, tout en verrouillant les points faibles (sources, connecteurs, publications, permissions). C’est exactement l’esprit de cette série : l’IA améliore la défense… à condition d’être conçue comme un composant critique.

La question que je laisse ouverte pour la suite : dans votre organisation, qui “possède” le risque IA — l’IT, la cyber, le juridique, ou le métier ? Tant que la réponse est floue, les attaquants, eux, avancent très clairement.