Quand le vrai ChatGPT devient une arme des hackers

Intelligence Artificielle dans l'Industrie Agroalimentaire••By 3L3C

De vrais liens ChatGPT, des pubs Google et un faux guide Atlas suffisent à installer un infostealer sur macOS. Voici comment et surtout comment s’en protéger.

ChatGPTAtlascybercriminalitémacOSsécurité IAmédias et communicationhygiène numérique
Share:

ChatGPT détourné : le piège parfait pour 2025

Les équipes de Kaspersky ont mis au jour une campagne où de vrais liens ChatGPT, hébergés sur le domaine officiel chatgpt.com, servent à installer un malware. Pas de faux site, pas de copier‑coller d’URL douteuse : tout a l’air propre. Et c’est précisément ce qui la rend dangereuse.

Pour les équipes marketing, les communicants et les directions IT qui ont massivement adopté l’IA en 2024‑2025, ce cas est un avertissement très clair : l’IA n’est plus seulement une cible, c’est aussi un vecteur d’attaque. Les campagnes publicitaires, les partages de conversations et la curiosité autour de ChatGPT Atlas deviennent un terrain de jeu idéal pour les cybercriminels.

Dans cet article, on détaille comment les hackers ont détourné le vrai ChatGPT, pourquoi cette méthode est si crédible, et ce que doivent faire les entreprises françaises des médias, de la communication et du marketing pour ne pas se faire piéger.


Comment des hackers utilisent le vrai ChatGPT pour infecter des Mac

Les faits sont simples : la campagne malveillante repose sur une chaîne d’outils parfaitement légitimes.

  1. Google Ads : les pirates achètent des annonces sur des mots‑clés du type « comment installer Atlas » ou « télécharger ChatGPT Atlas macOS ».
  2. Redirection vers chatgpt.com : en cliquant sur l’annonce, l’internaute est bien envoyé sur le domaine officiel de ChatGPT.
  3. Conversation partagée piégée : la page affichée est une conversation publique créée via la fonction de partage de ChatGPT. Elle ressemble à un guide technique sérieux.
  4. Commande malveillante : le « tutoriel » se termine par une ligne de commande à copier‑coller dans le Terminal de macOS. C’est en réalité un script qui installe AMOS, un infostealer très évolué.

Rien dans l’interface ne laisse penser qu’il s’agit d’un piège. On est sur un vrai domaine, avec une vraie interface OpenAI, un guide bien rédigé, et un contexte crédible : l’installation du nouveau navigateur Atlas, lancé à l’automne 2025.

Pour un·e journaliste, un social media manager ou un créatif en agence qui teste les nouveautés IA entre deux réunions, c’est le scénario parfait pour cliquer sans réfléchir.


Pourquoi cette attaque est particulièrement sournoise

Cette campagne coche toutes les cases de l’arnaque moderne :

1. Elle exploite la confiance accordée aux grandes marques

ChatGPT, Google, Atlas, OpenAI… tout l’écosystème inspirant confiance est mobilisé. Les pirates n’essaient plus de vous attirer sur un site imitant ChatGPT ; ils s’appuient sur l’infrastructure officielle d’OpenAI.

Le message implicite est puissant : « Si je suis sur chatgpt.com, c’est sûr ». C’est faux.

C’est exactement ce qui inquiète en 2025 : les utilisateurs ont été éduqués à repérer les fautes d’orthographe, les liens bizarres et les formulaires suspects. Ici, rien de tout ça.

2. Le « guide Atlas » ressemble à une documentation technique classique

Les cybercriminels ont utilisé des techniques de jailbreak pour forcer ChatGPT à produire :

  • un pseudo‑guide d’installation d’Atlas sur macOS,
  • structurĂ©, propre, avec des Ă©tapes numĂ©rotĂ©es,
  • une commande shell claire Ă  la fin.

Ils ont ensuite supprimé l’historique de la conversation pour ne conserver que la réponse finale, bien propre, sans traces du bidouillage en amont. Résultat : la page partagée ressemble à un extrait de documentation officielle.

3. Le malware AMOS, un infostealer « clé en main »

La commande installe AMOS (Atomic macOS Stealer), un infostealer qui circule depuis 2023 et qui s’est professionnalisé :

  • modèle « malware-as-a-service » : environ 1 000 dollars par mois sur le dark web ;
  • vol de mots de passe, cookies, portefeuilles crypto, documents, etc. ;
  • depuis 2025, ajout d’une backdoor pour garder un accès persistant et exĂ©cuter des commandes Ă  distance.

Autrement dit, un simple copier‑coller dans le Terminal peut offrir à un attaquant l’accès durable à un Mac entier, celui d’un journaliste, d’un dircom, d’un responsable data, ou d’une agence pilotant les réseaux sociaux de plusieurs marques.


Médias, communication, marketing : pourquoi vous êtes une cible idéale

Les secteurs des médias et de la communication en France sont particulièrement exposés à ce type de campagne pour trois raisons.

1. Une adoption massive des IA génératives

En 2025, la plupart des rédactions, agences RP, agences social media et services marketing :

  • testent des agents IA,
  • rĂ©digent des briefs ou des scripts via ChatGPT,
  • prĂ©parent des benchmarks dans Atlas,
  • partagent des liens de conversation entre collègues.

Plus l’IA est intégrée au quotidien, plus les acteurs malveillants ont d’occasions d’entrer dans vos flux de travail naturels.

2. Un environnement Mac et SaaS très répandu

Les métiers créatifs et éditoriaux tournent massivement sur macOS, avec :

  • gestionnaires de mots de passe,
  • accès aux back‑offices CMS,
  • comptes publicitaires (Google Ads, Meta Ads, X, etc.),
  • accès aux plateformes d’analytics et de CRM.

Un infostealer comme AMOS, installé via un faux guide Atlas, ne vole pas seulement des données personnelles : il ouvre aussi la porte à la prise de contrôle de vos comptes pros (campagnes publicitaires, sites, newsletters…).

3. Une culture de l’urgence et de l’expérimentation

Dans les rédactions et les agences, on vit souvent en mode sprint : bouclage, breaking news, client à livrer pour hier, pitch d’IA à préparer. C’est le terrain parfait pour :

  • cliquer sur le premier rĂ©sultat Google Ads,
  • exĂ©cuter une commande trouvĂ©e dans un guide,
  • tester rapidement « la nouvelle IA dont tout le monde parle ».

Ce n’est pas un manque d’intelligence, c’est un manque d’espace mental. Les hackers le savent très bien.


Comment reconnaître ces attaques et réduire le risque

La bonne nouvelle, c’est qu’on peut réduire très fortement l’impact de ce type de campagne avec quelques réflexes simples et des décisions structurantes.

1. Ne jamais exécuter une commande que vous ne comprenez pas

Règle d’or, valable pour tout le monde dans l’entreprise :

Si vous ne comprenez pas ce qu’une commande Terminal fait, vous ne l’exécutez pas.

Concrètement :

  • un guide Atlas qui vous demande un curl ... | sh ou un long script obscure = drapeau rouge ;
  • favorisez les installations via App Store, gestionnaires de paquets connus ou tĂ©lĂ©chargements depuis le site officiel du fournisseur ;
  • en cas de doute, passez par l’IT ou un rĂ©fĂ©rent technique.

2. Vérifier la source, pas seulement le domaine

Être sur chatgpt.com ne suffit pas. Posez‑vous deux questions :

  • Qui a partagĂ© cette conversation ? Est‑ce un lien interne (collègue, Ă©quipe IT) ou un lien inconnu trouvĂ© via une pub ?
  • Est‑ce logique qu’un logiciel soit distribuĂ© via une page de conversation IA plutĂ´t qu’un site officiel ou un store ?

Pour les équipes com/marketing, on peut formaliser ça dans une charte interne IA :

  • « On ne suit jamais un guide d’installation provenant d’une conversation partagĂ©e inconnue » ;
  • « On ne clique pas sur une pub pour installer un outil mĂ©tier sans validation IT ».

3. Mettre à profit l’IA… pour vérifier l’IA

Détail intéressant du rapport Kaspersky : en repartant d’une nouvelle conversation propre, ChatGPT signale lui‑même que la commande fournie dans le faux guide est dangereuse.

Réflexe utile :

  • copiez la commande suspecte ;
  • ouvrez une nouvelle conversation ChatGPT ;
  • demandez : « Cette commande est‑elle sĂ»re ? Explique‑la moi ligne par ligne. »

Ce n’est pas une garantie absolue, mais c’est un filet de sécurité supplémentaire pour des profils non techniques.

4. Muscler l’hygiène numérique des équipes

Pour les entreprises françaises des médias et de la communication, quelques basiques devraient être non négociables en 2025 :

  • Gestionnaire de mots de passe obligatoire, avec mots de passe uniques et robustes ;
  • Double authentification activĂ©e partout oĂą c’est possible (Google, rĂ©seaux sociaux, CRM, outils de diffusion) ;
  • Segmentation des accès : un seul compte ultra‑admin, verrouillĂ©, le reste en droits limitĂ©s ;
  • Antivirus / EDR spĂ©cifiques macOS dĂ©ployĂ©s sur tous les postes, y compris les Mac des freelances intĂ©grĂ©s sur le long terme ;
  • Sauvegardes rĂ©gulières des contenus critiques (CMS, archives d’articles, bases d’abonnĂ©s…).

Sans ça, une infection AMOS sur le Mac d’un seul chef de projet peut se transformer en véritable crise pour tout un groupe média.


Quelles bonnes pratiques IA instaurer dans votre organisation

L’attaque contre les utilisateurs d’Atlas via ChatGPT n’est probablement qu’un avant‑goût. La même méthode a déjà été observée avec d’autres chatbots comme Grok. On peut s’attendre à une généralisation.

Plutôt que d’interdire l’IA, ce qui est irréaliste en 2025, le bon réflexe est d’encadrer clairement les usages.

1. Rédiger une politique IA interne claire

Pour une rédaction, une agence, un service communication, cette politique devrait au minimum préciser :

  • quels outils IA sont autorisĂ©s (ChatGPT, Claude, Gemini, assistants internes, etc.) ;
  • via quels canaux on y accède (web officiel, application vĂ©rifiĂ©e) ;
  • ce qui est interdit : installation d’outils IA via des commandes shell trouvĂ©es en ligne, clic sur des pubs pour installer des logiciels, partage de comptes, etc. ;
  • comment signaler un comportement suspect (Ă©cran bizarre, machine ralentie, demandes de mot de passe inattendues…).

2. Former les équipes non techniques

Une heure de sensibilisation concrète vaut mieux qu’un pdf oublié. Par exemple :

  • rejouer le scĂ©nario de la fausse pub Atlas en atelier ;
  • montrer ce qu’est un curl | sh et pourquoi c’est un drapeau rouge ;
  • expliquer comment vĂ©rifier un exĂ©cutable tĂ©lĂ©chargĂ© ;
  • rappeler les canaux internes : qui contacter en cas de doute (RSSI, DSI, personne rĂ©fĂ©rente).

Dans la plupart des structures, les profils qui cliquent le plus (journalistes, CM, créatifs) ne sont pas ceux qui lisent la documentation IT. Il faut donc aller les chercher sur leurs usages réels.

3. Impliquer les partenaires et freelances

Les agences, studios, pigistes et consultants qui travaillent avec vous :

  • accèdent souvent Ă  vos espaces Notion, Google Drive, CMS, Slack ;
  • utilisent les mĂŞmes outils IA que vos Ă©quipes internes ;
  • sont rarement inclus dans vos politiques de sĂ©curitĂ©.

Une simple clause cybersécurité / IA dans les contrats, assortie d’un document de bonnes pratiques, peut déjà faire la différence. Le maillon faible est souvent à l’extérieur de votre SIRET.


Ce que cette affaire dit de l’avenir de la cybersécurité IA

Cette campagne autour de ChatGPT Atlas montre une chose : l’IA devient un composant banal des chaînes d’attaques. Elle n’est ni bonne ni mauvaise en soi ; elle est instrumentalisée.

On peut s’attendre à voir, dans les prochains mois :

  • d’autres campagnes basĂ©es sur des conversations partagĂ©es, tutoriels IA et faux scripts d’automatisation ;
  • des tentatives de jailbreak plus sophistiquĂ©es pour contourner les garde‑fous des modèles ;
  • des infostealers de plus en plus packagĂ©s pour les Ă©cosystèmes crĂ©atifs (macOS, outils audio/vidĂ©o, plugins de montage, etc.).

Pour les acteurs français des médias et de la communication, la vraie question n’est plus « doit‑on utiliser l’IA ? » mais « comment l’utiliser sans ouvrir la porte aux hackers ? ».

La réponse tient en trois axes :

  • accepter que l’IA fait dĂ©sormais partie de la surface d’attaque ;
  • traiter les liens, scripts et commandes issus de l’IA comme du contenu non fiable par dĂ©faut ;
  • investir sĂ©rieusement dans la culture cyber des Ă©quipes, pas seulement dans les outils.

Les organisations qui feront cet effort en 2026 auront un avantage net : elles continueront à profiter de la puissance des IA génératives pour produire, analyser et communiquer… sans transformer chaque test d’outil en risque de fuite de données ou de crise d’image.