De vrais liens ChatGPT, des pubs Google et un faux guide Atlas suffisent à installer un infostealer sur macOS. Voici comment et surtout comment s’en protéger.
ChatGPT détourné : le piège parfait pour 2025
Les équipes de Kaspersky ont mis au jour une campagne où de vrais liens ChatGPT, hébergés sur le domaine officiel chatgpt.com, servent à installer un malware. Pas de faux site, pas de copier‑coller d’URL douteuse : tout a l’air propre. Et c’est précisément ce qui la rend dangereuse.
Pour les équipes marketing, les communicants et les directions IT qui ont massivement adopté l’IA en 2024‑2025, ce cas est un avertissement très clair : l’IA n’est plus seulement une cible, c’est aussi un vecteur d’attaque. Les campagnes publicitaires, les partages de conversations et la curiosité autour de ChatGPT Atlas deviennent un terrain de jeu idéal pour les cybercriminels.
Dans cet article, on détaille comment les hackers ont détourné le vrai ChatGPT, pourquoi cette méthode est si crédible, et ce que doivent faire les entreprises françaises des médias, de la communication et du marketing pour ne pas se faire piéger.
Comment des hackers utilisent le vrai ChatGPT pour infecter des Mac
Les faits sont simples : la campagne malveillante repose sur une chaîne d’outils parfaitement légitimes.
- Google Ads : les pirates achètent des annonces sur des mots‑clés du type « comment installer Atlas » ou « télécharger ChatGPT Atlas macOS ».
- Redirection vers chatgpt.com : en cliquant sur l’annonce, l’internaute est bien envoyé sur le domaine officiel de ChatGPT.
- Conversation partagée piégée : la page affichée est une conversation publique créée via la fonction de partage de ChatGPT. Elle ressemble à un guide technique sérieux.
- Commande malveillante : le « tutoriel » se termine par une ligne de commande à copier‑coller dans le Terminal de macOS. C’est en réalité un script qui installe AMOS, un infostealer très évolué.
Rien dans l’interface ne laisse penser qu’il s’agit d’un piège. On est sur un vrai domaine, avec une vraie interface OpenAI, un guide bien rédigé, et un contexte crédible : l’installation du nouveau navigateur Atlas, lancé à l’automne 2025.
Pour un·e journaliste, un social media manager ou un créatif en agence qui teste les nouveautés IA entre deux réunions, c’est le scénario parfait pour cliquer sans réfléchir.
Pourquoi cette attaque est particulièrement sournoise
Cette campagne coche toutes les cases de l’arnaque moderne :
1. Elle exploite la confiance accordée aux grandes marques
ChatGPT, Google, Atlas, OpenAI… tout l’écosystème inspirant confiance est mobilisé. Les pirates n’essaient plus de vous attirer sur un site imitant ChatGPT ; ils s’appuient sur l’infrastructure officielle d’OpenAI.
Le message implicite est puissant : « Si je suis sur chatgpt.com, c’est sûr ». C’est faux.
C’est exactement ce qui inquiète en 2025 : les utilisateurs ont été éduqués à repérer les fautes d’orthographe, les liens bizarres et les formulaires suspects. Ici, rien de tout ça.
2. Le « guide Atlas » ressemble à une documentation technique classique
Les cybercriminels ont utilisé des techniques de jailbreak pour forcer ChatGPT à produire :
- un pseudo‑guide d’installation d’Atlas sur macOS,
- structuré, propre, avec des étapes numérotées,
- une commande shell claire Ă la fin.
Ils ont ensuite supprimé l’historique de la conversation pour ne conserver que la réponse finale, bien propre, sans traces du bidouillage en amont. Résultat : la page partagée ressemble à un extrait de documentation officielle.
3. Le malware AMOS, un infostealer « clé en main »
La commande installe AMOS (Atomic macOS Stealer), un infostealer qui circule depuis 2023 et qui s’est professionnalisé :
- modèle « malware-as-a-service » : environ 1 000 dollars par mois sur le dark web ;
- vol de mots de passe, cookies, portefeuilles crypto, documents, etc. ;
- depuis 2025, ajout d’une backdoor pour garder un accès persistant et exécuter des commandes à distance.
Autrement dit, un simple copier‑coller dans le Terminal peut offrir à un attaquant l’accès durable à un Mac entier, celui d’un journaliste, d’un dircom, d’un responsable data, ou d’une agence pilotant les réseaux sociaux de plusieurs marques.
Médias, communication, marketing : pourquoi vous êtes une cible idéale
Les secteurs des médias et de la communication en France sont particulièrement exposés à ce type de campagne pour trois raisons.
1. Une adoption massive des IA génératives
En 2025, la plupart des rédactions, agences RP, agences social media et services marketing :
- testent des agents IA,
- rédigent des briefs ou des scripts via ChatGPT,
- préparent des benchmarks dans Atlas,
- partagent des liens de conversation entre collègues.
Plus l’IA est intégrée au quotidien, plus les acteurs malveillants ont d’occasions d’entrer dans vos flux de travail naturels.
2. Un environnement Mac et SaaS très répandu
Les métiers créatifs et éditoriaux tournent massivement sur macOS, avec :
- gestionnaires de mots de passe,
- accès aux back‑offices CMS,
- comptes publicitaires (Google Ads, Meta Ads, X, etc.),
- accès aux plateformes d’analytics et de CRM.
Un infostealer comme AMOS, installé via un faux guide Atlas, ne vole pas seulement des données personnelles : il ouvre aussi la porte à la prise de contrôle de vos comptes pros (campagnes publicitaires, sites, newsletters…).
3. Une culture de l’urgence et de l’expérimentation
Dans les rédactions et les agences, on vit souvent en mode sprint : bouclage, breaking news, client à livrer pour hier, pitch d’IA à préparer. C’est le terrain parfait pour :
- cliquer sur le premier résultat Google Ads,
- exécuter une commande trouvée dans un guide,
- tester rapidement « la nouvelle IA dont tout le monde parle ».
Ce n’est pas un manque d’intelligence, c’est un manque d’espace mental. Les hackers le savent très bien.
Comment reconnaître ces attaques et réduire le risque
La bonne nouvelle, c’est qu’on peut réduire très fortement l’impact de ce type de campagne avec quelques réflexes simples et des décisions structurantes.
1. Ne jamais exécuter une commande que vous ne comprenez pas
Règle d’or, valable pour tout le monde dans l’entreprise :
Si vous ne comprenez pas ce qu’une commande Terminal fait, vous ne l’exécutez pas.
Concrètement :
- un guide Atlas qui vous demande un
curl ... | shou un long script obscure = drapeau rouge ; - favorisez les installations via App Store, gestionnaires de paquets connus ou téléchargements depuis le site officiel du fournisseur ;
- en cas de doute, passez par l’IT ou un référent technique.
2. Vérifier la source, pas seulement le domaine
Être sur chatgpt.com ne suffit pas. Posez‑vous deux questions :
- Qui a partagé cette conversation ? Est‑ce un lien interne (collègue, équipe IT) ou un lien inconnu trouvé via une pub ?
- Est‑ce logique qu’un logiciel soit distribué via une page de conversation IA plutôt qu’un site officiel ou un store ?
Pour les équipes com/marketing, on peut formaliser ça dans une charte interne IA :
- « On ne suit jamais un guide d’installation provenant d’une conversation partagée inconnue » ;
- « On ne clique pas sur une pub pour installer un outil métier sans validation IT ».
3. Mettre à profit l’IA… pour vérifier l’IA
Détail intéressant du rapport Kaspersky : en repartant d’une nouvelle conversation propre, ChatGPT signale lui‑même que la commande fournie dans le faux guide est dangereuse.
Réflexe utile :
- copiez la commande suspecte ;
- ouvrez une nouvelle conversation ChatGPT ;
- demandez : « Cette commande est‑elle sûre ? Explique‑la moi ligne par ligne. »
Ce n’est pas une garantie absolue, mais c’est un filet de sécurité supplémentaire pour des profils non techniques.
4. Muscler l’hygiène numérique des équipes
Pour les entreprises françaises des médias et de la communication, quelques basiques devraient être non négociables en 2025 :
- Gestionnaire de mots de passe obligatoire, avec mots de passe uniques et robustes ;
- Double authentification activée partout où c’est possible (Google, réseaux sociaux, CRM, outils de diffusion) ;
- Segmentation des accès : un seul compte ultra‑admin, verrouillé, le reste en droits limités ;
- Antivirus / EDR spécifiques macOS déployés sur tous les postes, y compris les Mac des freelances intégrés sur le long terme ;
- Sauvegardes régulières des contenus critiques (CMS, archives d’articles, bases d’abonnés…).
Sans ça, une infection AMOS sur le Mac d’un seul chef de projet peut se transformer en véritable crise pour tout un groupe média.
Quelles bonnes pratiques IA instaurer dans votre organisation
L’attaque contre les utilisateurs d’Atlas via ChatGPT n’est probablement qu’un avant‑goût. La même méthode a déjà été observée avec d’autres chatbots comme Grok. On peut s’attendre à une généralisation.
Plutôt que d’interdire l’IA, ce qui est irréaliste en 2025, le bon réflexe est d’encadrer clairement les usages.
1. Rédiger une politique IA interne claire
Pour une rédaction, une agence, un service communication, cette politique devrait au minimum préciser :
- quels outils IA sont autorisés (ChatGPT, Claude, Gemini, assistants internes, etc.) ;
- via quels canaux on y accède (web officiel, application vérifiée) ;
- ce qui est interdit : installation d’outils IA via des commandes shell trouvées en ligne, clic sur des pubs pour installer des logiciels, partage de comptes, etc. ;
- comment signaler un comportement suspect (écran bizarre, machine ralentie, demandes de mot de passe inattendues…).
2. Former les équipes non techniques
Une heure de sensibilisation concrète vaut mieux qu’un pdf oublié. Par exemple :
- rejouer le scénario de la fausse pub Atlas en atelier ;
- montrer ce qu’est un
curl | shet pourquoi c’est un drapeau rouge ; - expliquer comment vérifier un exécutable téléchargé ;
- rappeler les canaux internes : qui contacter en cas de doute (RSSI, DSI, personne référente).
Dans la plupart des structures, les profils qui cliquent le plus (journalistes, CM, créatifs) ne sont pas ceux qui lisent la documentation IT. Il faut donc aller les chercher sur leurs usages réels.
3. Impliquer les partenaires et freelances
Les agences, studios, pigistes et consultants qui travaillent avec vous :
- accèdent souvent à vos espaces Notion, Google Drive, CMS, Slack ;
- utilisent les mêmes outils IA que vos équipes internes ;
- sont rarement inclus dans vos politiques de sécurité.
Une simple clause cybersécurité / IA dans les contrats, assortie d’un document de bonnes pratiques, peut déjà faire la différence. Le maillon faible est souvent à l’extérieur de votre SIRET.
Ce que cette affaire dit de l’avenir de la cybersécurité IA
Cette campagne autour de ChatGPT Atlas montre une chose : l’IA devient un composant banal des chaînes d’attaques. Elle n’est ni bonne ni mauvaise en soi ; elle est instrumentalisée.
On peut s’attendre à voir, dans les prochains mois :
- d’autres campagnes basées sur des conversations partagées, tutoriels IA et faux scripts d’automatisation ;
- des tentatives de jailbreak plus sophistiquées pour contourner les garde‑fous des modèles ;
- des infostealers de plus en plus packagés pour les écosystèmes créatifs (macOS, outils audio/vidéo, plugins de montage, etc.).
Pour les acteurs français des médias et de la communication, la vraie question n’est plus « doit‑on utiliser l’IA ? » mais « comment l’utiliser sans ouvrir la porte aux hackers ? ».
La réponse tient en trois axes :
- accepter que l’IA fait désormais partie de la surface d’attaque ;
- traiter les liens, scripts et commandes issus de l’IA comme du contenu non fiable par défaut ;
- investir sérieusement dans la culture cyber des équipes, pas seulement dans les outils.
Les organisations qui feront cet effort en 2026 auront un avantage net : elles continueront à profiter de la puissance des IA génératives pour produire, analyser et communiquer… sans transformer chaque test d’outil en risque de fuite de données ou de crise d’image.