De vrais liens ChatGPT, des annonces Google et un simple copier-coller : voici comment un infostealer macOS vise les pros des médias et de la com, et comment vous en protéger.
Une vraie page ChatGPT, un faux guide, un Mac infecté
Un simple copier-coller dans le Terminal a suffi : en quelques secondes, le Mac d’un développeur s’est retrouvé infesté d’un infostealer, alors qu’il pensait juste installer le nouveau navigateur ChatGPT Atlas. Le lien venait d’une annonce Google, la page était bien hébergée sur chatgpt.com, tout avait l’air propre. Et pourtant, tout était piégé.
Ce scénario n’est pas un cas isolé. Le rapport publié le 09/12/2025 par Kaspersky décrit l’une des campagnes cybercriminelles les plus sournoises de l’année : de vrais liens ChatGPT, boostés par Google Ads, utilisés pour diffuser un malware macOS. Pour les médias, les agences de com, les équipes marketing qui utilisent l’IA tous les jours, ce genre d’attaque n’est plus un risque théorique, c’est du très concret.
Voici ce qui s’est passé, pourquoi cette méthode fonctionne si bien psychologiquement… et comment protéger vos équipes et vos données sans arrêter d’utiliser l’IA.
1. Comment des hackers ont détourné le vrai ChatGPT
La campagne repérée par Kaspersky combine trois ingrédients : Google Ads, la fonction de partage de discussion ChatGPT et un malware infostealer, AMOS.
Le parcours d’une victime type
- Une personne tape « comment installer Atlas sur macOS » dans Google.
- Tout en haut, un résultat sponsorisé a l’air parfaitement légitime.
- Le clic renvoie bien vers
chatgpt.com, via une discussion partagée contenant un « guide d’installation Atlas ». - Le guide propose une ligne de commande à exécuter dans le Terminal.
- La commande installe en réalité un script qui déploie le malware AMOS.
Ce qui change tout par rapport aux arnaques classiques :
- le domaine est authentique (
chatgpt.com), - l’interface est familière,
- l’utilisateur a l’habitude de suivre les conseils d’un chatbot « intelligent ».
Autrement dit, les pirates ne fabriquent plus un faux ChatGPT, ils utilisent le vrai.
Le rôle-clé de la fonction « partager la conversation »
OpenAI permet de partager une conversation sous forme de page publique hébergée directement sur chatgpt.com. Les attaquants en profitent en deux étapes :
- ils « jailbreakent » ChatGPT pour l’amener à produire un faux guide d’installation contenant une commande dangereuse ;
- ils publient uniquement la réponse finale, nettoyée de tout contexte, sous forme de page partagée.
Résultat : quand vous arrivez sur cette page par Google Ads, vous voyez :
Question : « Comment installer OpenAI Atlas sur macOS ? »
Réponse : une marche à suivre claire, avec une seule commande à copier.
Pour un·e communicant·e pressé·e, un journaliste en rush bouclage ou un créatif qui veut juste tester Atlas, tout est réuni pour cliquer sans trop réfléchir.
2. AMOS : l’infostealer qui transforme un clic en fuite de données
Derrière cette simple commande se cache AMOS (Atomic macOS Stealer), un infostealer loué sur le dark web pour environ 1 000 dollars par mois.
Ce que vole un infostealer moderne
Un infostealer comme AMOS ne se contente pas de quelques mots de passe éparpillés. Il cible par défaut :
- les mots de passe enregistrés dans les navigateurs ;
- les cookies de session (accès direct à vos comptes sans mot de passe) ;
- les portefeuilles crypto et applications financières ;
- les documents locaux et captures d’écran ;
- les frappes clavier (keylogging) pour récupérer tout ce que vous tapez.
En 2025, pour un service média ou une agence, cela signifie potentiellement :
- accès aux back-offices CMS (WordPress, Drupal, etc.) ;
- comptes de réseaux sociaux de marques et de clients ;
- outils de gestion de campagnes (Google Ads, Meta, X, plateformes d’emailing) ;
- solutions cloud (Google Workspace, Microsoft 365, Notion, Slack…).
Le tout à partir d’un seul poste compromis dans la rédaction, le studio ou l’équipe marketing.
Pourquoi cette campagne est particulièrement inquiétante
Cette attaque coche plusieurs cases qui doivent faire réagir les directions de la communication et des médias :
- industrialisation du crime : AMOS est loué en mode « malware-as-a-service ». Pas besoin d’être un génie du code pour lancer sa campagne ;
- surface d’attaque massive : macOS est très présent chez les journalistes, créatifs, monteurs, social media managers ;
- effet IA : la confiance aveugle accordée à l’IA rend le piège plus efficace qu’un simple mail de phishing.
La réalité ? Plus votre organisation dépend de l’IA pour produire, plus elle devient une cible intéressante.
3. Pourquoi cette attaque marche si bien sur les pros des médias et de la com
La campagne décrite par Kaspersky s’appuie sur des biais très humains, particulièrement présents dans les métiers de la communication.
La confiance dans la marque et l’interface
On voit chatgpt.com, le design habituel, un ton neutre et technique. Tout cela déclenche un réflexe :
« C’est le site officiel, donc c’est sûr. »
Or, dans ce cas, la plateforme est légitime, mais le contenu est malveillant. Exactement comme des fake news publiées sur un réseau social parfaitement authentique.
La pression du temps et de la nouveauté
Dans les rédactions et les agences, la logique est souvent :
- tester rapidement les nouveaux outils (ici, Atlas) pour rester Ă jour ;
- produire plus vite, avec moins de ressources ;
- publier avant les concurrents.
Ce contexte pousse Ă :
- cliquer sur le premier résultat Google (souvent une annonce) ;
- survoler les avertissements de sécurité ;
- exécuter des commandes techniques qu’on ne comprend pas totalement.
Les hackers l’ont très bien compris. Ils misent sur cette culture du « on verra plus tard » côté sécurité.
L’illusion de la neutralité de l’IA
On a tendance Ă se dire :
« Si c’est ChatGPT qui le dit, c’est certainement validé par OpenAI. »
Sauf qu’une conversation partagée n’est pas un contenu éditorial validé. C’est l’équivalent d’un post de forum : hébergé par la plateforme, mais pas certifié par elle.
Pour les médias et communicants, la leçon est claire :
Une page
chatgpt.compartagée par un inconnu, c’est aussi peu fiable qu’un PDF reçu par mail non sollicité.
4. Protéger vos équipes IA : un plan d’action concret
Bonne nouvelle : on peut continuer à utiliser ChatGPT, Atlas et les autres IA tout en réduisant drastiquement le risque. Cela passe par un mix procédures, outils et réflexes.
4.1. Mettre en place quelques règles simples (et non négociables)
Pour toute l’équipe (journalistes, créas, social media, marketing) :
- Ne jamais exécuter une commande Terminal copiée sur :
- une conversation IA partagée ;
- un commentaire de forum ou de réseau social ;
- un blog dont vous ne maîtrisez pas la fiabilité.
- Passer systématiquement par le site officiel d’un logiciel pour l’installer :
- taper l’URL à la main dans le navigateur ;
- ou utiliser un gestionnaire de paquets (App Store, Homebrew, etc.).
- Désactiver par défaut le clic automatique sur les liens sponsorisés pour tout ce qui relève de l’outillage technique.
Une règle utile à rappeler régulièrement :
« Si tu ne comprends pas à quoi sert une commande, tu ne l’exécutes pas. Point. »
4.2. Sécuriser les comptes et les accès sensibles
Pour limiter l’impact d’un infostealer :
- Activer l’authentification à deux facteurs (2FA) sur tous les comptes critiques : réseaux sociaux, outils publicitaires, CMS, email pro ;
- Utiliser un gestionnaire de mots de passe avec des mots de passe uniques et longs ;
- Isoler les accès administration (CMS, comptes clients, publicités) sur :
- un navigateur dédié ;
- ou un poste distinct, moins exposé aux tests d’outils.
Ainsi, même si un Mac utilisé pour tester des IA est compromis, l’accès aux comptes les plus sensibles reste protégé.
4.3. Former spécifiquement à « l’hygiène IA »
En 2025, une charte numérique qui n’aborde pas l’IA est incomplète. Quelques points à intégrer dans vos formations internes :
- ce qu’est une conversation IA partagée et son statut (contenu non validé) ;
- la différence entre interface officielle et contenu de tiers ;
- les signes d’arnaques autour des IA :
- annonces Google suspectes ;
- promesse de versions « crackées », « turbo », « pro gratuites » ;
- guides d’installation via une seule commande miracle.
Une formation d’1 heure, illustrée avec de vrais exemples, évite souvent des semaines de gestion de crise derrière.
4.4. Prévoir la réaction en cas de clic
Personne n’est parfait. Ce qui distingue une organisation mature, c’est la façon de réagir quand quelqu’un tombe dans le piège.
Préparez un protocole simple :
- Isoler immédiatement la machine (déconnexion du réseau, Wi-Fi coupé).
- Prévenir l’IT / RSSI sans chercher à « cacher » l’erreur.
- Changer les mots de passe des principaux comptes utilisés sur ce poste.
- Scanner la machine avec un outil de sécurité adapté à macOS.
Le message Ă faire passer au management :
Ce qui coûte cher, ce n’est pas le clic, c’est le silence après le clic.
5. Ce que cette affaire révèle sur l’IA dans les médias et la com
Cette campagne n’est pas juste une histoire de malware de plus. Elle dit quelque chose de l’état réel de la transformation IA dans les médias et la communication en France.
- Les équipes ont adopté massivement les outils IA, souvent avant que la DSI ait posé un cadre clair.
- La frontière entre source fiable et contenu IA partagé par n’importe qui devient floue.
- Le réflexe de vérification technique (surtout pour les commandes système) n’est pas au niveau de l’usage massif d’outils comme ChatGPT.
Il y a pourtant une opportunité :
- intégrer la cybersécurité comme un pilier de votre stratégie IA, au même titre que la créativité ou la productivité ;
- en faire un argument commercial : être l’agence / le média qui sait utiliser l’IA, mais aussi la sécuriser.
Les clients commencent déjà à poser ces questions :
« Vous utilisez l’IA pour nos contenus, très bien. Mais comment protégez-vous nos données, nos accès, nos comptes ? »
Les acteurs qui auront une réponse claire et structurée marqueront des points.
Et maintenant, que faire dans votre organisation ?
Cette campagne montre qu’un lien sponsorisé + une vraie page ChatGPT + une seule commande suffisent à ouvrir la porte d’une rédaction, d’une agence ou d’un service communication. Ignorer le sujet n’est plus une option.
Pour avancer, trois actions rapides Ă lancer avant la fin du mois :
- Briefer vos équipes (30 minutes) sur ce type d’attaque et les réflexes à adopter.
- Auditer vos usages IA actuels : qui utilise quoi, depuis quelles machines, avec quels accès ?
- Mettre à jour vos politiques internes (sécurité, charte numérique, charte IA) pour intégrer ces risques très concrets.
L’IA restera au cœur des médias et de la communication en 2026. La question n’est plus « faut-il l’utiliser ? », mais :
Êtes-vous organisés pour en tirer le meilleur… sans offrir vos accès et vos données au premier infostealer venu ?