Quand de vrais chats GPT piégés infectent vos Mac

Intelligence Artificielle dans l'Industrie Agroalimentaire••By 3L3C

De vrais liens ChatGPT, des annonces Google et un simple copier-coller : voici comment un infostealer macOS vise les pros des médias et de la com, et comment vous en protéger.

ChatGPTcyberattaquemalware macOShygiène numériquemédiascommunicationintelligence artificielle
Share:

Une vraie page ChatGPT, un faux guide, un Mac infecté

Un simple copier-coller dans le Terminal a suffi : en quelques secondes, le Mac d’un développeur s’est retrouvé infesté d’un infostealer, alors qu’il pensait juste installer le nouveau navigateur ChatGPT Atlas. Le lien venait d’une annonce Google, la page était bien hébergée sur chatgpt.com, tout avait l’air propre. Et pourtant, tout était piégé.

Ce scénario n’est pas un cas isolé. Le rapport publié le 09/12/2025 par Kaspersky décrit l’une des campagnes cybercriminelles les plus sournoises de l’année : de vrais liens ChatGPT, boostés par Google Ads, utilisés pour diffuser un malware macOS. Pour les médias, les agences de com, les équipes marketing qui utilisent l’IA tous les jours, ce genre d’attaque n’est plus un risque théorique, c’est du très concret.

Voici ce qui s’est passé, pourquoi cette méthode fonctionne si bien psychologiquement… et comment protéger vos équipes et vos données sans arrêter d’utiliser l’IA.


1. Comment des hackers ont détourné le vrai ChatGPT

La campagne repérée par Kaspersky combine trois ingrédients : Google Ads, la fonction de partage de discussion ChatGPT et un malware infostealer, AMOS.

Le parcours d’une victime type

  1. Une personne tape « comment installer Atlas sur macOS » dans Google.
  2. Tout en haut, un résultat sponsorisé a l’air parfaitement légitime.
  3. Le clic renvoie bien vers chatgpt.com, via une discussion partagée contenant un « guide d’installation Atlas ».
  4. Le guide propose une ligne de commande à exécuter dans le Terminal.
  5. La commande installe en réalité un script qui déploie le malware AMOS.

Ce qui change tout par rapport aux arnaques classiques :

  • le domaine est authentique (chatgpt.com),
  • l’interface est familière,
  • l’utilisateur a l’habitude de suivre les conseils d’un chatbot « intelligent ».

Autrement dit, les pirates ne fabriquent plus un faux ChatGPT, ils utilisent le vrai.

Le rôle-clé de la fonction « partager la conversation »

OpenAI permet de partager une conversation sous forme de page publique hébergée directement sur chatgpt.com. Les attaquants en profitent en deux étapes :

  • ils « jailbreakent » ChatGPT pour l’amener Ă  produire un faux guide d’installation contenant une commande dangereuse ;
  • ils publient uniquement la rĂ©ponse finale, nettoyĂ©e de tout contexte, sous forme de page partagĂ©e.

Résultat : quand vous arrivez sur cette page par Google Ads, vous voyez :

Question : « Comment installer OpenAI Atlas sur macOS ? »
Réponse : une marche à suivre claire, avec une seule commande à copier.

Pour un·e communicant·e pressé·e, un journaliste en rush bouclage ou un créatif qui veut juste tester Atlas, tout est réuni pour cliquer sans trop réfléchir.


2. AMOS : l’infostealer qui transforme un clic en fuite de données

Derrière cette simple commande se cache AMOS (Atomic macOS Stealer), un infostealer loué sur le dark web pour environ 1 000 dollars par mois.

Ce que vole un infostealer moderne

Un infostealer comme AMOS ne se contente pas de quelques mots de passe éparpillés. Il cible par défaut :

  • les mots de passe enregistrĂ©s dans les navigateurs ;
  • les cookies de session (accès direct Ă  vos comptes sans mot de passe) ;
  • les portefeuilles crypto et applications financières ;
  • les documents locaux et captures d’écran ;
  • les frappes clavier (keylogging) pour rĂ©cupĂ©rer tout ce que vous tapez.

En 2025, pour un service média ou une agence, cela signifie potentiellement :

  • accès aux back-offices CMS (WordPress, Drupal, etc.) ;
  • comptes de rĂ©seaux sociaux de marques et de clients ;
  • outils de gestion de campagnes (Google Ads, Meta, X, plateformes d’emailing) ;
  • solutions cloud (Google Workspace, Microsoft 365, Notion, Slack…).

Le tout à partir d’un seul poste compromis dans la rédaction, le studio ou l’équipe marketing.

Pourquoi cette campagne est particulièrement inquiétante

Cette attaque coche plusieurs cases qui doivent faire réagir les directions de la communication et des médias :

  • industrialisation du crime : AMOS est louĂ© en mode « malware-as-a-service ». Pas besoin d’être un gĂ©nie du code pour lancer sa campagne ;
  • surface d’attaque massive : macOS est très prĂ©sent chez les journalistes, crĂ©atifs, monteurs, social media managers ;
  • effet IA : la confiance aveugle accordĂ©e Ă  l’IA rend le piège plus efficace qu’un simple mail de phishing.

La réalité ? Plus votre organisation dépend de l’IA pour produire, plus elle devient une cible intéressante.


3. Pourquoi cette attaque marche si bien sur les pros des médias et de la com

La campagne décrite par Kaspersky s’appuie sur des biais très humains, particulièrement présents dans les métiers de la communication.

La confiance dans la marque et l’interface

On voit chatgpt.com, le design habituel, un ton neutre et technique. Tout cela déclenche un réflexe :

« C’est le site officiel, donc c’est sûr. »

Or, dans ce cas, la plateforme est légitime, mais le contenu est malveillant. Exactement comme des fake news publiées sur un réseau social parfaitement authentique.

La pression du temps et de la nouveauté

Dans les rédactions et les agences, la logique est souvent :

  • tester rapidement les nouveaux outils (ici, Atlas) pour rester Ă  jour ;
  • produire plus vite, avec moins de ressources ;
  • publier avant les concurrents.

Ce contexte pousse Ă  :

  • cliquer sur le premier rĂ©sultat Google (souvent une annonce) ;
  • survoler les avertissements de sĂ©curitĂ© ;
  • exĂ©cuter des commandes techniques qu’on ne comprend pas totalement.

Les hackers l’ont très bien compris. Ils misent sur cette culture du « on verra plus tard » côté sécurité.

L’illusion de la neutralité de l’IA

On a tendance Ă  se dire :

« Si c’est ChatGPT qui le dit, c’est certainement validé par OpenAI. »

Sauf qu’une conversation partagée n’est pas un contenu éditorial validé. C’est l’équivalent d’un post de forum : hébergé par la plateforme, mais pas certifié par elle.

Pour les médias et communicants, la leçon est claire :

Une page chatgpt.com partagée par un inconnu, c’est aussi peu fiable qu’un PDF reçu par mail non sollicité.


4. Protéger vos équipes IA : un plan d’action concret

Bonne nouvelle : on peut continuer à utiliser ChatGPT, Atlas et les autres IA tout en réduisant drastiquement le risque. Cela passe par un mix procédures, outils et réflexes.

4.1. Mettre en place quelques règles simples (et non négociables)

Pour toute l’équipe (journalistes, créas, social media, marketing) :

  • Ne jamais exĂ©cuter une commande Terminal copiĂ©e sur :
    • une conversation IA partagĂ©e ;
    • un commentaire de forum ou de rĂ©seau social ;
    • un blog dont vous ne maĂ®trisez pas la fiabilitĂ©.
  • Passer systĂ©matiquement par le site officiel d’un logiciel pour l’installer :
    • taper l’URL Ă  la main dans le navigateur ;
    • ou utiliser un gestionnaire de paquets (App Store, Homebrew, etc.).
  • DĂ©sactiver par dĂ©faut le clic automatique sur les liens sponsorisĂ©s pour tout ce qui relève de l’outillage technique.

Une règle utile à rappeler régulièrement :

« Si tu ne comprends pas à quoi sert une commande, tu ne l’exécutes pas. Point. »

4.2. Sécuriser les comptes et les accès sensibles

Pour limiter l’impact d’un infostealer :

  • Activer l’authentification Ă  deux facteurs (2FA) sur tous les comptes critiques : rĂ©seaux sociaux, outils publicitaires, CMS, email pro ;
  • Utiliser un gestionnaire de mots de passe avec des mots de passe uniques et longs ;
  • Isoler les accès administration (CMS, comptes clients, publicitĂ©s) sur :
    • un navigateur dĂ©diĂ© ;
    • ou un poste distinct, moins exposĂ© aux tests d’outils.

Ainsi, même si un Mac utilisé pour tester des IA est compromis, l’accès aux comptes les plus sensibles reste protégé.

4.3. Former spécifiquement à « l’hygiène IA »

En 2025, une charte numérique qui n’aborde pas l’IA est incomplète. Quelques points à intégrer dans vos formations internes :

  • ce qu’est une conversation IA partagĂ©e et son statut (contenu non validĂ©) ;
  • la diffĂ©rence entre interface officielle et contenu de tiers ;
  • les signes d’arnaques autour des IA :
    • annonces Google suspectes ;
    • promesse de versions « crackĂ©es », « turbo », « pro gratuites » ;
    • guides d’installation via une seule commande miracle.

Une formation d’1 heure, illustrée avec de vrais exemples, évite souvent des semaines de gestion de crise derrière.

4.4. Prévoir la réaction en cas de clic

Personne n’est parfait. Ce qui distingue une organisation mature, c’est la façon de réagir quand quelqu’un tombe dans le piège.

Préparez un protocole simple :

  1. Isoler immédiatement la machine (déconnexion du réseau, Wi-Fi coupé).
  2. Prévenir l’IT / RSSI sans chercher à « cacher » l’erreur.
  3. Changer les mots de passe des principaux comptes utilisés sur ce poste.
  4. Scanner la machine avec un outil de sécurité adapté à macOS.

Le message Ă  faire passer au management :

Ce qui coûte cher, ce n’est pas le clic, c’est le silence après le clic.


5. Ce que cette affaire révèle sur l’IA dans les médias et la com

Cette campagne n’est pas juste une histoire de malware de plus. Elle dit quelque chose de l’état réel de la transformation IA dans les médias et la communication en France.

  • Les Ă©quipes ont adoptĂ© massivement les outils IA, souvent avant que la DSI ait posĂ© un cadre clair.
  • La frontière entre source fiable et contenu IA partagĂ© par n’importe qui devient floue.
  • Le rĂ©flexe de vĂ©rification technique (surtout pour les commandes système) n’est pas au niveau de l’usage massif d’outils comme ChatGPT.

Il y a pourtant une opportunité :

  • intĂ©grer la cybersĂ©curitĂ© comme un pilier de votre stratĂ©gie IA, au mĂŞme titre que la crĂ©ativitĂ© ou la productivitĂ© ;
  • en faire un argument commercial : ĂŞtre l’agence / le mĂ©dia qui sait utiliser l’IA, mais aussi la sĂ©curiser.

Les clients commencent déjà à poser ces questions :

« Vous utilisez l’IA pour nos contenus, très bien. Mais comment protégez-vous nos données, nos accès, nos comptes ? »

Les acteurs qui auront une réponse claire et structurée marqueront des points.


Et maintenant, que faire dans votre organisation ?

Cette campagne montre qu’un lien sponsorisé + une vraie page ChatGPT + une seule commande suffisent à ouvrir la porte d’une rédaction, d’une agence ou d’un service communication. Ignorer le sujet n’est plus une option.

Pour avancer, trois actions rapides Ă  lancer avant la fin du mois :

  1. Briefer vos équipes (30 minutes) sur ce type d’attaque et les réflexes à adopter.
  2. Auditer vos usages IA actuels : qui utilise quoi, depuis quelles machines, avec quels accès ?
  3. Mettre à jour vos politiques internes (sécurité, charte numérique, charte IA) pour intégrer ces risques très concrets.

L’IA restera au cœur des médias et de la communication en 2026. La question n’est plus « faut-il l’utiliser ? », mais :

Êtes-vous organisés pour en tirer le meilleur… sans offrir vos accès et vos données au premier infostealer venu ?