Managers et IA : pourquoi le « non » devient un risque

Intelligence Artificielle dans l'Industrie AgroalimentaireBy 3L3C

Refuser l’IA par principe est devenu un risque. Voici comment un manager français peut encadrer l’IA au travail sans nuire à la qualité, ni à ses équipes.

intelligence artificiellemanagementNvidiacommunicationproductivitéautomatisation
Share:

Nvidia, Jensen Huang… et les « maboules » qui freinent l’IA

Quand le patron de Nvidia traite de « maboules » les managers qui limitent l’usage de l’IA, ce n’est pas juste une punchline. C’est le signal très clair que, pour une partie de la tech mondiale, refuser l’IA au travail est désormais vu comme une faute de management.

Cette sortie de Jensen Huang, le 20/11/2025, intervient alors que Nvidia bat record sur record grâce aux puces pour l’IA générative. Dans le même temps, en France, les directions communication, marketing et médias tâtonnent encore : charte ou pas charte ? interdiction ou expérimentation ?

Voici le vrai sujet : les entreprises qui se contentent de freiner l’IA sans stratégie sont en train de se mettre en danger. Mais l’inverse est tout aussi vrai : foncer tête baissée parce que « Nvidia le fait » est une excellente manière de dégrader la qualité, la confiance et les équipes.

Ce billet propose une autre voie : comprendre ce que dit vraiment Jensen Huang, ce que font Microsoft et Google, puis en tirer un plan concret pour les managers français des médias et de la communication.


Ce que Jensen Huang dit vraiment aux managers

Le message du patron de Nvidia tient en une phrase :

« Je veux que toutes les tâches pouvant être automatisées grâce à l’IA le soient. Je vous promets que vous aurez du travail à faire. »

Autrement dit :

  • si une tâche est répétitive, structurelle, standardisable,
  • et si l’IA peut la faire avec un niveau de qualité acceptable,
  • alors la refuser est perçu comme un non-sens économique.

Pourquoi cette position est logique… pour Nvidia

Pour une entreprise qui vend l’infrastructure de l’IA, pousser à l’adoption maximale est évident :

  • plus d’usage d’IA = plus de serveurs, de GPUs, de cloud,
  • donc plus de chiffre d’affaires pour Nvidia et ses partenaires.

C’est aussi un message interne : des signaux remontent que certains managers chez Nvidia freinent l’usage de l’IA par leurs équipes. Huang coupe court :

  • l’IA ne doit pas être un gadget réservé à quelques geeks,
  • elle doit devenir un réflexe de productivité pour tous.

Ce que cela veut dire pour vous, manager en France

Vous n’êtes pas Nvidia, vous n’avez pas un business model fondé sur la vente de GPUs. Mais son message reste pertinent :

  • bloquer l’IA par principe (peur, méconnaissance, réflexe défensif) devient un handicap,
  • autoriser l’IA n’importe comment (sans cadre, sans contrôle éditorial ou juridique) est tout aussi problématique.

La vraie question n’est pas « IA ou pas IA ? », mais :

Sur quelles tâches concrètes l’IA apporte un gain, sans dégrader la qualité, la sécurité ou la marque ?


À quel point les géants imposent déjà l’IA au quotidien

L’autre élément clé de l’article d’origine : Microsoft et Google ne se contentent plus de recommander l’IA. Ils l’imposent dans le travail de leurs développeurs.

  • Microsoft annonce qu’environ 30 % du nouveau code interne est généré par l’IA.
  • Google évoque un taux d’environ 25 %.
  • En interne, des consignes circulent : l’usage d’outils type Copilot ou Gemini n’est plus une option, c’est la nouvelle norme.

Pourquoi cette généralisation intéresse aussi les métiers de la communication

Si l’IA peut produire 25–30 % du code dans ces entreprises, on peut raisonnablement anticiper des chiffres comparables demain sur :

  • les e-mails (brouillons, reformulations, traductions),
  • les briefs créatifs,
  • les scripts vidéo,
  • les posts réseaux sociaux,
  • les analyses de veille média ou social listening.

Dans de nombreuses agences françaises, on voit déjà :

  • des community managers qui génèrent 5–10 variations de posts puis affinent,
  • des planneurs stratégiques qui utilisent l’IA pour pré-rédiger des présentations clients,
  • des équipes RP qui font des premiers jets de communiqués ou Q&A avec des modèles génératifs.

Le mouvement de fond est clair : l’IA devient un outil par défaut, comme le traitement de texte ou la suite Office à l’époque.

Le piège : confondre obligation d’usage et obligation de résultat

Là où beaucoup de directions se trompent, c’est en posant des injonctions absurdes du type :

  • « tous vos textes doivent venir à 50 % de l’IA »,
  • « chaque chef de projet doit prouver qu’il a utilisé un outil IA sur ce dossier ».

Ce type d’objectifs

  • pousse à gonfler artificiellement l’usage,
  • dégrade la qualité (on garde des sorties moyennes pour cocher une case),
  • démotive les talents seniors qui voient leur expertise sous-valorisée.

Là-dessus, je suis en désaccord frontal avec l’idée d’obligation mécanique : on doit mesurer le résultat (qualité, délai, coût), pas le taux d’IA utilisée.


L’angle mort : quand l’IA rend… 19 % plus lent

Une étude citée dans l’article montre un effet contre-intuitif : des développeurs utilisant un chatbot IA seraient 19 % plus lents que ceux qui n’en utilisent pas.

Pourquoi ? Parce qu’ils passent plus de temps à :

  • rédiger des prompts,
  • relire et corriger les réponses,
  • intégrer les suggestions,
  • vérifier qu’il n’y a pas de régression.

Ce phénomène est déjà visible dans les équipes contenu

Dans les rédactions, agences ou services communication français, on voit la même chose :

  1. Le collaborateur demande à l’IA de rédiger un texte.
  2. Il obtient un contenu au ton plat, générique, parfois imprécis.
  3. Il passe 30 minutes à corriger, réécrire, compléter.

Résultat :

  • le sentiment d’avoir « perdu du temps »,
  • la frustration (« je fais mieux moi-même »),
  • une défiance croissante envers l’outil.

Le problème n’est pas l’IA en soi, mais la manière dont elle est intégrée dans le process.

Comment éviter l’effet « 19 % plus lent » dans les médias et la communication

L’IA devient un accélérateur si on lui donne le bon rôle. Concrètement :

  1. Utiliser l’IA pour les tâches en amont
    Recherche, structuration, listes d’angles, reformulation, synthèse d’un brief client.

  2. Conserver à l’humain la responsabilité du fond et du ton
    Titres, storytelling, angle éditorial, sens politique ou réputationnel.

  3. Standardiser les usages gagnants

    • modèles de prompts partagés,
    • checklists qualité,
    • exemples de « bonnes pratiques IA » par métier (journaliste, CM, social media manager, directeur de clientèle, etc.).
  4. Former vraiment, pas juste “annoncer qu’on a un outil”
    Une demi-journée pratique avec cas réels de l’entreprise vaut mieux qu’une grande présentation PowerPoint.


IA, automatisation et peur des licenciements : signal faible ou vraie vague ?

Dans l’article source, deux cas frappent : HP et Amazon annoncent des suppressions d’emplois explicitement liées à l’IA. Pour beaucoup de salariés, le message perçu est simple :

« L’IA, c’est ce qui va justifier mon départ. »

Pour un manager, ignorer ce ressenti est une erreur grave. Dans les métiers de la communication, où la valeur repose beaucoup sur la créativité et la confiance, on ne peut pas traiter le sujet uniquement comme un gain de productivité.

Ce que les directions responsables font différemment

Les entreprises qui gèrent bien ce tournant IA ont trois réflexes :

  1. Clarté sur l’objectif

    • « On utilise l’IA pour absorber plus de volume et monter en gamme, pas pour supprimer 20 % des postes à court terme. »
      Ou, si des ajustements sont prévus :
    • « Oui, cela va changer certains métiers. Voici comment on vous accompagne, sur combien de temps, et vers quels nouveaux rôles. »
  2. Transparence sur les impacts

    • identification des tâches à fort risque d’automatisation,
    • cartographie des compétences à faire évoluer,
    • discussions individuelles sur les trajectoires possibles.
  3. Investissement massif dans la montée en compétences

    • formations IA générative pour les équipes éditoriales,
    • ateliers « IA & créativité » pour les créatifs,
    • accompagnement des managers sur la conduite du changement.

Sans ce travail, l’IA devient toxique pour la culture d’entreprise

Si l’IA est perçue comme un cheval de Troie pour restructurer à bas bruit :

  • les meilleurs talents partiront vers des structures plus transparentes,
  • les équipes restantes feront du « service minimum » par méfiance,
  • la qualité des productions chutera, même avec plus d’outils.

Pour les dirigeants français des médias et de la communication, le choix est simple : parler clairement d’emplois, maintenant, ou laisser la rumeur s’en charger.


Comment un manager français peut encadrer l’IA sans être « maboule »

On peut tout à fait :

  • ne pas bloquer l’IA,
  • ne pas l’imposer aveuglément,
  • et quand même être à la hauteur des enjeux.

Voici un cadre simple que j’utilise souvent avec des directions marketing et médias.

1. Cartographier les usages IA par priorité

Commencez par distinguer quatre catégories :

  1. Tâches à automatiser rapidement

    • résumés internes,
    • traductions non sensibles,
    • corrections orthographiques,
    • reformulations de base.
  2. Tâches à co-piloter IA + humain

    • brainstorming d’angles,
    • premiers jets de textes non stratégiques,
    • segmentation simple d’audience,
    • formats social media à fort volume.
  3. Tâches à garder majoritairement humaines

    • éditos, prises de position publiques,
    • communication de crise,
    • contenus à forte implication juridique ou politique.
  4. Tâches interdites à l’IA (pour l’instant)

    • données ultra-sensibles sans cadre contractuel clair,
    • décisions RH individuelles,
    • validation finale de messages sensibles.

2. Rédiger une mini-charte IA, claire et concrète

Une charte interne n’a pas besoin de faire 40 pages. Sur 2 à 4 pages, donnez :

  • ce qui est autorisé,
  • ce qui est encouragé,
  • ce qui est interdit,
  • comment signaler qu’un contenu a été produit avec IA (en interne),
  • qui valide les usages sensibles.

Ajoutez des exemples réalistes, par métier. Par exemple :

  • « Un chef de projet peut utiliser l’IA pour préparer un compte rendu client, mais le mail final est toujours relu et validé par lui. »

3. Fixer des indicateurs intelligents

On peut suivre l’adoption de l’IA sans tomber dans la folie des KPI absurdes.

Plutôt que « 80 % de vos textes doivent être générés par IA », suivez par exemple :

  • temps moyen de production d’un livrable avant / après IA,
  • volume de livrables produits à qualité constante,
  • satisfaction des clients internes/externes,
  • taux d’erreurs ou de révisions de dernière minute.

L’objectif n’est pas d’atteindre un pourcentage magique d’IA, mais de répondre à deux questions très simples :

  1. Sommes-nous plus efficaces ?
  2. Sommes-nous au moins aussi bons, voire meilleurs, en qualité ?

4. Proposer un accompagnement personnalisé

Certains collaborateurs vont adopter l’IA en deux jours, d’autres en deux ans. Si vous les mettez dans le même sac, vous créez des résistances inutiles.

  • identifiez les « early adopters » et appuyez-vous sur eux comme mentors,
  • proposez des sessions de prise en main par métiers,
  • autorisez un droit à l’erreur encadré : on a le droit de tester, de rater, d’apprendre.

Un manager n’a pas besoin d’être expert technique. Mais il doit créer un climat où l’IA est un outil, pas une menace ni un gadget.


Faut-il être « pro-IA » pour rester compétitif en 2026 ?

On peut résumer ainsi :

  • Être contre l’IA par principe est aujourd’hui un risque stratégique, surtout dans les métiers de l’information et de la communication.
  • Être pour l’IA sans cadre est un risque juridique, éditorial et humain.

Entre les deux, il y a une position exigeante, mais tenable :

L’IA est obligatoire comme sujet, pas comme solution.
Chaque manager doit se poser la question de son usage, la documenter, et la partager.

Si vous dirigez une équipe média, marketing ou communication en France, le vrai sujet des prochains mois n’est pas « ChatGPT ou Gemini ? », ni « combien de pourcents de contenus produits par IA ? ».

Le sujet, c’est :

  • quel avantage compétitif l’IA peut donner à vos équipes,
  • comment protéger la qualité éditoriale et la confiance,
  • comment embarquer vos collaborateurs sans les sacrifier en chemin.

Les patrons de Nvidia, Microsoft ou Google ont intérêt à vous dire que tout doit être automatisé. À vous de décider, lucidement, où l’automatisation crée de la valeur, et où elle en détruit.

Si vous ne savez pas par où commencer, commencez petit : un périmètre, une équipe pilote, une charte simple, quelques indicateurs, un retour d’expérience partagé. Ce n’est ni spectaculaire ni « sexy », mais c’est ce qui distingue les organisations qui survivent des organisations qui subissent.

🇫🇷 Managers et IA : pourquoi le « non » devient un risque - France | 3L3C