Jensen Huang traite de « maboules » les managers qui freinent sur l’IA. Faut‑il vraiment tout automatiser ? Analyse et méthode pour déployer l’IA sans casser la confiance.

IA au travail : avez-vous raison de freiner ?
En novembre 2025, Jensen Huang, patron de Nvidia, a lâché une phrase qui a fait le tour de la tech : les managers qui limitent l’usage de l’IA seraient des « maboules ». Dans la même semaine, HP et Amazon annoncent des milliers de suppressions de postes, en expliquant que l’intelligence artificielle fait partie de l’équation. L’ambiance est posée.
Ce contraste résume parfaitement le dilemme des dirigeants et des managers français : on vous répète qu’il faut mettre de l’IA partout, pendant que vos équipes s’inquiètent pour leurs emplois et que les gains de productivité restent flous. Faut‑il foncer comme Nvidia… ou garder le pied sur le frein ?
Voici la réalité : ni l’enthousiasme aveugle ni la résistance totale ne fonctionnent. Ce qui marche, c’est une stratégie IA assumée, pilotée par le business, et pensée pour vos collaborateurs. C’est exactement ce qu’on va détailler : ce que révèle la sortie de Jensen Huang, ce que les chiffres disent vraiment sur la productivité, et comment un manager en France peut déployer l’IA sans brûler la confiance de ses équipes.
1. Que révèle vraiment la sortie de Jensen Huang ?
La phrase choc de Jensen Huang – « Êtes-vous maboules ? » à propos des managers qui demandent d’utiliser moins l’IA – n’est pas juste une provocation. C’est la version brute de ce que pensent déjà beaucoup de dirigeants de la tech : tout ce qui peut être automatisé doit l’être.
Pour Nvidia, Microsoft ou Google, le raisonnement est simple :
- plus l’IA est utilisée, plus la demande en infrastructures et services IA augmente ;
- plus la demande augmente, plus leurs revenus explosent ;
- et plus ils peuvent justifier des valorisations boursières alimentées par la « vague IA ».
Du point de vue d’un PDG coté au Nasdaq, demander à ses équipes de ne pas utiliser l’IA, c’est presque un sabotage de croissance. C’est aussi un signe de fracture interne : chez Nvidia, si certains managers freinent, c’est qu’ils ne voient pas les bénéfices concrets pour leurs équipes, ou qu’ils n’ont pas les bons repères pour encadrer ces usages.
Pour un dirigeant ou un directeur communication en France, la leçon est différente :
Ce n’est pas votre job de maximiser l’usage de l’IA, c’est votre job de maximiser la valeur créée avec l’IA.
La nuance est cruciale. On ne gagne rien à forcer les équipes à utiliser Copilot, ChatGPT ou Gemini « parce qu’il le faut », si les cas d’usage, les règles et les indicateurs ne sont pas clairs.
2. IA générative : ce que les chiffres disent (et ne disent pas)
On vous promet des gains de productivité spectaculaires. Sauf que, sur le terrain, les résultats sont beaucoup plus contrastés.
Une étude citée en 2025 sur des développeurs open source montre un résultat contre‑intuitif :
- des programmeurs utilisant un chatbot IA pour coder étaient 19 % plus lents que ceux qui n’en utilisaient pas ;
- la raison est très simple : ils passaient plus de temps à formuler des requêtes, corriger et revoir les réponses qu’ils n’en gagnaient en écriture de code.
On retrouve exactement le même phénomène dans les équipes marketing, communication ou médias :
- un rédacteur non formé perd un temps fou à « jouer » avec l’IA ;
- un juriste sans cadre clair doit revérifier chaque ligne ;
- un chef de projet passe plus de temps à recoller différentes sorties IA qu’à structurer lui‑même.
La conséquence est nette : l’IA ne rend pas productif par défaut. Elle rend productif :
- une personne formée aux bons prompts et aux bons réflexes de vérification ;
- dans un processus de travail repensé pour intégrer l’IA, pas juste « collé par‑dessus » ;
- avec des règles claires sur la confidentialité, le droit d’auteur et la validation humaine.
Si vos premiers tests donnent l’impression que l’IA fait perdre du temps, ce n’est pas un signe que l’IA « ne marche pas ». C’est un signal qu’il vous manque une méthode, des cas d’usage ciblés et un cadre managérial.
3. Faut‑il craindre que l’IA serve surtout de prétexte aux licenciements ?
Depuis l’automne 2025, la question n’est plus théorique. HP annonce entre 4 000 et 6 000 suppressions de postes d’ici 2028, Amazon communique sur une réorganisation liée à l’automatisation et à l’IA. Ce que les salariés craignaient commence à se matérialiser.
Dans ce contexte, les phrases de dirigeants du type « je vous promets que vous aurez encore du travail à faire » sonnent assez creux. Et, côté salariés comme côté syndicats, un réflexe logique apparaît : se méfier de tout projet IA présenté comme “gagnant-gagnant”.
Pour un manager français, surtout dans les médias, la communication ou la tech, ignorer cette dimension sociale est une erreur stratégique :
- vos collaborateurs lisent les mĂŞmes annonces que vous ;
- ils font directement le lien entre « automatisation » et « plans sociaux » ;
- ils associent donc naturellement l’IA à une menace, même si vos intentions sont différentes.
La réalité est moins binaire qu’on le croit :
- oui, certains métiers vont être restructurés, simplifiés ou externalisés grâce (ou à cause) de l’IA ;
- oui, de nouveaux métiers apparaissent déjà (prompt engineer, designer de workflows IA, responsable gouvernance IA, etc.) ;
- et non, il n’y a pas de fatalité à ce que l’IA soit uniquement un outil de réduction de masse salariale.
Ce qui fait la différence, c’est la trajectoire que vous proposez à vos équipes. Si votre seul discours est « il faut utiliser l’IA pour être plus efficace », vous validez leur plus grande peur : se rendre eux‑mêmes dispensables.
À l’inverse, si vous êtes capable de dire clairement :
- quels métiers vont évoluer ;
- quelles compétences vont devenir centrales dans 2‑3 ans ;
- quels parcours de montée en compétences vous financez réellement ;
alors l’IA devient un levier d’employabilité, pas seulement une menace. C’est là que se joue la confiance – et donc l’adhésion.
4. Comment un manager français peut encadrer l’usage de l’IA sans être « maboule »
Le vrai problème n’est pas de savoir s’il faut plus ou moins d’IA. Le vrai sujet, c’est : où l’IA apporte un gain net, mesurable, sans dégrader la qualité du travail ni la confiance des équipes.
4.1. Clarifier les usages « obligatoires », « recommandés » et « interdits »
Plutôt que de dire « utilisez l’IA partout », structurez les choses par catégories :
- Usages obligatoires : par exemple, utiliser un assistant IA pour générer des compte‑rendus de réunion, produire un premier jet de code de test, proposer un plan d’article, etc.
- Usages recommandés : brainstorming créatif, reformulation, amélioration de la clarté, recherche de contre‑arguments, scénarios alternatifs.
- Usages interdits : données confidentielles dans des outils non maîtrisés, textes envoyés au client sans relecture humaine, décisions RH sensibles, etc.
Ce type de cartographie rassure tout le monde :
- vos équipes savent ce qui est attendu ;
- la direction sait oĂą se situent les gains potentiels ;
- les risques juridiques et réputationnels sont mieux maîtrisés.
4.2. Partir de cas d’usage concrets, pas de la techno
Les projets IA qui fonctionnent le mieux en entreprise ont souvent commencé par des irritants très simples :
- réduire le temps passé à rédiger des comptes‑rendus de réunions ;
- accélérer la préparation des benchmarks concurrents ;
- automatiser la première classification des mails entrants ;
- aider à générer des scripts vidéo ou podcasts à partir d’articles.
Au lieu de demander « comment mettre de l’IA partout ? », la bonne question est :
Sur quoi nos équipes perdent‑elles 30 % de leur temps sans valeur ajoutée, et comment l’IA peut les soulager ?
Cette approche « bottom‑up » a un autre avantage : elle donne rapidement des victoires visibles, qui créent un climat positif autour de l’IA.
4.3. Former pour de vrai (et pas juste envoyer un PDF)
On ne devient pas bon avec l’IA en regardant une démo de 20 minutes. Les entreprises qui tirent vraiment parti des outils IA font trois choses :
- Des ateliers pratiques par métier (journalistes, marketeurs, développeurs, commerciaux) avec des cas réels.
- Des bonnes pratiques écrites, mais illustrées par des exemples avant/après parlants.
- Un canal d’échange interne (Teams, Slack…) où chacun peut partager prompts, erreurs et réussites.
Le but n’est pas de former tout le monde en expert IA, mais de faire que chacun maîtrise les gestes de base :
- formuler une demande claire ;
- itérer rapidement ;
- vérifier et corriger ;
- documenter ce qui marche pour les autres.
5. IA et communication interne : ce qu’il ne faut pas rater en 2026
En France, l’IA dans les médias et la communication arrive à un tournant. Les outils sont assez mûrs pour être vraiment utiles, mais l’acceptabilité sociale est fragile. Un faux pas de communication peut bloquer vos projets pendant des mois.
Voici ce que j’ai vu fonctionner le mieux dans les organisations qui avancent sereinement :
- Parler tôt des risques : hallucinations, biais, dépendance technologique, confidentialité. Les nommer explicitement donne du crédit à votre discours.
- Assumer une ligne claire sur l’emploi : expliquer comment l’IA va modifier les tâches, pas seulement les « optimiser ». Dire ce qui est sur la table… et ce qui ne l’est pas.
- Valoriser les humains, pas l’outil : montrer des cas concrets où l’IA a dégagé du temps pour de l’enquête, du relationnel, de la créativité.
- Associer les représentants du personnel en amont des projets majeurs, surtout si l’automatisation touche un volume significatif d’activités.
La phrase de Jensen Huang fera encore couler beaucoup d’encre. Mais dans un contexte français, traiter de « maboules » les managers qui freinent serait passer à côté d’un point essentiel : la résistance n’est pas irrationnelle, elle signale souvent l’absence de vision partagée.
Conclusion : l’IA partout, oui – l’IA n’importe comment, non
Les positions extrêmes sont confortables : d’un côté, ceux qui veulent de l’IA dans chaque tâche ; de l’autre, ceux qui veulent la tenir à distance. Pour une entreprise française qui veut rester compétitive en 2026, aucune de ces postures n’est tenable.
La voie réaliste, c’est :
- identifier où l’IA crée une vraie valeur métier ;
- encadrer clairement les usages, les risques et les interdits ;
- investir dans les compétences des équipes ;
- et assumer un discours honnête sur l’emploi et les transformations à venir.
L’IA ne fera pas disparaître le besoin de managers. Elle va, en revanche, rendre très visibles ceux qui savent articuler technologie, performance et confiance. La question pour 2026 n’est donc pas « faut‑il utiliser l’IA ? », mais « quelle stratégie IA êtes‑vous prêt à assumer devant vos équipes comme devant votre direction ? »