Les géants comme Nvidia veulent de l’IA partout. Comment, en France, l’utiliser intelligemment sans sacrifier qualité, emploi et sens du travail ?

IA au travail : êtes-vous vraiment « maboule » si vous freinez ?
En novembre 2025, Jensen Huang, PDG de Nvidia, a lâché une phrase qui a fait le tour de la tech : les managers qui limitent l’usage de l’IA seraient des « maboules ». Dans la salle, il parlait à ses équipes. Sur Internet, tout le monde s’est senti visé.
Ce type de sortie résume parfaitement la pression actuelle : si vous ne mettez pas de l’IA partout, tout le temps, vous auriez raté le train. Pendant ce temps, au bureau, beaucoup de managers français se demandent encore si ces outils font vraiment gagner du temps… ou s’ils préparent la prochaine vague de plans sociaux.
Voici le vrai sujet : comment utiliser l’IA de façon intelligente dans les équipes, sans tomber ni dans la panique, ni dans l’enthousiasme aveugle des géants de la Silicon Valley.
1. Pourquoi Nvidia et les géants poussent à fond l’IA
Les dirigeants comme Jensen Huang ne parlent pas d’IA par philosophie. Ils parlent chiffre d’affaires.
L’IA est devenue le moteur de croissance numéro un des big tech.
- Nvidia vend les puces qui entraînent les modèles d’IA générative.
- Microsoft pousse Copilot partout dans son écosystème.
- Google fait la même chose avec Gemini.
Plus les entreprises et les particuliers utilisent l’IA, plus la demande en serveurs, en GPU, en services cloud… explose. Autrement dit :
Plus vous « mettez de l’IA » dans vos process, plus leur business tourne.
Lors de sa réunion du 20/11/2025, Huang l’a dit sans détour à ses managers : il veut que toutes les tâches pouvant être automatisées par l’IA le soient. Et il a ajouté : « Je vous promets que vous aurez du travail à faire. »
Cette phrase est intéressante pour deux raisons :
- Elle rassure en apparence (« l’IA ne va pas vous remplacer »).
- Elle prépare surtout une transformation profonde des métiers (« votre travail va changer, que vous le vouliez ou non »).
Pour un dirigeant français, le message à retenir n’est pas « mettons de l’IA partout dès demain », mais plutôt : le mouvement est massif et structurant, et il ne vient pas de la DSI, mais des modèles économiques des géants américains.
2. Faut-il vraiment mettre de l’IA dans « tout » ce que l’on fait ?
La réalité est plus nuancée que les punchlines des conférences.
L’exemple qui casse le mythe : des développeurs 19 % plus lents
Une étude relayée en 2025 montre que des développeurs open source utilisant un chatbot IA (Claude, d’Anthropic) ont été 19 % plus lents que ceux qui n’utilisaient pas l’outil.
Pourquoi ?
- Ils ont passé du temps à rédiger de bonnes requêtes.
- Ils ont dû vérifier et corriger les réponses.
- Ils ont jonglé entre l’éditeur de code et l’interface IA.
« Les codeurs ont passé plus de temps à demander et à réviser les générations d’IA qu’ils n’en ont gagné en codage. »
Cet exemple illustre un point essentiel : l’IA n’est pas automatiquement synonyme de productivité. Sur certaines tâches, mal intégrée, elle peut même ralentir.
Trois cas où l’IA est pertinente au travail
Dans les projets que j’ai vus en entreprise, l’IA générative devient vraiment utile quand :
-
La tâche est répétitive, structurée, avec beaucoup de volume
Exemples : résumer des comptes rendus, générer des variantes de textes marketing, premières analyses de verbatims clients. -
Il existe des données de référence claires
L’IA s’appuie sur une base documentaire interne : procédures, FAQs, contrats types, guides produits. -
Un humain garde le contrôle et tranche
L’IA ne valide pas seule un contrat, un prix, un recrutement, une recommandation stratégique.
À l’inverse, sur des tâches complexes, ambigües, à fort enjeu politique (réorganisation, stratégie de marque, gestion de crise), forcer l’IA peut créer plus de bruit que de valeur.
3. Pourquoi certains managers résistent (et ils n’ont pas toujours tort)
Le décalage que décrit Nvidia – entre une direction qui pousse à fond et des managers intermédiaires qui freinent – est exactement ce qui se passe en France.
La plupart des managers ne sont pas anti-IA. Ils sont anti-risque non maîtrisé.
Les vraies raisons de la réticence
Quand je discute avec des responsables d’équipes en communication, marketing ou IT, les objections reviennent toujours :
- Qualité inégale des productions IA : bon pour un brouillon, dangereux pour une livraison client.
- Perte de compétence : si toute l’équipe s’habitue à « laisser l’IA penser », le niveau global baisse.
- Confidentialité des données : peur de faire « fuiter » des éléments sensibles dans des outils externes.
- Pression implicite sur l’emploi : l’IA est perçue comme la première étape vers des réductions d’effectifs.
Franchement, difficile de traiter ces gens de « maboules ».
L’angle mort des directions : le coût caché de l’expérimentation
Un autre point rarement assumé par les COMEX : tester l’IA a un coût d’apprentissage.
- Temps passé à se former, à chercher les bons cas d’usage.
- Production double pendant un temps (classique + IA) pour sécuriser.
- Frustration quand les premiers essais ne sont pas concluants.
Imposer brutalement « l’IA partout » sans budget, sans temps dédié, sans accompagnement, c’est typiquement ce qui crée du rejet dans les équipes.
4. Automatisation, IA et emploi : fantasmes et signaux faibles
La question que tout le monde a en tête au bureau est rarement posée frontalement : est-ce que ces outils servent à préparer des licenciements ?
Les dernières annonces d’HP et d’Amazon montrent une chose : plusieurs groupes justifient déjà des milliers de suppressions de postes par des gains attendus grâce à l’IA.
Ce n’est plus de la science-fiction, c’est du social.
Ce que l’IA change vraiment dans les métiers
Pour l’instant, on observe plutôt :
- Une automatisation de segments de tâches plutôt que la disparition brutale de métiers entiers.
- Une polarisation des postes : d’un côté des rôles très qualifiés, capables de piloter l’IA ; de l’autre, des fonctions plus précaires, fragmentées, parfois externalisées.
Dans les médias et la communication en France, cela se traduit déjà par :
- Des rédactions qui utilisent l’IA pour des brèves, des résumés, des fiches produits.
- Des agences qui préparent des premiers jets de concepts, de slogans, de maquettes avec des générateurs.
- Des équipes social media qui produisent plus vite des variantes de posts, de visuels, de scripts vidéo.
Les postes qui résistent le mieux sont ceux qui combinent :
- compréhension fine du contexte (culture, marque, politique interne),
- capacité à arbitrer, assumer, expliquer des décisions,
- relation humaine : clients, partenaires, collaborateurs.
Comment ne pas subir la vague dans votre équipe
Plutôt que de subir, un manager peut reprendre la main avec trois décisions claires :
-
Nommer l’IA comme sujet stratégique, pas comme gadget
On en parle en CODIR, on fixe un cap, on évite le mode « chacun bricole dans son coin ». -
Identifier les tâches à automatiser… et celles à sanctuariser
- Automatiser : reporting, recherches de base, formats répétitifs.
- Sanctuariser : relation client, arbitrages éditoriaux, décisions RH.
-
Être transparent sur l’emploi
Expliquer ce qui peut changer, ce qui ne changera pas à court terme, et quelles compétences seront valorisées demain.
5. Stratégie IA pour managers : 5 actions concrètes dès 2026
Pour un manager français, surtout dans les médias, la communication ou le digital, la vraie question est : comment structurer l’usage de l’IA sans se brûler les ailes ?
Voilà une approche pragmatique.
1. Démarrer par un diagnostic simple
Pendant un mois, demandez à votre équipe de noter :
- les tâches les plus chronophages (en heures / semaine),
- celles qu’ils jugent les plus répétitives ou pénibles,
- celles où la qualité est réellement stratégique.
Vous aurez une carte claire de ce qu’il faut automatiser en priorité – et de ce qu’il ne faut pas toucher.
2. Choisir 2 à 3 cas d’usage IA bien cadrés
Au lieu de dire « utilisons l’IA pour tout », définissez :
- 1 cas d’usage texte (ex : résumer des réunions, générer des plans d’articles),
- 1 cas d’usage data (ex : premiers tableaux de bord, segmentation simple),
- éventuellement 1 cas d’usage créatif (ex : moodboards, variantes d’accroches).
Pour chaque cas : objectif, périmètre, critères de succès, limites.
3. Encadrer la qualité et les risques
Créez des règles claires, par écrit :
- L’IA ne signe jamais seule un contenu client ou juridique.
- Toute production IA est relue par un humain identifié.
- Pas de données sensibles (clients, RH, stratégie) dans des outils non validés par la DSI.
Ce type de cadre rassure les équipes et évite l’effet « Far West ».
4. Mettre en place une montée en compétence ciblée
Plutôt que d’envoyer tout le monde à une formation générique sur l’IA, concentrez-vous sur :
- les personnes pivot : chefs de projet, leads métiers, référents qualité,
- des cas concrets métiers : prompts types, modèles de workflows, check-lists de relecture.
Objectif : avoir 2–3 « champions IA » dans l’équipe capables d’accompagner les autres.
5. Mesurer la réalité, pas le storytelling
Dès le départ, suivez quelques indicateurs simples :
- temps moyen pour produire un livrable avant / après IA,
- taux d’erreurs ou de retours clients,
- ressenti des équipes (charge mentale, intérêt pour le travail).
Si au bout de trois mois l’IA ne vous fait pas gagner au moins 15–20 % de temps sur les tâches ciblées, vous avez deux options : améliorer le processus… ou accepter que, sur ce cas précis, l’IA ne vaut pas le coup.
6. Entre « maboules » et visionnaires : la voie réaliste
Ce que montre la sortie de Jensen Huang, c’est surtout le fossé entre le discours des géants de l’IA et le quotidien des équipes sur le terrain.
D’un côté, un impératif économique : pousser l’IA partout, tout le temps. De l’autre, des managers qui doivent garantir la qualité, protéger leurs équipes, et préserver l’emploi local.
La bonne position se trouve rarement aux extrêmes. Ne pas toucher à l’IA est une erreur stratégique. Tout basculer sur l’IA en quelques mois en est une autre.
Pour les entreprises françaises, notamment dans les médias et la communication, l’enjeu de 2026 est clair :
- professionnaliser l’usage de l’IA,
- assumer des choix (ce qu’on automatise, ce qu’on protège),
- et raconter une stratégie aux équipes, pas seulement des slogans.
La vraie question n’est donc pas : « êtes-vous maboules si vous freinez l’IA ? » mais plutôt :
À quel point êtes-vous prêts à reprendre la main sur la façon dont l’IA va transformer votre travail, plutôt que de laisser Nvidia, Microsoft ou Google le décider à votre place ?