Tandis que l’intelligence artificielle devient un agent opératoire au sein des entreprises, ce sont les managers intermédiaires qui se retrouvent en première ligne. Non pas pour exécuter les transformations, mais pour arbitrer, interpréter et garantir l’intention humaine face à des suggestions de plus en plus automatiques. Loin de disparaître, leur rôle se redéfinit, en profondeur, selon les études.
L’adoption des outils d’intelligence artificielle ne s’accompagne pas uniquement d’un saut technologique. Elle engage une reconfiguration silencieuse du travail de décision, du périmètre des responsabilités et des relations de confiance. Là où les modèles d’IA génèrent des hypothèses, ce sont les managers qui doivent trancher, assumer ou reformuler. La délégation ne les efface pas : elle les oblige à penser autrement.
Mais leur rôle ne s’arrête pas à l’interprétation. Les managers intermédiaires sont aussi les principaux vecteurs de diffusion des usages IA dans les équipes. Ce sont eux qui, par leur posture, leur manière de présenter l’outil, d’encourager ou de freiner son usage, influencent l’acceptabilité par les collaborateurs. S’ils se montrent confiants, mais critiques, les équipes s’emparent de l’IA avec discernement. S’ils l’ignorent ou la redoutent, les outils restent marginaux. Ils ne sont pas seulement des utilisateurs expérimentés : ils sont les traducteurs opérationnels de la transformation cognitive en cours.
Ce nouveau régime de travail repose sur des arbitrages fins, des interprétations continues et un engagement actif face à des systèmes qui produisent, en temps réel, des recommandations souvent plausibles, mais pas toujours légitimes. Ce sont les managers, surtout à l’échelon intermédiaire, qui apprennent à travailler avec l’IA. Et à en filtrer les effets.
Une nouvelle grammaire décisionnelle, fondée sur l’inférence
Travailler avec des agents IA ne consiste pas à automatiser des processus existants. Cela impose un changement de logique : de la règle à la probabilité, de la procédure à l’hypothèse. Les modèles génératifs ne donnent pas une réponse, ils formulent une suggestion. Ils n’exécutent pas un scénario, ils en proposent plusieurs. C’est un mode opératoire fondé sur l’inférence, c’est-à-dire sur la projection dans l’incertain.
Dans ce contexte, le manager devient l’interprète actif de la machine. Il doit valider ou rejeter des contenus, réorienter des propositions, demander des reformulations. Il ne délègue pas un pouvoir : il exerce un discernement. Une compétence que le Global Survey 2025 de McKinsey identifie comme la clé du succès des projets IA : dans 80 % des cas, les entreprises les plus avancées ne se différencient pas par la sophistication technique, mais par la capacité de leurs managers à encadrer, traduire et piloter l’usage de l’IA.
Ce n’est donc pas l’intelligence de la machine qui importe, mais la lucidité de l’humain. La capacité à maintenir une intention explicite, une perspective critique et une orientation opérationnelle, malgré l’abondance de réponses automatisées.
Le manager intermédiaire, interface cognitive de l’entreprise
Ce sont les managers de proximité, les chefs d’équipe, les coordinateurs transverses qui incarnent le plus concrètement cette mutation. Ils reçoivent les suggestions des systèmes, les traduisent en actions concrètes, les justifient devant leurs équipes. Leur fonction devient celle d’un modulateur : entre l’efficacité algorithmique et la pertinence sociale, entre l’optimisation technique et la réalité humaine.
Selon un sondage Gallup publié au printemps 2025, 33 % des managers aux États-Unis utilisent régulièrement l’IA dans leur travail, contre seulement 16 % des salariés. Cette différence d’usage ne signifie pas que les managers soient remplacés, il confirme qu’ils sont les premiers à composer avec l’intelligence automatisée, à en tirer parti tout en l’encadrant.
Un article récent de la Harvard Business Review va plus loin : il montre que l’IA libère les managers intermédiaires des tâches de coordination documentaire, de reporting et de transmission descendante, au profit de missions plus stratégiques, plus humaines, plus orientées vers la résolution de problèmes. En clair : moins d’intermédiaires fonctionnels, plus de médiateurs de sens.
Décider sans céder : préserver l’intention humaine
Lorsque l’IA propose une solution, la tentation est grande de l’accepter sans discuter. L’alignement passif sur des suggestions automatisées devient un risque diffus, mais réel. Ce n’est pas tant la qualité des propositions qui est en cause que leur fréquence et leur vraisemblance. Plus la suggestion est fluide, plus elle est adoptée. Mais qui décide encore ? Et pourquoi ?
C’est ici que le manager réaffirme son rôle fondamental : maintenir la trajectoire. Il ne s’agit plus seulement de déléguer des tâches, mais de **protéger l’intention**. L’outil peut rédiger une synthèse, mais pas choisir les priorités. Il peut produire un argumentaire, mais pas décider du ton juste dans une situation sensible. Le manager reste le garant de la direction prise, de la finalité poursuivie, du compromis humain à maintenir.
L’étude Workday 2025, consacrée à l’acceptabilité de l’IA au travail, confirme cette exigence : si une majorité de salariés se disent favorables à l’intégration de l’IA dans leurs outils quotidiens, seuls 30 % d’entre eux accepteraient d’être « managés » par une IA sans supervision humaine explicite. L’adhésion dépend donc d’un encadrement clair, incarné, responsabilisé.
Former au discernement, pas seulement à l’outil
La plupart des formations actuelles à l’IA se concentrent sur la manipulation des interfaces : comment interagir avec un agent, optimiser un prompt, utiliser un générateur de contenu. Mais ce n’est pas cela qui constitue une compétence stratégique. Ce qui compte, c’est la capacité à évaluer la pertinence d’une suggestion, à en détecter les limites, à savoir dire non.
Cette compétence — le discernement managérial — ne relève ni de l’ingénierie ni du marketing. C’est une forme d’intelligence critique appliquée. Elle ne s’enseigne pas uniquement par tutoriels, mais par confrontation à des cas, par retour d’expérience, par supervision entre pairs. Elle suppose aussi un droit reconnu à l’abstention, au doute, à la reformulation.
À long terme, cette capacité à penser avec, mais sans se soumettre, deviendra un critère de performance. Non pas la rapidité d’exécution, mais la qualité de l’arbitrage. Non pas la conformité aux suggestions de l’outil, mais la capacité à rehausser la qualité de décision collective.
Un nouveau pacte entre autonomie, jugement et responsabilité
Ce changement appelle une refonte des modèles d’encadrement. L’IA ne rend pas le management obsolète : elle en redéfinit les fonctions. Le manager devient une « interface vivante » entre un système inférentiel et un collectif humain. Ce rôle exige de nouveaux outils, de nouvelles formations, mais surtout un cadre de reconnaissance. Ce n’est plus un exécutant, mais un garant d’intention.
Ce nouveau pacte repose sur trois piliers : l’autonomie dans l’usage des outils, le jugement dans l’interprétation des suggestions, la responsabilité dans l’orientation des décisions. C’est ce triptyque qui permettra aux entreprises de tirer le meilleur de l’IA sans y perdre leur cap.