Après douze mois d’expérimentations sérieuses en intelligence artificielle agentique, les entreprises commencent à distinguer le potentiel réel des agents autonomes de leurs limites pratiques. McKinsey propose un retour d’expérience structuré en six leçons, que nous regroupons ici en cinq axes majeurs pour mieux comprendre les trajectoires à l’œuvre.

L’IA agentique, ces systèmes capables non seulement de répondre, mais aussi d’anticiper et d’exécuter des chaînes d’actions complexes, est devenue en quelques mois un objet central des stratégies numériques. Promue comme un levier de productivité et d’innovation, elle a suscité un afflux d’expérimentations dans la finance, l’assurance, la distribution ou encore l’industrie.

Mais derrière les annonces, la réalité est contrastée : beaucoup de projets souffrent d’un retour sur investissement incertain, d’une adoption partielle ou d’un manque de gouvernance. C’est précisément ce constat qui a poussé McKinsey à publier l’étude « One year of agentic AI: Six lessons from the people doing the work ». Fondée sur plus de cinquante projets menés auprès de grandes entreprises, elle identifie des enseignements opérationnels qui dépassent la simple mise en œuvre technique.

Mettre les workflows avant les agents

Les projets réussis sont ceux qui ne traitent pas l’agent comme une solution universelle, mais comme une brique au service d’un processus métier repensé. L’étude insiste sur le fait que la valeur de l’IA agentique émerge dans la refonte des workflows : automatiser l’existant produit des gains marginaux, mais reconfigurer les séquences de tâches ouvre de véritables gains d’efficacité.

Ce constat rejoint d’autres analyses. Deloitte identifie l’intégration des agents dans les systèmes hérités comme un frein majeur à l’adoption. Cloudera souligne que 40 % des entreprises considèrent la difficulté à aligner agents et processus comme leur premier obstacle. La question n’est donc pas l’agent lui-même, mais la cohérence du système dans lequel il agit.

Évaluation, confiance et transparence comme conditions

L’évaluation technique ne suffit pas : la précision et la vitesse ne garantissent pas l’acceptation. McKinsey montre que les organisations les plus avancées ont développé des méthodes d’évaluation centrées sur l’utilisateur, combinant traçabilité, explicabilité et indicateurs de confiance. La transparence des décisions de l’agent devient une exigence autant qu’une garantie de conformité.

Une méta-analyse de publications universitaires rappelle que 83 % des évaluations actuelles restent focalisées sur les métriques techniques, contre moins de 30 % intégrant les dimensions humaines. Dans la finance, Deloitte note que la confiance des utilisateurs est citée comme premier obstacle à l’adoption, devant le coût. Le message est clair : sans mécanismes de contrôle et de transparence, IA agentique restera marginale.

Réutilisabilité et effets d’échelle

Selon McKinsey, la valeur la plus forte provient d’agents conçus pour être réutilisés, modulaires et adaptables à plusieurs cas d’usage. Cette réutilisabilité conditionne les effets d’échelle et la rentabilité. Un agent unique, développé pour un projet pilote isolé, risque de rester une démonstration coûteuse sans prolongement opérationnel.

Harvard Business Review souligne que la faiblesse des fondations de données — qualité, gouvernance, accessibilité — empêche nombre d’entreprises de déployer des agents réutilisables à grande échelle. À l’inverse, le rapport de Berkeley sur l’adoption de l’IA et des systèmes agentiques insiste sur l’importance d’investir dans des architectures pensées pour durer, au-delà des preuves de concept.

L’humain au centre de la transformation

Loin de remplacer les équipes, l’IA agentique redéfinit leurs rôles. McKinsey insiste sur la nécessité de maintenir l’humain dans la boucle, pour les arbitrages, la supervision et l’interprétation des résultats. L’efficacité d’un agent ne se mesure pas seulement à sa performance, mais à sa capacité à collaborer avec les utilisateurs.

Harvard Business Review rappelle que la confiance dans l’IA dépend d’abord de la confiance envers les dirigeants qui la déploient. Or, seuls 10 % des organisations se déclarent « complètement prêtes » à cette adoption, malgré une large majorité qui la considère comme stratégique. Cette préparation passe par l’investissement dans les compétences, le leadership et la culture de travail, plus que par la seule technologie.

Anticiper les limites et les risques par la gouvernance

Enfin, McKinsey met en garde contre les illusions de facilité. Beaucoup de projets échouent pour avoir sous-estimé les coûts d’intégration, les contraintes réglementaires ou les questions de responsabilité. Gartner prévoit que plus de 40 % des projets d’IA agentique seront abandonnés d’ici 2027, faute de valeur business clairement démontrée.

Des travaux académiques sur la « société algorithmique » posent la question de la responsabilité lorsque des agents prennent des décisions autonomes. Qui porte la charge légale en cas d’erreur ? Comment tracer les étapes de décision ? Sans gouvernance robuste et sans cadre juridique clair, l’IA agentique risque d’amplifier les risques qu’elle prétend réduire.

Perspectives et bénéfices mesurables

Un an après les premiers déploiements, les enseignements convergent : la valeur de l’IA agentique se construit dans la refonte des workflows, l’institution d’un cadre d’évaluation et de confiance, la réutilisation des agents, le rôle actif des humains et la gouvernance des risques. Les bénéfices métiers sont concrets : réduction des coûts opérationnels, diminution des erreurs, amélioration de la qualité et du temps de traitement, meilleure satisfaction utilisateur.

À l’horizon 2027, la différence se fera entre les organisations qui auront investi dans ces cinq axes et celles qui se contenteront de pilotes isolés. L’enjeu n’est pas seulement technologique : il engage la productivité, la conformité et, surtout, la confiance des utilisateurs dans un nouvel écosystème numérique qui réfléchit et qui agit.

publicité