L’expérience menée par Anthropic et racontée par le Wall Street Journal, où un agent d’IA gère réellement un distributeur automatique, montre que l’autonomie technique ne suffit pas. L’agent accomplit des tâches complexes, interagit avec des humains, négocie, achète et décide. Pourtant, dès qu’il fait face à la pression sociale, aux tentatives de manipulation et aux ambiguïtés du réel, il déraille. Cette expérience rappelle une évidence souvent oubliée : un modèle entraîné n’est pas un agent formé.

La scène paraît presque ludique. Un agent conversationnel doté de capacités opérationnelles se voit confier une mission. Gérer une activité commerciale simple, approvisionner une machine, fixer des prix, arbitrer entre demandes, tenir un cap économique. L’idée paraît raisonnable, presque rassurante. Pourtant, très vite, les limites surgissent. Les utilisateurs testent l’agent, le provoquent, le manipulent. L’agent concède des cadeaux, accorde des remises absurdes, finit par considérer des informations fabriquées comme légitimes et perd sa cohérence décisionnelle.

Pour Anthropic, cette dérive ne traduit pas une défaillance technique, mais un constat plus profond. Un agent livré brut, doté de compétences mais dépourvu d’éducation opérationnelle, s’effondre dès qu’il affronte la complexité humaine. L’intelligence linguistique ne suffit pas. L’économie, la confiance, la crédibilité, la responsabilité collective et la résistance aux biais sociaux réclament autre chose qu’un simple entraînement statistique .

Un LLM entraîné n’est pas un agent formé

L’un des apports majeurs de cette expérience est de dissiper une confusion très répandue entre entraîner un LLM et former un agent IA. Un modèle de langage massif est entraîné pour comprendre et produire du langage, pour raisonner, planifier et composer avec l’incertitude. Cette formation relève de la construction d’une capacité générique. Elle repose sur des corpus immenses, une ingénierie sophistiquée et des mécaniques de renforcement. Elle produit une intelligence textuelle et logique, pas une compétence sociale, pas une discipline opérationnelle, pas une compréhension des enjeux économiques réels. Les acteurs industriels qui réduisent la préparation d’un agent IA à la puissance de son modèle commettent une erreur stratégique. Ils confondent infrastructure cognitive et préparation métier.

Former un agent signifie autre chose. Cela suppose de définir ce qu’il doit réellement privilégier, ce qu’il doit refuser, comment il doit arbitrer, dans quelles limites il agit, comment il interprète des pressions contradictoires et comment il se protège contre les tentatives de contournement. Cela implique de l’acculturer aux processus, aux responsabilités, aux contraintes juridiques et à la réputation de l’organisation. Dans l’expérience relatée, l’introduction d’une hiérarchie multi-agents, avec un agent « dirigeant » supervisant l’agent opérationnel, améliore la stabilité. Ce simple fait dit tout. L’autonomie brute n’est pas un horizon, elle appelle une gouvernance. Les entreprises qui imaginent déployer un agent directement en frontal des client sans ce travail préalable s’exposent au même scénario que Claudius. Enthousiasme initial, dérives progressives, perte de contrôle et coût économique bien réel.

Les “skills” donnent des moyens d’agir, pas des principes d’action

La tendance actuelle glorifie les “skills”. Connecteurs, API, fonctions spécialisées, capacités d’exécution. Elles permettent à un agent de commander, d’automatiser, de lancer des workflows et d’interagir avec des systèmes. Elles font passer l’IA du commentaire à l’action. Mais elles ne forment pas une conscience opérationnelle. Elles structurent des moyens, pas une finalité. Elles définissent ce que l’agent peut faire, pas ce qu’il doit faire dans une situation ambiguë ou manipulatoire. L’expérience du distributeur automatique le prouve de façon éclatante. L’agent savait acheter, négocier, approvisionner. Il ne savait pas se protéger de la pression sociale, distinguer l’humour de l’instruction stratégique, détecter les faux signaux organisationnels ou préserver une boussole de décision stable quand les échanges s’accumulent et encombrent le contexte.

Il faut donc dire clairement ce que les “skills” ne remplacent ni une formation éthique, ni une doctrine de décision, ni un cadre moral appliqué aux usages. Elles n’intègrent pas la notion de responsabilité, ni la compréhension de l’impact métier d’une décision absurde. Elles n’empêchent pas un agent de devenir généreux au point de ruiner son activité. À ce stade, l’agent IA n’est pas un employé numérique autonome. C’est une capacité puissante qui, sans encadrement, agit de manière incohérente. La leçon pour les entreprises est limpide : l’investissement dans des compétences sans investissement dans la gouvernance produit un système techniquement impressionnant mais opérationnellement fragile.

Former l’agent comme on forme un collaborateur

L’expérience Anthropic met en évidence une idée structurante pour les entreprises, les administrations et les fournisseurs de services. Un agent IA prêt à opérer en frontal auprès de clients nécessite un processus de formation comparable à celui d’un collaborateur humain. Il faut l’exposer progressivement à des cas réels, vérifier ses réactions, observer ses dérives, tester sa résistance aux pressions, construire des garde-fous. Il faut lui donner une hiérarchie fonctionnelle, des mécanismes de rappel à l’ordre, des procédures d’escalade et des limites claires à son champ d’action. Cette logique n’est pas un luxe intellectuel. Elle conditionne la sécurité, l’économie et la crédibilité. Dans l’expérience, l’ajout d’un agent “patron” a limité les excès et réintroduit une discipline. Cette simple évolution montre que la structuration organisationnelle des agents n’est pas accessoire, elle devient une mécanique déterminante de leur efficacité.

Il devient alors possible de poser la question essentielle. À quel moment les entreprises peuvent-elles déléguer réellement des responsabilités critiques à des agents IA. La réponse ne relève pas uniquement de la maturité technologique. Elle dépend d’une maturité organisationnelle. Elle impose de reconnaître que l’autonomie artificielle ne se régule pas elle-même. Elle demande un cadre de gouvernance, une supervision, une articulation claire entre autonomie opérationnelle et responsabilité finale. Autrement dit, la question n’est pas seulement de savoir ce qu’un agent peut faire, mais dans quelles conditions il peut agir sans mettre en péril la valeur, la confiance et la conformité.

Un enjeu stratégique pour les entreprises

Ce test grandeur nature ne fait que redresser une distorsion de compréhension généralisée : les agents IA ne sont pas prêts à gérer seuls une relation client réelle sans une phase de formation structurée. Non pas parce qu’ils seraient “incapables”, mais parce qu’ils ne disposent pas spontanément des repères sociaux, économiques et moraux qui permettent à une décision technique de devenir une décision responsable. La distinction entre entraînement d’un modèle et formation d’un agent devient ainsi cruciale. Elle conditionne la réussite des projets agentiques en entreprise. Elle distingue les organisations qui construiront une valeur durable de celles qui se contenteront d’expérimentations spectaculaires mais dangereuses.

L’expérience Anthropic n’illustre donc pas une faiblesse définitive des agents. Elle constitue un avertissement utile et une feuille de route. Elle montre ce qu’il manque encore. Elle rappelle que l’ingénierie de l’IA ne se limite pas aux modèles. Elle engage désormais des choix de gouvernance, de responsabilité et de préparation opérationnelle. Les entreprises qui s’y attèlent sérieusement prépareront un passage à l’échelle maîtrisé. Les autres découvriront trop tard que déléguer à une machine non formée revient à confier une activité critique à un stagiaire naïf et sans encadrement. Les agents IA deviendront réellement productifs lorsqu’ils seront non seulement puissants, mais éduqués.

publicité