Tout est aujourd’hui qualifié d’« agent IA » — macro enrichie, chatbot contextuel, copilote ou orchestrateur de modèles. Cette inflation sémantique brouille les repères des entreprises et rend les promesses difficilement comparables. À partir d’une revue croisée des publications scientifiques, techniques et industrielles récentes, cet article restitue une grille de lecture fonctionnelle. Cinq niveaux de compétence permettent de situer un agent IA, entre automatisation rigide et intelligence distribuée.
L’appellation « agent IA » s’est généralisée à une vitesse telle que son sens s’est dilué. Slack qualifie d’agents ses assistants conversationnels personnalisés. OpenAI désigne ainsi ses GPT enrichis de fonctions. Google emploie le même terme pour ses instances Gemini dotées de Gems. Quant aux intégrateurs, ils appliquent parfois ce mot à des scripts enrichis ou à des interfaces connectées. Ce flou masque une réalité technique très contrastée. Pour les DSI, les architectes et les responsables IA, cette confusion complique la sélection, le déploiement et l’évaluation des solutions. D’où l’intérêt de dégager une typologie rigoureuse, fondée sur l’étude des capacités réelles observées dans les sources spécialisées.
Ce travail s’appuie sur une dizaine de documents clés. On y trouve les publications de Meta, de DeepMind, d’OpenAI, d’IBM Research, ainsi que la documentation technique d’Anthropic et de Salesforce, et plusieurs rapports Gartner sur l’orchestration cognitive. À travers ces sources, un constat s’impose. La notion d’agent est omniprésente, mais reste peu définie. Certains évoquent des agents « outillés », d’autres des planificateurs cognitifs ou des assistants autonomes, mais sans cadre commun. Pourtant, une progression sémantique et fonctionnelle transparaît. La plupart de ces travaux décrivent, souvent sans le dire, une montée en capacité des agents. On passe du script à l’interprétation contextuelle, puis à l’activation d’habiletés, à la planification autonome, et enfin à la collaboration distribuée.
Cette dynamique se retrouve dans les travaux de Michael Wooldridge, dans les projets PAL et CALO de la DARPA, dans les expérimentations open source comme AutoGPT, et dans les environnements de développement agentique récents. Elle a permis de reconstruire un modèle fonctionnel à cinq niveaux, synthèse des approches observées dans la recherche comme dans l’industrie.
Agents de niveau 1 et 2, de l’automatisation au contexte
Le premier palier correspond à l’agent scripté. Il s’agit d’une interface qui déclenche une action déterminée, sans interpréter ni anticiper. En pratique, cela recouvre une macro codée dans un tableur, un bouton dans une interface, un assistant vocal limité à une commande unique. Bon nombre de chatbots ou d’automatisations no-code relèvent encore de ce niveau, malgré leur présentation comme interfaces intelligentes. L’agent améliore la productivité sur des tâches élémentaires, mais reste strictement déterministe.
Le second niveau introduit une forme de contextualisation. L’agent prend en compte le profil de l’utilisateur, l’historique des échanges, les droits d’accès ou l’état d’un document. Il ajuste sa réponse selon les variables disponibles, sans pour autant raisonner. À ce stade, des protocoles comme le Model Context Protocol (MCP) permettent de structurer les ressources disponibles sous une forme interprétable par le modèle. L’agent devient alors contextuellement pertinent : il reste reste réactif, mais guidé.
Habiletés encapsulées et planification autonome
Le troisième niveau est celui qui structure actuellement l’essentiel de l’offre industrielle. L’agent peut ici mobiliser une ou plusieurs habiletés, c’est-à-dire des blocs de compétence encapsulés. Ces habiletés sont formulées de façon interprétable par un modèle de langage. Elles sont présentes dans les Claude Skills d’Anthropic, les Gems de Google ou les GPT personnalisés d’OpenAI. L’agent ne se contente plus de réagir. Il dispose d’un répertoire de savoir-faire qu’il peut activer dynamiquement pour accomplir des tâches structurées. Ce niveau marque une avancée vers l’autonomie fonctionnelle, même si l’enchaînement des actions reste souvent piloté de l’extérieur.
Le quatrième niveau franchit un seuil. L’agent devient planificateur. Il sait découper un objectif en étapes, choisir les habiletés à activer, gérer les résultats intermédiaires et corriger ses erreurs. Cette capacité suppose une mémoire de travail, un planificateur interne et une logique de raisonnement conditionnel. Des environnements comme AgentForce Vibes chez Salesforce, ou des frameworks open source, comme LangGraph, préfigurent cette organisation. L’agent peut enchaîner des opérations, interpréter un retour partiel, suspendre son exécution ou formuler des hypothèses alternatives. À ce niveau, l’autonomie devient mesurable, même si elle reste bornée par un cadre fonctionnel précis.
L’agent collaboratif, horizon encore émergent
Le cinquième niveau correspond à la collaboration inter-agent. Il ne s’agit plus d’un agent unique doté de plusieurs habiletés, mais d’un système distribué d’agents spécialisés capables d’interagir entre eux. Chaque agent dispose d’un rôle, d’une mémoire locale et d’un domaine d’expertise. La coordination repose sur des échanges interprétables, parfois sur des négociations ou des répartitions dynamiques des tâches. DeepMind, OpenAI ou Meta explorent ces architectures distribuées, notamment dans des environnements simulés ou des interfaces de supervision cognitive. Ces systèmes préfigurent des formes d’intelligence distribuée, capables de s’adapter à des objectifs évolutifs ou partiellement connus.
Les défis de ce niveau sont considérables. Gouvernance, auditabilité, cohérence du raisonnement, supervision humaine, contrôle de l’alignement, autant de questions ouvertes. Mais cette trajectoire illustre un changement de paradigme. L’application métier traditionnelle cède progressivement la place à une architecture dynamique, orientée comportement, dans laquelle les agents coopèrent plutôt qu’ils ne s’exécutent.
Un cadre utile pour les responsables IA
La typologie proposée ici n’est ni une norme ni un classement figé. Elle propose un outil d’analyse pour situer une solution dans un paysage désormais trop vaste pour être décrit par des slogans. Chaque niveau implique des contraintes spécifiques. Un agent planificateur ne se pilote pas comme un agent scripté. Un réseau d’agents collaboratifs ne se sécurise pas comme une application connectée. Pour les responsables IA, cette grille permet de poser des jalons, d’interroger les fournisseurs, et d’anticiper les étapes critiques dans les déploiements réels.
Elle permet aussi de réconcilier les discours techniques et les attentes métier. Car la question n’est pas de savoir si un système est intelligent, mais ce qu’il est réellement capable de faire, dans quelles conditions, avec quels garde-fous. Maîtriser les niveaux de compétence d’un agent IA, c’est rendre le projet lisible, mesurable et gouvernable. Et dans une époque où tout se nomme agent, cette lisibilité est devenue une nécessité stratégique.
Sources
Cette typologie s’appuie sur une synthèse de publications techniques et scientifiques, notamment :
- Meta AI, Toolformer : Language Models Can Teach Themselves to Use Tools, 2023
- DARPA, programme CALO (Cognitive Assistant that Learns and Organizes), 2003–2011
- DeepMind, Symmetric Decomposition for Task-centric Multi-agent Collaboration, 2024
- IBM Research, Watson Orchestrate technical overview, 2022
- Michael Wooldridge & Nicholas Jennings, Intelligent Agents : Theory and Practice, 1995
- Gartner, AI Orchestration : Enabling Composability of AI Functions, 2025
- Anthropic, Introducing Claude Skills, documentation technique, 2025
- OpenAI, Early Experiments in Multi-Agent Collaboration, 2024