À mesure que les agents IA investissent les workflows critiques de l'entreprise, une question s'impose : comment savoir ce qu'ils font vraiment ? L'observabilité des systèmes agentiques est devenue la condition préalable à toute gouvernance sérieuse, et les organisations qui ont déployé des agents sans intégrer cette couche de contrôle s'en aperçoivent aujourd'hui à leurs dépens.

Le 9 mars 2026, Datadog annonçait la disponibilité générale de son MCP Server, une interface conçue pour fournir aux agents IA un accès sécurisé et en temps réel aux données de télémétrie de production, logs, métriques, traces. Derrière cette annonce technique se lit une réalité opérationnelle que l'étude « The Pulse of Agentic AI 2026 » de Dynatrace, menée par Y2 Analytics en novembre-décembre 2025 auprès de 919 décideurs impliqués dans des projets d'IA agentique, documente avec précision : 53 % des dirigeants européens considèrent la sécurité et la confidentialité des données comme les conditions préalables au passage du pilote à la production industrielle. L'observabilité en est le levier technique.

L'IA agentique introduit une rupture qualitative par rapport aux logiciels traditionnels. Un agent ne suit pas une trajectoire d'exécution fixe et reproductible : il planifie, raisonne, sélectionne des outils, interroge des sources de données et prend des décisions en contexte. Son comportement varie selon l'état du modèle, la qualité des données récupérées et les interactions avec d'autres agents. L'observabilité traditionnelle, uptime, latence, taux d'erreur, ne répond pas aux questions que posent ces systèmes. Auditer le comportement d'un agent exige de tracer le chemin de décision complet : quels outils l'agent a-t-il invoqués, dans quel ordre, avec quels paramètres, à partir de quelles données récupérées.

L'AI TRiSM comme cadre de référence pour les DSI et RSSI

Dans les architectures multi-agents, la complexité s'amplifie. Bernd Greifeneder, CTO de Dynatrace, l'a formulé dans une analyse prospective publiée en janvier 2026 : les hallucinations n'émergent plus d'un seul modèle défaillant, mais d'inexactitudes qui s'accumulent au fil des interactions entre agents. Lorsque plusieurs agents coordonnent des tâches et déclenchent des actions en aval, un malentendu limité peut se propager à l'ensemble du système avant qu'un opérateur humain puisse intervenir. Gartner a mesuré le risque systémique : d'ici 2026, au moins 80 % des transactions IA non autorisées proviendront de violations internes de politiques d'entreprise, partage d'informations excessif, usages non conformes ou comportements erratiques des agents, et non d'attaques malveillantes externes.

Gartner repose la réponse à ces risques sur le cadre AI TRiSM, Trust, Risk and Security Management, dont le Market Guide 2025 identifie quatre piliers : inventaire des actifs IA (modèles, agents, applications), traçabilité des données utilisées en entraînement ou en inférence, assurance continue des performances et de la conformité en production, et inspection en temps réel des interactions entre agents et systèmes externes. Le rapport 2025 marque une inflexion notable par rapport à l'édition précédente : le contrôle à l'exécution y est désormais présenté comme non optionnel, là où les politiques de gouvernance pré-déploiement étaient encore jugées suffisantes en 2024.

Le marché industriel a intégré ce signal rapidement. En septembre 2025, Cisco lançait une version agentique de Splunk Observability, capable de surveiller simultanément la santé des agents, des LLM et de l'infrastructure IA sous-jacente. Yanbing Li, Chief Product Officer de Datadog, décrivait en mars 2026 l'ambition de son MCP Server : passer de simples copilotes IA à une IA fonctionnant sur des systèmes en production, en combinant la télémétrie de la plateforme d'observabilité unifiée aux workflows des équipes d'ingénierie. OpenTelemetry, le standard ouvert de collecte de télémétrie, s'est doté depuis début 2025 d'un groupe de travail dédié aux conventions sémantiques pour l'IA générative, signalant que la standardisation du secteur est engagée, sans être encore stabilisée.

Un écart persistant entre ambition et maturité

La réalité du terrain reste prudente. Gartner signale une hausse de 1 445 % des demandes de renseignements sur les systèmes multi-agents entre le premier trimestre 2024 et le deuxième trimestre 2025. Dans le même temps, la confiance dans les agents entièrement autonomes est passée de 43 % à 27 % en un an selon Capgemini, et plus de 40 % des projets d'IA agentique risquent d'être abandonnés d'ici 2027, faute de valeur démontrable ou de dispositifs de contrôle insuffisants. L'étude Dynatrace précise les trois objectifs que les organisations EMEA assignent à l'observabilité : garantir la qualité des données pour 66 % d'entre elles, détecter les anomalies en temps réel pour 60 %, et optimiser l'efficacité opérationnelle pour 57 %.

La pénurie de talents spécialisés, citée par 39 % des répondants européens contre 51 % aux États-Unis, renforce la dépendance à des outils capables d'automatiser le contrôle sans mobiliser des ressources humaines supplémentaires. Rob Van Lubek, vice-président EMEA de Dynatrace, situe le blocage : la sécurité et la confidentialité constituent les conditions sine qua non du passage à l'échelle des projets d'IA. L'observabilité agentique doit être intégrée dès la conception du système, au même titre que l'authentification ou le chiffrement, et non ajoutée en fin de déploiement.

Une infrastructure de confiance au sens de l'AI Act

L'AI Act européen impose aux systèmes d'IA à haut risque des exigences explicites de traçabilité, d'explicabilité et de supervision humaine. Sans observabilité structurée, aucune organisation ne peut démontrer que ses agents respectent ces obligations, ni satisfaire aux demandes d'audit d'un régulateur ou d'un client. PwC, dans son analyse consacrée à l'observabilité des systèmes IA, formule cette exigence avec précision : l'observabilité est ce qui transforme un engagement de gouvernance en une capacité opérationnelle vérifiable, permettant de passer de la déclaration de conformité à la preuve auditée.

Dans les douze à dix-huit mois à venir, la capacité à déployer l'IA agentique à l'échelle industrielle dépendra de cette couche d'infrastructure autant que de la qualité des modèles sous-jacents. Auditer le comportement des agents est désormais une exigence de direction, au même titre que la supervision des flux financiers ou des accès aux données sensibles. Les organisations qui auront instrumenté leurs systèmes agentiques dès aujourd'hui disposeront d'un avantage opérationnel au moment où les régulateurs européens commenceront à exiger des preuves, et non des déclarations d'intention.