Dynatrace a présenté lors de sa conférence Perform Dynatrace Intelligence : un système combinant IA déterministe et IA agentique pour piloter en autonomie les environnements cloud et les charges de travail IA. L'annonce dépasse le cadre d'une évolution produit. En 2026, l'observabilité cesse d'être une fonction de surveillance réactive pour devenir une couche d'exécution autonome. Gartner, IDC et McKinsey convergent : l'observabilité intelligente devient le prérequis non négociable de l'industrialisation des agents IA.

Pendant près d'une décennie, l'observabilité IT a répondu à deux questions : que s'est-il passé, et pourquoi ? Les plateformes collectaient métriques, logs et traces, les corrélaient, et présentaient aux équipes SRE et DevOps les diagnostics nécessaires à l'intervention humaine. Ce paradigme réactif trouve aujourd'hui ses limites dans un environnement radicalement différent : celui des agents IA autonomes, capables de prendre des décisions et d'enchaîner des actions en cascade sans intervention humaine. Une interaction client peut désormais déclencher des centaines d'échanges entre agents spécialisés — chacun accédant à des données, invoquant des API, modifiant des états système — dans une dynamique que les outils de monitoring traditionnels n'ont pas été conçus pour tracer.

C'est ce changement de régime que Dynatrace matérialise avec Dynatrace Intelligence. « Nos clients nous font régulièrement part d'un constat : nous croulons sous les données, mais nous restons en quête d'actions concrètes. Ce sont invariablement les équipes humaines qui orchestrent leur mise en oeuvre, et c'est cette dynamique que nous souhaitons transformer », déclare Steve Tack, chief product officer de Dynatrace. Ce glissement — de l'alerte à l'action, de la détection à la remédiation autonome — structure désormais l'ensemble des feuilles de route des acteurs majeurs du secteur.

Grail et Smartscape ancrent les agents dans le réel

L'architecture de Dynatrace Intelligence repose sur deux composants fondamentaux. Grail, le data lakehouse unifié, consolide métriques, logs, traces, événements, sessions utilisateur et données métier en un référentiel contextuel cohérent. Smartscape, le graphe de dépendances en temps réel, cartographie automatiquement les relations entre composants du système d'information. Cette couche déterministe fournit aux agents un contexte causal précis et vérifiable. « Dynatrace Intelligence élimine les approximations et offre une observabilité propulsée par l'IA à laquelle les organisations peuvent se fier », déclare Bernd Greifeneder, CTO et fondateur de Dynatrace. Les agents ne raisonnent pas dans le vide, ils opèrent sur des données factuelles ancrées dans la topologie réelle du système.

L'IA agentique prend le relais pour le raisonnement, la décision et l'action dans des limites prédéfinies. L'architecture distingue trois niveaux : des agents fondamentaux pour le raisonnement causal et la supervision, des agents fonctionnels apportant des recommandations ciblées aux équipes métier et IT, et des agents d'écosystème connectés aux plateformes partenaires — ServiceNow, AWS, Azure, Google Cloud, Atlassian, GitHub, Red Hat. Des tests internes ont démontré, par rapport à une utilisation sans agents déterministes, une multiplication par 12 de la fréquence de résolution des incidents, une accélération par 3 de la vitesse de résolution, et une réduction par 2 du coût d'exploitation.

Trois phases graduelles vers l'autonomie totale

Le modèle d'adoption de Dynatrace Intelligence est structuré en trois phases : exploitation des analyses et recommandations IA, puis automatisation sous supervision humaine, puis opérations entièrement autonomes dans un cadre de contrôles établis. Cette progression répond directement aux freins documentés par Camunda dans son rapport 2026 sur l'orchestration agentique : 84 % des organisations s'inquiètent des risques opérationnels liés à l'IA lorsque la DSI ne dispose pas des contrôles appropriés. Seulement 11 % des cas d'usage agentiques ont été mis en production, malgré une expérimentation déclarée à 71 %.

Alexander Bicalho, Senior Director of Engineering chez Autodesk, résume l'enjeu : « Ce que Dynatrace cherche à mettre en évidence correspond à notre vision : utiliser des données fiables pour soutenir des opérations plus autonomes. Une approche qui relie les informations à l'action, tout en gardant nos équipes aux commandes, pourrait améliorer significativement la performance et la fiabilité à mesure que nous montons en charge. C'est une observabilité qui ne se contente pas de détecter les problèmes : elle les comprend et les résout ».

Gartner place la gouvernance agentique en priorité 2026

Gartner, dans ses tendances 2026 pour l'infrastructure et les opérations IT, place l'IA agentique au cœur des priorités avec une formulation sans ambiguïté : « Le point de vigilance pour 2026 se situe moins sur la démonstration que sur la maîtrise. Quand un agent exécute, les sujets de contrôle, de périmètre d'action et d'audit remontent immédiatement au niveau I&O ». La segmentation des rôles d'agents, la supervision des actions privilégiées et la journalisation des décisions et des prompts sont identifiées comme des conditions d'entrée en production — non plus comme de simples bonnes pratiques.

IDC confirme par la voix de Stephen Elliot, Group Vice President : « Les plateformes d'observabilité évoluent, passant de l'analyse manuelle des causes profondes à des opérations préventives. Cette progression conduit les organisations à adopter des modèles d'opérations autonomes, reposant sur la combinaison de l'IA déterministe et de systèmes d'IA agentique. » Pour les DSI, la conséquence est directe : un agent IA est un compte technique, un ensemble de secrets, des droits applicatifs et une surface d'attaque. Il doit être traité comme un workload à part entière, avec politique IAM/PAM, segmentation réseau et traçabilité complète des actions.

Hyperscalers et éditeurs se disputent l'orchestration agentique

McKinsey a formulé l'enjeu stratégique lors d'une table ronde avec Elastic en janvier 2026 : « La couche de vérification, d'observabilité et d'orchestration va avoir une importance critique, notamment en termes de future lock-in pour les entreprises et les DSI », déclarait Arnaud Tournesac, directeur associé. Azure, AWS, Salesforce et ServiceNow se positionnent simultanément comme futurs orchestrateurs d'agents. Datadog et Dynatrace ont tous deux acquis des solutions de gestion de feature flags pour élargir leurs plateformes vers l'action. Ce chevauchement des périmètres entre acteurs historiquement distincts — cloud, ITSM, observabilité, sécurité — complique les décisions d'architecture des DSI.

La montée en puissance d'OpenTelemetry comme standard ouvert offre un levier de négociation partiel. OTel interopérable réduit la dépendance aux agents propriétaires pour la collecte de données. Mais il ne résout ni le raisonnement sur ces données ni la gouvernance des actions autonomes qui en découlent — niveaux où la différenciation entre plateformes reste entière. L'étude Dynatrace/Qualtrics menée fin 2025 auprès de 919 dirigeants dans 15 pays révèle que les budgets IA agentique se situent entre 2 et 5 millions de dollars pour 36 % des répondants — et que la majorité des outils disponibles ne couvrent pas encore la complexité des agents IA en production.

11 % de mise en production malgré 71 % d'expérimentation

Le décalage entre ambition et réalité opérationnelle est le fait structurant du marché en 2026. Le rapport Camunda documente l'écart : 73 % des entreprises reconnaissent une divergence entre leur vision agentique et leurs capacités actuelles ; 50 % estiment qu'une IA agentique non maîtrisée risque d'aggraver les problèmes liés à des automatisations mal implémentées. Les investissements globaux dans l'IA sont projetés à près de 2 000 milliards de dollars en 2026, mais la pression pour démontrer des résultats concrets s'intensifie à mesure que les expérimentations peinent à franchir le seuil de la production industrielle.

La cause technique est identifiable : les agents IA ne se comportent pas de manière prévisible comme les SI traditionnels. L'effet boîte noire des LLM interdit de transposer directement les pratiques de monitoring éprouvées sur les architectures cloud natives. Sans une couche d'observabilité capable de tracer les chaînes de raisonnement, de détecter les dérives comportementales et de vérifier la cohérence des sorties, l'autonomie opérationnelle reste un risque non maîtrisé. Les DSI qui intègreront l'observabilité comme prérequis d'architecture — et non comme couche ajoutée après déploiement — disposeront d'un avantage mesurable dans la conduite de leurs projets d'automatisation agentique.

publicité