D’outils conversationnels isolés, les organisations passent à des systèmes multiagents capables d’orchestrer des flux métiers complets. Mais derrière l’effet d’annonce, une étude de Databricks montre surtout une recomposition profonde des piles de données, des architectures applicatives et des pratiques de gouvernance, avec des impacts directs sur la productivité, la sécurité et la capacité réelle à industrialiser l’IA.
L’IA générative n’est plus au stade de l’expérimentation diffuse. Après trois années de déploiements, les entreprises resserrent leurs priorités et cherchent des résultats opérationnels mesurables, selon le rapport « State of AI Agents 2026 » de Databricks. Ses conclusions sont fondées sur l’analyse anonymisée des usages de plus de 20 000 organisations entre novembre 2024 et octobre 2025, dont plus de 60 % du Fortune 500. Seuls 19 % ont déjà déployé des agents IA, souvent de manière limitée, alors même que 67 % utilisent déjà des outils dopés à l’IA.
Ce décalage illustre un phénomène désormais bien connu des DSI : l’écart entre adoption technologique et capacité d’industrialisation. Dans ce paysage, les agents signalent le passage à une nouvelle étape, non parce qu’ils « parlent », mais parce qu’ils planifient, exécutent et coordonnent des tâches métiers en s’appuyant sur des modèles de langage, des données internes et des outils d’entreprise. Leur capacité d’action est révolutionnaire à plus d’un titre, mais leur contrainte est un changement d’échelle opérationnelle, puisqu’il faut à présent orchestrer et administrer des « équipes » entières d’agents.
Des chatbots aux systèmes multiagents
Ce constat constitue le premier enseignement majeur de l’étude : la transition rapide des assistants isolés vers des architectures multiagents et ses implications. L’usage de ces systèmes progresse de 327 % en quatre mois. Dans l’écosystème observé, l’agent « superviseur », chargé d’orchestrer plusieurs agents spécialisés, représente à lui seul 37 % des usages à l’automne 2025, devant l’extraction d’information à 31 %. Cette bascule traduit une évolution des attentes, car il s’agit d’enchaîner la détection d’intention, la récupération documentaire, le contrôle de conformité et les actions métiers au sein d’un même flux.
Autre constat, les secteurs technologiques construisent près de quatre fois plus de systèmes multiagents que les autres industries, signe d’une maturité plus forte dans la décomposition des problèmes métiers en tâches coordonnées. Mais la dynamique touche l’ensemble des verticales. Les cas d’usage dominants restent pragmatiques : automatisation des processus, intelligence de marché, maintenance prédictive, traitement des demandes clients ou synthèse documentaire. Quarante pour cent des usages se concentrent sur l’expérience client, tandis que les quinze premiers scénarios traitent essentiellement l’automatisation de tâches quotidiennes nécessaires, mais répétitives.
Quand les agents prennent la main sur la couche données
La rupture la plus spectaculaire concerne l’infrastructure. Les agents ne se contentent plus d’exploiter les bases de données, ils les créent et les pilotent. En deux ans, la part des bases générées par des agents passe de 0,1 % à 80 %. Dans le même temps, 97 % des environnements de test et de développement reposent désormais sur des branches de bases créées automatiquement, contre 0,1 % auparavant. Résultat : le clonage d’environnements chute de plusieurs heures à quelques secondes.
Ce changement de rythme met en défaut les architectures transactionnelles héritées, conçues pour des flux humains prévisibles. Les agents produisent au contraire des lectures et écritures continues, des requêtes intensives et des créations d’environnements éphémères à grande échelle. Le rapport décrit l’émergence d’une nouvelle catégorie de bases opérationnelles, capables de combiner performances transactionnelles, élasticité et programmabilité, afin de soutenir ces charges agentiques. Pour les équipes data, cela signifie une pression accrue sur l’observabilité, l’isolation des environnements et la gestion de la concurrence à très grande échelle.
Multimodèles et temps réel, la nouvelle norme applicative
Autre signal fort : la fin du modèle unique. Soixante-dix-huit pour cent des entreprises utilisent désormais au moins deux familles de modèles de langage, et la part de celles qui en exploitent trois ou plus bondit de 36 % à 59 % en quelques mois. Cette stratégie multimodèle répond à un double impératif, optimiser les performances par tâche et réduire la dépendance à un fournisseur unique. Le commerce de détail apparaît comme l’un des secteurs les plus avancés, avec 83 % des acteurs combinant plusieurs modèles pour arbitrer entre coûts et qualité selon les cas d’usage.
En parallèle, l’inférence en temps réel devient dominante. Quatre-vingt-seize pour cent des requêtes sont traitées en direct, notamment pour les copilotes, l’assistance client et la personnalisation. Dans la technologie, on observe jusqu’à trente-deux requêtes temps réel pour une requête batch. Cette exigence de latence en subseconde transforme les architectures applicatives et renforce le besoin de pipelines de données continus, capables d’alimenter les agents sans rupture.
Gouvernance et évaluation, conditions d’accès à la production
La valeur de l’IA ne se mesure qu’une fois en production. Or, selon une étude citée dans le rapport, 95 % des projets pilotes d’IA générative n’atteignent jamais ce stade. Les données collectées montrent pourtant des leviers clairs. Les organisations qui utilisent activement des outils d’évaluation déploient près de six fois plus de projets IA. Celles qui mettent en place une gouvernance unifiée en mettent douze fois plus en production. Les investissements dans la gouvernance et la sécurité progressent d’un facteur sept en neuf mois.
Cette gouvernance ne se limite pas à des politiques déclaratives. Elle repose sur des mécanismes concrets : contrôle des accès aux données, limites de taux, traçabilité des décisions et cadres d’évaluation continus mesurant précision, conformité et équité. L’évaluation devient un processus vivant, connecté aux indicateurs métiers, tels que le temps de traitement, la satisfaction client ou l’impact sur les revenus. Pour les DSI et RSSI, cela implique d’intégrer l’IA dans les dispositifs existants de gestion des risques, de conformité et de supervision opérationnelle.
En filigrane, le rapport dessine une trajectoire déjà bien entamée : d’outils expérimentaux, les agents deviennent des composants structurants des systèmes d’information. Les entreprises les plus avancées combinent la spécialisation des agents, à la diversification des modèles, avec la refonte de la couche données et l’outillage de gouvernance. Pour les autres, le défi est de bâtir une architecture capable de produire des résultats fiables à grande échelle. À court terme, les bénéfices attendus portent sur l’automatisation des tâches, l’accélération des cycles applicatifs et l’amélioration mesurée de l’expérience client. À moyen terme, c’est la capacité même des organisations à orchestrer leurs processus numériques, sous contrainte de sécurité et de conformité, qui se joue dans cette transition vers l’IA agentique orchestrée.






















