Pourquoi l'autonomie à grande échelle démontre l'inefficacité des infrastructures face à l’intelligence artificielle.
L'intelligence artificielle d'entreprise requiert une infrastructure différente de celle de l'IA interactive et axée sur les requêtes, telles que ChatGPT, Gemini etc. L'IA agentique en revanche possède la capacité de planifier des tâches, d'exécuter des flux de travail, d'appeler des API et de prendre des décisions de manière autonome, avec un minimum de supervision humaine ; elle devrait devenir un accélérateur de l'adoption de l'IA en entreprise.Contrairement aux LLM basés sur des prompts, les systèmes agentiques sont conçus pour agir, et non pas seulement réagir. Idéalement, les agents utilisent des modèles de taille réduite et, souvent, plusieurs modèles spécialisés dans des domaines spécifiques tels que l'analyse d'images, l'interprétation linguistique et la transcription, qui sont intégrés à des données d'entreprise propres. En analysant les signaux des données, en lançant des opérations et en coordonnant les décisions dans divers environnements d'entreprise, les agents IA deviendront moteurs de productivité pour les services numériques de nouvelle génération. Comme les entreprises déploient davantage d'agents, les implications vont au-delà de la conception des applications et s'étendent à la refonte complète de l'architecture.
L'IA agentique ne se contente pas de s'intégrer aux charges de travail existantes. Ce type de système autonome fonctionne en continu, sollicitant les ressources informatiques en permanence. Avec la multiplication des agents IA, l'efficacité des infrastructures devient déterminante pour améliorer la productivité. Les entreprises qui misent sur des stratégies agentiques doivent évaluer les capacités des modèles et mettre en place une infrastructure informatique capable de fonctionner de manière autonome, continue et efficace à grande échelle.
D'une utilisation ponctuelle à une demande continue
Un seul flux de travail agentique peut appeler plusieurs modèles, récupérer des données, effectuer des boucles de validation et orchestrer des intégrations en aval. Ce type de consommation constante nécessite une structure opérationnelle flexible, similaire à celle utilisée pour les applications cloud natives, même si nous n’en sommes qu’aux prémices. Cette mutation des infrastructures chamboule l'ensemble de la pile informatique dédiée à l'IA, surtout au niveau du traitement. Les techniques optimisées d’exploitation des ressources, particulièrement pour les composants informatiques comme les GPU, ont encore plusieurs décennies de retard par rapport aux technologies d'orchestration des CPU. Une infrastructure optimisée pour l'entraînement à long terme de l’IA doit fonctionner de manière durable, efficace et rentable, afin de soutenir les opérations à grande échelle automatisées par des agents.
L'autonomie s'étend à l’empreinte de l’infrastructure
Comme l’IA agentique prend de l'ampleur, la demande d’infrastructure informatique augmente, et ce, de manière non linéaire. Les décisions automatisées créent des opérations de suivi, et les charges de travail donnent lieu à des tâches supplémentaires. Les systèmes conçus pour soutenir la productivité entraînent inévitablement une augmentation des capacités de calcul nécessaires pour maintenir le rythme.
Cet effet multiplicateur est souvent sous-estimé lors des premiers déploiements. Une fois en production, l'autonomie favorise l'utilisation accrue des modèles, et ce, même si les cas d'usage évoluent pour améliorer les fonctionnalités et la réactivité face à des variables comme l'interaction humaine, les nouvelles sources de données et l'élargissement du contexte dans le raisonnement. Pour atteindre leurs objectifs de productivité, les entreprises ne cessent jamais de chercher un équilibre entre la maîtrise des coûts, l’intégration de nouvelles fonctionnalités et le besoin croissant d’infrastructures adaptées aux systèmes autonomes.
L'efficacité devient la contrainte
Le fonctionnement continu des agents génère un besoin constant en énergie et en capacité, rendant plus difficile la maîtrise des coûts. Les charges de travail liées à l'IA fonctionnent déjà avec une densité de puissance supérieure à celle des applications d'entreprise traditionnelles, et les systèmes agentiques prolongent ce besoin à long terme.
En France, les réseaux électriques sont déjà saturés, surtout dans les métropoles de Paris et Marseille. Cela retarde la mise en service des nouvelles lignes à haute tension, même si elles sont indispensables pour les centres de données. Par exemple, les délais de mise en service sont passés de deux ou trois ans en moyenne à plus de cinq ans et même parfois sept ans dans la région de Marseille*.
Cette situation a des répercussions opérationnelles directes sur la capacité à déployer à grande échelle une IA autonome. Fournir une infrastructure capable de répondre au pic de demande d’électricité ajoute une pression supplémentaire sur le réseau. Pendant les périodes stables, les systèmes conçus pour répondre à une demande maximale fonctionnent bien en dessous de leur capacité. Cela entraîne des pertes d'efficacité qui s'accumulent au fil du temps. Dans ces conditions, l'efficacité et l'adéquation des infrastructures avec les charges de travail existantes importent davantage que les performances de pointe théoriques.
En fin de compte, l'autonomie relève d'un choix d'infrastructure
Les aspects économiques de l'IA agentique dépendent moins des investissements consacrés à l'acquisition ou à l'entraînement des modèles que du coût constant lié au maintien d'une activité autonome. La consommation d'énergie, la demande de systèmes de refroidissement, les taux d'utilisation et les frais généraux d'exploitation deviennent des variables déterminantes, autant que la gestion du personnel. Comme les systèmes autonomes s'intègrent de plus en plus profondément dans les processus des entreprises, l'IA passe du statut d'outil ponctuel à celui de fonction opérationnelle permanente.
À ce stade, l'innovation seule ne suffit plus. Afin de rester productives, les entreprises ont besoin de fonctionner en autonomie, de façon continue et prévisible, tout en respectant des contraintes budgétaires raisonnables. L'IA agentique joue un rôle déterminant dans le maintien de la productivité des entreprises. Sa viabilité à long terme est conditionnée par la capacité des infrastructures informatiques à traiter l'inférence agentique en continu, et non par des expérimentations intermittentes et des entraînements spécifiques de grands modèles de langage (Large Language Model), ou encore par des cas d'usage de modèles de monde (World Model). Pour entrer dans l'ère de l'IA, c'est l'efficacité, bien plus que les capacités brutes, qui permet aux entreprises de réaliser des gains et de transformer leurs métiers.
Par Sean Varley, VP & Chief Evangelist chez Ampere Computing























