p>Avec cette évolution, AWS entend répondre à l’un des grands défis actuels des directions informatiques : orchestrer des environnements toujours plus complexes, dominés par les microservices et les charges massives d’intelligence artificielle. Pour soutenir cette ambition, Amazon EKS peut désormais accueillir jusqu’à 100 000 nœuds au sein d’un seul cluster, soit l’équivalent de 1,6 million de puces AWS Trainium ou de 800 000 GPU Nvidia.
De quoi ouvrir la voie à l’entraînement et à l’inférence de modèles dépassant les billions de paramètres. Des acteurs comme Anthropic y voient déjà un levier de performance, avec une amélioration du temps de réponse de leurs API critiques, plus de 90 % des appels étant désormais traités en moins de 15 millisecondes contre 35 % auparavant.
Pour parvenir à cette montée en puissance, AWS a repensé en profondeur les fondations de Kubernetes. L’étcd, base de données clé du plan de contrôle, est remplacé par un journal distribué de disponibilité, capable de gérer des millions d’opérations avec une meilleure résilience. Le contrôleur Karpenter a été optimisé pour supporter la création et la gestion de pools statiques, paralléliser ses opérations et réduire les inefficacités dans
les appels API.
Du côté réseau, le VPC CNI évolue pour absorber les volumes massifs de trafic, notamment via l’intégration avec les adaptateurs Elastic Fabric Adapter. Enfin, le téléchargement d’images conteneurs est accéléré grâce à la technologie SOCI fast pull.
Ces innovations sont pensées pour la robustesse opérationnelle : l’infrastructure a été testée sur des scénarios extrêmes, comme la perte simultanée de 1 000 nœuds ou l’absorption de 1,5 million de requêtes DNS par seconde. De quoi garantir un niveau de fiabilité attendu par les entreprises qui déplacent leurs charges stratégiques vers le cloud.
Un contexte marqué par la complexité des microservices
Au-delà des chiffres spectaculaires, cette annonce est la réponse à une dynamique plus large : les entreprises sont aujourd’hui confrontées à la difficulté croissante de gérer des architectures microservices à grande échelle. Si la modularité et l’agilité des microservices séduisent, leur orchestration multiplie les défis : supervision, sécurité, déploiements automatisés, gestion des données et optimisation des coûts. Chaque microservice devient un composant à gérer, et la multiplication des clusters aggrave cette complexité.La possibilité de consolider jusqu’à des centaines de milliers de nœuds dans un seul cluster Kubernetes offre une réponse directe à cette problématique. Elle permet de réduire la fragmentation, de mutualiser l’observabilité, et de simplifier les opérations de mise à l’échelle. Pour les directions informatiques, cela signifie moins d’efforts consacrés à la gestion de l’infrastructure et davantage de ressources focalisées sur la création
de valeur métier.
Vers une automatisation intégrale de l’orchestration
L’annonce s’inscrit également dans la trajectoire d’AWS vers une automatisation complète de l’expérience Kubernetes. L’introduction d’Amazon EKS Auto Mode illustre cette orientation : le service automatise la gestion du cycle de vie du cluster — du provisionnement à la mise à jour — tout en intégrant nativement des capacités d’observabilité via Prometheus, X-Ray ou CloudWatch. AWS cherche à rendre Kubernetes non seulement plus puissant, mais aussi plus accessible, en masquant sa complexité opérationnelle derrière des mécanismes automatisés.Cette automatisation s’étend aussi aux modèles de déploiement hybride et multicloud, avec des solutions comme Outposts ou Local Zones, qui permettent de conserver une cohérence d’orchestration entre environnements sur site et cloud public. Le recours à GitOps, Crossplane ou FluxCD par des clients pionniers comme athenahealth illustre cette tendance vers des plateformes d’infrastructure pilotées par code, où l’humain supervise sans avoir à intervenir dans les opérations de base.
Orchestré et optimisé par la plateforme elle-même
Pour les entreprises, l’enjeu dépasse la simple gestion de la volumétrie. La consolidation et l’automatisation portées par EKS Ultra Scale s’inscrivent dans une trajectoire vers l’infrastructure autonome : des plateformes capables d’auto-provisionner, d’autocorriger et d’auto-optimiser leurs ressources en fonction des besoins applicatifs. À terme, cela pourrait redéfinir la manière dont les directions informatiques conçoivent leur stratégie cloud, en basculant d’un modèle d’opérations manuelles vers un modèle orchestré et optimisé par la plateforme elle-même.Enfin, avec cette initiative, AWS envoie un signal clair au marché : son infrastructure est prête à absorber les charges IA/ML les plus massives, qu’il s’agisse d’entraîner, d’affiner ou de déployer des modèles de nouvelle génération. La manœuvre place AWS en position offensive face à Microsoft Azure et Google Cloud, qui investissent eux aussi dans des architectures conçues pour l’IA générative et les charges distribuées.
Dans la course aux infrastructures cloud pour l’intelligence artificielle, l’échelle et l’automatisation apparaissent désormais comme les deux critères décisifs. En combinant ces deux dimensions, AWS prend une longueur d’avance.