À KubeCon Europe 2026, Mirantis franchit une étape en intégrant le Nvidia NCX Infra Controller, désormais ouvert à la communauté, dans sa plateforme k0rdent AI. L’enjeu est précis de transformer Kubernetes en couche d’orchestration unifiée pour le compute GPU, le réseau et le stockage, et délivrer aux opérateurs cloud et aux grandes entreprises une infrastructure IA multitenant composable et reproductible, affranchie des silos propriétaires des hyperscalers.
La question qui sous-tend la prochaine phase de déploiement de l’IA en entreprise porte sur la capacité à orchestrer des environnements GPU à grande échelle, à automatiser le provisioning réseau et le stockage haute performance, à livrer une plateforme cohérente sans dépendre d’intégrations manuelles et ponctuelles. C’est précisément l’espace que Mirantis occupe avec ses annonces faites à Amsterdam lors de KubeCon CloudNativeCon Europe 2026.
La société a bâti son expertise sur plus d’une décennie de déploiements OpenStack et Kubernetes en production pour des entreprises et des fournisseurs de services de premier rang. Elle repositionne aujourd’hui sa plateforme k0rdent AI comme un plan de contrôle unifié pour l’ensemble de la stack IA. Le signal le plus visible de cette stratégie est l’intégration du Nvidia NCX Infra Controller, que Nvidia a récemment rendu open source dans le cadre d’une standardisation progressive de son écosystème infrastructure. Mirantis contribue activement au projet et l’intègre dans k0rdent AI selon les standards du programme Nvidia AI Cloud Ready Initiative.
Une stack Metal-to-Model validée sur Nvidia
k0rdent AI orchestre la totalité du chemin entre le matériel et le modèle, du bare metal au workload IA. La plateforme prend en charge l’ensemble du portefeuille d’architectures de référence Nvidia : les générations Ampere, Hopper et Blackwell, les réseaux scale-out Quantum InfiniBand et Spectrum-X Ethernet, le réseau scale-up NVLink, ainsi que les plateformes DGX, HGX et MGX. L’objectif opérationnel est de permettre aux neoclouds et aux entreprises d’industrialiser leurs environnements GPU en s’appuyant sur des modèles reproductibles, à la place de configurations ad hoc reconstituées au cas par cas.
Warren Barkley, Vice-Président Product Management chez Nvidia, précise la logique de cette collaboration : « Les fournisseurs de services d’infrastructure IA doivent maximiser l’utilisation de leurs ressources et leur efficacité opérationnelle. Notre collaboration avec Mirantis aide les neoclouds à déployer plus rapidement une infrastructure IA validée, en associant la validation ISV à l’automatisation du cycle de vie du Nvidia NCX Infra Controller. » La formulation est significative : l’enjeu dépasse la performance brute des GPU pour englober l’efficacité opérationnelle sur la durée, critère décisif pour les équipes infrastructure qui administrent des parcs GPU en environnement multitenant.
Netris, Supermicro et Vast Data dans une architecture composable
Les annonces de KubeCon s’accompagnent de trois intégrations partenaires qui complètent la couche k0rdent AI sur les plans réseau, compute et stockage. Le partenariat avec Netris automatise la livraison de clusters Kubernetes et le provisioning réseau des centres de données pour les workloads IA, en supprimant deux freins opérationnels identifiés comme récurrents. Le premier tient à l’absence d’un chemin standardisé pour le déploiement de clusters ; le second aux processus réseau manuels qui allongent les délais de mise en production. Avec cette intégration, le réseau fait partie intégrante de la livraison du cluster, sans ajout ultérieur ni configuration manuelle.
L’intégration avec Supermicro automatise les opérations pour les environnements d’IA souveraine et de cloud GPU hybride : les nœuds Supermicro sont détectés automatiquement et provisionnés en tant qu’infrastructure Kubernetes. Celle avec Vast Data porte sur la couche de stockage haute performance, en supprimant les travaux d’intégration ponctuels pour permettre à l’infrastructure IA de passer à l’échelle de manière cohérente. L’ensemble constitue une architecture composable dans laquelle chaque brique, qu’il s’agisse du réseau, du compute ou du stockage, est validée et interopérable sans dépendance à un fournisseur unique.
L’open source comme socle de l’infrastructure IA
La stratégie de Mirantis repose sur un pari explicite : l’open source deviendra le standard de facto des infrastructures IA d’entreprise, à l’image de ce qu’il a accompli pour le cloud privé avec OpenStack et Kubernetes. Shaun O’Meara, CTO de Mirantis, l’articule sans ambiguïté : « De la même façon que nous avons contribué à façonner les clouds privés modernes, Mirantis joue aujourd’hui un rôle déterminant dans le déploiement d’une infrastructure cloud IA ouverte et prête pour la production pour la prochaine génération de workloads. » La référence au passé OpenStack est délibérée ; elle signale une continuité de positionnement, non une rupture de trajectoire.
En standardisant les architectures d’infrastructure IA autour de technologies portées par la communauté, parmi lesquelles Kubernetes, k0rdent et le NCX Infra Controller, Mirantis propose aux entreprises et aux opérateurs cloud une alternative aux architectures propriétaires des grands hyperscalers, dont la dépendance constitue un risque opérationnel et stratégique à mesure que les workloads IA s’intensifient. Pour les DSI qui arbitrent entre agilité, maîtrise des coûts et réversibilité contractuelle, la proposition s’organise autour d’une plateforme composable, open source dans ses fondations et opérationnellement validée selon les standards de Nvidia.























