Mirantis, spécialiste des infrastructures Kubernetes-native pour l’IA, a annoncé son adhésion à la Vast Cosmos Community en tant que Technology Partner. Cette intégration formalise une collaboration technique entre k0rdent AI — le framework multicluster Kubernetes de Mirantis — et l’AI Operating System de Vast Data, avec l’objectif de réduire les frictions d’intégration dans les stacks d’infrastructure IA complexes déployées par les neoclouds.

Les neoclouds, ces opérateurs de clouds GPU spécialisés dans les services d’inférence et d’entraînement IA, font face à une pression structurelle sur la rentabilité de chaque heure GPU allouée. Une capacité de calcul GPU sous-exploitée en raison de goulets d’étranglement dans les pipelines de données représente un coût direct, non récupérable. Kevin Kamel, vice-président Product Management chez Mirantis, formule la contrainte opérationnelle centrale : « Les neoclouds sont soumis à une pression constante pour tirer le maximum de chaque heure GPU. En travaillant avec Vast Data au sein de la Cosmos Community, nous construisons un chemin standardisé et reproductible pour intégrer des services de données haute performance dans l’écosystème k0rdent AI. »

L’intégration technique entre Mirantis et Vast Data repose sur deux composants dont la combinaison permet d’éliminer les freins liés aux données dans les infrastructures GPU intensives. k0rdent AI est un framework d’ingénierie et d’exploitation multicluster Kubernetes conçu pour orchestrer des stacks d’infrastructure IA complexes et multivendeurs à grande échelle. L’AI Operating System de Vast Data unifie les services de données pour prendre en charge les workflows IA d’entraînement, d’inférence et de systèmes agentiques depuis une plateforme commune. La combinaison des deux vise à garantir que la capacité GPU disponible n’est jamais contrainte par des latences de stockage ou des pipelines de données non optimisés.

Adresser le goulet d’étranglement données-GPU

Le programme Cosmos Partner de Vast Data formalise un chemin d’intégration standardisé des technologies Vast au sein de l’écosystème k0rdent AI. Cette standardisation est directement opérationnelle pour les DSI et architectes infrastructure des neoclouds — elle remplace des travaux d’intégration ponctuels, coûteux en temps ingénieur et difficiles à reproduire à l’échelle, par des modèles validés déployables de manière reproductible. John Mao, vice-président Global Technology Alliances chez Vast Data, explicite le changement de paradigme : « Les acteurs de l’infrastructure IA s’orientent vers des blocs de construction validés plutôt que vers des stacks sur mesure. Mirantis apporte une expertise en orchestration qui aide les opérateurs à déployer l’AI Operating System de Vast dans de véritables AI factories. »

La notion d’AI factory — infrastructure GPU à grande échelle optimisée pour la production continue de services IA — conditionne le positionnement commun des deux entreprises. Elle implique une architecture dans laquelle le calcul, le réseau et le stockage sont dimensionnés et intégrés de manière cohérente, selon des ratios validés. Mirantis et Vast Data s’inscrivent dans les architectures de référence pilotées par Nvidia, qui définissent précisément ces ratios dans les environnements GPU à grande échelle — positionnement qui réduit les risques d’architecture pour les opérateurs et accélère les cycles de mise en production.

Une architectures de référence Nvidia

L’alignement de Mirantis et Vast Data sur les architectures de référence Nvidia constitue un signal stratégique pour les DSI évaluant des infrastructures GPU. Ces architectures définissent une composition validée du calcul, du réseau et du stockage dans les environnements GPU à grande échelle. Elles réduisent l’incertitude des décisions d’architecture grâce à des configurations dont les performances sont documentées et reproductibles. Pour les neoclouds en phase de montée en échelle, cette standardisation réduit le time-to-production des nouveaux services IA et limite les risques de dimensionnement incorrect des couches de stockage et de réseau par rapport à la capacité GPU installée.

La couche Kubernetes gérée par k0rdent AI opère comme plan de contrôle unifié sur des clusters multi-vendeurs hétérogènes, condition nécessaire pour les neoclouds qui assemblent des configurations GPU de sources différentes selon les disponibilités du marché et les contraintes de coût. Cette flexibilité d’orchestration est directement liée aux économies d’infrastructure : un opérateur capable de réaffecter dynamiquement des ressources GPU entre workloads d’entraînement et d’inférence selon la demande optimise le taux d’utilisation sans surprovisionnement. k0rdent AI fournit le mécanisme d’orchestration, Vast Data fournit la couche de données qui garantit que ces réaffectations ne génèrent pas de goulets d’étranglement en lecture-écriture.

Mirantis précise dans sa documentation de référence que l’architecture AI factory cible trois objectifs opérationnels mesurables pour les neoclouds : maximiser l’utilisation des GPU en éliminant les freins liés au stockage et aux pipelines de données ; faire évoluer les déploiements grâce à des modèles reproductibles plutôt qu’à des intégrations sur mesure ; et accélérer la mise sur le marché des services d’infrastructure IA grâce à l’automatisation Kubernetes native. Ces trois objectifs sont directement corrélés au TCO des infrastructures GPU, qui reste le critère déterminant dans les décisions d’investissement des neoclouds.

Un écosystème de partenaires autour de l’AI OS

Le programme Cosmos Partner de Vast Data s’inscrit dans une stratégie d’écosystème visant à faire de l’AI Operating System une couche de référence pour les infrastructures IA multivendeurs. En réunissant développeurs, intégrateurs et experts en solutions IA au sein d’une communauté mondiale, Vast Data cherche à accélérer l’adoption de sa plateforme en réduisant la charge d’intégration pour chaque nouveau partenaire technologique. Le statut de partenaire inaugural accordé à Mirantis signale une priorité donnée à la couche d’orchestration Kubernetes — choix cohérent avec la prédominance de Kubernetes comme plan de contrôle de facto dans les environnements cloud-native.

Pour les architectes infrastructure des neoclouds, l’existence d’un chemin d’intégration standardisé entre k0rdent AI et Vast Data réduit concrètement le risque d’adoption. Les intégrations validées et documentées dans le cadre du programme Cosmos Partner permettent d’évaluer les performances combinées sur des configurations de référence avant tout déploiement en production — ce qui raccourcit les cycles de qualification et réduit les coûts de preuve de concept. La disponibilité d’une architecture de référence Mirantis publiée complète ce dispositif en fournissant un point de départ documenté pour les équipes IT en phase de conception.

La convergence entre orchestration Kubernetes multicluster et unified data services pour l’IA s’impose progressivement comme architecture de référence pour les infrastructures GPU à grande échelle. Le partenariat Mirantis-Vast Data formalise cette convergence dans un chemin d’intégration reproductible — réponse directe à la fragmentation des stacks IA actuels, dont le coût d’intégration et de maintenance représente une charge opérationnelle croissante pour les neoclouds en phase d’industrialisation.

publicité