Mirantis et Netris annoncent l'intégration de leurs plateformes respectives pour transformer les clusters GPU en clouds IA multitenant reproductibles, avec une isolation réseau imposée au niveau matériel et une orchestration Kubernetes entièrement automatisée. Cette combinaison s'attaque à deux blocages : l'absence de processus standardisé pour déployer des clusters, et des pratiques de provisionnement réseau encore manuelles et fragmentées.
Jusqu'ici, le réseau constituait une couche ajoutée après coup dans le déploiement des clusters Kubernetes, configurée manuellement, fragmentée selon les équipements disponibles, et incapable de suivre le rythme du provisionnement des ressources de calcul GPU. Cette friction opérationnelle allongeait les délais de mise en service, augmentait les coûts d'exploitation et limitait la densité de tenants exploitable par infrastructure. Mirantis orchestre le cycle de vie Kubernetes tandis que Netris prend en charge l'automatisation, l'abstraction et le multilocatariat réseau au niveau matériel, les deux couches opèrent désormais de façon coordonnée dès le déploiement initial du cluster.
Le point de différenciation technique central de cette intégration réside dans le niveau auquel l'isolation des tenants est appliquée. Dans la plupart des architectures cloud IA actuelles, la séparation entre tenants repose sur des mécanismes logiciels, virtualisation réseau, politiques de sécurité applicatives, qui consomment des ressources CPU et présentent des surfaces d'attaque plus larges. Netris déplace cette isolation au niveau matériel, en s'appuyant sur les processeurs de traitement des données Nvidia BlueField intégrés dans le fabric réseau du centre de données. Netris est à ce jour la première plateforme commerciale d'orchestration réseau à avoir réalisé cette intégration des DPU BlueField dans le fabric datacenter.
Les flux est-ouest GPU et les flux nord-sud couverts sans intervention
Concrètement, l'isolation, la tolérance aux pannes et la sécurité des données sont imposées au niveau des commutateurs et des DPU, ce qui réduit la dépendance aux cœurs CPU pour les fonctions réseau et augmente la densité de tenants exploitable par cluster. Pour les opérateurs qui hébergent des charges de travail régulées ou souveraines, secteurs financier, santé, défense, administrations publiques, cette architecture répond à des exigences de cloisonnement que les solutions purement logicielles ne peuvent pas satisfaire de manière démontrable. Shaun O'Meara, directeur technique de Mirantis, résume l'enjeu : « Dans le déploiement d'infrastructure pour l'IA, la complexité du réseau constitue l'un des défis majeurs. L'intégration de Netris pour la gestion de la couche réseau permet une orchestration réseau dynamique et un multilocatariat sur l'ensemble de la pile. »
L'intégration prend en charge deux catégories de flux réseau que les architectures IA modernes doivent gérer simultanément. Les flux est-ouest, communications inter-GPU au sein d'un cluster, critiques pour les charges d'entraînement distribué, sont automatisés sur les architectures Nvidia Quantum-X InfiniBand et RoCE (RDMA over Converged Ethernet), qui offrent une latence et une bande passante adaptées aux échanges massifs de tenseurs entre accélérateurs. Les flux nord-sud, entrées et sorties de données dans le centre de données, sont gérés de façon à garantir des performances prévisibles pour les charges d'inférence en production, qui dépendent de la régularité du débit plutôt que de la latence brute.
Cette couverture complète des deux types de flux, automatisée et sans provisionnement manuel résiduel, est ce qui permet aux opérateurs de proposer un produit cloud IA reproductible à leurs clients. Alex Saroyan, directeur général et cofondateur de Netris, identifie précisément ce point de rupture : « Tous les opérateurs de cloud IA se heurtent au même plafond : un réseau provisionné manuellement, fragmenté, incapable de suivre le rythme du calcul. Netris élimine ce blocage en automatisant les fabrics Ethernet, InfiniBand, NVLink et BlueField DPU. » Pour un néocloud ou un opérateur télécom, l'enjeu est directement commercial : la capacité à livrer un cluster GPU opérationnel en quelques jours plutôt qu'en plusieurs semaines conditionne la vitesse à laquelle il peut générer des revenus sur son infrastructure bare metal.
Monétiser les infrastructure bare metal à la volée
L'argument économique de l'intégration Mirantis-Netris repose sur la réduction du délai entre l'acquisition de matériel GPU et la mise en service commerciale de l'infrastructure. Le marché des néoclouds IA, opérateurs qui construisent des clouds GPU alternatifs aux hyperscalers, souffre structurellement de ce problème: le matériel représente un investissement immobilisé dont la rentabilité dépend de la rapidité avec laquelle il peut être rendu disponible à des tenants payants. Un modèle de livraison de clusters standardisé, avec réseau automatisé et isolation multitenant native, réduit cette période d'immobilisation non productive.
La croissance de 622 % de l'ARR de Netris en 2025, dans un contexte de forte demande pour les infrastructures GPU alternatives aux hyperscalers américains, illustre l'ampleur du besoin non satisfait par les solutions existantes. Les opérateurs télécom constituent un segment particulièrement pertinent : ils disposent d'infrastructures de centres de données distribuées et de capacités réseau significatives, mais manquaient jusqu'ici des outils d'orchestration nécessaires pour les transformer en offres cloud IA compétitives. L'intégration Mirantis-Netris, combinée à la solution k0rdent AI de Mirantis, leur fournit une pile complète, calcul, réseau, gestion du cycle de vie des clusters, sans les développements d'intégration qui constituaient auparavant un frein majeur à l'entrée sur ce marché.
Dans un paysage où la demande en infrastructure IA dépasse largement les capacités disponibles et où la souveraineté des données pousse les organisations européennes à diversifier leurs fournisseurs de calcul, la capacité à déployer des clouds IA multitenant sécurisés à partir d'infrastructure bare metal existante représente un levier de compétitivité direct pour les opérateurs qui choisissent de s'y engager rapidement.























