Les entreprises accumulent du capital GPU à un rythme sans précédent. Pourtant, selon les données consolidées du secteur, 75 % d’entre elles n’atteignent pas 70 % de taux d’utilisation de leurs accélérateurs en charge de pointe. Dans ce contexte, l’enjeu n’est plus d’empiler de la puissance de calcul, c’est de l’opérer.

Mirantis et Netris viennent d’annoncer l’intégration de leurs plateformes respectives pour automatiser conjointement le déploiement de clusters Kubernetes et la gestion des réseaux de datacenters sur des charges IA à grande échelle. La portée de l’annonce dépasse le partenariat technologique : elle révèle l’un des blocages opérationnels les plus coûteux de l’infrastructure IA d’entreprise. Deux freins distincts se conjuguent aujourd’hui pour ralentir le passage à l’échelle des clusters GPU : l’absence de processus standardisé pour livrer des clusters Kubernetes, et des pratiques de provisionnement réseau encore manuelles et fragmentées. L’un touche à l’orchestration du calcul, l’autre à la connectivité fabric. Tant qu’ils restent découplés, l’automatisation reste incomplète, et les GPU restent sous-exploités.

Le marché mondial des GPU pour centres de données IA atteignait 10,51 milliards de dollars en 2025 et devrait franchir 77 milliards à l’horizon 2035, avec un CAGR de 22 % (Precedence Research, décembre 2025). Ces chiffres reflètent un investissement massif en capital, mais masquent une réalité préoccupante. Selon l’étude « State of AI Infrastructure at Scale 2025-2026 » de ClearML, publiée en décembre 2025 auprès de dirigeants IT et décideurs infrastructure de grandes entreprises et membres du Fortune 1000, 35 % des organisations placent l’augmentation de l’utilisation GPU en tête de leurs priorités pour les douze à dix-huit mois à venir — et 44 % admettent simultanément gérer manuellement l’attribution des workloads à leurs accélérateurs, sans stratégie formalisée. Cette contradiction est structurelle : les entreprises investissent dans du matériel qu’elles ne sont pas organisées pour exploiter.

Le réseau comme goulet d’étranglement des clusters GPU

La conséquence financière est directe. Un cluster de 64 GPU H100, facturé à un tarif conservateur de 3,50 dollars de l’heure, génère environ 96 000 dollars de gaspillage mensuel si le taux d’utilisation stagne à 40 % — soit plus d’un million de dollars par an selon les estimations de Scailium. L’enquête AI Infrastructure 2025 relayée par vCluster précise que 90 % des équipes identifient les problèmes de coût ou de partage comme les premiers obstacles à l’utilisation GPU, et que ces problèmes sont eux-mêmes le symptôme d’une capacité multitenant insuffisante. C’est exactement le périmètre que l’intégration Mirantis-Netris entend couvrir.

Dans l’architecture d’un cluster IA, le réseau n’est pas un composant périphérique. Il conditionne directement les performances des charges distribués d’entraînement et d’inférence. Un fabric mal dimensionné ou provisionné manuellement peut annuler le bénéfice d’une génération entière de GPU. Alex Saroyan, PDG et cofondateur de Netris, formule le problème sans détour : tous les opérateurs de cloud IA se heurtent au même plafond, un réseau provisionné manuellement, fragmenté, incapable de suivre le rythme du calcul. La plateforme Netris NAAM — Network Automation, Abstraction, and Multi-Tenancy — automatise les fabriques Ethernet, InfiniBand, NVLink et les DPU NVIDIA BlueField. Elle constitue, selon NVIDIA, la première solution commerciale d’orchestration réseau à intégrer les DPU BlueField dans le fabric réseau du datacenter, étendant l’isolation matérielle des tenants jusqu’au serveur lui-même.

L’intégration avec Mirantis fait de cette automatisation réseau une composante native de la livraison de clusters Kubernetes, et non plus une étape manuelle ajoutée après coup. Shaun O’Meara, CTO de Mirantis, souligne que la combinaison de la gestion réseau Netris et de k0rdent AI — la plateforme d’orchestration Kubernetes de Mirantis — garantit une expérience GPU cloud entièrement intégrée. Pour les néoclouds, opérateurs télécom et entreprises, la promesse est opérationnelle : transformer un cluster bare metal en cloud IA multitenant reproductible en quelques semaines, et non en plusieurs mois. La croissance de 622 % de l’ARR de Netris en 2025, avec plus de 15 opérateurs de cloud IA déployés dans plus de 20 datacenters, atteste que ce positionnement répond à une demande réelle et déjà solvable.

Un différenciateur pour les workloads régulés

Au-delà de l’efficacité opérationnelle, l’intégration Mirantis-Netris porte un argument structurant pour les entreprises opérant dans des environnements réglementés : la multi-tenancy imposée au niveau matériel. L’isolation traditionnelle des tenants repose majoritairement sur des mécanismes logiciels — namespaces Kubernetes, VLAN, politiques réseau. Cette approche atteint ses limites dans les contextes financiers, de santé ou de défense, où la séparation des données et des charges doit être garantie de manière auditable au niveau du switch et du DPU, et non uniquement au niveau applicatif. L’architecture Netris-Mirantis déplace cette garantie au niveau hardware, répondant aux exigences de conformité que les modèles purement logiciels ne peuvent satisfaire.

Pour les entreprises opérant dans le périmètre de l’AI Act européen ou sous contraintes sectorielles NIS 2 et DORA, cette isolation matérielle représente un argument d’architecture concret. Elle permet en outre d’augmenter la densité de tenants sur un même cluster physique, réduisant les coûts d’exploitation par workload — un levier FinOps direct dans un contexte où 70 % des décideurs infrastructure identifient la maîtrise des coûts comme priorité de planification 2025-2026, selon ClearML.

Une réponse d’infrastructure à la pression du time-to-market IA

L’enjeu de l’automatisation du déploiement IA ne se mesure pas uniquement en points de taux d’utilisation. Il se mesure en vélocité d’itération. Selon les données agrégées du secteur, un taux d’utilisation GPU à 40 % transforme un entraînement prévu en deux semaines en un cycle de cinq semaines. Dans un marché où la fenêtre de compétitivité d’un modèle se compte en mois, ce délai est une perte stratégique quantifiable. L’enquête de ClearML indique par ailleurs que 63 % des organisations ont déjà subi des retards directs sur leurs initiatives IA en raison de dépendances à des infrastructures propriétaires — ce que l’approche d’infrastructure composable de Mirantis, permettant de sélectionner des technologies réseau validées sans lock-in, vise explicitement à corriger.

Kubernetes capturait 92 % du marché de l’orchestration de conteneurs en 2025, avec 54 % des clusters accueillant des charges IA ou machine learning (données Linux Foundation/CNCF). Cette position dominante fait de la maturité opérationnelle de Kubernetes — et non de son adoption — le vrai différenciateur entre les organisations qui tiennent leurs engagements IA et celles qui restent bloquées en phase pilote. L’intégration Mirantis-Netris s’inscrit dans cette logique : standardiser ce qui était encore artisanal, automatiser ce qui était encore manuel, et permettre aux équipes infrastructure de se concentrer sur la valeur métier plutôt que sur la plomberie réseau.