Avec sa solution AI Factory, l’éditeur entend standardiser les déploiements IA/ML haute performance, sur fond de pénurie de compétences et d’exigences accrues en matière de souveraineté et d’optimisation des ressources GPU.
Pour répondre à la complexité croissante des infrastructures nécessaires aux modèles d’intelligence artificielle modernes, Mirantis dévoile AI Factory, une architecture de référence modulaire pensée pour accélérer le déploiement, la gestion et la montée en charge d’environnements IA/ML souverains. Présentée comme la première du genre dans l’industrie, cette proposition s’inscrit dans la continuité stratégique de Mirantis, spécialiste des infrastructures cloud natives et de Kubernetes, qui cherche à se positionner dans la chaîne de valeur de l’IA d’infrastructure — notamment face à des besoins d’industrialisation croissante de la part des grands comptes et des opérateurs de services numériques.
Reposant sur la base logicielle k0rdent AI, la plateforme promet une mise en production rapide des charges d’IA (en quelques jours après l’installation matérielle), grâce à un modèle déclaratif et à des modèles préconfigurés (templates) adaptables aux différents cas d’usage, de l’entraînement à l’inférence en passant par le fine-tuning. Ce socle composable a pour objectif de couvrir tous les niveaux de l’infrastructure : calcul, stockage, interconnexion réseau haute performance, allocation et partitionnement GPU, orchestration avancée sous Kubernetes, et support multi environnements (bare metal, virtualisation, cloud, edge).
Répondre à l’urgence d’une IA maîtrisée, industrialisable et distribuée
Dans un contexte où l’intensité matérielle des modèles IA explose, la capacité à agréger des dizaines de serveurs GPU au sein d’un superordinateur virtuel devient critique. L’architecture Mirantis AI Factory intègre nativement les besoins de mémoire partagée, de connectivité RDMA, de planification contextuelle et de gestion fine de la montée en charge, tout en maintenant une compatibilité avec les environnements d’exécution IA de Nvidia (Nvidia AI Enterprise), AMD et Intel. Elle permet aussi l’intégration de plateformes partenaires comme Gcore Everywhere Inference.
Sur le plan stratégique, l’approche de Mirantis vise à lever plusieurs verrous techniques et organisationnels qui freinent encore la mise à l’échelle des projets d’IA en entreprise. Parmi eux : la rareté des expertises infra chez les développeurs IA, la gestion fine des ressources GPU dans des environnements mutualisés, la complexité croissante des déploiements distribués (notamment dans l’edge), ainsi que les contraintes réglementaires liées à la localisation des données, à leur traçabilité et à la souveraineté numérique.
L’architecture répond également à des impératifs croissants de conformité régionale et sectorielle. Elle propose une gouvernance renforcée des données (souvent sensibles ou protégées), ainsi qu’un contrôle fin de la multitenance, avec isolation stricte des locataires, segmentation réseau, partitionnement GPU et gestion des droits d’usage.
Une démarche normalisatrice dans un marché encore fragmenté
L’annonce de Mirantis AI Factory arrive à un moment où de nombreuses entreprises sortent de la phase expérimentale en IA générative et cherchent à internaliser leurs capacités d’exécution, pour des raisons de coût, de contrôle, mais aussi d’efficacité. Dans ce contexte, la formalisation d’une architecture de référence opérationnelle représente un pas important vers l’industrialisation de l’IA d’infrastructure, au service des cas d’usage métiers. En fournissant une architecture de référence ouverte, modulaire et extensible, Mirantis s’aligne sur un besoin partagé par de nombreux fournisseurs d’infrastructures et de services IA : la standardisation. Alors que les projets IA d’entreprise se heurtent souvent à un empilement hétérogène de solutions propriétaires ou mal intégrées, Mirantis fait le pari d’un socle unifié, automatisé et documenté, s’appuyant sur des standards ouverts pour fédérer CI/CD, sécurité, monitoring, déploiement et orchestration.
Outre le marché de la souveraineté, cette orientation stratégique reflète une volonté de capturer une part croissante d’un marché en forte accélération. D’après IDC, les dépenses mondiales en infrastructure dédiée à l’IA devraient atteindre 94 milliards de dollars d’ici 2026, contre 29 milliards en 2022, avec une croissance moyenne annuelle supérieure à 30 %. Dans ce contexte, proposer une infrastructure « as code », reproductible et souveraine, devient un levier commercial décisif pour s’adresser aux opérateurs télécoms, aux intégrateurs souverains, aux agences gouvernementales ou encore aux industriels critiques.
Mirantis vise l’écosystème souverain
En revendiquant le pilotage de plateformes souveraines d’IA à grande échelle, Mirantis cherche à se différencier de fournisseurs hyperscale, souvent jugés inadéquats pour certains cas d’usage critiques en raison du manque de contrôle sur les données et des dépendances juridiques extraterritoriales. La modularité de Mirantis AI Factory lui permet d’adresser aussi bien des infrastructures mutualisées que des clusters GPU dédiés dans des centres de données privés ou sur sites industriels. L’éditeur mise aussi sur des collaborations futures avec des écosystèmes européens de calcul haute performance et de cloud souverain pour renforcer sa légitimité sur le marché européen.
Reste à observer, dans les prochains mois, l’adoption effective de cette architecture par les intégrateurs, les opérateurs et les grands groupes, ainsi que les alliances que Mirantis nouera pour étendre l’écosystème de k0rdent AI à l’échelle internationale.