En s’appuyant sur la plateforme logicielle AI Enterprise de Nvidia, MOSK permet une allocation optimale des ressources en présentant les ressources de traitement physiques comme des ressources dédiées aux charges de travail. Cette évolution répond à un besoin croissant dans le paysage commercial où les organisations dépendent de plus en plus de l’IA et des tâches de calcul intensif pour maintenir leur avantage concurrentiel. En offrant une virtualisation des GPU, MOSK 24.1 permet aux entreprises d’héberger des charges de travail d’IA de manière rentable tout en améliorant leur agilité opérationnelle, comme l’a souligné Roman Zhnichkov, directeur de l’ingénierie chez Mirantis.
Le démarrage UEFI pour les machines virtuelles
MOSK 24.1 est construit sur la base d’OpenStack Antelope, la première version d’OpenStack désignée selon le processus de mise à niveau par saut de niveau (SLURP — Skip Level Upgrade Release Process). Cette approche permet aux utilisateurs de MOSK 24.1, utilisant OpenStack Yoga, de migrer directement vers Antelope, contournant ainsi OpenStack Zed, ce qui réduit les charges opérationnelles pour les utilisateurs souhaitant rester à jour avec la technologie.Parmi les autres améliorations de MOSK 24.1, on trouve notamment le démarrage UEFI pour les machines virtuelles, qui permet à MOSK de prendre en charge des versions modernes de systèmes d’exploitation tels que Windows 11. De plus, l’introduction du protocole SPICE pour l’accès à distance aux machines virtuelles offre des capacités de sécurité améliorées, devenant ainsi une norme ouverte largement acceptée pour un accès à distance sécurisé. De plus, Mirantis propose un calculateur de coût total de possession (TCO) pour aider les entreprises à estimer les économies réalisables en passant à MOSK depuis d’autres infrastructures, telles que VMware.