(ou AI stack infrastructure) est en pleine croissance, tiré par des besoins en calcul d’inférence, en traitement massif de données et en capacité d’exécution des modèles d’intelligence artificielle complexes, y compris l’IA générative et l’apprentissage machine.
C’est dans ce contexte que Dell et Red Hat annoncent l’intégration de Red Hat Enterprise Linux AI (RHEL AI) aux serveurs Dell PowerEdge. Cette plateforme, optimisée pour l’intelligence artificielle, vise à simplifier le développement, le test et l’exécution des modèles d’IA, y compris l’IA générative. Elle sera associée aux serveurs PowerEdge R760xa équipés de GPU Nividia, et spécifiquement conçus pour les tâches liées à
l’intelligence artificielle.
Cette initiative permet aux partenaires de fournir une plateforme dûment testée et validée. Elle se différencie des offres des géants du cloud, qui dominent le marché avec des solutions cloud IA. Elle vise une clientèle d'entreprises souhaitant éviter la dépendance exclusive aux infrastructures cloud des hyperscalers et garder un contrôle plus direct sur leurs données et leurs infrastructures.
Une architecture de calcul distribuée
Le PowerEdge R760xa est un serveur 2U capable de supporter une grande densité de processeurs et de GPU. Il peut intégrer des processeurs Intel Xeon Scalable de 4ᵉ génération, pour les applications exigeant un traitement parallèle et des capacités de calcul intensif.La partie applicative permet une architecture de calcul distribuée. Elle repose sur RHEL AI, de la famille Granite de grands modèles de langage open source d’IBM, ainsi que sur les outils d’alignement de modèles InstructLab, basés sur la méthodologie LAB (Large-scale Alignment for chatBots). En s’appuyant sur l’approche communautaire du projet InstructLab, cette solution est proposée sous la forme d’une image amorçable optimisée de Red Hat Enterprise Linux (RHEL), spécifiquement adaptée aux déploiements de serveurs dans des environnements cloud hybrides. Elle s’intègre également avec Red Hat OpenShift AI, les plateformes MLOps (Machine Learning Operations) pour le cloud hybride, permettant l’exécution à grande échelle de modèles et d’InstructLab dans des environnements distribués en grappes.
Une plateforme intégrée et validée
Les entreprises qui adoptent l’IA à grande échelle cherchent à automatiser et optimiser l’intégralité du cycle de vie des modèles IA, depuis la collecte des données jusqu’au déploiement des modèles. C’est pour ces fonctions que les plateformes MLOps (Machine Learning Operations) jouent un rôle crucial. Elles sont l’équivalent des DevOps pour les modèles IA, proposant des outils pour automatiser les processus d’entraînement, de déploiement et de gestion des modèles en production. Dell Technologies déploie une stratégie complète pour s’imposer comme un fournisseur incontournable d’infrastructures dédiées à l’IA générative, en s’appuyant sur un large portefeuille de produits, intégrés et validés, et de services.Dell propose une approche intégrée, qui couvre l’ensemble des besoins en infrastructure IA, depuis les ordinateurs de bureau jusqu’aux centres de données et au cloud public, avec une attention particulière à la périphérie (edge computing). Dans le cas présent, les clients bénéficient d’un écosystème complet dédié au MLOps : les serveurs PoewrEdge, les solutions de stockage PowerScale et le stockage objet ECS, ainsi qu’un large éventail de services.