RHEL AI est basé sur le projet open source InstructLab et combine les grands modèles de langage Granite (LLM) d'IBM Research avec les outils d'alignement de modèles d'InstructLab. Basé sur la méthodologie à large échelle, ou Large-scale Alignment for chatBots (LAB), RHEL AI peut produire une image RHEL amorçable, pour rendre le déploiement d’applications d'IA aussi simple que l'amorçage d'un conteneur ou d'une machine virtuelle.
Cette plateforme combine la famille de grands modèles de langage (LLM) Granite sous licence open source et des outils d’alignement des modèles InstructLab basés sur la méthodologie d’alignement à grande échelle pour les chatbots (LAB — Large-scale Alignment for chatBots) sous forme d’image RHEL (Red Hat Enterprise Linux) optimisée et amorçable pour les déploiements sur des serveurs individuels dans l’ensemble
du cloud hybride.
Le modèle open source pour démocratiser l’IA
Les applications basées sur les LLM sont extrêmement coûteuses à développer, entraîner et maintenir. Par exemple, l’entraînement de certains LLM peut atteindre des sommes avoisinant les 200 millions de dollars. Outre les investissements dans des infrastructures spécialisées, s’ajoute les coûts de l’adaptation des modèles aux besoins spécifiques de chaque entreprise, nécessitant souvent l’intervention de data scientistes etde développeurs spécialisés.
Selon Red Hat, cette complexité et ces coûts élevés freinent l’adoption généralisée de l’IA générative, en particulier dans PME, qui ne disposent pas des mêmes ressources que les géants technologiques.
Le modèle open source, en permettant la mutualisation des efforts de développement et d'amélioration des modèles, est une approche alternative pour rendre l’IA générative plus accessible. « Les communautés open source, déjà à l’origine de nombreuses avancées technologiques, peuvent aider à démocratiser cette technologie, en particulier dans des secteurs où l'IA n'a pas encore été adoptée à grande échelle »,
affirme l’éditeur d’OpenShift.
Red Hat s'inscrit dans cette dynamique en adoptant une stratégie orientée vers l'open source et l’accessibilité de l’IA générative pour les entreprises. La stratégie actuelle de l’entreprise repose sur l’expansion de ces solutions dans l’IA générative, en particulier à travers la plateforme RHEL AI, qui combine l'infrastructure open source
avec des outils d'IA.
Rendre l’IA plus accessible aux non spécialistes
L’éditeur annonce vouloir relever les défis pour rendre l’IA générative plus accessible aux non spécialistes, les DSI et les départements IT des grandes entreprises en l’occurrence. Il veut ainsi simplifier l’alignement des modèles d’IA générative sur les besoins des entreprises via les outils InstructLab, permettant aux experts de domaines spécifiques de personnaliser les modèles sans nécessiter de compétences pousséesen science des données.
Il entend par ailleurs proposer une suite d’outils pour ajuster et exécuter les modèles sur des serveurs de production, quel que soit l’emplacement des données. De plus, la plateforme RHEL AI donne accès à Red Hat OpenShift AI pour l’entraînement, la personnalisation et le déploiement des modèles à grande échelle tout en utilisant des outils communs à ceux de RHEL AI.
RHEL AI bénéficie des avantages du modèle de souscription Red Hat, qui inclut une distribution stable de produits, un support 24h/24 et 7j/7, une prise en charge sur tout le cycle de vie des modèles, ainsi que des garanties de protection de la propriété intellectuelle avec le programme Open Source Assurance.
En tant qu’extension du portefeuille de cloud hybride de Red Hat, la plateforme RHEL AI sera disponible directement auprès de Red Hat, de ses partenaires OEM et chez les hyperscalers (AWS, GCP et Azure), en plus d’IBM Cloud.
Elle peut être exécutée sur site ou téléchargée sur AWS et IBM Cloud en tant qu’offre d’abonnement BYOS (Bring Your Own Subscription). La disponibilité de l’offre BYOS sur Azure et GCP est prévue au quatrième trimestre 2024. Enfin, la plateforme RHEL AI devrait également être disponible « en tant que service » sur IBM Cloud un peu plus tard
dans l’année.