Red Hat OpenShift AI 2.18 intègre des fonctionnalités pour gérer de bout en bout le cycle de vie des modèles d’IA, qu’il s’agisse de modélisation prédictive ou générative. Parmi ces nouveautés, la mise à disposition distribuée permet de répartir les charges d’entraînement sur plusieurs GPU. Les entreprises bénéficient également d’outils comme InstructLab, qui facilitent l’ajustement des modèles à grande échelle. Red Hat a également introduit des garde-fous technologiques avec AI Guardrails, qui améliorent la précision, la sécurité et la conformité des modèles, détectant et atténuant automatiquement les propos inappropriés ou les violations de politiques internes.
Un environnement complet pour les LLM
Du côté de RHEL AI 1,4, Red Hat propose des modèles de fondation comme Granite 3.1 8B et des outils de personnalisation conçus pour fonctionner de manière cohérente à travers les clouds publics, les datacenters et la périphérie. Ces solutions permettent aux entreprises de mieux intégrer leurs données propres et d’adopter une approche plus homogène et sécurisée dans le déploiement de leurs modèles d’IA.Grâce à Red Hat OpenShift AI et Red Hat Enterprise Linux AI, la société propose un environnement complet pour l’entraînement, l’ajustement et le déploiement des LLM. Les différentes fonctionnalités présentées — la mise à disposition distribuée avec vLLM, les pipelines de data science intégrés, la gestion des modèles ajustés, ou encore les garde-fous technologiques — forment un ensemble cohérent d’outils qui aident les entreprises à orchestrer ces modèles de manière plus efficace et sécurisée.
Cette approche boîte à outils se distingue par sa flexibilité. Contrairement à des solutions plus fermées ou intégrées dans un unique environnement propriétaire, l’offre de Red Hat est conçue pour fonctionner sur un large éventail d’architectures cloud hybride et multicloud. Cette capacité à intégrer des LLM dans des environnements existants, tout en simplifiant leur gouvernance, leur monitoring et leur optimisation, pour orchestrer les LLM au sein des infrastructures d’entreprise.