La stratégie de Red Hat concernant son offre OpenShift AI for MLOps est axée sur la fourniture d’une plateforme complète et évolutive qui répond aux défis rencontrés par les entreprises dans la gestion du cycle de vie des modèles d’apprentissage automatique. En combinant les atouts de sa plateforme OpenShift avec des capacités d’IA, Red Hat vise à simplifier et à rationaliser le déploiement et la gestion des modèles de ML au sein des organisations.
Il s’agit pour l’éditeur open source de fournir une base standardisée et cohérente pour la création et l’exécution de modèles d’IA/ML de production. OpenShift AI offre une infrastructure qui s’étend sur les étapes de formation, de déploiement et d’inférence, assurant la cohérence et la facilité d’utilisation pour les scientifiques des données, les développeurs et les équipes d’exploitation informatique. Cette standardisation permet aux organisations de surmonter les complexités associées au développement et au déploiement de modèles d’IA, en réduisant le temps de valorisation et en élargissant l’utilisation de l’IA au-delà des scientifiques spécialisés dans les données, aux métiers en l’occurrence.
Permettre la gestion des modèles de ML tout au long de leur cycle de vie
Les améliorations apportées à la plateforme, telle l’utilisation des pipelines CI/CD pour automatiser le processus de construction, de test et de déploiement des modèles ML, la prise en charge des GPU pour l’inférence, les runtimes d’exécution personnalisée pour les modèles et les capacités de surveillance des modèles, démontrent un engagement à fournir des outils complets pour la gestion des modèles de ML tout au long de leur cycle de vie.« Red Hat OpenShift AI relève les défis associés à la formation et au déploiement de modèles d’IA en assurant la cohérence de l’infrastructure à travers la formation, le déploiement et l’inférence, libérant ainsi le potentiel de l’IA », affirme l’éditeur open source.L’un des principaux avantages de Red Hat OpenShift AI est sa capacité à fournir une base standardisée pour la création de modèles d’IA/ML de production et l’exécution des applications qui en résultent. « Il offre une cohérence, une facilité d’utilisation et des options de déploiement du cloud à la périphérie, ce qui permet aux ingénieurs de la plateforme de créer des configurations évolutives adaptées aux besoins des scientifiques des données et des développeurs. Cela permet d’affiner les modèles existants, d’économiser sur les coûts de formation initiale et d’étendre l’utilisation de l’IA au-delà des scientifiques spécialisés dans les données », explique l’éditeur.
Un écosystème d’offre de partenaires
Pour ce faire, Red Hat OpenShift AI s’appuie sur IBM watsonx.ai, la plateforme d’intelligence artificielle d’IBM qui fournit des services d’IA générative prêts à l’emploi pour permettre aux organisations d’exploiter les algorithmes d’IA. La plateforme offre un large éventail de capacités préintégrées, notamment la compréhension du langage naturel, la vision par ordinateur, l’analyse des sentiments, la reconnaissance vocale et les systèmes de recommandation, entre autres.Red Hat OpenShift AI esten outre accompagné de plusieurs offres de partenaires technologiques tiers, notamment Anaconda, IBM Watson Studio, Intel OpenVinoet AI Analytics Toolkit, Nvidia AI Enterprise et Starburst. Elle donne également accès à 30 autres partenaires certifiés AI/ML dans le cadre de l’écosystème OpenShift. Ceci afin de proposer aux clients un large éventail de possibilités et une plus grande flexibilité lors du développement et du déploiement de solutions d’IA.
Au chapitre de la conformité, la plateforme s’adresse aussi aux clients ayant des exigences spécifiques en matière de réglementation et de conformité, telles que des environnements déconnectés et protégés par des air gaps. En outre, les clients peuvent développer des modèles dans le cloud public et les déployer sur site ou en périphérie à l’aide d’outils et d’interfaces intégrés et cohérents. Ce faisant, Red Hat propose un environnement MLOps qui favorise la collaboration entre les opérations informatiques, les spécialistes de la science des données et les développeurs.
Exploiter l’accélération GPU pour l’inférence
La fondation de Red Hat OpenShift AI permet aux clients d’exploiter les fonctions d’accélération GPU natives d’OpenShift, à la fois sur site et via des services cloud. Les améliorations récentes apportées à la plateforme comprennent des pipelines de déploiement pour le suivi des expériences IA/ML et des flux de travail ML automatisés, la prise en charge par le GPU de l’inférence avec des temps d’exécution personnalisés afin d’améliorer le déploiement, et des capacités de surveillance des modèles.Red Hat OpenShift AI intègreaussi les dernières avancées d’IBM en matière d’IA, notamment IBM Watson Code Assistant, qui fournit une assistance spécifique aux équipes de développeurs. En outre, Red Hat OpenShift AI alimente Ansible Lightspeed, permettant aux utilisateurs de tous niveaux de compétences d’écrire des Playbooks Ansible avec des recommandations générées par l’IA. Cette intégration améliore la productivité et permet aux utilisateurs d’utiliser des commandes en anglais pour créer des Playbooks Ansible, quelles que soient leurs compétences en matière d’automatisation.