Pour répondre à ces besoins, NetApp a récemment mis à jour ses offres avec des fonctionnalités améliorées visant à renforcer l’intégration de son infrastructure de données au sein de l’écosystème de calcul et de mise en réseau, ainsi qu’avec les solutions logicielles proposées par Nvidia. Ces améliorations sont conçues pour permettre aux entreprises d’exploiter pleinement les capacités de l’intelligence artificielle générative via une plateforme cohérente et unifiée. Les initiatives de NetApp, en collaboration avec Nvidia et Cisco, visent à atténuer ces défis en proposant des solutions intégrées et optimisées pour l’IA, qui permettent un accès sécurisé et performant à des données distribuées à travers des environnements hybrides et multicloud.
Une infrastructure convergée spécifiquement optimisée pour l’IA
En effet, l’intégration des différentes composantes technologiques, qu’il s’agisse de matériels ou de logiciels, dans une architecture cohérente, pose un défi de compatibilité et de performance. Les entreprises doivent s’assurer que les composants de leur infrastructure peuvent communiquer efficacement entre eux, tout en optimisant les ressources disponibles pour traiter des volumes croissants de données et exécuter des modèles d’IA de plus en plus sophistiqués.Dans le détail, NetApp introduit AIPod, une infrastructure convergée spécifiquement optimisée pour l’IA, ciblant les projets des entreprises dans ce domaine, y compris pour la formation de modèles et l’inférence. AIPod, désormais enrichi et certifié Nvidia DGX BasePOD, intègre les systèmes intégrés Nvidia DGX H100 avec les solutions de stockage flash NetApp AFF C-Series. Cette initiative s’étend également aux systèmes Nvidia DGX A100.
Par ailleurs, les nouvelles architectures de référence FlexPod pour l’IA, fruit de la collaboration entre NetApp et Cisco, viennent renforcer cette solution d’infrastructure convergée. Elles supportent maintenant la plateforme logicielle Nvidia AI Enterprise et peuvent être étendues via RedHat OpenShift et SuSE Rancher, offrant ainsi des plateformes pour les applications exigeantes en termes de ressources GPU. Ces évolutions visent à fournir un cadre complet pour la conception, le déploiement, et la gestion des applications IA sur la plateforme FlexPod.
Un accès fluide et un contrôle complets sur les données
En outre, la validation de NetApp pour les systèmes Nvidia OVX constitue une étape importante dans le déploiement d’applications basées sur l’IA en entreprise, en facilitant l’ajustement des modèles d’IA et la gestion des charges de travail d’inférence, ceci grâce à une infrastructure supportée par les GPU Nvidia L40S et les solutions logicielles et matérielles complémentaires de Nvidia. Nvidia OVX est conçu pour alimenter les applications d’IA d’entreprise, les simulations numériques, et les environnements de travail collaboratifs avec des exigences graphiques intensives.« NetApp est l’entreprise d’infrastructure intelligente de données, qui propose des solutions optimisées pour maximiser le potentiel des investissements de nos clients dans l’IA, a déclaré ArunkumarGururajan, vice-président de la data science et de la recherche chez NetApp. Notre approche unique de l’IA donne aux clients un accès et un contrôle complets sur leurs données tout au long du pipeline de données, de manière transparente entre leurs environnements de cloud public et sur site. En hiérarchisant le stockage objet pour chaque phase du processus d’IA, nos clients peuvent optimiser à la fois les performances et les coûts exactement là où ils en ont besoin. Notre approche unifiée offre aux clients les performances, la productivité et la protection dont ils ont besoin pour innover rapidement grâce à l’IA. »