Lors de son événement Cloud Next, Google Cloud et Nvidia ont annoncé l’intégration de l’infrastructure de référence et des logiciels d’IA de Nvidia permettant aux clients de construire et de déployer des modèles pour l’IA générative. La plateforme d’IA de Nvidia est une architecture qui se compose de plusieurs éléments, notamment de matériel, de logiciels, de modèles et de services d’IA.

La couche logicielle de la plateforme, AI Enterprise, accélère le pipeline de data science et normalise le développement et le déploiement de l’IA de production, y compris l’IA générative, la vision par ordinateur, l’IA vocale, etc. Avec plus de 50 frameworks, des modèles préentraînés et des outils de développement, Nvidia AI Enterprise est conçue pour accélérer l’adoption des infrastructures (matérielle et logicielle) d’IA en entreprise.

Cela montre que Nvidia est en train de prendre une position dominante sur le marché de l’IA et qu’il y a une forte demande pour ses produits. La tendance concernant les architectures de référence de l’IA prêtes à être utilisées pour les LLM et leur formation s’avère favorable à l’écosystème mis en place par Nvidia.

Selon les termes de l’accord, Google Cloud et Nvidia mettent à la disposition des clients plusieurs outils et environnements de développement, tels que PaxML, JAX et TensorFlow, pour le développement et le déploiement de modèles d’IA complexes. Ces outils permettent aux clients d’exploiter la puissance des GPU de Nvidia et des TPU de Google pour créer des modèles de langage dans le domaine de l’IA générative.  

PaxML de Google sur Tensor Core H100 et A100 de Nvidia

Concernant les intégrations spécifiques, le framework PaxML de Google, initialement conçu pour fonctionner sur plusieurs tranches d’accélérateur TPU de Google, est désormais optimisé pour les GPU Tensor Core H100 et A100 de Nvidia. Cela permet une plus grande évolutivité et une liberté d’expérimentation. Le conteneur PaxML peut être consulté dans le catalogue logiciel Nvidia NGC. Il est compatible avec JAX, optimisé pour les GPU. Pour les tâches en science des données, Google a intégré Spark sans serveur avec les GPU Nvidia via son service Dataproc. Cela vise à accélérer la préparation des données pour
les projets IA.

Les deux partenaires n’entendent pas en rester là, car l’intégration devrait s’élargir pour couvrir les besoins et les cas d’usage qui devraient voir le jour au fur et à mesure de l’adoption des infrastructures de référence de l’IA par les entreprises. Par exemple, les futures machines virtuelles A3 de Google Cloud seront alimentées par les GPU H100 de Nvidia. Ces derniers devraient aussi faire partie de la plateforme Vertex AI de Google Cloud, pour aider au développement de modèles IA génératifs. Google Cloud aura également accès au supercalculateur IA DGX GH200 de Nvidia pour explorer ses capacités dans les projets d’IA générative. Par ailleurs, le cloud DGX et les logiciels de Nvidia seront accessibles via un navigateur web pour des tâches d’entraînement avancées. Nvidia AI Enterprise sera disponible sur la place de marché de Google Cloud.