La plateforme communautaire franco-américaine Hugging Face n’en finit pas d’attirer les géants du cloud, AWS, Microsoft Azure, et à présent Google Cloud. Celui-ci annonce à son tour avoir signé un partenariat qui permettra aux développeurs d’utiliser l’infrastructure de Google Cloud pour tous les services de Hugging Face. Les développeurs pourront également entraîner et mettre à disposition les modèles de Hugging Face sur Google Cloud.

Grâce à ce partenariat, les développeurs pourront utiliser l’infrastructure de Google Cloud pour entraîner et mettre à disposition les modèles d’IA de Hugging Face. Cela leur permettra de bénéficier des infrastructures et des technologies d’entraînement de LLM mises en place par le fournisseur de cloud. Ce dernier propose une offre complète de technologies matérielles et logicielles dédiées à l’intelligence artificielle, facilitant le développement et la mise en œuvre d’applications IA pour les entreprises.  

Bénéficier des infrastructures de Google dédiées à l’IA

Sur le plan matériel, les TPU v5e, des unités de traitement tensoriel spécialement conçues pour l’apprentissage automatique, augmentent les performances et l’efficacité pour un entraînement plus rapide de modèles IA grands et complexes. En outre, les supercalculateurs A3 équipés de GPU H100 Tensor Core de Nvidia développent des performances d’entraînement supérieures à celles des TPU v5e. De plus, les instances Cloud TPU, des machines virtuelles dotées de TPU, permettent aux entreprises de profiter des avantages des TPU sans la gestion d’infrastructure associée. Ces technologies matérielles diversifiées répondent aux différents besoins en puissance de calcul et en évolutivité des entreprises, leur permettant de développer des modèles d’IA plus complexes.

Du côté logiciel, Google Cloud met à disposition Vertex AI, une plateforme IA tout-en-un qui gère l’intégralité du cycle de vie des modèles IA, de l’entraînement à la mise en service. TensorFlow, un environnement open source pour l’apprentissage automatique, est largement utilisé par les développeurs pour créer des modèles d’IA. Enfin, AutoML, une suite de services, permet de concevoir des modèles d’IA sans nécessité de programmation.  

Une intégration poussée avec les technologies de Google

Dans le cadre de ce partenariat, Google Cloud prévoit une série d’initiatives pour intégrer les outils et élargir les possibilités offertes aux développeurs. Pour commencer, Google Cloud annonce qu’il y aura une intégration poussée entre les plateformes Hugging Face et Vertex AI, permettant ainsi aux développeurs d’entraîner et déployer des modèles d’IA Hugging Face grâce aux services MLOps de Google Cloud. Ensuite, le partenariat supportera les déploiements sur Google Kubernetes Engine (GKE), offrant aux développeurs la possibilité d’entraîner et de déployer des modèles d’IA Hugging Face sur une infrastructure plus flexible.

De plus, le partenariat donne accès aux TPU v5e de Google Cloud, des unités de traitement conçues pour des performances accrues, facilitant ainsi l’entraînement de modèles d’IA plus grands et plus complexes de manière plus rapide. Il inclut également le support pour les supercalculateurs A3 de Google Cloud, équipés des GPU H100 Tensor Core de Nvidia. Enfin, les services Hugging Face seront disponibles sur le Google Cloud Marketplace, afin de simplifier la gestion et la facturation de ces services.