OVHcloud, membre de l’écosystème Nvidia Partner Network, annonce la disponibilité prochaine de nouvelles instances basées sur la nouvelle gamme de GPU Nvidia pour l’intelligence artificielle. « Reconnaissant l’impact considérable que l’IA aura dans les années à venir », OVHcloud se positionne dans la féroce compétition des fournisseurs de la pile technologique pour l'entraînement et la mise en service de modèles d’IA, et ainsi attirer de nouveaux clients qui souhaitent développer des projets d’IA.

Pour ce faire, OVHcloud « se fixe pour mission d’aider ses clients à développer leur business autour d’un écosystème de solutions IA innovantes, simples et abordables, basées sur des modèles transparents, éthiques et ouverts qui préservent la confidentialité des données ».

Fort de plus d’une vingtaine d’années d’expertise en infrastructure, avec un modèle industriel intégré verticalement, OVHcloud repose son offre sur les nouvelles gammes de GPU spécialisés de Nvidia, allant jusqu’aux Tensor Core Nvidia H100 et A100. Les clients pourront choisir parmi un éventail de solutions pour propulser leurs scénarios d’apprentissage machine, y compris les modèles de langage de grande taille (LLM).

Un déploiement progressif dans les semaines à venir

OVHCloud propose actuellement des offres basées sur les GPU Nvidia V100 et V100S d’ancienne génération. Le Groupe les complète avec les GPU H100, A100, L40S et L4 avec un déploiement progressif dans les semaines à venir. Les nouvelles instances A100 80 Go pour l’entraînement en apprentissage profond et l’inférence sont disponibles immédiatement. Grâce à des capacités avancées en entraînement pour l’apprentissage profond, le A100 est idéalement placé pour l’inférence grâce à diverses optimisations apportées spécifiquement pour les charges de travail intégrant les projets LLM. Le calcul haute performance est un autre domaine où les instances GPU A100 contribuent aux simulations avancées, grâce notamment à leurs performances en calcul double précision et à la mémoire à haute bande passante.

Les instances A100 Public Cloud peuvent être configurées comme suit :
  • A100-180 avec 1x A100, 15 vCore et 180 Go de RAM
  • A100-360 avec 2x A100, 30 vCore et 360 Go de RAM
  • A100-720 avec 4x A100, 60 vCore et 720 Go de RAM

Nvidia H100 pour l’entraînement en apprentissage profond

Les nouvelles instances H100 bénéficient d’une puissance de calcul de 26 petaFLOPS (FP64) par GPU en PCIe. Conçu spécifiquement pour les modèles IA les plus exigeants, le Nvidia H100 permet d’accélérer les LLM avec le Transformer Engine ou créer des applicatifs d’IA générative. Pour les cas d’usage les plus élaborés, notamment en matière de
fine-tuning ou d’entraînement, OVHCloud proposera des solutions basées sur les Nvidia H100 SXM. Avec une puissance de calcul de 67 TFlops (FP64).

Les instances GPU basées sur le GPU Nvidia L4, pourvu de 24 Go de mémoire et propulsé par l’architecture Ada Lovelace, proposent des capacités de calcul optimales pour le graphisme, la simulation ainsi que les scénarios d’analyse de données et de science des données. Les instances L40S sont proposées dans une configuration de 48 Go de mémoire. Le L40S profite de la quatrième génération de Tensor Cores et des Transformer Engine FP8 pour des performances améliorées dans les tâches relatives à l’IA, comme l’entraînement ou l’inférence. Ces nouvelles références de GPU seront disponibles comme instances Public Cloud, mais aussi dans des serveurs dédiés Bare Metal. Le L4 rejoindra ainsi la gamme SCALE-GPU et le L40S la gamme HGR-AI.

Prix et configuration des instances A100 et H100

Grâce à un choix unique d’architectures GPU Nvidia, OVHcloud propose dorénavant une infrastructure pensée pour l’IA, permettant aux ingénieurs, chercheurs, data scientists et data practitioners de mettre à profit l’élasticité du cloud pour répondre à leurs besoins en matière d’entraînement ou d’inférence.

OVHcloud ajoutera graduellement des options Nvidia H100 et A100 à ses offres PaaS, conçues pour accompagner le cycle de vie de la donnée : AI Notebooks, AI Training et AI Deploy.

Les instances GPU basées sur les Nvidia A100 sont maintenant disponibles dans Public Cloud à partir de 2,75 EUR l’heure pour l’A100-180, 5,50 EUR l’heure pour A100-360 et 11 EUR l’heure pour A100-720. Les solutions IA managées basées sur A100 seront disponibles plus tard à partir de 3 EUR par heure. Les instances Nvidia H100 PCIe dans l’univers Public Cloud seront proposées durant l’automne avec une pré-réservation qui démarre dès à présent. Les clients intéressés par les prochaines offres Nvidia H100 SXM peuvent dès à présent solliciter un devis personnalisé.

Les instances GPU Nvidia L4 et L40S seront disponibles dans le courant d'octobre. De nouveaux serveurs Bare Metal disposant des Nvidia L4 et L40S sont attendus pour un lancement cet automne.