Oracle, Microsoft et OpenAl s'associent pour étendre la plateforme Microsoft Azure Al à Oracle Cloud Infrastructure (OCI) afin de fournir des capacités supplémentaires pour OpenAl. Ce dernier fournit des services d'IA générative à plus de 100 millions d'utilisateurs chaque mois. « Nous sommes ravis de travailler avec Microsoft et Oracle. OCI étendra la plateforme d'Azure et permettra à OpenAI de continuer à évoluer », a déclaré Sam Altman, CEO d’OpenAI.

Les entreprises adoptent des stratégies cloud hybrides et multicloud pour bénéficier de la flexibilité et des avantages de différentes plateformes. En intégrant Azure AI à OCI, cette initiative répond à cette tendance en offrant aux entreprises une plus grande flexibilité et interopérabilité. En combinant les infrastructures Azure et OCI, OpenAI bénéficie d'une puissance de calcul accrue et d'une infrastructure élargie pour entraîner et déployer ses modèles d'IA. Cela permet de gérer des charges de travail plus complexes et de répondre à la demande croissante pour des services d'IA avancée.

« La course à la création du plus grand modèle de langage au monde est lancée, et elle alimente une demande illimitée pour l'infrastructure d'IA Gen2 d'Oracle, a déclaré Larry Ellison, président et chief technology officer d'Oracle. Des leaders comme OpenAI choisissent OCI car il s'agit de l'infrastructure d'IA la plus rapide et la plus rentable au monde. »  

Atteindre une base de clients plus large

Cette alliance permet à Microsoft, Oracle, et OpenAI d’atteindre une base de clients plus large en combinant leurs offres respectives. Cela ouvre de nouvelles opportunités de marché en capitalisant sur les forces de chaque entreprise. OpenAI rejoindra les autres offres en IA présents sur l'infrastructure IA d’OCI : Adept, Modal, MosaicML, NVIDIA, Reka, Suno, Together AI, Twelve Labs, xAI et bien d'autres utilisent OCI Supercluster pour entraîner et inférer des modèles d'IA de nouvelle génération.

Les fonctionnalités d'IA d'OCI permettent aux startups et aux entreprises de créer et d'entraîner des modèles n'importe où dans le cloud distribué d'Oracle. Pour l'entraînement des modèles de langage de grande taille (LLM), OCI Supercluster peut évoluer jusqu'à 64k GPU NVIDIA Blackwell ou GB200 Grace Blackwell Superchips connectés par un réseau de cluster RDMA à très faible latence et un choix de stockage HPC. Les machines virtuelles OCI Compute et les instances NVIDIA GPU bare metal d'OCI peuvent exécuter des applications de vision par ordinateur d'IA générative, de traitement du langage naturel, de systèmes de recommandations, et bien d’autres encore.