Selon les informations de Reuters, les dirigeants envisagent plusieurs options, comprenant le développement et la fabrication de sa propre puce d’IA, une collaboration plus étroite avec d’autres fabricants de puces, notamment Nvidia, et la diversification de ses fournisseurs au-delà de Nvidia.
Cette discussion interne a émergé en écho au besoin de répondre à une pénurie critique de puces IA haut de gamme, qui sont essentielles pour les opérations d’OpenAI. L’avènement d’applications d’IA et les prévisions de croissance du marché ont entraîné une augmentation de la demande en capacités de computation dédiées à l’IA. Nvidia, un acteur incontournable dans ce domaine, contrôle actuellement plus de 80 % du marché mondial des unités de traitement graphique (GPU) optimisées pour les applications IA. La réflexion d’OpenAI est une réponse stratégique à cette domination du marché et aux défis associés.
Contourner la pénurie de puces IA et les coûts de fonctionnement
Selon Reuters, le PDG d’OpenAI, Sam Altman, a souligné deux préoccupations majeures : la pénurie de processeurs avancés et les coûts « exorbitants » liés au fonctionnement du matériel nécessaire et à ses produits. Développer ses propres puces IA pourrait être une solution viable, réduisant potentiellement la dépendance vis-à-vis des fournisseurs externes et atténuant les coûts à long terme.Créer ses propres puces IA placerait OpenAI dans une position unique, accordant à l’entreprise plus de contrôle sur son infrastructure technologique. Cette indépendance pourrait favoriser l’innovation, permettant à OpenAI de repousser les limites de ce qui est possible avec la technologie IA. Par ailleurs, ce type de puces devrait connaître une demande grandissante durant les prochaines années, car ses usages vont bien au-delà de l’IA générative. Il s’agit d’alimenter la demande des entreprises pour des puces afin d’alimenter des modèles d’IA, ainsi que le prometteur Métavers industriel et les voitures autonomes.
Plus de contrôle sur le matériel pour mieux intégrer le logiciel
Le contexte de cette annonce est ancré dans le paysage en évolution rapide de la technologie basée sur l’inférence. La tendance pour les principaux acteurs technologiques est de chercher à avoir plus de contrôle sur leur matériel afin d’assurer une intégration et une optimisation transparente de leurs logiciels. Google et Amazon ont déjà entamé ce voyage, concevant des puces adaptées à leurs besoins en matière de business. Pour OpenAI, se lancer dans ce domaine signifierait une initiative stratégique majeure, offrant à l’entreprise des avantages potentiels, mais présentant également des défis significatifs.Bien que cette démarche porte en elle le potentiel d’une myriade d’avantages, allant des économies de coûts à l’amélioration de l’efficacité opérationnelle et à l’indépendance stratégique, elle n’est pas sans ses défis. Ce mouvement stratégique nécessite un investissement substantiel et les défis industriels et technologiques sont énormes. De grandes entreprises technologiques, telles que Meta, ont rencontré des problèmes dans leurs efforts de puce personnalisée, illustrant les difficultés d’une telle entreprise. De plus, même si OpenAI décide de poursuivre cette initiative, le processus prendra probablement plusieurs années, pendant lesquelles l’entreprise restera dépendante des fournisseurs actuels.