Selon le Financial Times, OpenAI finalise le développement d’une puce maison dédiée à l’intelligence artificielle, en collaboration avec Broadcom. Ce processeur, prévu pour 2026, marquerait une rupture stratégique dans un contexte où la domination de Nvidia sur les infrastructures de calcul suscite des tensions croissantes. L’annonce éclaire les dynamiques concurrentielles à l’œuvre sur le marché du silicium IA.

Alors que les modèles d’IA deviennent toujours plus massifs, les besoins en calcul atteignent des sommets inédits. OpenAI, dont la croissance est intimement liée aux performances de ses modèles linguistiques, envisage de se doter de sa propre filière matérielle. Selon le Financial Times, l’entreprise fondée par Sam Altman aurait engagé Broadcom pour concevoir une puce sur mesure. Celle-ci serait gravée par TSMC et utilisée exclusivement pour les charges internes, en particulier l’inférence générative et l’entraînement distribué.

Ce projet intervient dans un climat de rareté des ressources de calcul, marqué par la flambée des prix, les délais d’approvisionnement et une dépendance structurelle vis-à-vis de Nvidia. Pour OpenAI comme pour d’autres géants de l’IA, sécuriser une capacité de traitement autonome devient un enjeu à la fois stratégique, économique et opérationnel.

Répondre à l’explosion des besoins de calcul génératif

À mesure que les modèles de langage s’étendent à des contextes plus longs, à des usages multimodaux et à des tâches conversationnelles complexes, la pression sur les GPU s’intensifie. La demande porte autant sur la puissance brute que sur la mémoire vive, la bande passante et l’optimisation logicielle. Or, les puces actuelles, même haut de gamme, sont architecturées pour les tâches généralistes. Elles doivent répondre à un spectre large de cas d’usage, ce qui limite leur efficacité énergétique et leur spécialisation contextuelle.

En concevant une puce optimisée pour ses propres modèles, OpenAI entend gagner en efficience. Il devient possible d’ajuster la topologie des cœurs, la taille des matrices, la gestion des accès mémoire et les protocoles internes pour maximiser la performance sur des tâches spécifiques. Le gain attendu ? Une réduction des coûts d’inférence, une latence plus faible et une meilleure maîtrise des flux internes. Pour OpenAI, cette autonomie matérielle serait un atout crucial dans la course à la généralisation des agents IA à grande échelle.

Nvidia face à une fragmentation annoncée du marché

La manœuvre d’OpenAI s’inscrit dans un mouvement plus large de fragmentation du marché des puces IA. Google dispose déjà de ses TPU, Meta a annoncé ses propres ASIC, Amazon conçoit des puces Inferentia et Trainium, et Microsoft finance également des efforts similaires. Tous cherchent à s’affranchir de la mainmise de Nvidia, dont les marges et la puissance commerciale suscitent des crispations.

Malgré ces offensives, Nvidia conserve une avance nette, tant sur le plan matériel que logiciel. Son écosystème, fondé sur Cuda et des bibliothèques d’accélération matures, constitue une barrière à l’entrée pour les nouveaux venus. Les centres de données sont largement optimisés pour ses cartes, et les développeurs ont massivement investi dans son environnement. Une puce concurrente devra donc surmonter non seulement des défis de conception, mais aussi de compatibilité, d’intégration et d’outillage logiciel.

Vers une recomposition des filières IA autour du silicium souverain

L’initiative d’OpenAI peut aussi se lire à l’aune des tensions géopolitiques qui affectent l’accès aux composants critiques. Dans un contexte où les exportations de puces sont soumises à des contrôles renforcés, disposer d’une filière contrôlée permet d’échapper aux aléas réglementaires. Le partenariat avec Broadcom et TSMC, deux acteurs majeurs mais non chinois, sécurise la chaîne d’approvisionnement sans dépendre exclusivement des États-Unis.

À plus long terme, cette stratégie pourrait favoriser l’émergence d’un modèle de souveraineté computationnelle, où chaque fournisseur de modèles disposerait de son propre silicium, calibré pour ses algorithmes, ses contraintes et ses applications. Le marché se structurerait alors autour d’architectures verticalisées, dans lesquelles le matériel, les modèles et les plateformes convergeraient pour former des systèmes IA cohérents, optimisés et difficilement réplicables.