La conférence annuelle du fabricant de GPU s’est achevée sur une pléthore d’annonces et une allocution d’ouverture de son PDG, Jensen Huang, sous forme de manifeste pour une nouvelle ère informatique, dominée par la génération de tokens et les systèmes d’IA autonomes.

Du GPU au data center, du jumeau numérique à l’agent conversationnel, Nvidia veut rebattre les cartes de l’infrastructure informatique. Au GTC 2025, son PDG Jensen Huang a exposé une vision totalisante : faire du calcul génératif le cœur de l’économie numérique, et des centres de données, les usines qui produisent cette intelligence. Une vision qui s’étend à toutes les couches de l’informatique, du matériel au logiciel, et du cloud à l’Edge.

Dans un discours-fleuve au ton de quasi-manifeste, Jensen Huang, fondateur et PDG de Nvidia, a dévoilé une stratégie technologique et commerciale ambitieuse : faire de l’entreprise l’architecte incontournable de l’infrastructure numérique du XXIᵉ siècle. GPU, logiciels, data centers, télécoms, robotique… Nvidia veut proposer les fondations technologiques d’une nouvelle ère informatique, dominée par la génération de jetons et les systèmes intelligents autonomes. « Chaque data center devient une usine. Mais une usine qui ne produit pas des fichiers, elle produit des tokens, des jetons d’intelligence », a martelé Jensen Huang.

Un moment de marché unique

L’événement de cette année marque un tournant. Non seulement par l’ambition technologique affichée par Nvidia, mais surtout par le moment de marché dans lequel il s’inscrit. L’ensemble des acteurs du numérique, fournisseurs de processeurs, de bibliothèques logicielles, de plateformes cloud, de systèmes d’orchestration, de réseaux ou de stockage, sont engagés dans une course à l’alignement.

Dans ce contexte, Nvidia entend se positionner non seulement comme un fournisseur de puissance, mais comme l’architecte de référence d’un nouveau modèle industriel, celui des usines à intelligence. De la puce au token, du code à la cognition, l’ensemble du système devient programmable, orchestré, productif. Et chaque milliseconde de calcul,
un actif économique.

L’infrastructure pensée comme une chaîne de production

Au GTC 2025, la vision exposée par le patron de Nvidia est limpide : nous entrons dans l’âge de l’informatique générative, où la valeur ne réside plus dans le stockage ou le traitement de données, mais dans la capacité à générer du contenu, de la connaissance, des décisions et des actions intelligentes, à la volée. Pour cela, il faut une infrastructure pensée comme une chaîne de production, que Nvidia appelle IA Factory. Une chaîne de dans laquelle chaque étape technologique est intégrée dans un schéma unifié de production de l’intelligence.

Ce GTC 2025 se démarque des précédents événements pour diverses raisons, à commencer par le moment historique dans lequel il s’inscrit. Nous sommes à l’instant critique où l’écosystème technologique de l’intelligence artificielle entre dans une phase de structuration accélérée. Les briques matérielles, logicielles, réseau, de stockage et de simulation, longtemps traitées séparément, s’alignent désormais dans une logique d’intégration verticale, sous l’effet conjugué de la pression économique, des attentes métiers et de l’explosion des cas d’usage.

Blackwell, l’architecture pour industrialiser l’IA

Le point de départ de cette transformation, c’est l’architecture des GPU. Nvidia a officialisé l’arrivée de Blackwell, son nouveau processeur graphique massivement parallèle, conçu pour soutenir les charges de calcul exponentielles imposées par les modèles IA de nouvelle génération, en particulier les IA « agentiques », capables de raisonnement pas à pas, de planification et d’interactions multimodales.

Dans sa version initiale, Blackwell repose sur une interconnexion NVLink 8, une double puce par package, et introduit de nouvelles capacités comme le calcul en FP4. Mais c’est surtout sa déclinaison complète, prévue au second semestre 2025 — baptisée Blackwell Ultra — qui marque le vrai changement d’échelle.

En intégrant l’architecture NVLink 72 et le système d’exploitation Dynamo, cette configuration transforme une grappe de GPU en superprocesseur unifié, capable de délivrer jusqu’à 40 fois la performance de Hopper sur les tâches d’inférence complexes à puissance équivalente. Une avancée rendue possible par la combinaison de puissance brute, de bande passante mémoire extrême (jusqu’à 576 To/s), et d’un pilotage orchestré des charges IA à l’échelle du data center. « Le modèle de raisonnement que nous avons entraîné — R1 — génère jusqu’à 8 000 tokens pour résoudre un problème. Là où les anciens LLM se contentaient de 400, souvent faux », a affirmé Jensen Huang.

Cette montée en densité préfigure l’arrivée de la génération suivante, Rubin, attendue en 2026, qui portera encore plus loin cette logique d’intégration verticale. À la clé, selon Nvidia : une puissance par rack multipliée par quinze, et une conception pensée nativement pour les workloads d’IA générative, physiques et robotisés. Nvidia pose ainsi les bases d’un nouveau modèle économique du cloud, où les performances s’expriment en tokens par seconde par mégawatt, et non plus en FLOPS. « L’intelligence devient un produit. Et notre travail, c’est de concevoir les usines qui la fabriquent. »

Dynamo : l’OS des usines d’IA

Pour soutenir sa vision industrielle, Nvidia ajoute une innovation logicielle stratégique : Dynamo, un véritable système d’exploitation pour orchestrer dynamiquement l’exécution des modèles à grande échelle. Dynamo est une référence à la révolution énergétique, comme la « dynamo » d’une nouvelle ère. L’OS du nouveau paradigme de l’industrie
de l’intelligence.

Capable de gérer des centaines de GPU, de répartir les tâches selon leur nature (raisonnement, génération, lecture de contexte), et d’adapter en temps réel les ressources à l’état du modèle, Dynamo est positionné comme la brique centrale d’un hyperviseur d’inférence IA. Combiné à l’écosystème Cuda et à plus de 900 bibliothèques de calcul spécialisées, ce système permet à Nvidia de proposer une pile logicielle complète, du silicium à la production d’intelligence, adaptée aux besoins spécifiques des sciences, de l’industrie, de la finance, et de la santé.

IA Factory : le data center devient une ligne de production

La stratégie industrielle de Nvidia prend tout son sens lorsqu’il s’agit des nouveautés relatives à l’infrastructure. Les nouvelles architectures NVLink 72 (puis 144 et 576 avec Rubin) permettent à Nvidia de construire des « super-GPU » à l’échelle du rack, avec une densité inédite : jusqu’à 15 exaflops par baie dans Rubin Ultra. Associées à des innovations majeures en réseau (InfiniBand Quantum, Spectrum-X, co-packaged optics), ces configurations transforment le data center en chaîne de production hautement optimisée, capable de produire des milliards de jetons par seconde.

Pour accompagner ces déploiements massifs, Nvidia propose désormais la conception en jumeaux numériques des IA Factories, via Omniverse, afin de simuler la logistique, l’alimentation électrique, la dissipation thermique ou le routage réseau en amont des projets physiques.

L’IA au-delà du cloud : Edge, télécoms, clouds spécialisés

La stratégie d’expansion de Nvidia ne s’arrête pas au cloud. En partenariat avec Cisco,
T-Mobile et Cerberus, Nvidia entend faire de l’infrastructure télécom américaine une plateforme d’IA embarquée, avec des capacités de traitement IA directement intégrées dans les antennes 5G. L’objectif est de réinventer la gestion des réseaux radio via l’apprentissage par renforcement et l’optimisation dynamique.

Dans le même temps, de nouveaux acteurs, CoreWeave en tête, construisent des clouds IA spécialisés 100 % basés sur les technologies Nvidia. La firme de Jensen Huang se positionne ainsi dans l’écosystème, de l’Edge aux hyperscalers.

Robotique : tout ce qui bouge sera autonome

Nvidia applique la même logique à l’IA physique. Avec le moteur Newton, le modèle de fondation Groot N1 pour robots humanoïdes et la plateforme Omniverse/Cosmos, l’entreprise construit un système complet pour concevoir, entraîner, tester et déployer des robots cognitifs, capables d’apprendre des environnements virtuels, de raisonner et d’agir dans le monde réel.

« Le monde manquera de 50 millions de travailleurs d’ici 2030. Il faudra bien former leurs remplaçants », a expliqué Jensen Huang. Cette robotique générative vise tous les secteurs : santé, logistique, industrie, agriculture… avec un même moteur d’IA en boucle fermée, du capteur au jumeau numérique.

Le grand retour dans l’informatique sur site

Enfin, Nvidia cible les environnements IT traditionnels avec sa gamme DGX pour l’entreprise, ses microservices NIM, et sa collaboration avec les éditeurs majeurs (SAP, ServiceNow, BlackRock, CapitalOne, etc.). L’objectif : faire entrer l’IA générative et agentique dans les workflows métier, sans dépendance au cloud. Le stockage aussi est réinventé : Nvidia propose des systèmes sémantiques, capables d’indexer la connaissance, de la reformuler à la volée, et de la connecter aux modèles RAG internes. Dell, NetApp, Pure Storage et DDN sont déjà partenaires de ce pivot.

Ce GTC 2025 se démarque des précédents événements pour diverses raisons : le timing actuel où les fournisseurs des différentes couches, outils et solutions technologiques, hardware et software, de la pile de l’IA s’agencent sous forme d’écosystèmes, ceci dans l’urgence pour capter les cas d’usage qui se multiplient.

Dans ce schéma, Nvidia se voit comme un ensemblier qui conçoit, orchestre et commercialise les fondations de l’économie de l’intelligence. L’entreprise entend accompagner non plus la transformation numérique, mais la transformation agentique, métamorphosant le calcul en industrie, l’infrastructure en chaîne de production, et les modèles en produits génératifs.

Nvidia veut être l’hyperscaler de la nouvelle ère de l’intelligence machine, avec une présence intégrale sur la chaîne de valeur, du silicium à l’agent intelligent. Pour les entreprises, cela marque le passage où le calcul devient un actif stratégique, et que la question n’est plus « quel modèle IA utiliser ? », mais « quelle usine d’IA bâtir ? ». « L’ère de l’informatique par génération a commencé. Et nous avons les plans pour construire ses machines », répond Jensen Huang.