Nvidia vient de faire une série d’annonces pour le CES 2024, afin de renforcer ses positions les marchés de l’IA et du ML en lançant de nouveaux GPU de bureau GeForce RTX SUPER, des architectures pour ordinateurs portables axés sur l’IA, et des logiciels et outils Nvidia RTX améliorés pour l’IA. Cette expansion se fait dans un paysage compétitif intense autour de l’intelligence artificielle, des plateformes matérielles pour utilisateurs finaux (gamers ou utilisateurs professionnels), ainsi que des outils pour développeurs.

La stratégie de l’entreprise repose sur l’exploitation de son leadership établi dans le domaine des PC, où plus de 100 millions de GPU RTX sont en utilisation. Dans les centres de données, Nvidia fait face à la concurrence d’Intel et d’AMD, mais possède un avantage grâce à ses offres logicielles et ses GPU, sa plateforme logicielle Cuda contribuant à l’avantage concurrentiel global de l’entreprise. Google et Amazon, malgré le développement de leurs propres puces, utilisent également les puces de Nvidia, ce qui témoigne de sa forte présence sur le marché. En somme, malgré une concurrence montante et performante, les GPU de Nvidia dominent toujours la formation en IA dans les centres de données, et leur efficacité en inférence promet une forte croissance. Le fabricant devra toutefois améliorer le ratio performances/efficacité énergétique pour maintenir son leadership.  

Améliorer la performance des grands modèles de langage…

Nvidia améliore l’expérience PC en introduisant des outils comme Nvidia TensorRT, qui accélère le modèle Stable Diffusion XL pour les flux de travail de texte à image, et Nvidia RTX Remix avec des outils de texture d’IA générative. Un développement clé est la bibliothèque open source Nvidia TensorRT-LLM (TRT-LLM), qui améliore la performance des grands modèles de langage (LLM). Cette bibliothèque prend en charge une plus large gamme de modèles préoptimisés pour les PC et alimente la démo technique Chat with RTX, permettant des expériences d’IA plus interactives.

Le bénéfice stratégique pour Nvidia réside dans le fait de répondre au besoin de confidentialité, de latence et d’efficacité des coûts dans l’exécution locale de l’IA générative sur les PC. Cette approche nécessite une base installée substantielle de systèmes prêts pour l’IA et les bons outils de développement pour affiner les modèles d’IA pour les plateformes PC. Nvidia répond à cela en innovant à travers sa pile technologique, en améliorant plus de 500 applications et jeux PC déjà accélérés par la technologie
Nvidia RTX.  

… et débloquer le plein potentiel de l’IA générative sur PC 

En termes de matériel, les nouvelles cartes graphiques de la série GeForce RTX 40 SUPER de Nvidia, y compris la GeForce RTX 4080 SUPER et d’autres, promettent une performance AI rendant la génération de vidéo et d’images plus rapide et plus efficace. Nvidia compte sur ces GPU, avec leurs Tensor Cores, pour « débloquer le plein potentiel de l’IA générative sur les PC ».

De plus, la collaboration de Nvidia avec des fabricants majeurs tels qu’Acer, ASUS, Dell et d’autres introduit une nouvelle vague d’ordinateurs portables RTX AI, augmentant considérablement les capacités de l’IA générative dès la sortie de la boîte. Les stations de travail mobiles avec des GPU RTX peuvent également exécuter le logiciel Nvidia AI Enterprise pour un développement simplifié de l’IA et des sciences des données.  

Faciliter le déploiement de cas d’usage basés sur l’IA

Sur le plan logiciel, Nvidia mise sur son riche portefeuille pour faciliter le développement et le déploiement d’applications basées sur l’IA. Pour cela, AI Workbench est une boîte à outils unifiée conçue pour permettre aux développeurs de créer, tester et personnaliser des modèles d’IA générative et des LLM. Elle simplifie l’accès à des dépôts populaires et étend les projets sur diverses plateformes, des centres de données aux systèmes RTX locaux. De plus, la collaboration de Nvidia avec HP dans l’intégration de Modèles de Fondation AI dans HP AI Studio simplifie le développement de modèles d’IA, facilitant la recherche, l’importation et le déploiement de modèles optimisés.

L’extension récente de TensorRT aux applications basées sur le texte et l’inclusion de nouveaux modèles préoptimisés rendent les LLM plus rapides sur les PC, démontrant l’engagement de Nvidia sur tous les segments de marché de l’IA, pour améliorer les applications d’IA basées sur le texte. Enfin, lors du CES, Nvidia et ses partenaires devraient présenter de nouvelles applications et des services pour PC, alimentés par l’IA générative. Ceux-ci incluent Nvidia RTX Remix pour la mastérisation de jeux, les microservices Nvidia ACE pour ajouter des avatars numériques aux jeux, des performances améliorées pour les modèles stable diffusion, et Nvidia DLSS 3 avec Frame Generation pour des expériences de jeu améliorées.

En répondant à la demande croissante d’applications d’IA à haute performance exécutées localement, Nvidia s’aligne sur la tendance à l’intégration de l’IA plus profondément dans les expériences des consommateurs et des développeurs, en tirant parti de la puissance des GPU avancés et des outils logiciels spécialisés. Dans l’ensemble, bien que Nvidia doive faire face à la concurrence d’autres fabricants de puces et de solutions internes de la part des hypercalculateurs, sa forte intégration logicielle et matérielle, et l’adoption généralisée de Cuda lui permettent de conserver une bonne avance sur le marché des puces dédiées à l’intelligence.