Actif sur le front des semiconducteurs, Nvidia l’est aussi sur celui des applications et des environnements de développement pour le calcul haute performance et l’IA, les deux allant ensemble. Nvidia annonce la disponibilité de Nvidia AI Enterprise, une suite logicielle complète d’outils et de framework d’IA, développée en partenariat avec VMware qui permet aux entreprises utilisant VMware vSphere de virtualiser des charges de travail d’IA sur des systèmes Nvidia-CertifiedSystems.

AI Enterprise est une suite de logiciels d’IA et d’analyse de données de bout en bout, native du cloud, optimisée, certifiée et supportée par Nvidia pour fonctionner sur VMware vSphere. Elle comprend des technologies habilitantes clés de NVIDIA pour le déploiement, la gestion et la mise à l’échelle rapides des charges de travail d’IA dans le cloud hybride moderne.

C’est le cas des GPU basés sur l’architecture Nvidia Ampere, comme le GPU NVIDIA A100 Tensor Core. « La technologie Tensor Core incluse dans l’architecture Ampere permet d’accélérer considérablement les opérations d’IA, en ramenant les temps d’entraînement de plusieurs semaines à quelques heures et en fournissant une accélération massive de l’inférence », affirme Nvidia.

Une accélération supplémentaire des calculs

C’est aussi le cas des SmartNICs de NvidiaConnectX et l’unité de traitement de données (DPU) NVIDIA BlueField. Ils fournissent des moteurs matériels définis par logiciel pour accélérer les réseaux et la sécurité. « Ils permettent d’obtenir le meilleur des deux mondes : les meilleures performances de formation et d’inférence de l’IA, avec tous les niveaux nécessaires de confidentialité, d’intégrité et de fiabilité des données d’entreprise », explique Nvidia.

Les entreprises informatiques découvrent (souvent à leurs dépens) que les charges de travail d’IA sont difficiles à exécuter. L’une des causes principales est qu’elles ne s’adaptent pas bien à une infrastructure standard et multifonctionnelle. Cela est particulièrement vrai non seulement pour la phase d’apprentissage profond sur les plateformes d’IA, mais aussi, de plus en plus, pour l’inférence de l’IA lors de l’exécution du modèle dans le cadre d’une application. Les applications d’IA ont de plus en plus besoin d’une accélération supplémentaire du cœur pour exécuter le modèle et doivent souvent exécuter leurs algorithmes en temps quasi réel.