Les améliorations du Jetson Orin Nano Super s’appuient en grande partie sur une mise à jour logicielle du JetPack SDK, la suite de développement de Nvidia conçue pour ses plateformes Jetson. Cette mise à jour optimise plusieurs aspects clés, notamment les fréquences d’horloge du GPU, de la mémoire et du CPU, ce qui se traduit par des gains de performance notables.
Le Jetson Orin Nano Super offre une puissance de calcul atteignant 67 TOPS
(Tera-Opérations Par Seconde) en INT8, marquant une amélioration de 70 % par rapport à la génération précédente. Sa bande passante mémoire de 102 Go/s, en hausse de 50 %, lui permet de traiter des modèles d'IA plus complexes. Son processeur repose sur l'architecture Nvidia Ampere, intégrant un GPU doté de 1 024 cœurs CUDA et de 32 cœurs Tensor, associés à un CPU Arm Cortex-A78AE à 6 cœurs cadencé à 1,7 GHz. Ce dispositif est soutenu par 8 Go de mémoire LPDDR5, garantissant une gestion fluide des charges de travail multitâches et intensives.
Exploiter 1 024 cœurs CUDA et 32 cœurs Tensor du GPU
Le JetPack SDK met à profit l’architecture Nvidia Ampere pour exploiter pleinementles 1 024 cœurs CUDA et les 32 cœurs Tensor du GPU. La bande passante mémoire est optimisée grâce à une fréquence accrue de la mémoire LPDDR5, atteignant une bande passante de 102 Go/s. Cette capacité améliore la vitesse de transfert des données entre la mémoire et le processeur, indispensable pour exécuter des algorithmes nécessitant de grandes quantités de données en temps réel. Cela permet au Jetson Orin Nano Super de gérer des modèles d’intelligence artificielle plus complexes et exigeants, comme ceux utilisés dans la reconnaissance d’images, le traitement du langage naturel ou encore les applications de robotique avancée. Cela se traduit par une meilleure fluidité dans les applications multitâches et un traitement accéléré des ensembles de données volumineux.
Côté consommation énergétique, l'appareil propose des modes configurables entre 7W et 25W, offrant ainsi une flexibilité d'adaptation selon les besoins des applications. Ces caractéristiques font du Jetson Orin Nano Super une solution assez puissante et polyvalente pour les projets intégrant des exigences élevées en matière d'IA.
Une plateforme à 249 $
En inaugurant l’ère de la computation inférentielle, l’IA impose des exigences inédites en termes de puissance de calcul, de gestion des flux de données et d’efficacité énergétique. Cette transformation redéfinit les positions concurrentielles dans l'industrie, créant une opportunité unique pour les concepteurs de puces et les fondeurs de s’imposer sur un marché en pleine recomposition.Avec le Jetson Orin Nano Super, Nvidia vise donc à élargir sa base d'utilisateurs en proposant une solution performante à un prix réduit de 249 $, soit une diminution de moitié par rapport au modèle précédent (499 $). L’objectif est de proposer une plateforme abordable pour le développement de projets dans des domaines tels que la robotique, les drones intelligents et les caméras intelligentes reposant sur l'IA. Cette stratégie reflète également la volonté de Nvidia de stimuler l’écosystème en rendant l'IA générative accessible à un public plus large, incluant les petites entreprises, les hobbyistes et les makers, ainsi que les étudiants.