Le CPU Arm Neoverse V3AE constitue la première puce Neoverse pensée pour les applications automobiles et robotiques. Son adoption par Nvidia permet d’unifier les bases CPU de ses plateformes Drive AGX Thor et Jetson Thor autour d’un cœur certifiable (ISO 26262, et ISO 21434). Associée au GPU Blackwell et aux piles logicielles Cuda, DriveOS et Isaac, cette intégration crée une continuité matérielle et logicielle qui favorise un déploiement rapide des fonctions d’IA embarquée.
Plateforme de calcul automobile définie par l’IA, Drive AGX Thor combine un CPU Arm Neoverse V3AE avec un GPU Blackwell et DriveOS 7, afin d’agréger en temps réel vision, fusion capteurs, planification et interaction. Le kit développeur, proposé en versions laboratoire et embarquée, ouvre la voie aux architectures centralisées avec interfaces véhicules et I/O riches (GbE/10 GbE, PCIe) et udes capacités de calcul allant jusqu’à 2 000 TFLOPS FP4. L’objectif est de fournir un socle certifiable et économe pour accélérer le passage à la production des fonctions d’aide avancée et des logiciels de conduite.
Jetson Thor : socle robotique prêt à produire
Jetson Thor transpose la même fondation CPU Arm Neoverse V3AE dans le domaine de la robotique, dans un module T5000 doté d’un GPU Blackwell (2 560 cœurs CUDA, 96 cœurs Tensor), 128 Go LPDDR5X et une enveloppe 40–130 W. Le gain mesuré atteint 7,5 × la puissance IA et 3,5 × l’efficacité énergétique de Jetson Orin, avec jusqu’à 2 070 TFLOPS FP4 et une connectivité taillée pour la perception multimodale (dont 4×25 GbE). Cette continuité matérielle et logicielle (Isaac, Metropolis, Holoscan) réduit fortement les frictions d’intégration pour les fabricants d’AMR, humanoïdes et machines industrielles.Impacts pour Intel et AMD
Pour Intel, cette évolution fragilise la stratégie d’imposer l’architecture x86 dans l’automobile et l’industriel. Ses gammes Atom et Xeon D restent handicapées par leur consommation et par des certifications plus difficiles à obtenir. Son atout Mobileye, qui domine encore le marché des ADAS, repose sur des accélérateurs EyeQ développés en interne, mais non sur x86 : un signe clair de la perte d’attractivité de son architecture pour les charges temps réel critiques.AMD se trouve dans une position encore plus délicate. L’entreprise n’a ni CPU embarqué adapté ni écosystème logiciel comparable à CUDA. Ses GPU Instinct dominent en calcul intensif et ses FPGA Xilinx permettent une flexibilité appréciée dans certaines niches industrielles, mais l’absence de pile intégrée face au couple Arm–Nvidia limite son accès à l’« IA physique ». Le risque est de rester cantonné au HPC et aux centres de données, alors que le marché automobile et robotique ouvre de nouveaux relais de croissance.
Qualcomm : un concurrent armé par Arm
Contrairement à Intel et AMD, Qualcomm n’est pas prisonnier de l’architecture x86. L’entreprise édifié toute sa stratégie autour d’Arm, dont il est l’un des principaux promoteurs. Dans le PC, avec Snapdragon X et ses cœurs Oryon couplés à un NPU de40–45 TOPS, Qualcomm pousse Windows sur Arm et affaiblit le duopole x86. Dans l’automobile, avec Snapdragon Ride Flex, l’entreprise propose un SoC capable de combiner cockpit et ADAS, en gérant des charges de criticité mixte via la virtualisation. Enfin, son ancrage historique dans le mobile lui ouvre un écosystème considérable, où Arm
est déjà dominant.
Sa position concurrentielle diffère donc de celle d’Intel et d’AMD. Là où ces derniers doivent défendre une architecture moins adaptée aux contraintes énergétiques et de sûreté, Qualcomm partage le même socle Arm que Nvidia. Le duel se joue sur un autre terrain : Nvidia privilégie l’intégration extrême — CPU Arm, GPU Blackwell et piles logicielles spécialisées (Isaac, Metropolis, Holoscan) —, tandis que Qualcomm mise sur l’intégration fonctionnelle et la multiplication des design avec les constructeurs automobiles. Les deux stratégies se recouvrent, mais Qualcomm ne part pas avec le handicap du x86.
Dans l’automobile et la robotique, Qualcomm oppose sa plateforme Snapdragon Ride Flex, qui converge cockpit et ADAS sur un même SoC et gère des charges de criticité mixte via la virtualisation. L’avantage de Nvidia reste la densité de calcul Blackwell et la pile logicielle intégrée, taillée pour la perception et la décision temps réel. L’atout de Qualcomm repose sur son ancrage historique auprès des OEM et sur une stratégie de co-ingénierie cloud-native. La ligne de fracture est bien visible : Nvidia joue l’intégration matérielle-logicielle extrême pour l’IA physique, quand Qualcomm mise sur l’intégration fonctionnelle cockpit/ADAS et la multiplication des design.
Avec l’adoption du CPU Arm Neoverse V3AE, Nvidia verrouille un écosystème matériel et logiciel cohérent qui accélère la montée en puissance de l’IA embarquée. Intel et AMD se retrouvent marginalisés sur le terrain de l’automobile et de la robotique, contraints de se recentrer sur le cloud et le HPC. Qualcomm reste un concurrent sérieux, mais davantage orienté vers l’intégration fonctionnelle et l’écosystème OEM. La recomposition du marché des semi-conducteurs se lit désormais en deux blocs : Arm et Nvidia pour l’IA physique, et x86 pour les infrastructures traditionnelles. Le rythme de maturité des robots et des véhicules autonomes dépendra de cette course à l’intégration incrémentale, où Nvidia a pris un net avantage.