Ils annoncent une collaboration technologique pour accélérer le déploiement sécurisé de robots humanoïdes dans des environnements professionnels. TI intègre son capteur radar mmWave IWR6243 à la plateforme Nvidia Jetson Thor via Nvidia Holoscan Sensor Bridge, permettant une perception 3D à faible latence et une détection fiable des obstacles dans des conditions dégradées — faible luminosité, surfaces réfléchissantes, brouillard.
Le déploiement des robots humanoïdes dans des environnements opérationnels réels — immeubles de bureaux, hôpitaux, entrepôts, sites industriels — bute sur un obstacle technique structurel : la fiabilité de la perception en conditions dégradées. Les systèmes de vision par caméra seuls ne détectent pas de manière constante les surfaces transparentes ou réfléchissantes, les variations d'éclairage extrêmes ou les environnements chargés en particules. Cette lacune de perception constitue une limite de sécurité directe qui freine la mise en production à grande échelle des plateformes humanoïdes, indépendamment de la puissance de calcul disponible.
C'est précisément ce verrou que Texas Instruments et Nvidia entendent lever conjointement. L'annonce, faite le 5 mars 2026, articule les technologies de commande motrice, de détection radar et de gestion de l'alimentation en temps réel de TI avec l'infrastructure de calcul pour la robotique de Nvidia — Jetson Thor pour le traitement embarqué, Holoscan pour l'orchestration des flux de capteurs. L'objectif déclaré est de raccourcir le cycle de validation qui sépare le prototype virtuel du système prêt pour la production, en permettant aux développeurs de tester simultanément perception, actionnement et conformité aux normes de sécurité dès les premières phases de développement.
Une perception 3D en temps réel
Le cœur technique de cette collaboration repose sur l'intégration du capteur radar mmWave IWR6243 de TI à Nvidia Jetson Thor via Nvidia Holoscan Sensor Bridge, avec une connexion Ethernet déterministe. Cette architecture permet une perception 3D à faible latence en fusionnant les données radar et caméra dans un pipeline de traitement unifié. La fusion de ces deux modalités améliore la détection, la localisation et le suivi des objets tout en réduisant les faux positifs, un paramètre critique dans les environnements où le robot évolue à proximité d'opérateurs humains.
L'apport spécifique du radar réside dans sa robustesse aux conditions que la vision optique ne peut pas traiter de façon fiable : faible luminosité, éblouissement, brouillard, poussière, et surtout surfaces transparentes ou réfléchissantes. Ce dernier point est directement pertinent pour les déploiements en environnements tertiaires — les portes vitrées, les cloisons transparentes et les sols réfléchissants des immeubles de bureaux ou des établissements de santé génèrent des angles morts récurrents pour les systèmes de vision seuls. « Le fonctionnement sûr des robots humanoïdes dans des environnements imprévisibles nécessite une avancée considérable en matière de puissance de traitement pour synchroniser des modèles d'IA complexes avec des données de capteurs et des commandes motrices en temps réel », déclare Deepu Talla, Vice-Président en charge de la robotique et de l'Edge IA chez Nvidia.
Calcul des contraintes physiques de chaque articulation du robot
Au-delà de la perception, la contribution de Texas Instruments à cette architecture couvre trois couches supplémentaires du système robotique : la commande motrice en temps réel, la gestion de l'alimentation et la sécurité fonctionnelle à l'échelle de chaque articulation et sous-système. Ces couches constituent le lien entre la décision calculée par le modèle d'IA embarqué sur Jetson Thor et l'exécution physique du mouvement par le robot. Sans commande déterministe et gestion de l'alimentation adaptées, la latence introduite entre la décision et l'actionnement compromet la sécurité de coopération homme-robot.
« La nouvelle génération d'IA physique exige plus qu'une simple puissance de calcul avancée. Elle demande une intégration transparente entre les systèmes de détection, de commande, d'alimentation et de sécurité », souligne Giovanni Campanella, Directeur général chargé de l'automatisation industrielle et de la robotique chez Texas Instruments. « Le portefeuille exhaustif de TI comble le fossé entre la puissance de calcul IA de Nvidia et les applications concrètes, permettant aux développeurs de valider des systèmes humanoïdes complets à un stade anticipé du développement. » Pour les architectes IT et les responsables des systèmes industriels, cette déclaration traduit une réalité opérationnelle concrète : l'intégration des couches bas niveau de la chaîne robotique dans un référentiel commun avec la plateforme de calcul IA réduit la complexité d'intégration et les risques de certification sécurité.
Pour les entreprises et les responsables de systèmes industriels qui évaluent les conditions de déploiement de robots humanoïdes dans leurs environnements, Nvidia GTC constitue un point d'observation stratégique. La maturité de l'intégration TI-Nvidia sera directement observable sur le stand, avant une commercialisation dont le calendrier n'est pas encore précisé. La question qui portera les prochaines étapes de ce partenariat concerne la certification des systèmes intégrés selon les normes de sécurité fonctionnelle industrielle, IEC 62061 et ISO 13849 en tête, sans lesquelles le déploiement en environnements à proximité d'opérateurs humains restera conditionnel.























