Cisco étend sa Secure AI Factory avec Nvidia au-delà du centre de données : l’inférence IA descend jusqu’au terrain industriel et aux réseaux d’opérateurs. L’annonce faite en marge de Nvidia GTC, introduit une architecture pour couvrir l’ensemble de la chaîne de traitement, des AI factories hyperscale jusqu’aux sites edge critiques. La sécurité y occupe une place centrale, avec une intégration à chaque couche, allant du silicium aux agents autonomes.

Depuis plusieurs années, l’inférence IA est présentée comme une charge de travail centralisée, hébergée dans de grands centres de données équipés de clusters GPU. Cette représentation est désormais insuffisante. Les cas d’usage qui se déploient en production, contrôle qualité sur chaîne de production, analyse d’images médicales en salle d’opération, surveillance de véhicules en mouvement, exigent des décisions en temps réel, là où les données sont générées, sans latence de transit vers un datacenter distant. C’est ce constat qui structure l’extension annoncée par Cisco de sa Secure AI Factory avec Nvidia.

L’architecture s’étend désormais du centre de données jusqu’aux sites edge distribués. Deux vecteurs sont identifiés : l’edge entreprise, via la prise en charge des GPU Nvidia sur les portefeuilles Cisco UCS et Cisco Unified Edge, et l’edge opérateur, via le Cisco AI Grid avec Nvidia — une architecture de référence combinant la Mobility Services Platform de Cisco avec les GPU Nvidia RTX PRO série Blackwell, destinée aux opérateurs télécoms souhaitant proposer des services managés d’IA à l’edge

Deux architectures de commutation validées pour les AI factories

Au niveau des AI factories à grande échelle, Cisco organise son offre autour de deux architectures de commutation distinctes, toutes deux désormais validées pour les déploiements IA à grande échelle. La première est conforme au programme Nvidia Cloud Partner (NCP), s’appuyant sur le silicium de commutation Nvidia Spectrum-X associé à un système d’exploitation Cisco. La seconde repose sur Cisco Silicon One, dont les nouvelles générations — G300 pour les architectures scale-out, P200 pour les architectures scale-across — visent les charges les plus exigeantes.

Le nouveau commutateur Cisco N9100 à 102,4 Tbit/s, basé sur le silicium Ethernet Nvidia Spectrum-6, complète la gamme. L’intégration de Cisco Nexus Hyperfabric à Cisco Nexus One étend la gestion automatisée à ces commutateurs, avec pour objectif annoncé de transformer une intégration multifournisseur complexe en une solution full-stack simplifiée — et de réduire les délais de déploiement de plusieurs mois à quelques semaines. Chuck Robbins, président-directeur général de Cisco, formule le problème auquel répond cette architecture : « La plupart des organisations comprennent le potentiel de transformation de l’IA pour leurs activités, mais elles cherchent encore comment déployer cette technologie de manière sûre et à grande échelle. »

Hybrid Mesh Firewall étendu aux DPU BlueField

L’une des extensions techniques les plus significatives de cette annonce concerne la sécurité de l’infrastructure physique, étendue jusqu’au cœur du silicium en l’occurrence. Cisco étend son Hybrid Mesh Firewall aux DPU Nvidia BlueField intégrés dans les serveurs GPU connectés aux fabriques Cisco Nexus One. Les politiques de sécurité sont désormais appliquées au niveau du serveur lui-même, avant même que les flux n’atteignent les données de l’organisation. Cette approche vise à bloquer les menaces au plus près de la surface d’exécution, sans pénalité de performance sur les charges IA.

Pour Jensen Huang, fondateur et CEO de Nvidia, la logique est architecturale autant que commerciale : « Les AI factories transforment tous les secteurs et la sécurité doit être intégrée à chaque couche — du silicium au logiciel — afin de protéger les données, les applications et l’infrastructure. » L’intégration de Cisco AI Defense à Nvidia NeMo Guardrails, composant de la suite Nvidia AI Enterprise, étend cette protection aux modèles déployés à l’edge, avec des mécanismes de test automatisé de vulnérabilité et des garde-fous spécifiques aux environnements distribués.

OpenShell et la sécurisation des agents autonomes

L’annonce introduit également un volet directement pertinent pour les RSSI confrontés au déploiement d’agents IA en production. Cisco AI Defense prendra en charge les runtimes OpenShell de Nvidia, composant du Nvidia Agent Toolkit. L’intégration ajoute des contrôles et des garde-fous pour superviser les actions des agents et des outils qu’ils invoquent. Chaque outil et chaque action exécutée par un agent font l’objet d’une surveillance et d’une validation continues.

Cette capacité répond à une problématique identifiée par les équipes sécurité : dans les architectures multiagents, les interactions entre agents opérant à l’edge et ceux situés au cœur de l’infrastructure créent des surfaces d’attaque nouvelles, difficiles à couvrir avec les outils de sécurité traditionnels. Cisco positionne AI Defense comme le mécanisme de gouvernance de ces interactions, garantissant un fonctionnement fiable des systèmes autonomes sans brider leur capacité opérationnelle.

L’architecture Cisco-Nvidia présente une cohérence de pile notable, du commutateur réseau au DPU, du pare-feu jusqu’aux garde-fous des agents. Elle reste cependant en partie prospective : le communiqué précise explicitement que de nombreuses fonctionnalités décrites sont encore en développement et seront proposées sous réserve de disponibilité, le calendrier restant à la discrétion de Cisco.