La Secure AI Factory couvre désormais l’ensemble du continuum infrastructure, du centre de données jusqu’aux sites industriels, hospitaliers et aux réseaux d’opérateurs télécoms. L’annonce consolide trois axes distincts : la distribution de l’inférence jusqu’à l’edge, la montée en puissance des commutateurs pour les AI factories à très grande échelle, et l’intégration de la sécurité à chaque couche de la pile, du silicium jusqu’aux agents autonomes.
Le constat qui sous-tend l’annonce stipule que l’inférence IA se produit là où se trouvent les données et où les décisions ne peuvent pas attendre. Un hôpital qui analyse en temps réel les constantes d’un patient, une chaîne de production qui détecte une anomalie de sécurité sur images, un opérateur télécom qui propose des services d’IA managés à ses clients industriels constituent autant de cas d’usage qui exigent une capacité de traitement locale, sans dépendance à un aller-retour vers un centre de données central. L’extension de la Secure AI Factory répond à cette réalité en proposant une architecture validée capable de réduire les délais de déploiement de plusieurs mois à quelques semaines, en intégrant la sécurité dès la conception plutôt qu’en couche additionnelle.
Chuck Robbins, président-directeur général de Cisco, situe l’enjeu : « La plupart des organisations comprennent le potentiel de transformation de l’IA pour leurs activités, mais elles cherchent encore comment déployer cette technologie de manière sûre et à grande échelle. En partenariat avec Nvidia, nous répondons à ce défi grâce à une architecture qui établit un nouveau standard de performance et qui simplifie le déploiement, l’exploitation et la sécurisation des infrastructures d’IA. »
L’inférence à l’edge : GPU Nvidia sur Cisco UCS et un nouveau Cisco AI Grid pour les opérateurs
L’extension vers l’edge s’articule autour de deux périmètres distincts. Pour les entreprises, la prise en charge des GPU Nvidia sur les portefeuilles Cisco UCS et Cisco Unified Edge permet d’exécuter des charges d’IA critiques en local, sans les coûts énergétiques ni l’empreinte matérielle d’une infrastructure de centre de données à part entière. Les équipes IT disposent ainsi d’une continuité architecturale entre leurs environnements centraux et leurs sites périphériques, sans avoir à assembler des systèmes disparates.
Pour les opérateurs télécoms, Cisco introduit le Cisco AI Grid avec Nvidia, une architecture de référence combinant la Mobility Services Platform de Cisco avec les GPU Nvidia RTX PRO série Blackwell. Cette configuration permet aux opérateurs d’exploiter leurs réseaux existants pour proposer des services managés d’IA à l’edge, avec une fiabilité de niveau opérateur et des garanties de souveraineté. Pour un DSI dont l’organisation travaille avec des opérateurs partenaires, cette dimension ouvre la perspective d’une externalisation de l’inférence edge sans transfert des données vers des infrastructures centralisées.
Commutation à 102,4 Tbit/s et intégration de Nexus Hyperfabric
Au niveau des AI factories de grande envergure, Cisco renforce sa gamme de commutation avec deux nouvelles références. Le commutateur Cisco N9100 à 102,4 Tbit/s, basé sur le silicium Ethernet Nvidia Spectrum-6, constitue la proposition haute performance pour les architectures d’entraînement et d’inférence les plus exigeantes. Le N9100 800G, déjà disponible, repose quant à lui sur Nvidia Spectrum-4. Ces deux références viennent compléter les commutateurs basés sur Cisco Silicon One G300 et P200, lancés précédemment pour les architectures scale-out et scale-across.
Cisco Nexus Hyperfabric, désormais intégré à Cisco Nexus One, étend sa prise en charge aux commutateurs Cisco N9000, dont la série N9100 basée sur Spectrum-X. Cette intégration transforme une orchestration multifournisseur complexe en solution full-stack unifiée. Pour les équipes réseau des grandes organisations, le gain opérationnel est direct : un point de contrôle unique pour piloter des infrastructures de commutation hétérogènes, avec une réduction significative de la charge d’intégration et de maintenance.
Sécurité intégrée, du silicium aux agents
L’axe sécurité constitue la dimension la plus structurante de l’annonce pour les RSSI. Cisco déploie une stratégie de protection en profondeur qui couvre trois niveaux. Au niveau du matériel, le Hybrid Mesh Firewall de Cisco étend l’application de ses politiques de sécurité aux DPU Nvidia BlueField intégrés dans les serveurs GPU connectés aux fabriques Cisco Nexus One. Les menaces sont ainsi interceptées au niveau du serveur, avant d’atteindre les données de l’organisation, sans impact sur les performances des charges d’inférence.
Au niveau des agents, Cisco AI Defense s’intègre à Nvidia NeMo Guardrails, composant de la suite Nvidia AI Enterprise, pour sécuriser les environnements d’IA distribués. La couverture s’étend aux interactions entre agents, point critique dans les architectures agentiques multiniveaux où des agents opérant à l’edge délèguent des tâches à des agents centraux, créant des risques que les outils de sécurité périmétrique classiques ne sont pas conçus pour traiter. Cisco AI Defense prendra également en charge les runtimes OpenShell de Nvidia, composant du Nvidia Agent Toolkit, en ajoutant des contrôles et des garde-fous pour superviser les actions des agents et des outils. Chaque appel d’outil, chaque action exécutée par un agent dans ce runtime fera l’objet d’une surveillance et d’une validation continues.
Jensen Huang, fondateur et CEO de Nvidia, formule la philosophie sous-jacente : « Les AI factories transforment tous les secteurs et la sécurité doit être intégrée à chaque couche — du silicium au logiciel — afin de protéger les données, les applications et l’infrastructure. Ensemble, Nvidia et Cisco construisent les fondations sécurisées de l’infrastructure d’IA afin que les entreprises puissent déployer l’intelligence à grande échelle en toute confiance. »
Pour les DSI qui pilotent des programmes d’industrialisation de l’IA, l’architecture Cisco-Nvidia répond à l’une des tensions les plus fréquentes : concilier la pression d’un déploiement rapide avec les exigences de gouvernance et de sécurité que les directions métier et les régulateurs imposent. La promesse d’une pile validée, couvrant le réseau, le compute, la sécurité périmétrique et la gouvernance des agents, réduit le risque d’intégration tout en préservant la flexibilité architecturale. Deux architectures de référence coexistent, l’une conforme au programme Nvidia Cloud Partner, l’autre basée sur Cisco Silicon One, au choix des équipes techniques selon leurs contraintes et leurs préférences fournisseurs.























