En 2026, Trend Micro entend généraliser l’usage des jumeaux numériques pour sécuriser les systèmes basés sur l’IA générative. À travers un échange exclusif, David Girard, responsable des alliances IA et de la stratégie de cybersécurité chez l’éditeur, détaille cette approche préventive fondée sur la simulation à grande échelle.

Face à l’essor des agents autonomes et à la sophistication croissante des attaques IA, les mécanismes défensifs traditionnels montrent leurs limites. L’ambition de Trend Micro est de simuler en amont les chaînes d’attaque potentielles, à travers une réplique numérique fidèle de l’environnement cible. Cette stratégie s’inscrit dans le prolongement du modèle CREM (Cyber Risk Exposure Management), tout en intégrant les apports récents des architectures orientées GPU.

Où en est Trend Micro dans sa stratégie de sécurisation de l’IA ?

David Girard – Nous utilisons l’IA depuis plus de vingt ans, avec différentes approches, apprentissage automatique, traitement du langage, IA symbolique. Mais l’irruption des modèles génératifs et des protocoles comme MCP a profondément modifié la surface d’attaque. Depuis 2023, nous avons renforcé nos contrôles sur les assistants conversationnels, puis sur les applications IA. Désormais, nous nous focalisons sur les menaces émergentes liées à l’agentification et aux connexions non maîtrisées entre IA et sources de données.

Quels risques identifiez-vous dans les systèmes IA de nouvelle génération ?

D.G. – Le risque le plus critique pour 2026, ce sont les injections indirectes, via des agents qui vont chercher l’information sur des sources non fiabilisées. Par exemple, un agent connecté à Internet peut intégrer une donnée manipulée ou biaisée, ce qui déclenche une action dangereuse sans que personne ne s’en aperçoive. Ce n’est plus seulement l’utilisateur qui est exposé, mais toute l’architecture entre le modèle, les connecteurs et les flux de données. Il devient urgent de simuler ces interactions en environnement maîtrisé.

Comment intervenez-vous concrètement avec les jumeaux numériques ?

D.G. – Nous avons développé un environnement de simulation basé sur une réplique fidèle du système d’information de nos clients. Ce jumeau numérique nous permet de lancer des centaines de scénarios d’attaque, sans impacter la production, pour repérer les chemins d’exploitation les plus probables. Et surtout, nous ne nous contentons pas de signaler des failles, nous proposons immédiatement des contre-mesures, du durcissement de configuration à l’application de patchs virtuels, en passant par de nouvelles règles firewall ou guardrails IA.

Quelle est la base technique de cette solution ?

D.G. – Nous nous appuyons sur notre plateforme Vision One, enrichie des capacités GPU de Nvidia pour la modélisation en temps réel. Ce n’est pas une virtualisation traditionnelle : le traitement s’effectue à l’échelle GPU, ce qui permet une grande précision dans la restitution des comportements. Nous combinons cela avec notre module CREM, qui identifie les vulnérabilités en fonction des configurations, des usages, et des codes déployés dans les chaînes CI/CD. Cela permet une prévention réellement proactive.

Quel est le calendrier de déploiement de ces jumeaux numériques ?

D.G. – Une première version en Private Preview est prévue dès les premiers mois de 2026. Plusieurs organisations sensibles y participent déjà. L’objectif est de valider la diversité des scénarios, les performances de simulation, et l’interopérabilité avec les systèmes déjà en place. Notre ambition est de rendre cette solution accessible à toutes les entreprises, y compris celles qui ne peuvent pas se permettre des tests en environnement réel.

Comment cela s’articule-t-il avec les exigences des cyberassureurs ?

D.G. – Depuis deux ans, nous proposons une API dédiée aux assureurs, qui repose sur les scores d’exposition calculés dans Vision One. Elle permet de transmettre des indicateurs anonymisés sur le niveau de risque de chaque client, en fonction des actifs, des utilisateurs et des vulnérabilités. Ce système est déjà en usage aux États-Unis, au Canada et en Australie. Il facilite l’ajustement des garanties, tout en renforçant les exigences de conformité. Les assureurs ont d’abord été demandeurs d’un maximum d’indicateurs, aujourd’hui, nous avons co-construit un format standard avec eux.

Les entreprises sont-elles prêtes à adopter ce niveau de maturité ?

D.G. – Il y a un décalage important. Les grandes entreprises et les entités gouvernementales avancent vite. Elles constituent des équipes d'IA, organisent leur gouvernance et intègrent la cybersécurité dans leurs projets. Mais pour beaucoup d’organisations, la maturité est encore faible. Le shadow AI, c’est-à-dire les usages non encadrés de l’IA, progresse très vite. Et dans certains cas, ce sont des métiers non techniques qui déploient leurs propres agents sans concertation avec la DSI. Pendant ce temps, les attaquants, eux, industrialisent déjà l’IA. D’où l’urgence de renforcer les défenses dès maintenant.

publicité