La prolifération des agents IA autonomes expose les organisations à un risque que les outils de sécurité traditionnels ne sont pas conçus pour traiter : l’action non alignée, déclenchée à vitesse machine, sans supervision humaine. Proofpoint répond à cette lacune avec le lancement de Proofpoint AI Security, une solution bâtie sur un concept inédit dans l’industrie, la vérification continue basée sur l’intention, et sur l’acquisition récente d’Acuvity, spécialiste de la gouvernance des agents IA.
Le constat qui sous-tend le lancement est documenté par un rapport d’Acuvity, désormais intégrée à Proofpoint : 70 % des organisations manquent de gouvernance IA optimisée, et la moitié d’entre elles anticipent une perte de données liée à l’IA dans les douze prochains mois. Ces chiffres traduisent une réalité opérationnelle que les RSSI commencent à mesurer concrètement — un agent IA déployé pour naviguer sur le web, accéder aux systèmes internes, envoyer des courriels ou orchestrer des workflows peut déclencher des dizaines d’actions autonomes en cascade, souvent sur plusieurs systèmes simultanément, à une vitesse qui rend toute supervision humaine en temps réel structurellement impossible.
Proofpoint a identifié la limite des approches existantes : les outils de sécurité actuels peuvent observer le trafic réseau, les identités et les permissions, mais ils ne disposent d’aucun mécanisme pour évaluer si le comportement d’un agent est cohérent avec l’intention initiale de l’utilisateur ou de l’organisation. Proofpoint AI Security comble cette lacune en introduisant une couche d’analyse sémantique continue, capable d’évaluer en temps réel si les actions d’un agent, qu’il soit piloté par un humain ou opérant de façon autonome, restent alignées avec la demande d’origine, les politiques définies et l’objectif prévu.
Analyser le sens des interactions, pas seulement le trafic
Le cœur technique de Proofpoint AI Security repose sur des modèles de détection basés sur l’intention. La solution analyse le contexte sémantique complet des interactions IA — les prompts, les réponses et les flux de données — pour identifier les actions non alignées ou à haut risque avant qu’elles ne produisent des effets : communication non conforme, exfiltration de données, escalade de privilèges agentiques. Ce dernier vecteur, qui consiste pour un agent à s’octroyer des accès ou des capacités au-delà de son périmètre initial, constitue l’une des menaces les plus difficiles à détecter avec les dispositifs de contrôle classiques.
La solution couvre également les attaques par injection de prompts sans clic — une technique par laquelle un contenu malveillant inséré dans l’environnement d’un agent (une page web, un document, une réponse d’API) modifie silencieusement son comportement sans intervention visible d’un attaquant. Ces deux vecteurs — l’escalade de privilèges et l’injection de prompts — représentent la frontière émergente du risque agentique, et leur traitement exige précisément le type de visibilité sémantique que Proofpoint AI Security prétend apporter.
Une architecture multisurface
Proofpoint AI Security s’appuie sur une architecture unifiée couvrant l’ensemble des surfaces où les agents IA opèrent : les endpoints, les extensions de navigateur, et les connexions via le protocole MCP (Model Context Protocol), qui structure de plus en plus les échanges entre les agents et les outils externes. La solution permet de découvrir les outils IA autorisés et non autorisés utilisés dans l’organisation — OpenClaw, Ollama, ChatGPT, serveurs MCP — qu’ils soient sollicités par des utilisateurs humains ou par des agents autonomes.
Cette couverture est particulièrement critique dans les environnements de développement logiciel, où les assistants de codage connectés à des agents, les plugins et les intégrations MCP se multiplient rapidement et élargissent la surface d’exposition sans que les équipes sécurité en aient nécessairement une visibilité consolidée. Les contrôles d’accès et les garde-fous peuvent être appliqués en temps réel, pendant les interactions en cours — et non en post-traitement, quand les dommages sont déjà produits.
Agent Integrity Framework, un contrôle d’intégrité continu
Au-delà de la solution technique, Proofpoint introduit l’Agent Integrity Framework, présenté comme une première dans l’industrie : un guide opérationnel qui définit ce que signifie pour un agent IA d’opérer avec intégrité, et qui structure la mise en œuvre autour d’un modèle en cinq phases, de la découverte initiale jusqu’à l’application des politiques en temps réel. Le framework repose sur cinq piliers : l’alignement de l’intention, l’identité et l’attribution, la cohérence comportementale, l’auditabilité et la transparence opérationnelle.
L’intérêt de ce cadre pour les RSSI est de fournir une feuille de route progressive, applicable sans refonte complète de l’architecture de sécurité existante. « On attend des humains qu’ils opèrent avec intégrité lorsqu’ils utilisent des systèmes professionnels, et les agents IA doivent être tenus au même standard. L’intégrité de l’agent signifie s’assurer qu’il agit dans les limites de son objectif prévu, de ses permissions autorisées et de son comportement attendu à travers chaque interaction, appel d’outil et accès aux données. », détaille Ryan Kalember, vice-président exécutif de la stratégie cybersécurité chez Proofpoint
Une contrainte de comportement persistante
Par analogie, on peut rapprocher l’Agent Integrity Framework d’un prompt système. Il fonctionne selon la même logique, mais appliquée non pas à un modèle de langage, plutôt à un agent autonome dans un système d’entreprise. Il définit en amont ce qu’un agent est autorisé à faire, dans quel périmètre, avec quelles permissions, selon quels objectifs. Les cinq piliers du framework (alignement de l’intention, identité et attribution, cohérence comportementale, auditabilité, transparence opérationnelle) sont précisément ce qu’un prompt système bien conçu encode pour un modèle : une contrainte de comportement persistante, vérifiable à chaque interaction.
La différence notable tient à l’exécution. Un prompt système est une instruction textuelle interprétée par le modèle lui-même. L’Agent Integrity Framework, tel que Proofpoint le déploie, est couplé à une couche de surveillance active (Proofpoint AI Security) qui vérifie en temps réel si l’agent respecte effectivement le cadre défini. C’est la distinction entre déclarer un comportement attendu et l’observer et l’appliquer de façon continue.
Proofpoint AI Security est disponible dès maintenant sur l’ensemble des marchés mondiaux. Son lancement s’inscrit dans la trajectoire de Proofpoint vers une plateforme de cybersécurité unifiée couvrant à la fois la protection des personnes, la défense des données et la gouvernance des agents IA — trois périmètres que les architectures de sécurité actuelles traitent encore majoritairement de façon séparée, alors que les environnements agentiques les font converger en un seul plan de risque.























