Selon le dernier rapport Generative AI Cloud and Threat 2025 publié par Netskope Threat Labs, le volume de données internes transmises à des outils d’IA générative a été multiplié par 30 en un an. Un phénomène en grande partie lié à l’usage croissant du Shadow AI : 72 % des collaborateurs ayant recours à des outils comme ChatGPT, Gemini ou Grammarly le font encore depuis leurs comptes personnels, contournant ainsi les politiques IT
de l’entreprise.
Une posture de sécurité adaptée aux défis de l’IA
Face à cette réalité, Netskope adapte sa stratégie produit en s’appuyant sur sa technologie maison SkopeAI, et propose une approche unifiée de la sécurité des données et des applications, couvrant à la fois l’IA générative grand public, les modèles privés et les agents d’IA. L’objectif est de proposer une visibilité panoramique, une gouvernance granulaire et des contrôles contextuels en temps réel sur l’ensemble des interactions entre utilisateurs, données et applications.Les évolutions de la plateforme Netskope One portent notamment sur le module Data Security Posture Management (DSPM), qui permet une suite d’opérations de sécurité : bloquer l’utilisation de données sensibles dans les modèles d’apprentissage (LLM), qu’ils soient publics ou privés, en identifiant automatiquement les jeux de données à risque dans les environnements SaaS, IaaS, PaaS ou sur site ; évaluer les risques liés à l’IA à partir du contexte et de la classification des données, grâce à une intégration avec le moteur DLP de Netskope ; définir des règles de gouvernance automatisées, en s’appuyant sur la classification, la source ou le contexte d’utilisation des données pour encadrer leur usage par les applications d’IA.
Gouvernance, visibilité et contrôle pour une IA responsable
Netskope étend également les fonctionnalités de découverte et de classification des données pour éviter l’empoisonnement de modèles, et propose un indice de confiance cloud (CCI) couvrant plus de 370 applications d’IA générative et 82 000 applications SaaS. Les entreprises peuvent ainsi évaluer les risques de manière proactive, en surveillant les comportements d’entraînement, les partages de données ou encore les accèsnon autorisés.
Les équipes peuvent aller au-delà du simple contrôle d’accès, en appliquant des règles de sécurité comportementales : restriction d’actions précises comme le téléchargement ou la copie dans les interfaces d’IA, détection et encadrement des invites et des réponses, ou encore redirection vers des outils validés comme Microsoft Copilot ou ChatGPT Entreprise.
Convergence généralisée de la sécurité de l’IA
La dynamique actuelle du marché pousse les éditeurs de cybersécurité à enrichir leurs offres pour répondre aux nouveaux défis posés par l’IA générative et les agents intelligents. Netskope ne déroge pas à cette tendance, mais cherche à se différencier en proposant une intégration plus profonde entre gouvernance des données, classification contextuelle, et contrôles en ligne directement exploitables dans les environnements cloud et SaaS.L’ajout de fonctions DSPM au sein de la plateforme Netskope One témoigne de cette volonté de fédérer les couches de protection autour d’un socle unifié, capable de couvrir des cas d’usage avancés comme l’entraînement des LLM, la sécurisation des invites ou l’encadrement des agents d’IA. Plutôt que de cloisonner les traitements de sécurité, l’éditeur mise sur une convergence des politiques de protection des données, de gestion des applications cloud et d’orchestration des accès intelligents. Cette intégration lui permet de fournir aux grandes entreprises les moyens de concilier innovation et conformité, dans un cadre opérationnel cohérent.
Déjà largement déployée dans les environnements SaaS et cloud, la plateforme Netskope One devient un levier de sécurisation des projets d’IA à l’échelle, en intégrant les mécanismes de défense au plus près des usages métiers. Un positionnement qui pourrait renforcer la compétitivité de l’éditeur face à des concurrents comme Zscaler, Palo Alto Networks ou Cisco, eux aussi actifs sur le front de la sécurisation des flux et des
données de l’IA.