L’IA générative est une révolution dans le monde du travail. Mais à mesure que l’adoption de la GenAI progresse, les risques associés augmentent également. La surveillance des interactions avec l’IA n’est plus une option, mais un pré requis pour renforcer sa posture de sécurité.

L’usage de la GenAI explose véritablement au sein des entreprises, avec une hausse de plus de 890 % du trafic observée en 2024. Les raisons sont simples : la maturité des modèles, l’automatisation accrue en entreprise.

Cette technologie est également perçue comme un catalyseur de productivité et d’innovation. Cependant, son adoption augmente la surface d’attaque et expose les organisations à des risques de cybersécurité inédits.

Il n’est donc pas étonnant que Palo Alto Networks alerte les entreprises sur les risques liés à l’essor fulgurant de l’IA générative. Selon son analyse menée auprès de 7 000 entreprises dans le monde, chaque organisation utilise en moyenne 66 applications GenAI, dont 10 % sont jugées à haut risque.

Lors du lancement de nouveaux modèles, certaines applications connaissent même des pics d’usage conséquents, comme ce fut le cas pour DeepSeek-R1, qui affichait +1800 % de trafic en 2 mois après son lancement.

L’essor des outils comme Grammarly, ChatGPT, Microsoft Copilot ou DeepL témoigne d’un engouement généralisé, notamment dans les secteurs technologiques, industriels et financiers, révèle le rapport.

83,3 % des usages les plus courants de la GenAI concernent :  
  • L’assistance à la rédaction (34 %)
 
  • Les agents conversationnels (29 %)
 
  • La recherche en entreprise (11 %)
 
  • Les plateformes de développement logiciel (10 %)
  Avec cette prolifération rapide, les incidents de fuite de données liés à l’IA ont été multipliés par 2,5 depuis début 2025. Aujourd’hui, 14 % des incidents de sécurité sur les plateformes SaaS sont imputables à des applications GenAI.

Shadow AI

Prenons l’exemple de Grammarly. Avec 39 % des usages GenAI, Grammarly s’impose comme l’application la plus utilisée, tous cas d’usage confondus. Cependant, les risques associés à son usage sont réels :  
  • Fuites de données sensibles (accès à des contenus confidentiels)
 
  • Failles de sécurité (intégration non sécurisée dans les systèmes IT)
 
  • Suggestions de contenus inappropriés ou contraires aux politiques internes de l’entreprise.
  L’Unit 42 de Palo Alto Networks a récemment mené une étude sur les applications/assistants d’écriture. L’équipe de recherche a découvert que plus de 70 % des applications testées étaient vulnérables à des techniques de jailbreaking (détournement) en une ou plusieurs étapes,

Le Shadow AI, c’est-à-dire l’utilisation d’IA par les collaborateurs, non encadrée et non déclarée au département IT/sécurité, constitue l’un des principaux risques. Sans visibilité ni gouvernance, les directions informatiques peinent à détecter les fuites de données sensibles, les failles de conformité et les détournements malveillants des outils IA.

Quelles sont les principales mesures à mettre en place ? Palo Alto Networks en conseille cinq :  
  1. Établir et renforcer le contrôle des accès aux outils GenAI via des politiques conditionnelles
 
  1. Assurer une surveillance en temps réel les échanges et contenus générés
 
  1. Déployer des protections avancées contre les malwares et attaques par IA
 
  1. Sensibiliser et former les collaborateurs à un usage sécurisé et éthique de l’IA
 
  1. Adopter des outils spécifiques de protection de l’IA (Zero Trust, DLP, filtrage des prompts, etc.)
 

Avec un seul mot d’ordre : il faut sécuriser aussi vite que l’on innove !