L’usage de la GenAI explose véritablement au sein des entreprises, avec une hausse de plus de 890 % du trafic observée en 2024. Les raisons sont simples : la maturité des modèles, l’automatisation accrue en entreprise.
Cette technologie est également perçue comme un catalyseur de productivité et d’innovation. Cependant, son adoption augmente la surface d’attaque et expose les organisations à des risques de cybersécurité inédits.
Il n’est donc pas étonnant que Palo Alto Networks alerte les entreprises sur les risques liés à l’essor fulgurant de l’IA générative. Selon son analyse menée auprès de 7 000 entreprises dans le monde, chaque organisation utilise en moyenne 66 applications GenAI, dont 10 % sont jugées à haut risque.
Lors du lancement de nouveaux modèles, certaines applications connaissent même des pics d’usage conséquents, comme ce fut le cas pour DeepSeek-R1, qui affichait +1800 % de trafic en 2 mois après son lancement.
L’essor des outils comme Grammarly, ChatGPT, Microsoft Copilot ou DeepL témoigne d’un engouement généralisé, notamment dans les secteurs technologiques, industriels et financiers, révèle le rapport.
83,3 % des usages les plus courants de la GenAI concernent :
- L’assistance à la rédaction (34 %)
- Les agents conversationnels (29 %)
- La recherche en entreprise (11 %)
- Les plateformes de développement logiciel (10 %)
Shadow AI
Prenons l’exemple de Grammarly. Avec 39 % des usages GenAI, Grammarly s’impose comme l’application la plus utilisée, tous cas d’usage confondus. Cependant, les risques associés à son usage sont réels :- Fuites de données sensibles (accès à des contenus confidentiels)
- Failles de sécurité (intégration non sécurisée dans les systèmes IT)
- Suggestions de contenus inappropriés ou contraires aux politiques internes de l’entreprise.
Le Shadow AI, c’est-à-dire l’utilisation d’IA par les collaborateurs, non encadrée et non déclarée au département IT/sécurité, constitue l’un des principaux risques. Sans visibilité ni gouvernance, les directions informatiques peinent à détecter les fuites de données sensibles, les failles de conformité et les détournements malveillants des outils IA.
Quelles sont les principales mesures à mettre en place ? Palo Alto Networks en conseille cinq :
- Établir et renforcer le contrôle des accès aux outils GenAI via des politiques conditionnelles
- Assurer une surveillance en temps réel les échanges et contenus générés
- Déployer des protections avancées contre les malwares et attaques par IA
- Sensibiliser et former les collaborateurs à un usage sécurisé et éthique de l’IA
- Adopter des outils spécifiques de protection de l’IA (Zero Trust, DLP, filtrage des prompts, etc.)
Avec un seul mot d’ordre : il faut sécuriser aussi vite que l’on innove !