Les employés des entreprises sont de plus en plus impatients d’utiliser des outils d’IA, souvent sans l’autorisation de leur employeur, une pratique connue sous le nom de « shadow IA ». L’adoption des outils d’IA a progressé à un rythme remarquable. Selon McKinsey, 72 % des organisations auront adopté des outils d’IA en 2024, contre environ 50 % ces dernières années.

Mais cette course à l’accélération du travail grâce à l’intelligence artificielle (IA) risque d’encourager les employés à mettre accidentellement en danger des données sensibles. Prenons le scénario suivant : un membre de l’équipe chargée des achats a un délai serré et télécharge donc un contrat confidentiel dans un outil d’IA afin d’en examiner quelques lignes rouges.

On ne sait pas si le système d’IA stocke les données du contrat, combien de temps elles seront conservées et si elles referont surface dans une future demande adressée à quelqu’un d’autre.

Documents juridiques et IA

Cette utilisation non autorisée (Shadow IA) est en forte croissance, avec jusqu’à 96 % des tâches effectuées par les employés avec l’IA se faisant via des comptes externes. Cette pratique, qu’elle soit intentionnelle ou non, peut entraîner des fuites de données sensibles et propriétaires de l’entreprise.

Selon une analyse de Cyberhaven portant sur les flux de travail de 3 millions de travailleurs, l’utilisation de l’IA a augmenté de 485 % entre mars 2023 et mars 2024. Les employés partagent de plus en plus de données sensibles : près de 83 % des documents juridiques et environ 50 % du code source, des documents de recherche et développement, ainsi que des dossiers RH sont transférés vers des comptes IA non professionnels.

Cyberhaven affirme que ses clients constatent une réduction de 90 % des incidents nécessitant une analyse manuelle et une diminution de 80 % du délai moyen de réponse (MTTR) aux incidents de sécurité liés à la sécurité des données. Les outils de l’entreprise permettent de détecter plus de 50 risques critiques par mois, non détectés par les outils traditionnels.

Pour prévenir cette utilisation non autorisée, Linea AI utilise un LLiM entraîné sur des milliards de flux de données d’entreprise réels. La plateforme est dotée de vision par ordinateur et d’IA multimodale, permettant d’analyser les données provenant d’images, de captures d’écran, de schémas techniques et d’autres supports. Une nouvelle fonctionnalité, « Laissez Linea AI décider », évalue de manière autonome les violations des politiques et la gravité des incidents, réduisant ainsi la lassitude des alertes du centre des opérations de sécurité (SOC).

DailyPay, un client de Cyberhaven, a réduit son MTTR de 65 % grâce à Linea AI, qui fournit des résumés compréhensibles par l’IA. Les outils traditionnels de prévention des pertes de données (DLP) nécessitent des ressources humaines importantes pour obtenir une telle visibilité, ce qui rend Linea AI particulièrement efficace.