Sans son dernier rapport, Tenable montre que les outils d'IA peuvent propager des failles de sécurité et les actifs sensibles reposant sur l’IA et hébergés sur le cloud. Notamment chez les hyperscalers Amazon Web Services (AWS), Google Cloud Platform (GCP) et Microsoft Azure. 

A nouvelle technologie, nouveaux risques. L’augmentation drastique du recours à l’IA et à l'IA générative s’accompagne de menaces potentielles liées aux frameworks et aux outils de développement IA dans le cloud. Mais associées aussi aux services d'IA offerts par les hyperscalers. Le rapport Cloud AI Risk Report 2025 de Tenable pointe les combinaisons toxiques pouvant entraîner la manipulation, la modification des modèles d'IA ou la fuite des données sensibles.

Le déploiement de l'IA et d’IA générative depuis fin 2022 dans le monde connait une brusque accélération qui induit des risques de sécurité encore mal maitrisés. Pour preuve, la proportion d’entreprises ayant adopté les deux formes d’IA, pour une fonction au minimum, comme le montre le graphique.

d

La manipulation des données et LLM peut avoir des conséquences à terme


L’exfiltration de données sensibles est un risque majeur et identifié, mais ce n’est pas le seul. En supposant qu’un attaquant modifie subrepticement les données et le modèle de langage (LLM), les répercussions à terme peuvent être très pénalisantes. À la clé, une perte d’image désastreuse, une dégradation de l’intégrité des données et un affaiblissement de la sécurité. 

Tenable alerte sur le fait que 70 % des charges de travail cloud qui utilisent des services d'IA contiennent des vulnérabilités non corrigées. Et de mentionner la vulnérabilité cURL CVE-2023-38545, une vulnérabilité curl critique qui a été cependant corrigée en octobre 2023. 

Les services gérés d’IA recèlent de mauvaises configurations cloud. Ainsi, pour 77 % des entreprises, le compte de service hautement privilégié par défaut Compute Engine est configuré dans le service notebooks Vertex AI de Google. En conséquence, tous les services créés sur le compte de service Compute Engine par défaut sont possiblement en danger.

Les données d'entraînement dans les modèles d'IA sont susceptibles d'être vérolées, faussant les résultats des modèles. Une faible proportion d’entreprises (14 %) utilisant Amazon Bedrock ne bloque pas explicitement l'accès public à, au moins, un bucket (conteneurs de base contenant les données) d'entraînement d'IA. Et 5 % ont au moins un bucket à l’accès trop permissif.

Des instances du notebook Amazon SageMaker (plateforme cloud de Machine learning) accordent un accès racine par défaut. Une très large majorité d’utilisateurs d'Amazon SageMaker (soit 91 %) disposent d’au moins un notebook dont pourrait profiter un attaquant. 

Côté outils de développement de l’IA, Scikit-learn (27,7 %) et Ollama (22,9 %) sont les frameworks de développement d'IA autogérés les plus largement déployés pour le Machine Learning

La tendance actuelle des fournisseurs cloud est de créer des services liés les uns aux autres. Ces derniers génèrent des blocs qui héritent de configurations à risque d'une couche sur l'autre. 

Pour évaluer le niveau de maturité et de sécurité sur le cloud Tenable propose un livre blanc qui examine les points de vigilance. L’OWASP (Open Worldwide Application Security Project), une communauté en ligne qui œuvre pour la sécurité des applications web, pointe le contrôle insuffisant des privilèges d’accès. Autres points de vigilance, les buckets de stockage exposés, l'absence d'audit et le manque de chiffrement. Ce ne sont que quelques-unes des mauvaises configurations et pratiques ouvrant la porte à des compromissions de données.