Selon le Thales 2026 Data Threat Report, conduit par S&P Global 451 Research, 70 % des organisations identifient l'IA comme leur risque prioritaire en matière de sécurité des données — devant le rançongiciel et les attaques sur la chaîne d'approvisionnement logicielle. Le danger ne provient pas uniquement d'une IA hostile : il émane aussi des systèmes IA internes, devenus des « initiés de confiance » disposant d'un accès aux données avec des contrôles souvent inférieurs à ceux appliqués aux humains.
Pendant des années, le risque interne a été traité comme un problème humain — l'employé négligent, le prestataire mal habilité, l'administrateur aux droits excessifs. L'intégration de l'IA dans les flux d'entreprise — analyse de données, service client, pipelines de développement, automatisation des processus — élargit cette définition de façon extensive. Les systèmes IA accèdent désormais de manière automatisée et continue à des référentiels de données sensibles, des API métiers et des environnements cloud, souvent sans que les politiques d'accès ou les mécanismes de surveillance n'aient été adaptés en conséquence.
Sebastien Cano, vice-président senior produits de cybersécurité chez Thales, formule le problème ainsi : « Lorsque la gouvernance des identités, les politiques d'accès ou le chiffrement sont faibles, l'IA peut amplifier ces faiblesses beaucoup plus rapidement que n'importe quel humain dans tous les environnements corporate. »
Cette élargissement du périmètre d'exposition coïncide avec un déficit de visibilité. Seules 34 % des organisations savent précisément où se trouvent l'ensemble de leurs données, et 39 % seulement sont capables de les classifier complètement. Dans ce contexte d'opacité partielle, près de la moitié (47 %) des données sensibles stockées dans le cloud demeurent non chiffrées. Ces trois indicateurs, mis en relation, décrivent une surface d'attaque structurellement exposée : des systèmes IA qui ingèrent des données dont les organisations ne maîtrisent ni la localisation exacte, ni la classification, ni le niveau de protection.
L'identité machine, la principale surface d'attaque cloud
Le vol d'identifiants reste la technique d'attaque la plus répandue contre les infrastructures cloud, citée par 67 % des organisations ayant subi une compromission dans ces environnements selon le rapport Thales. Ce chiffre prend une dimension nouvelle dans un contexte d'automatisation IA : les systèmes intelligents s'authentifient, accèdent aux ressources et exécutent des actions de manière autonome, générant un volume croissant d'identités machines — clés d'API, tokens, secrets applicatifs — que les équipes de sécurité peinent à gouverner à l'échelle. La moitié des organisations identifient la gestion des secrets parmi leurs principaux défis en matière de sécurité applicative.
Le principe du moindre privilège — attribuer à chaque entité les droits strictement nécessaires à son fonctionnement — constitue la réponse architecturale centrale à ce risque. Son application aux identités machines s'avère cependant plus complexe qu'aux comptes humains. Un système IA peut légitimement accéder à des centaines de sources de données dans le cadre de son fonctionnement normal, rendant difficile la définition d'un périmètre d'accès minimal sans dégrader ses performances. Cette tension entre fonctionnalité et sécurité impose aux DSI de revoir les modèles de gouvernance des identités pour y intégrer explicitement les agents IA, les modèles déployés en production et les pipelines d'automatisation.
L'application des architectures Zero Trust à ces nouveaux acteurs constitue une solution bien connue. La vérification continue des identités, la segmentation fine des accès et l'hypothèse de compromission permanente, s'appliquent aux identités machines avec la même rigueur qu'aux comptes utilisateurs. Les organisations qui n'ont pas encore étendu leurs politiques Zero Trust aux systèmes IA maintiennent un angle mort dans leur posture de sécurité, d'autant que ces systèmes opèrent à une vitesse et une échelle inaccessibles aux acteurs humains.
Deepfakes et infox IA industrialisent l'ingénierie sociale
L'IA ne renforce pas uniquement les capacités défensives des organisations — elle amplifie symétriquement les capacités offensives des attaquants. Près de 60 % des entreprises interrogées dans le cadre du Thales 2026 Data Threat Report signalent avoir subi des incidents liés à des infox, et 48 % rapportent des atteintes à leur réputation causées par des campagnes de désinformation ou d'usurpation d'identité générées par IA. Ces deux catégories d'attaques partagent un mécanisme commun. Elles exploitent la crédibilité perçue pour contourner les contrôles humains et techniques.
Les deepfakes audio et vidéo augmentent le taux de réussite des attaques de type Business Email Compromise (BEC) et des fraudes au virement en rendant les demandes d'autorisation convaincantes pour des interlocuteurs qui n'ont aucune raison a priori de les contester. La désinformation générée par IA cible quant à elle la réputation des organisations, en produisant à grande échelle des contenus frauduleux attribués à des dirigeants ou des porte-parole. L'erreur humaine contribue déjà à 28 % des violations selon le rapport Thales, un chiffre qui augmente mécaniquement lorsque des systèmes automatisés superposent une couche d'accélération sur des processus de vérification initialement conçus pour des flux d'information de volume et de vitesse humains.
Pour les équipes sécurité, ces vecteurs imposent une réévaluation des dispositifs d'authentification forte sur les processus à fort enjeu financier ou réputationnel. La vérification d'identité par canal secondaire, la détection de deepfakes par analyse de métadonnées et de cohérence temporelle, et la formation des équipes à reconnaître les signaux d'une tentative de manipulation IA font partie des contre-mesures opérationnelles disponibles. Leur déploiement suppose cependant que les organisations aient préalablement cartographié les processus exposés à ce type de risque — une démarche que la majorité n'a pas encore formalisée.
Les budgets en décalage avec l'exposition réelle
L'investissement en sécurité IA progresse, mais sans proportionnalité avec l'expansion du risque. Seules 30 % des organisations disposent aujourd'hui d'un budget spécifiquement alloué à la sécurité de l'IA. La majorité — 53 % — s'appuie sur des programmes de cybersécurité traditionnels, conçus pour des environnements où les acteurs sont principalement humains et où les contrôles sont fondés sur le périmètre réseau. Ces programmes ne couvrent pas structurellement les identités machines, les accès automatisés ou les comportements IA qui s'écartent d'une baseline définie.
Ce décalage budgétaire reflète en partie un problème de gouvernance organisationnelle. La responsabilité de la sécurité des systèmes IA reste fréquemment fragmentée entre les équipes data, les équipes IT, les métiers déployeurs et les équipes sécurité, sans propriétaire clairement désigné pour l'ensemble du cycle de vie. Les contrôles appliqués à un modèle en production — journalisation des accès, revue des permissions, surveillance des comportements anormaux — relèvent d'une pratique MLOps sécurisée que peu d'organisations ont formalisée. Eric Hanselman, analyste en chef chez S&P Global 451 Research, souligne que « les organisations doivent considérer leur stratégie de sécurité des données comme fondamentale pour l'innovation, et non pas séparée de celle-ci ».
Les organisations qui intègreront la gouvernance IA dans leur stratégie de sécurité dès la phase de conception — et non en réponse à un incident — disposeront d'un avantage structurel. La visibilité complète sur les données, le chiffrement systématique des données sensibles en transit et au repos, et l'extension des politiques d'identité aux acteurs non humains constituent les trois fondations opérationnelles identifiées par le rapport Thales. Leur mise en œuvre conditionne la capacité des organisations à déployer l'IA comme levier de performance sans en faire simultanément un vecteur d'exposition incontrôlé.























