L'IA agentique redéfinit le périmètre de la menace interne : 61 % des organisations déclarent que leurs applications IA sont ciblées par des attaquants, tandis que seulement 34 % savent précisément où leurs données sont stockées. Le rapport 2026 de Thales sur les menaces de données révèle une équation sécuritaire sous tension maximale, où les agents IA deviennent le nouveau vecteur d'exposition non contrôlée.

La prolifération des outils d'IA, et surtout l'émergence des architectures agentiques, transforme en profondeur la nature du risque pour les DSI et RSSI. Ces systèmes autonomes accèdent à des volumes de données sans précédent, traversent des périmètres applicatifs multiples et opèrent à une vitesse que les dispositifs de contrôle traditionnels ne sont pas calibrés pour absorber. La question n'est plus de savoir si l'IA crée de nouveaux vecteurs d'attaque, mais de mesurer à quelle vitesse les organisations sont capables d'y répondre.

Le rapport 2026 de Thales, conduit par S&P Global Market Intelligence 451 Research auprès de 3 120 professionnels de la sécurité et du management IT dans 20 pays, documente une réalité qui dépasse les prédictions des années précédentes : l'IA est désormais à la fois l'objet de l'attaque, le moyen de l'attaque et, dans certains scénarios agentiques, le vecteur involontaire de la compromission.

Les agents IA exposent des données non localisées

Le problème structurel que révèle l'étude n'est pas d'abord technologique : il est de gouvernance. Seulement 34 % des organisations déclarent avoir une connaissance complète de l'emplacement de leurs données. Un chiffre quasi identique — 39 % — affirme pouvoir classifier l'ensemble de ses données, condition pourtant indispensable à toute politique de protection effective. Dans ce contexte, les agents IA qui accèdent à l'ensemble des sources disponibles — bases de code, ressources cloud, systèmes internes — opèrent sur un patrimoine que les équipes sécurité ne maîtrisent pas complètement.

Le rapport cite explicitement des outils comme Claude Code, Cursor ou Notebook LM comme exemples d'architectures agentiques qui fusionnent des processus auparavant compartimentés, effaçant les frontières de résidence des données et d'indépendance opérationnelle. En 2025, le groupe d'attaquants ShinyHunters a démontré la vitesse à laquelle des applications SaaS interconnectées pouvaient être compromises en cascade. Les organisations qui utilisent en moyenne 89 applications SaaS — chiffre enregistré dans l'édition 2026 — opèrent désormais dans un tissu applicatif dont chaque nœud d'intégration constitue un point d'entrée potentiel.

Le vol d’identifiants supplante toutes les autres techniques

Pour la troisième année consécutive, les actifs cloud dominent le classement des cibles d'attaque : le stockage cloud est cité par 35 % des répondants, les applications cloud par 34 %, l'infrastructure de gestion cloud par 32 %. Plus significatif encore : parmi les organisations qui signalent une augmentation des attaques sur l'infrastructure de gestion cloud, 67 % observent une progression du vol de credentials et de secrets mal gérés. Les vulnérabilités introduites par des tiers — code externe, APIs — sont citées par 61 % de ce sous-groupe, tandis que l'injection de malware monte à la troisième place avec 54 %, contre quatrième l'an dernier.

Cette évolution reflète une réalité opérationnelle précise : la compromission des identifiants contourne les contrôles d'accès utilisateurs sans déclencher les alertes associées aux intrusions classiques. L'identité et la gestion des accès s'imposent comme la discipline sécuritaire la plus prioritaire pour 52 % des répondants. Pourtant, les données d'exposition restent préoccupantes : en moyenne, seulement 47 % des données sensibles hébergées dans le cloud sont chiffrées — un chiffre en légère baisse par rapport à l'exercice précédent, malgré l'intensification des menaces.

La prolifération des outils de sécurité amplifie le risque

L'une des conclusions les plus contre-intuitives du rapport porte sur la corrélation entre complexité des outils et exposition aux breaches. Les organisations utilisent en moyenne sept outils de protection et de surveillance des données, et 73 % en déploient cinq ou plus. Du côté de la sécurité IA, la moyenne atteint six outils, avec 60 % des organisations dépassant le seuil de cinq. Ce foisonnement ne renforce pas la posture sécuritaire : il en fragilise la lisibilité. Seuls 39 % des répondants expriment une confiance élevée dans leur compréhension des outils existants.

Le paradoxe documenté par l'étude est saisissant : 83 % des organisations qui résistent à la consolidation d'outils invoquent un manque de capacités des alternatives disponibles — alors même qu'elles avouent ne pas maîtriser les outils en place. La résistance au changement s'appuie ici sur une méconnaissance structurelle. Or les conséquences sont mesurables : parmi les organisations ayant échoué à un audit de conformité, seulement 6 % n'ont jamais subi de breach, contre 30 % parmi celles ayant passé leurs audits. La complexité opérationnelle génère directement de l'erreur humaine, première cause de breach citée par 28 % des répondants.

Intégration standardisée du risque quantique

La maturité du débat sur la menace quantique est l'un des signaux les plus significatifs du rapport. Pour la première fois, la préoccupation principale n'est plus la compromission future des algorithmes de chiffrement, mais le scénario dit HNDL — harvest now, decrypt later : des acteurs malveillants collectent aujourd'hui des données chiffrées dans l'intention de les déchiffrer dès que des capacités quantiques suffisantes seront disponibles. Ce scénario est cité comme première préoccupation quantique par 61 % des répondants. Il transforme la question de la cryptographie post-quantique (PQC) en urgence opérationnelle, pas en investissement de long terme.

Les organisations réagissent : 59 % prototypent ou évaluent des algorithmes PQC. Plus de 50 % s'estiment dans les temps ou en avance sur leurs objectifs d'adoption en matière de gestion des clés d'entreprise, d'infrastructure à clé publique et de signature de code. Un chantier connexe — la gestion du cycle de vie des certificats (CLM) — crée une pression additionnelle : la CA/Browser Forum vient d'imposer une réduction de la durée de vie maximale des certificats TLS à 47 jours d'ici 2029, ce qui exige une automatisation profonde des processus CLM et offre simultanément une fenêtre pour intégrer les améliorations PQC.

Infox générées par IA et risque réputationnel

Au-delà des vecteurs techniques, le rapport documente un phénomène dont l'ampleur surprend : 97 % des répondants signalent une forme de préjudice organisationnel liée à des informations fausses générées par IA — compromission d'emails professionnels via deepfake, atteinte à la marque, préjudice envers des personnels clés, fraude au recrutement. 48 % ont subi des dommages réputationnels directs. 59 % ont été exposés à des attaques deepfake. Ces chiffres placent la désinformation IA au rang de risque systémique, pas anecdotique, pour les organisations — avec des implications directes sur les politiques de communication de crise et les protocoles d'authentification interne.

L'édition 2026 du rapport Thales dessine l'évolution d'une transformation sécuritaire qui dépasse la réponse aux menaces connues. Les organisations doivent désormais sécuriser des systèmes qui agissent de manière autonome sur des données qu'elles ne localisent pas toutes, dans des environnements multicloud qu'elles ne maîtrisent pas entièrement. La consolidation des outils, la classification systématique des données et la transition vers des architectures de chiffrement souveraines et post-quantiques ne sont plus des options de feuille de route — elles conditionnent la capacité à maintenir un contrôle réel sur le périmètre informationnel de l'entreprise.

publicité