L'intelligence artificielle s'est imposée comme variable du rapport de force en cybersécurité. Elle accélère simultanément la sophistication des attaques et la maturité des défenses, rendant caduque toute lecture linéaire du paysage des menaces. À partir de l'analyse conduite par les ingénieurs IA d'HarfangLab, et des prédictions formulées dans le Threatscape Report 2025, il est désormais possible de dresser un état des lieux empirique de cette double dynamique.

Ce que le rapport HarfangLab documente n'est pas une rupture, mais une accélération structurelle. Les vecteurs d'attaque identifiés — hameçonnage polymorphique, compromission de la supply chain logicielle, développement assisté de maliciels, attaques sur les identités non humaines — existaient avant la généralisation des LLM. Ce que l'IA modifie, c'est l'échelle, la vitesse de déploiement et le niveau d'entrée requis pour mener ces opérations. Le Threatscape Report 2025 avait anticipé plusieurs de ces trajectoires : la montée en puissance des agents IA comme vecteurs d'attaque, l'exploitation de l'open source et le risque de dommages physiques liés à l'IA physique figuraient parmi les prédictions de fond. Leur concrétisation en 2025-2026 confirme que l'IA agit désormais comme multiplicateur de menaces existantes autant que comme catalyseur de nouvelles catégories de risques.

La principale menace liée à l'IA en termes de volume et d'impact reste l'industrialisation de l’hameçonnage personnalisé. Ce que les experts observaient depuis plusieurs années comme une tendance montante est désormais une réalité : les outils de génération de contenu — texte, voix, image, vidéo — permettent de produire des campagnes d'hameçonnage à la fois hautement personnalisées et indétectables à l'œil non entraîné. L’hameçonnage se décline désormais en smishing (SMS), vishing (appels téléphoniques synthétiques) et attaques deepfake audiovisuelles. La crédibilité des leurres a atteint un niveau tel que les approches traditionnelles de sensibilisation des utilisateurs — reposant sur la détection de marqueurs visuels ou stylistiques — perdent une part substantielle de leur efficacité. Pour les RSSI, cela impose une révision des programmes de formation et une montée en charge des outils de détection comportementale côté endpoint et messagerie.

Les LLM, vecteurs de compromission dans la chaîne logicielle

Le mécanisme sous-jacent est direct : les LLM permettent à des acteurs peu qualifiés de générer des contenus contextualisés à partir de données OSINT minimales — profil LinkedIn, signature mail, ton habituel d'une organisation. Le coût de production d'une campagne ultra-ciblée s'est effondré, tandis que son taux de succès potentiel augmente. Les deepfakes vocaux et vidéo amplifient cette dynamique en contournant les contrôles d'identité fondés sur la voix ou le visuel, exposant notamment les processus de validation financière et d'authentification forte dans les environnements d'entreprise.

Un glissement de paradigme s'opère dans les attaques supply chain : le code généré par IA devient lui-même un vecteur de compromission. Plusieurs études documentées — notamment par Palo Alto Networks et Pilar Security — ont mis en évidence des campagnes visant à manipuler les sorties des assistants de développement pour injecter du code malveillant dans des livrables logiciels légitimes. Contrairement aux attaques classiques par injection ciblant des vulnérabilités connues, ces campagnes exploitent la confiance accordée par le développeur à son assistant IA, qui se retrouve involontairement complice de la compromission. La portée potentielle est comparable à celle de NotPetya — un point d'entrée unique, une propagation massive via la base d'utilisateurs finaux du logiciel affecté — mais avec une capacité d'autonomie et de propagation accrue.

Les ingénieurs IA d'HarfangLab ont par ailleurs observé une adoption croissante du Model Context Protocol (MCP), qui facilite l'accès automatique des LLM à des services externes. Cette intégration, utile pour enrichir le contexte des modèles, ouvre simultanément de nouvelles surfaces d'attaque. Un LLM connecté à des services tiers peut devenir le point d'entrée d'une chaîne de compromission touchant plusieurs systèmes en cascade. Pour les entreprises, cela impose une revue des pratiques de développement assisté par IA — en particulier la validation systématique du code généré — et une cartographie des dépendances entre outils IA et services internes.

Identités machines : raz-de-marée sur les périmètres de contrôle

L'explosion des déploiements d'agents IA autonomes crée une catégorie de risque encore sous-évaluée dans les référentiels de gouvernance des accès, les Non Human Identity Attacks. Clés API, tokens d'authentification, agents IA capables de générer leurs propres identités et de s'auto-attribuer des privilèges — ces entités numériques autonomes dépassent désormais en nombre les identités humaines dans de nombreux environnements. Ce déséquilibre structurel contraint les équipes de sécurité à traquer des accès qu'elles n'ont jamais provisionnés, dans des périmètres où les modèles classiques d'IAM ne s'appliquent pas directement.

Le Threatscape Report 2025 avait anticipé ce vecteur dans sa prédiction sur les agents IA comme cibles et leviers d'attaque. La concrétisation de ce risque en 2025 confirme que la prolifération non contrôlée d'agents autonomes génère des borgnes d'audit majeurs. L'attribution des attaques devient extrêmement complexe dès lors qu'une action malveillante peut être initiée par une identité machine créée dynamiquement. Pour les RSSI, cela requiert d'intégrer les identités non humaines dans les politiques PAM, de tracer l'ensemble des tokens actifs et d'imposer des revues de privilèges sur les agents déployés en production.

L'IA générative, copilote des analystes SOC

Du côté défensif, la maturité des usages IA franchit un palier significatif depuis 2025. Si le machine learning et le deep learning alimentent les moteurs de détection comportementale depuis plusieurs années, c'est l'IA générative qui marque le basculement actuel : elle devient un assistant opérationnel pour les analystes SOC, répondant à l'impératif de réduction du volume d'alertes à traiter dans un contexte de menace qui se professionnalise. À l'image de KIO, l'assistant LLM d'HarfangLab, les éditeurs déploient des solutions permettant la génération de playbooks, la traduction de règles de détection en langage naturel, l'aide au triage, à la priorisation et l'automatisation de tâches de réponse à incident.

La threat intelligence bénéficie également de cette dynamique : l'IA permet de résumer des campagnes d'attaques complexes en langage exploitable, de corréler des sources hétérogènes et d'accélérer les investigations. Cette évolution répond à un besoin structurel — la pénurie de compétences cyber et la surcharge des équipes — mais elle impose aussi une vigilance accrue sur la qualité et la traçabilité des modèles utilisés. Hugo Michard, Lead IA chez HarfangLab, rappelle à ce titre que « c'est notre rôle, en tant qu'éditeur, de garantir à la fois la transparence des modèles, la précision des cas d'usages et la sensibilisation des utilisateurs », soulignant que la mise en application de l'AI Act à l'été 2026 ajoutera une dimension conformité déterminante pour toutes les organisations développant ou utilisant de l'IA.

L'IA physique, un vecteur possible pour les infrastructures critiques

La convergence entre IA logicielle et systèmes physiques autonomes constitue la frontière de risque la plus préoccupante à moyen terme. Des agents IA déployés pour optimiser des réseaux électriques, gérer des flux logistiques ou assister la télémétrie de véhicules deviennent des cibles à haute valeur pour des acteurs malveillants cherchant à produire des effets dans le monde physique. Cette tendance, déjà documentée par plusieurs organisations via des comportements anormaux d'agents IA (accès non autorisés, exposition de données), devrait s'intensifier avec la généralisation de la robotique humanoïde grand public — visible au CES de Las Vegas en janvier 2026 — et des systèmes d'entrepôts autonomes.

Ce vecteur comble le fossé entre instruction numérique et impact matériel, rendant possibles des perturbations d'infrastructures critiques à partir d'une compromission purement logicielle. Pour les équipes de sécurité industrielle et les DSI en charge d'environnements OT/IoT, cela impose d'intégrer les agents IA dans les modèles de menace et de définir des périmètres de confinement stricts pour tout système autonome connecté à des actifs physiques. Le rapport HarfangLab identifie 2026 comme l'année où cette tendance pourrait atteindre son point critique — coïncidant avec la montée en puissance de l'IA physique à grande échelle.

publicité