En 2025, les chercheurs prévoient que les agents IA – systèmes autonomes pilotés par l’IA capables d’exécuter des tâches complexes avec un minimum d’intervention humaine – révolutionneront tant les cyberattaques que les mécanismes de défense en cybersécurité.

Si les chatbots IA existent depuis un certain temps, les agents IA vont au-delà des simples assistants : ils fonctionnent comme des opérateurs numériques auto-apprenants, capables de planifier, d’agir et de s’adapter en temps réel. Ces avancées ne se contentent pas de renforcer les tactiques des cybercriminels – elles sont susceptibles de transformer fondamentalement le champ de bataille numérique.

Comment les cybercriminels arment l’IA : un nouveau paysage de menaces

L’IA transforme la cybercriminalité en rendant les attaques plus évolutives, plus efficaces et plus accessibles. Le rapport 2025 du Forum Économique Mondial (WEF) sur l’intelligence artificielle et la cybersécurité met en lumière la manière dont l’IA a démocratisé les menaces, permettant l’automatisation de l’ingénierie sociale, l’extension des campagnes de phishing et le développement de malwares propulsés par l’IA. Le rapport State of Malware 2025 de Malwarebytes constate que, bien que l’IA générative ait renforcé l’efficacité des cybercriminels, elle n’a pas encore introduit de vecteurs d’attaque entièrement nouveaux : les attaques s’appuient toujours sur le phishing, l’ingénierie sociale et le chantage numérique, désormais amplifiés par l’IA. Toutefois, cela pourrait changer avec l’essor des agents IA autonomes capables de planifier, d’agir et d’exécuter des tâches complexes – ce qui pose de graves implications pour l’avenir de la cybercriminalité.

Phishing et ingénierie sociale générés par l’IA

L’IA générative et les grands modèles de langage (LLM) permettent aux cybercriminels de créer des emails de phishing crédibles et sophistiqués, dans plusieurs langues, sans les signaux habituels comme les fautes d’orthographe ou de grammaire. Aussi, le spear phishing propulsé par l’IA permet de personnaliser des escroqueries à grande échelle, en adaptant automatiquement les messages à l’activité en ligne de la cible. Les escroqueries de type Business Email Compromise (BEC) alimentées par l’IA sont en hausse, les attaquants utilisant des courriels de phishing envoyés depuis des comptes internes compromis pour gagner en crédibilité. L’IA automatise aussi la création de faux sites de phishing, d’attaques par points d’eau, et d’arnaques par chatbot, commercialisées comme des services de crimeware assisté par IA, abaissant davantage les barrières à l’entrée pour les cybercriminels.

Fraude et usurpation renforcées par les deepfakes

Les arnaques par deepfake audio et vidéo sont utilisées pour usurper l’identité de dirigeants, collègues ou membres de la famille afin d’amener les victimes à transférer de l’argent ou à divulguer des données sensibles. L’affaire la plus marquante en 2024 est celle de l’entreprise d’ingénierie britannique Arup, qui a perdu 25 millions de dollars après qu’un de ses collaborateurs à Hong Kong ait été dupé par un deepfake lors d’un appel vidéo. Des technologies de deepvoice sont aussi utilisées pour imiter des proches en détresse ou des dirigeants exigeant des transactions urgentes.

Attaques cognitives

Les acteurs étatiques et les plateformes numériques s’appuient de plus en plus sur l’IA générative pour produire du contenu hyper-réaliste et manipuler l’opinion publique. Ces tactiques visent à influencer les élections, propager la désinformation et miner la confiance dans les institutions démocratiques. Contrairement aux cyberattaques classiques, les attaques cognitives ne visent pas les systèmes, mais les esprits – elles modifient insidieusement les comportements et croyances à l’insu des cibles. L’intégration de l’IA dans ces campagnes augmente considérablement l’échelle et la précision de ces menaces, les rendant plus difficiles à détecter et à contrer.

Risques de sécurité liés à l’adoption des LLM

Au-delà de l’usage malveillant par des attaquants, l’adoption de chatbots et LLM par les entreprises engendre des risques de sécurité importants, notamment lorsque ces interfaces IA non testées relient Internet à des systèmes critiques ou à des données sensibles. Des systèmes IA mal intégrés peuvent être exploités, ouvrant la voie à de nouveaux vecteurs d’attaque : injection de prompt, contournement de contenu, attaques par déni de service. L’IA multimodale accentue encore ces risques, en permettant à des commandes malveillantes dissimulées dans des images ou des fichiers audio d’altérer les réponses.

De plus, les LLM modernes fonctionnent souvent comme des systèmes de génération augmentée par récupération (RAG), puisant dynamiquement des données externes en temps réel. Bien que cela améliore la pertinence, cela expose également à de nouveaux risques : empoisonnement des données, propagation de fausses informations, accroissement des surfaces d’attaque. Une source compromise peut influencer directement les sorties de l’IA, entraînant des recommandations erronées, biaisées ou dangereuses dans des applications critiques.

Enfin, les biais présents dans les LLM constituent un autre défi : les modèles apprennent à partir de vastes jeux de données souvent biaisés ou obsolètes, entraînant des décisions discriminatoires ou des erreurs de sécurité. Des tests rigoureux, des audits de biais et des évaluations de risques sont donc essentiels, en particulier pour les modèles RAG, afin de garantir une prise de décision fiable, impartiale et sécurisée.

Quand l’IA devient incontrôlable : les dangers des agents autonomes

Avec des systèmes IA désormais capables d’auto-réplication, le risque de propagation incontrôlée ou de systèmes IA « dévoyés » – agissant contre les intérêts de leurs concepteurs, utilisateurs ou de l’humanité – s’intensifie. Des chercheurs en IA et cybersécurité s’inquiètent de l’émergence de tels agents, accidentellement ou intentionnellement, surtout s’ils ont accès à des API, données et intégrations externes. Plus un agent IA est interconnecté, plus il devient potentiellement dangereux, soulignant la nécessité d’une gouvernance éthique, d’une supervision robuste et de mécanismes de sécurité stricts.

L’avenir des agents IA dans l’automatisation de la cybercriminalité

Une évolution plus perturbatrice pourrait venir des agents IA, qui transforment l’IA d’un simple assistant en un acteur autonome capable de planifier et d’exécuter des attaques complexes. Google, Amazon, Meta, Microsoft et Salesforce développent déjà des IA dites « agentiques » pour un usage professionnel ; mais entre les mains de cybercriminels, les implications sont alarmantes. Ces agents peuvent scanner de manière autonome des systèmes à la recherche de vulnérabilités, exploiter des failles de sécurité et lancer des cyberattaques à grande échelle. Ils permettent également aux attaquants de collecter des volumes massifs de données personnelles sur les réseaux sociaux, de générer automatiquement de fausses demandes d’exécution à destination des employés ou encore d’analyser des dossiers de divorce dans plusieurs pays pour cibler des victimes potentielles dans des arnaques sentimentales orchestrées par IA. Ces tactiques ne se contentent pas de rendre les attaques plus massives : elles les rendent aussi plus personnalisées et plus difficiles à détecter. Contrairement aux menaces de type GenAI actuelles, l’IA agentique a le potentiel d’automatiser l’ensemble des opérations criminelles, amplifiant considérablement les risques.

Comment les défenseurs peuvent utiliser l’IA et les agents IA

Les organisations ne peuvent se permettre de rester passives face à ces menaces. Les professionnels de la sécurité doivent se tenir informés des dernières évolutions. Voici quelques opportunités offertes par l’IA en défense :

Détection et réponse automatisées aux menaces

Les plateformes de sécurité propulsées par l’IA peuvent corréler de vastes ensembles de données pour identifier des modèles d’attaque subtils, créer des modèles de menace dynamiques et analyser le comportement du réseau en temps réel. La détection assistée par IA est essentielle alors que les attaquants ont recours à des techniques LOL (Living off the Land), qui imitent un comportement utilisateur normal, rendant les attaques plus difficiles à repérer. En analysant les requêtes répétitives et les schémas de trafic inhabituels, ces systèmes peuvent alerter en temps réel et permettre une réponse défensive accélérée.

Cependant, malgré le potentiel des agents IA, les analystes humains restent essentiels, car leur intuition et leur capacité d’adaptation permettent de détecter les schémas d’attaque complexes et de hiérarchiser efficacement les ressources.

Contre-mesures d’IA adversariale

De la même manière que les cybercriminels exploitent l’IA pour contourner les protections, les défenseurs peuvent utiliser des techniques adversariales – par exemple, déployer des leurres IA (honeypots) générés artificiellement pour piéger et suivre les attaquants, tout en entraînant continuellement les modèles IA défensifs à reconnaître les nouveaux modes d’attaque.

Lutter contre la désinformation et les escroqueries générées par IA

Des outils basés sur l’IA permettent de détecter le texte synthétique et la désinformation deepfake, facilitant la vérification des faits et des sources. Les modèles de détection de fraude analysent les sources d’actualité, les transactions financières et les médias générés par IA pour repérer les tentatives de manipulation. En effet, des bots et chatbots vocaux IA peuvent être utilisés pour contrer les campagnes de désinformation ou piéger les escrocs en les occupant dans des conversations sans fin, réduisant ainsi leur capacité à nuire.

Les attaquants et les défenseurs utilisent l’IA; ils doivent comprendre le fonctionnement de l’IA adverse et comment s’en servir pour s’en protéger. Dans cet environnement en constante évolution, le plus grand ennemi des organisations pourrait être leur propre complaisance. Plutôt que de se précipiter sur les dernières solutions de sécurité IA à la mode, les décideurs doivent évaluer ces outils avec discernement pour s’assurer qu’ils sont à la hauteur des menaces émergentes. Un déploiement précipité et sans évaluation stratégique pourrait introduire de nouvelles vulnérabilités. Une approche mesurée et réfléchie est essentielle pour sécuriser l’avenir de la cybersécurité.

Par Anna Collard, Vice-Présidente Stratégie de contenu & Évangéliste chez KnowBe4 Afrique