Difficiles de passer au travers du sujet de l’Intelligence Artificielle ces dernières années. Au-delà du déferlement médiatique autour d’un sujet aussi passionnant et parfois discutable, tout ce qui touche de près ou de loin à l’intelligence artificielle se colore d’une certaine euphorie, voire d’un peu d'emballement. Exemple en est, le fondeur Nvidia qui a vu son action multipliée par 3,5 en 1 an, portée par une demande insatiable de ses GPU fournissant les puissances de calcul nécessaires aux acteurs du secteur.

Bien évidemment, l’industrie de la cybersécurité n’y échappe pas. Passé l’effet « wahou » de nos premières requêtes (prompt) sur ChatGPT ou encore plus récemment, la génération de vidéos d’un réalisme presque déroutant au travers de projets comme SORA du même OpenAI, qu’en est-il de l’exploitation de ces technologies dans le domaine de la sécurité informatique ?

Allons-nous voir un déferlement de campagnes de cyberattaques entièrement automatisées et autonomes ? Ou, comme certains aiment à le penser, Cybercriminalité et Cyberdéfense ne seront-elles, bientôt, qu’une affaire d’IA contre IA ?

C’est en tout cas une hypothèse tout à fait crédible partagée par bon nombre d’experts, au regard des évolutions et des innovations en la matière.

Machine Learning et IA au service des cyberattaques

Comme bon nombre d’innovations et ruptures technologiques, l’IA apporte aussi avec elle des perspectives moins radieuses et son lot d’inquiétudes concernant son potentiel de nuisance aux mains de groupes mal intentionnés. Les cybercriminels n’ont pas attendu l’IA pour faire preuve de créativité et penser leurs attaques de sorte qu’elles soient les plus dévastatrices et rémunératrices possible. Mais le potentiel presque illimité de l’IA laisse présager des scénarios d’attaques d’une furtivité et d’une complexité inédite.

Soyons clair à cet instant T, il n'y a pas encore de cas suffisamment documentés ou confirmés de cyberattaques exploitant un malware entièrement autonome et disposant de capacités d’adaptation dans un contexte aléatoire et mouvant. Le brouhaha ambiant autour de l’IA alimente quelques fantasmes et, de ce fait, nous laisse parfois aller à certains raccourcis faciles.

Nous assistons pour le moment plutôt à des détournements d’outils de leurs fonctions initiales. Les derniers cas en dates impliquent l’utilisation de « deepfake » ou « deepscam » pour tromper leurs interlocuteurs et ainsi arriver à leur fin. Une arnaque au président 3.0 en somme…

Cela étant dit, il faut malgré tout ne pas perdre de vue le potentiel de nuisance et la dangerosité de ces technologies si elles sont entre de mauvaises mains. Les avancées technologiques récentes en la matière vont clairement faire basculer ce jeu du chat et de la souris dans une nouvelle ère. Les méthodes d’attaques actuelles ne feront qu’augmenter en vélocité, profitant de l’effet de levier apporté par l’IA dans l’automatisation, les vitesses d’exécution et surtout l’analyse de l’information.

Les exemples les plus évidents sont la découverte et l’exploitation de « zeroday » qui se verront boostés par une analyse et une recherche plus rapide des vulnérabilités logiciels et réseaux. Ou encore des campagnes de phishing extrêmement élaborées qui profiteront des capacités de l’IA à digérer de grandes quantités de données et ainsi faire monter d’un cran la personnalisation des messages.

Enfin, si nous nous basons sur les progrès et le rythme des innovations dans le domaine de l’IA, il n’y a qu’un pas vers les malwares entièrement créés ou pilotés par une intelligence artificielle, s’adaptant à son environnement et rendant sa détection et son identification plus complexe.

La défense n’est pas en reste

L’exploitation des modèles d’apprentissage automatisé ou Machine Learning en cybersécurité n’est pas l’affaire d’aujourd’hui. Les acteurs du secteur n’ont pas attendu avant d’exploiter l’immense potentiel proposé par l’IA.

Les menaces ayant vu leur degré de complexité augmenter ces dernières années, la protection des terminaux avec le traditionnel antivirus est devenue insuffisante. Il a fallu se doter de plateformes de protections pour les terminaux (EPP) plus évolués, embarquant notamment des modules de protection basés sur du ML et de l’IA permettant ainsi une analyse et une reconnaissance des malwares plus efficiente.

Le rapport de force Humain VS machine stimulé par l’utilisation de l’IA, est d’ailleurs pour le moment à l’avantage de la défense. En effet, les attaques de pointes nécessitent encore une certaine logistique et des actions très souvent manuelles pour être les plus discrets possibles.

Pour exemple l’adoption et l’avènement des agents de détections et de réponses aux incidents cyber (EDR , XDR, etc.). Ces technologies font parties des solutions profitant pleinement des avantages apportés par l’IA. Leurs objectifs : Automatiser la détection des mouvements suspicieux, des comportements anormaux et prévenir les intrusions. L’IA est utilisée ici pour analyser de grands volumes de données pour repérer et faire le filtre entre les actions légitimes et les tentatives d’intrusion. Là où il faudrait des années pour analyser des milliers d’événements remontés chaque jour, l’IA va opérer un tri pour identifier l’action légitime de l’action malveillante et ainsi déclencher le scénario de réponse approprié.

En l’état, elle doit être considérée comme un amplificateur pour faire mieux, plus vite et de façon plus efficace ce que l’on sait déjà faire. La composante humaine est encore incontournable.

La réalité d’aujourd’hui c’est qu’aussi puissante soit l’IA, une attaque reste encore le fruit d’une action et d’une erreur humaine et sa résolution se termine systématiquement par une analyse, une interprétation et une réponse humaine.

Par Malik Maloum, Consultant en Cybersécurité chez WithSecure