Portés par le développement rapide des grands modèles de langage (LLM) et d'outils comme ChatGPT, les responsables de la sécurité informatique (RSSI) se sont mis à explorer de nouvelles approches basées sur l'intelligence artificielle générative. Si les attentes sont grandes, notamment pour davantage automatiser la cybersécurité, il ne faut pas oublier que l’IA peut aussi être utilisée
par les acteurs de la menace…

Les équipes IT et responsables de la sécurité utilisent déjà l'IA et le Machine Learning (ML) depuis des années pour accroitre l'efficacité de leurs solutions. Le potentiel de ces technologies pour aider les organisations à mieux anticiper les menaces est immense. Mais l’IA a aussi d’autres applications, qui dépendent largement de la qualité des données et des processus d'entraînement appliqués. En outre, bien que très efficace pour certaines tâches, l’IA n'est pas adaptée à tous les problèmes de sécurité. Il est donc essentiel d'évaluer les solutions du marché pour choisir les plus adaptées.

Promesses d’une cyber défense renforcée par l'IA

Les systèmes d'IA sont particulièrement efficaces pour analyser de grandes quantités de données et faire des prédictions basées sur ces informations. Par exemple, les tentatives de détournement de salaires par email (BEC) deviennent de plus en plus fréquentes et échappent souvent aux solutions de sécurité des courriels. Plusieurs centaines de tentatives de détournemet de salaires sont ainsi orchestrées chaque mois dans le monde !

Ces attaques sont difficiles à détecter car elles ne comprennent généralement pas de liens ou de pièces jointes. De plus, les solutions de sécurité traditionnelles sur API analysent les menaces après l’envoi, ce qui demande beaucoup de temps aux équipes IT pour contrôler. Bien souvent, ces contrôles se retrouvent limités aux cadres supérieurs, alors que les cybercriminels ciblent généralement un public beaucoup plus large.

Désormais, l’IA détecte les menaces en utilisant les LLM pour analyser le ton et l'intention des courriels. Les emails frauduleux peuvent ainsi être bloqués avant qu'ils n'atteignent les employés, réduisant drastiquement la surface d’exposition aux menaces.

Tous les outils d'IA ne se valent pas

Pour être efficaces, les solutions d'IA et de ML nécessitent une quantité très importante de données de qualité, car elles s’appuient sur des exemples et des tendances plutôt que des règles fixes. En matière de sécurité des boîtes email, cela implique de former les modèles sur la base de millions de messages.

Avant de choisir des solutions basées sur l'IA et la ML, il est donc indispensable de demander aux fournisseurs de sécurité la provenance des données utilisées pour entraîner leurs algorithmes. Les données spécifiques aux renseignements sur les menaces sont plus rares que celles pour des applications d'IA plus générales. Les données d'entraînement doivent refléter des scénarios réels et des menaces propres à son métier ou à son secteur.

En outre, l’IA ne fait pas tout. Il est essentiel qu’une solution de sécurité associe l'IA à d'autres techniques, telles que des règles, des signatures ou des processus nécessitant une intervention humaine.

Encore du chemin à parcourir…

Évoluant beaucoup plus vite que certaines autres technologies, l’IA générative a même poussé les gouvernements, habituellement lents à réagir, à se positionner pour identifier et gérer les potentiels risques liés à cette technologie en pleine expansion. Et alors que la communauté cyber explore les implications de l'IA, il est essentiel de se rappeler que les cybercriminels peuvent aussi tirer parti de cette technologie, faisant de l'IA une arme à double tranchant.

Une enquête menée auprès de plus de 600 membres de conseils d'administration dans le monde a révélé l’an passé que 59 % d'entre eux considèrent les technologies émergentes, et notamment l’IA générative, comme un risque majeur pour la sécurité de leur organisation. Et à juste titre. Les cybercriminels utilisent déjà cette technologie pour créer des outils malveillants, comme WormGPT, FraudGPT ou encore DarkBERT, à partir de LLM open source. Ces outils permettent de générer des courriels de phishing de haute qualité et de les traduire en plusieurs langues.

Si l’IA offre indéniablement de nouvelles opportunités aux cybercriminels, les inquiétudes sur l’évolution rapide du paysage de la menace sont encore surévaluées. Les attaquants ne vont pas délaisser du jour au lendemain les tactiques qui restent malheureusement efficaces. Mieux vaut donc se concentrer sur les menaces immédiates et s’assurer de la solidité de ses défenses avant de faire des paris incertains sur l’avenir.

Par Daniel Rapp, VP Intelligence Artificielle et Machine Learning chez Proofpoint