Dans la vie réelle, les escrocs exploitent des mécanismes psychologiques bien connus pour chloroformer la vigilance de leurs victimes. Leur objectif principal est de désactiver les signaux d’alarme qui déclencheraient la méfiance et activeraient les réflexes de défense. Ils exploitent pour cela toutes les ressources psychologiques et les comportements humains, que ce soient les biais psychologiques, de conformité sociale, de rareté ou d’urgence,
entre autres.
Les manipulations émotionnelles jouent également un rôle clé. Les escrocs exploitent les peurs ou les espoirs, en promettant des gains faciles ou des opportunités uniques. Ils isolent souvent leurs victimes, les empêchant de demander conseil, notamment en instaurant une urgence ou en insistant sur la discrétion. Ils affaiblissent aussi les défenses de leurs cibles par des flatteries ou des remarques positives. Ils intègrent leurs arnaques dans des contextes ou des interactions habituelles, comme des appels prétendument émis par un service client ou des courriels ressemblant à ceux d’une banque. Ils anticipent aussi les doutes et fournissent des réponses à des objections potentielles avant même qu’elles ne soient exprimées.
L’IA, un puissant outil pour accroître l’efficacité des attaques
La mauvaise nouvelle est que toutes ces manipulations peuvent être enseignées à une IA. Avec la démocratisation de celle-ci, les cybercriminels disposent d’un puissant outil pour accroître l’efficacité, la sophistication et la portée de leurs attaques. Ces caractéristiques humaines, qui sont autant de faiblesses, peuvent être enseignées à une intelligence artificielle à l’aide de techniques d’apprentissage automatique. Cela implique simplement de modéliser les comportements humains, les biais psychologiques et les dynamiques sociales exploités par les arnaqueurs. Ils peuvent y inclure des études psychologiques sur les biais cognitifs, les dynamiques de confiance et les réponses émotionnelles, ainsi que des données générées dans le cadre de simulations pour observer les réactions des victimes.Le rapport « New defenses, new threats What AI and Gen AI bring to cybersecurity » récemment publié par Capgemini Research Institute met en lumière les nouvelles dynamiques induites par l’IA, tout en fournissant des recommandations stratégiques essentielles pour les responsables de la sécurité des systèmes d’information.
En 2023, 92 % des organisations ont signalé avoir subi une violation de sécurité, une hausse spectaculaire par rapport aux 51 % enregistrés en 2021. Cette progression reflète une explosion des menaces de plus en plus sophistiquées, notamment l’hameçonnage, les rançongiciels et les deepfakes. Ces attaques causent des pertes financières significatives.
L’IA abaisse les barrières d’entrée pour les attaquants
De plus, l’adoption massive de l’IA dans les entreprises a contribué à étendre la surface d’attaque, estime le rapport, intégrant de nouveaux vecteurs comme les assistants conversationnels, les applications intégrant l’IA et les outils de collaboration numérique. Le concept de « shadow AI », qui désigne l’utilisation d’applications non autorisées par les employés, émerge également comme une menace interne préoccupante.Parallèlement, les cybercriminels exploitent l’IA pour rendre leurs attaques plus efficaces et accessibles. Des deepfakes réalistes, des campagnes d’hameçonnage personnalisées et des maliciels générés automatiquement sont désormais monnaie courante. L’IA abaisse les barrières pour les attaquants inexpérimentés. Le rapport révèle que 97 % des organisations ont rencontré des incidents liés à l’utilisation de l’IA générative en 2023. Toutefois, malgré ces risques, l’IA se présente aussi comme une solution incontournable pour renforcer la cybersécurité. Environ 60 % des organisations la considèrent comme essentielle pour détecter et répondre efficacement aux cyberattaques. Des cas d’utilisation incluent l’analyse des menaces, la gestion des vulnérabilités
et l’automatisation des réponses.
Une approche progressive d’intégration de l’IA défensive
Selon les experts de Capgemini Research Institute, face à ce double rôle de l’IA comme outil de défense et d’attaque, les RSSI doivent adopter une stratégie proactive et équilibrée. Le rapport recommande tout d’abord de développer une stratégie claire pour intégrer l’IA et l’IA générative dans les systèmes de sécurité. « Il est essentiel d’identifier les cas d’usage prioritaires, comme la détection des anomalies ou l’automatisation des réponses aux incidents, tout en évaluant les bénéfices et les risques associés à ces technologies, assurent-ils. Une approche progressive d’intégration permettra d’adapter les systèmes existants aux nouvelles technologies tout en minimisant les vulnérabilités. »Renforcer la gouvernance est une autre priorité pour eux. Les entreprises doivent élaborer des politiques strictes pour encadrer l’utilisation de l’IA, notamment en ce qui concerne la gestion des données sensibles et les applications non autorisées. La mise en œuvre d’un cadre de gestion des risques spécifique à l’IA, tenant compte des menaces émergentes comme les attaques par injection de prompts ou l’empoisonnement de données, est essentielle, estiment-ils. Ce cadre devra être régulièrement réévalué pour s’adapter aux évolutions des technologies et des menaces.
Répandre une culture organisationnelle de vigilance
En matière d’infrastructure, le rapport souligne la nécessité d’investir dans des systèmes modernes capables de répondre aux exigences spécifiques de l’IA, comme des processeurs spécialisés et des capacités cloud optimisées. Ces investissements doivent s’accompagner d’une formation des équipes de cybersécurité pour maîtriser ces nouveaux outils et sensibiliser l’ensemble des employés aux risques liés à leur utilisation. Une culture organisationnelle axée sur la vigilance face aux menaces est indispensable pour compléter ces efforts techniques.Pour anticiper les menaces, le rapport recommande d’adopter une approche proactive, utilisant l’IA pour surveiller en temps réel les réseaux, identifier les vulnérabilités et simuler des attaques pour tester les systèmes de défense. Des outils comme les jumeaux numériques peuvent être déployés pour analyser les scénarios d’attaques sans exposer les systèmes réels. De plus, l’établissement de protocoles de réponse aux incidents permettra d’améliorer la rapidité et la précision des réponses, en intégrant l’IA dans les processus tout en conservant une supervision humaine pour les décisions critiques.