L'avènement de l'IA offensive promet de pousser la sophistication des attaques à un niveau supérieur, exploitant les capacités avancées de ces technologies pour orchestrer des attaques et des fraudes d'une complexité et d'une adaptabilité remarquables. Face à ces menaces en évolution, les banques et la finance sont en première ligne.

Les attaques cyber viennent de connaître une période de sophistication sans précédent, à la suite de l’organisation des groupes qui composent l’écosystème de la menace en chaînes de valeur de prestataires spécialisés. Avec l’émergence de l’IA offensive, cette sophistication devrait faire un autre bond, grâce aux possibilités de cette technologie.

Les entreprises s’attendent à faire face à un nombre croissant de menaces sophistiquées, parmi lesquelles les attaques et les fraudes orchestrées à l'aide de l'intelligence artificielle se distinguent par leur complexité et leur disposition à évoluer rapidement. Cette montée en puissance des menaces basées sur l'IA a entraîné une course aux armements technologiques, où les outils avancés d'IA deviennent essentiels pour les organisations cherchant à protéger leurs actifs, leurs données et leurs opérations.

Pour les défenseurs, l’IA leur permet de déployer une capacité sans précédent d'analyser de vastes volumes de données en temps réel, permettant ainsi la détection précoce de comportements suspects ou anormaux qui pourraient indiquer une tentative de fraude ou une attaque en cours. Cette disposition d'analyse, bien au-delà de ce qui est humainement possible, est cruciale dans un contexte où les attaquants utilisent également des techniques d'IA pour masquer leurs activités ou pour lancer des attaques complexes qui évoluent en réponse aux mesures de défense.

Ce facteur, combinés à l'urgence d'une réponse efficace aux menaces basées sur l'IA, poussent les entreprises à anticiper et à planifier l'intégration d'outils d'IA dans leurs stratégies de sécurité. L'objectif est clair : se doter des moyens nécessaires pour non seulement répondre aux attaques actuelles, mais aussi anticiper les menaces futures, en exploitant la puissance et la flexibilité de l'IA pour créer des défenses aussi dynamiques et évolutives que les attaques qu'elles visent à contrer.

Une étude récente, fruit d'une collaboration entre l’Association of Certified Fraud Examiners (ACFE) et SAS, met en lumière l'adoption croissante de ces technologies dans les stratégies anti-fraude des organisations. Le rapport sur les Technologies Anti-Fraude 2024 révèle que 83 % des professionnels du secteur envisagent d'intégrer l'IA dans leur arsenal dans les deux années à venir.

Cette étude, la troisième du genre depuis 2019, a interrogé 1200 membres de l'ACFE à la fin de l'année 2023. Les résultats démontrent un intérêt grandissant pour l'IA et l'apprentissage automatique, avec près de 18 % des professionnels utilisant déjà ces technologies, et 32 % prévoyant de les adopter sous peu. Cette augmentation significative indique que l'utilisation de l'IA/ML pourrait presque tripler d'ici à la fin de l'année prochaine.

Cependant, malgré cette anticipation positive, l'adoption réelle de l'IA et du ML demeure en deçà des attentes. Depuis 2019, l'incorporation de ces technologies a seulement augmenté de 5 %, un chiffre modeste comparé aux prévisions initiales de 25 % et 26 % pour les années 2019 et 2022, respectivement. Ce constat suggère que, bien que l'intérêt soit élevé, des obstacles à l'adoption effective demeurent. Il ne prend pas en compte non plus la démocratisation de l’usage de l’IA générative depuis le lancement de ChatGPT, qui stimulera sa démocratisation. On peut donc prédire, sans risque de se tromper de beaucoup, que le véritable décollage de l’IA devrait se faire en 2024.

Au regard des usages et des secteurs les plus volontaristes, l'étude souligne une évolution dans l'utilisation des techniques d'analyse de données et des technologies émergentes. Si l'application de nombreuses méthodes d'analyse stagne, l'intégration de la biométrie et de la robotique connaît une croissance soutenue. L'utilisation de la biométrie physique a connu une hausse de 14 % depuis 2019, avec 40 % des répondants l'ayant adoptée. La robotique, incluant l'automatisation des processus robotisés, a également vu son utilisation doubler depuis 2019, passant de 9 % à 20 %. Ces technologies trouvent leur place dans le secteur bancaire et financier, où l'usage de la biométrie physique atteint 51 %, et celui de la robotique 33 %.

« Ces découvertes révèlent une transformation progressive, mais tangible dans la manière dont les organisations abordent la lutte contre la fraude. L'IA générative, en particulier, se profile comme un outil prometteur, capable de remodeler les stratégies anti-fraude grâce à sa capacité à analyser de vastes volumes de données rapidement et avec précision. Bien que l'adoption globale de l'IA et du ML reste en deçà des attentes, l'intérêt soutenu et les investissements prévus dans ces technologies suggèrent un avenir où elles joueront un rôle central dans la prévention de la fraude », affirment les rédacteurs de l’étude.

Les défis demeurent, notamment en termes de qualité des données, de compétences techniques et de justification du retour sur investissement, mais l'optimisme quant à l'impact potentiel de l'IA sur la lutte contre la fraude reste indéniable. À mesure que les organisations continuent de naviguer dans cet environnement technologique en évolution, l'accent mis sur l'innovation et l'adaptabilité sera crucial pour tirer pleinement parti du potentiel de l'IA dans la prévention de la fraude.