Dans cet entretien, Martin Kraemer, Security Awareness Advocate (Europe & Middle East) chez KnowBe4 partage son analyse des menaces liées à l’intelligence artificielle et détaille la démarche à adopter pour sensibiliser les collaborateurs. Il évoque notamment le développement des grands modèles de langage, les risques comme la fuite de données ou l’empoisonnement de modèles, ainsi que l’essor inquiétant des deepfakes.
Les deepfakes pour générer de fausses identités
L’intelligence artificielle connaît une expansion remarquable. Hélas, cette démocratisation s’accompagne aussi d’abus et de fraudes. Parmi les escroqueries les plus en vue, on note l’utilisation de fausses identités générées ou améliorées par l’IA, notamment via des logiciels de deepfake (ou hypertrucage en français). Ces manipulations peuvent tromper des recruteurs au moment d’entretiens d’embauche à distance, servir à de l’espionnage industriel, ou encore faciliter des fraudes financières. Selon le FBI, aux États-Unis des signalements remontant à 2022 faisaient déjà état de candidats en télétravail ayant recours à des deepfakes lors d’entretiens en visioconférence.Concrètement, le cybercriminel filme un complice ou se filme lui-même. Un algorithme de deepfake (généralement basé sur un modèle d’apprentissage profond) mappe le visage et la voix d’une autre personne sur celle du comédien, créant ainsi une illusion très réaliste. Un des cas les plus retentissants est celui d’Arup, une entreprise d’ingénierie britannique, dont la filiale hongkongaise aurait transféré plus de 20 millions de livres après une réunion en visioconférence avec des personnes « truquées ».
Quels sont, selon vous, les principaux risques encourus par les entreprises utilisant des services d’IA, comme ChatGPT ou DeepSeek ?
Le premier risque, c’est la fuite de données. Souvent, des collaborateurs copient-collent des informations confidentielles (par exemple des données de vente ou des informations internes sur un projet) dans un outil d’IA, afin d’obtenir une analyse ou de simplifier une tâche de rédaction. Or, ces informations deviennent alors potentiellement intégrées au modèle et peuvent ressortir dans les réponses faites ultérieurement à d’autres utilisateurs. Le deuxième grand danger concerne la fiabilité des réponses. Les GML, malgré leur sophistication, sont sujets à ce que l’on nomme parfois des « hallucinations » : ils peuvent générer des données incohérentes, incorrectes, voire inventer des informations factuelles. Cette difficulté peut conduire à des décisions erronées si l’on fait une confianceaveugle à l’IA.
Il y a également le risque de fuite de prompt ou « prompt leakage », c’est-à-dire la fuite des requêtes elles-mêmes. Les consignes que vous donnez au modèle peuvent être interceptées ou réutilisées par d’autres acteurs malveillants. Enfin, un autre problème croissant est la contamination ou l’empoisonnement du modèle : des cybercriminels peuvent inonder un LLM d’informations pour influencer les résultats que recevront ultérieurement d’autres utilisateurs.
Beaucoup d’experts prédisaient une explosion du phishing « assisté par IA ». Or, il n’y a pas eu de vague massive d’attaques. Comment l’expliquez-vous ?
En effet, on craignait un afflux de messages d’hameçonnage bien mieux rédigés et plus nombreux. Dans la pratique, on n’a pas observé d’augmentation significative du volume global de phishing aboutissant aux boîtes de réception. Cela peut s’expliquer par plusieurs raisons. Les filtres antispam et systèmes de sécurité s’améliorent sans cesse. Ils bloquent une proportion importante de tentatives. En plus, le coût de l’IA pour les cybercriminels n’est pas négligeable. Entraîner un GML à des fins malveillantes exige d’importantes ressources informatiques, coûteuses et complexes à mettre en œuvre. Enfin, lorsqu’ils utilisent un outil comme ChatGPT, les criminels doivent le « jailbreaker » ou contourner les filtres de modération pour générer des contenus malveillants. C’est loin d’être impossible, mais ce n’est pas aussi trivial que beaucoup l’imaginaient.En revanche, la qualité linguistique des attaques a pu s’améliorer : moins de fautes d’orthographe, formulations plus convaincantes… Mais paradoxalement, un message trop parfait peut aussi éveiller la méfiance, notamment en matière de longueur ou de tournures de phrase excessivement polies.
Vous parliez également de la menace des deepfakes, qui semble beaucoup progresser. Pourriez-vous nous en dire plus ?
Les deepfakes, qu’ils soient audio ou vidéo, connaissent effectivement une croissance rapide. Ces attaques combinent plusieurs canaux : hameçonnage par courriel, conversations vidéo où certains interlocuteurs sont entièrement simulés, puis demande de virement frauduleux. Un cas marquant est celui de la société d’ingénierie britannique Arup, où des individus malintentionnés se sont présentés en visioconférence avec des visages et des voix contrefaits, parvenant ainsi à détourner 20 millions de livres sterling de la succursale hongkongaise de l’entreprise. Cette affaire illustre combien l’usage de la visioconférence a pu faciliter de nouveaux types de fraudes, rendues d’autantplus crédibles par l’IA.
Comment KnowBe4 aide-t-il les entreprises à se protéger contre ces risques ? Pouvez-vous détailler votre approche ?
KnowBe4 se concentre sur le facteur humain, souvent considéré comme le maillon faible des organisations. Notre approche est globale et peut se résumer en quatre étapes. Premièrement, identifier et mesurer les risques : nous proposons un outil d’évaluation qui s’appuie sur les données réelles (issues de simulations d’hameçonnage, de l’historique de formation, mais aussi d’événements signalés par des solutions de détection de fuites de données ou d’EDR). Nous établissons un score de risque pour chaque départementou collaborateur.
Ensuite, il faut mettre en place une formation continue et ciblée : il ne suffit pas de faire une séance par an pour être conforme à la loi. Il faut ancrer les bons réflexes au quotidien. Nous proposons des modules e-apprentissage, des quiz, des vidéos et des simulations qui renforcent la vigilance face à toutes sortes d’attaques (hameçonnage, rançongiciel, deepfake, etc.). En trois, nous proposons du coaching en temps réel : notre plateforme peut déclencher une mini-formation immédiate lorsqu’un utilisateur adopte un comportement à risque (par exemple, tenter de transmettre un gros fichier sensible via un canal non sécurisé). Enfin, nous encourageons les entreprises à actualiser régulièrement leurs politiques internes (charte de sécurité, usage des outils d’IA non autorisés, etc.), en les rendant compréhensibles et contraignantes.