Les chercheurs de Barracuda ont récemment identifié une campagne d’usurpation d’identité de grande envergure, ciblant des entreprises du monde entier. Cette attaque, particulièrement préoccupante, repose sur l’utilisation de l’intelligence artificielle générative pour en accroître l’impact.

En exploitant l’image de confiance associée à OpenAI, les cybercriminels diffusent des courriels frauduleux prétendument urgents. Ces messages incitent les destinataires à mettre à jour leurs informations de paiement pour soi-disant régulariser un abonnement. Ce procédé classique vise à obtenir des informations sensibles tout en exploitant le sentiment d’urgence.

Les investigations ont révélé que cette campagne avait touché plus de 1 000 victimes potentielles. Les courriels frauduleux provenaient tous de la même adresse, [email protected], un domaine n’ayant aucun lien avec OpenAI. Malgré une sophistication technique limitée, les cybercriminels ont réussi à contourner certains mécanismes de protection. Les messages ont en effet passé avec succès les contrôles DKIM (DomainKeys Identified Mail) et SPF (Sender Policy Framework), les deux protocoles de sécurisation des courriels, conçus pour lutter contre l’usurpation d’identité et les courriels frauduleux comme l’hameçonnage.

Poussés à agir dans l’urgence

Ils aident les serveurs de réception à vérifier l’authenticité des messages électroniques et à déterminer s’ils proviennent d’une source autorisée. Ce passage réussi à travers ces
garde-fous numériques indique qu’ils ont été envoyés depuis un serveur autorisé à utiliser ce domaine, bien que celui-ci sert à envoyer des messages frauduleux. Ce type de manœuvre souligne l’ingéniosité croissante des attaquants pour échapper
aux filtres de sécurité.

Le contenu des messages frauduleux est particulièrement révélateur des techniques d’hameçonnage. Le langage utilisé est destiné à créer un sentiment d’urgence, forçant le destinataire à agir dans la précipitation. Ce type de formulation est rare dans les communications légitimes des entreprises, qui préfèrent un ton plus neutre et informatif. Encore plus inquiétant, les courriels incluaient une adresse de support paraissant légitime ([email protected]), rendant l’attaque d’autant plus crédible
aux yeux de certaines victimes.

Les cybercriminels expérimentent déjà les nouveaux outils

L’utilisation de l’intelligence artificielle générative dans ce contexte est une tendance en émergence. Selon le rapport 2024 sur les enquêtes relatives aux violations de données publié par Verizon, 32 % des incidents analysés impliquaient une forme d’extorsion, y compris des attaques par rançongiciel. Si cette campagne montre que les cybercriminels expérimentent déjà ces nouveaux outils, elle témoigne aussi des limites actuelles des menaces basées sur l’IA. En effet, les chercheurs n’ont pas constaté d’augmentation significative de la sophistication des attaques, même si cela pourrait changer à mesure que ces technologies deviennent plus accessibles et maîtrisées.

Dans ce contexte, des défenses robustes et la formation des employés doivent rester une priorité pour se protéger et sensibiliser aux signes d’une tentative d’hameçonnage, comme des adresses de courriel douteuses ou un langage alarmiste. Les organisations doivent aussi s’appuyer sur des solutions technologiques, incluant des systèmes basés sur l’intelligence artificielle, capables de détecter et de bloquer les menaces avant qu’elles n’atteignent les utilisateurs. Une surveillance continue des systèmes et une réponse rapide en cas de détection d’activités suspectes sont également indispensables pour limiter les conséquences d’une éventuelle intrusion.