L'ingénierie sociale, et plus particulièrement les cybercampagnes malveillantes diffusées par e-mail, reste la principale source de vulnérabilité d'une organisation.

Les emails restent toujours autant utilisés et de plus en plus suspectés d’être des vecteurs d’attaque : pas simple pour les salariés de savoir sur quel pied danser !

Menée auprès de 6 711 employés dans différents pays, dont la France, une enquête de Darktrace, spécialisé dans l'IA en matière de cybersécurité, confirme ce casse-tête.

Voici les principales conclusions de son étude :
  • 82 % des employés (84 % en France) craignent que les pirates informatiques puissent utiliser l'IA générative pour créer des e-mails frauduleux qu'il est impossible de distinguer d'une communication authentique.
  • Les trois principales caractéristiques qui incitent les employés à penser qu'un e-mail s’apparente à du phishing sont les suivantes :
    • une invitation à cliquer sur un lien ou à ouvrir une pièce jointe (68 %),
    • un expéditeur inconnu ou contenu inattendu (61 %)
    • un mauvais usage de l'orthographe et de la grammaire (61 %).
  • Près d'un salarié sur trois (30 %) a déjà été victime d'un e-mail ou d'un SMS frauduleux. Cette proportion passe à 38 % en France.
  • 87 % des salariés s’inquiètent de la quantité d’informations personnelles disponibles en ligne à leur sujet et qui pourraient être utilisées dans des opérations de phishing ou d’autres escroqueries par e-mail.
  • 70 % des salariés dans le monde ont remarqué une augmentation de la fréquence des emails et textos frauduleux au cours des six derniers mois contre 85 % des salariés français.

L'IA générative

Une situation compliquée, car les acteurs de la menace exploitent rapidement – et de façon de plus en plus professionnelle - l'actualité pour profiter de la peur, du sentiment d'urgence ou de l'excitation des employés.

Pendant longtemps, on considérait les spammeurs comme de mauvais élèves, car leurs emails présentaient plusieurs fautes. Ce n’est plus le cas aujourd’hui !

Et l'émergence de ChatGPT a catapulté l'IA dans l’univers du grand public (35 % des répondants ont déjà essayé ChatGPT ou d'autres chatbots d’IA générative) et avec elle, de réelles inquiétudes sont apparues quant à ses implications pour la cyberdéfense.  

Des emails envoyés par erreur

Résultat, 82 % des salariés du monde entier craignent que les pirates informatiques n'utilisent l'IA générative pour créer des e-mails frauduleux (ou phishing) impossibles à distinguer des communications authentiques !

Mais les erreurs humaines et les menaces internes restent toujours un problème majeur. Près de 2 répondants sur5 ont envoyé un e-mail important au mauvais destinataire avec un alias similaire, par erreur ou à cause de la saisie automatique. Cette proportion atteint
51 % dans le secteur des services financiers et 41 % dans le secteur juridique.