"Au cours des mois de décembre et janvier, il était encore facile d'utiliser l'interface utilisateur Web de ChatGPT pour générer des malwares et des e-mails de phishing
(la plupart du temps, une itération de base suffisait), et d'après les discussions des cybercriminels, nous supposons que la plupart des exemples que nous avons montrés ont été créés à l'aide de l'interface utilisateur Web", écrit Sergey Shykevich, chercheur chez Check Point, dans un e-mail. Et de préciser "Dernièrement, il semble que les mécanismes anti-abus de ChatGPT aient été considérablement améliorés, si bien que les cybercriminels se sont tournés vers son API, qui comporte beaucoup moins de restrictions."
Telegram, l’application de messagerie chiffrée à la croissance très rapide, intègre des chatbots utilisés par les cybercriminels pour voler des identifiants et mots de passe.
Check Point Research (CPR), a décrit dans un billet à la façon dont ChatGPT a réussi à réaliser un cycle d'infection complet, depuis la création d'un e-mail de spear-phishing convaincant jusqu’à l'exécution d'un reverse shell. Ce dernier est un terminal local pour effectuer des actions de contrôle à distance via des commandes systèmes.
Une nouvelle forme d’attaque qui devrait trouver sa réplique
Le ticket d’entrée pour l’utilisation des bots n’est pas de nature à décourager les attaquants. A l’heure actuelle, les éditeurs de bots autorisent jusqu’à 20 demandes gratuites, mais facturent ensuite 5,50 dollars par groupe de 100 demandes.Pour contrer ce détournement de l’IA d’Open AI via les bots de Telegram, la contrattaque la met à profit pour détecter et bloquer les actions malveillantes. Mais comme toujours en matière de cybersécurité, les attaquants ont un temps d’avance.
OpenAI ne devait pas tarder à modifier les API de son intelligence artificielle, sous la pression de ses puissants actionnaires, Microsoft, Elon Musk ou Peter Thiel.