La prolifération de modèles de langage malveillants comme WormGPT et KawaiiGPT démontre que les capacités offensives de l’intelligence artificielle ne sont plus réservées à des acteurs étatiques ou à des cybercriminels experts. Ces outils réduisent les barrières techniques, accélèrent l’exécution des attaques et industrialisent le crime numérique. L’analyse de Unit 42 révèle une nouvelle phase du risque IA, où l’accessibilité devient le vecteur principal de la menace.
Les grands modèles de langage sont devenus des outils incontournables pour automatiser les tâches, analyser des corpus complexes ou produire du contenu à grande échelle. Mais cette puissance linguistique et algorithmique peut être retournée contre les systèmes qu’elle prétend sécuriser. Le « dilemme du double usage », longtemps associé à des domaines comme la biotechnologie ou la physique nucléaire, se manifeste désormais au cœur de la cybersécurité IA. Les mêmes capacités qui renforcent les défenses des entreprises peuvent être détournées pour construire des attaques polymorphes, manipulatrices et rapides.
À rebours des modèles publics bridés par des filtres éthiques, les LLM malveillants sont explicitement conçus pour produire du code offensif, générer des leurres de hameçonnage convaincants et automatiser des campagnes d’extorsion. WormGPT, dès 2023, s’est positionné comme une alternative non censurée à GPT-J, enrichie de corpus maliciels et de techniques d’exploitation. Sa version commerciale, WormGPT 4, reprend les codes du SaaS traditionnel : site web, tarifs d’abonnement, service client via Telegram, et une interface simplifiée pour générer des scripts PowerShell ou des messages de compromission ciblée.
La cybercriminalité assistée par IA devient un service
En parallèle, KawaiiGPT joue la carte de l’accessibilité totale. Ce LLM gratuit, disponible sur GitHub, propose une interface en ligne de commande prête à l’emploi. Son apparente légèreté masque des capacités préoccupantes : rédaction de courriels de spear phishing, génération de scripts de mouvement latéral via SSH, élaboration de notes de rançon ou encore exfiltration silencieuse de fichiers sensibles au format EML. Le modèle s’adresse explicitement aux utilisateurs peu qualifiés, avec des messages d’accueil teintés d’ironie décontractée, mais des fonctions très opérationnelles.
Le glissement vers une cybercriminalité par abonnement n’est plus un scénario prospectif. WormGPT 4 propose des forfaits mensuels ou annuels à partir de 50 dollars, avec la possibilité d’acquérir le code source complet pour 220 dollars. KawaiiGPT, en open source, comptabilise déjà plus de 500 utilisateurs revendiqués, avec un noyau actif de plusieurs centaines de sessions hebdomadaires. Ces chiffres confirment que les modèles sans garde-fous ne sont pas marginaux, mais structurent un nouvel écosystème de services criminels exploitant l’IA comme multiplicateur de puissance.
Le rapport souligne également l’impact de ces modèles sur le cycle d’attaque. Là où une campagne malveillante nécessitait des jours de préparation, la rédaction d’un leurre persuasif et le développement du code associé peuvent aujourd’hui être déclenchés en quelques minutes de prompting. Cette compression temporelle transforme les logiques opérationnelles et abaisse le seuil d’entrée à un niveau inédit, favorisant la massification des attaques même par des profils peu expérimentés.
Scripts personnalisés, ingénierie sociale et exfiltration
Les démonstrations réalisées par Unit 42 illustrent la dangerosité de ces outils. Un simple prompt dans WormGPT 4 suffit à produire un script PowerShell chiffrant les fichiers PDF d’un poste Windows, avec ajout optionnel d’un canal d’exfiltration via Tor. KawaiiGPT, de son côté, génère un script Python capable de localiser des courriels sur un disque et de les transmettre par courriel à un serveur distant. Ces scripts n’ont rien de théorique. Ils utilisent des bibliothèques légitimes comme `os`, `smtplib` ou `paramiko`, ce qui les rend particulièrement furtifs face aux systèmes DLP traditionnels.
Au-delà de l’ingénierie sociale, ces LLM malveillants intègrent la génération automatique de notes de rançon structurées, avec messages d’intimidation, échéances précises et instructions de paiement par crypto-actifs. La victime reçoit un plan d’action clef en main, pensé pour maximiser la pression psychologique. Cette standardisation des flux d’extorsion témoigne d’une volonté d’industrialiser l’ensemble de la chaîne de compromission.
Une menace structurelle pour la gouvernance IA
L’analyse de ces deux modèles remet en question les limites actuelles des régulations algorithmiques. Il ne s’agit plus seulement de prévenir les dérives éthiques des IA génératives, mais de répondre à une menace où les LLM deviennent les piliers d’un crime-as-a-service opérant à l’échelle globale. L’accessibilité des outils, leur anonymat, leur nature open source ou leur hébergement sur Telegram compliquent considérablement toute forme d’encadrement conventionnel.
Le rapport appelle à une triple mobilisation : les développeurs doivent renforcer les mécanismes d’alignement et tester leurs modèles contre des usages détournés ; les autorités publiques sont invitées à définir des standards internationaux pour limiter la prolifération des modèles malveillants ; les chercheurs doivent cibler les canaux de monétisation afin de perturber les logiques commerciales du cybercrime par LLM. L’enjeu dépasse la simple détection technique. Il concerne la construction d’un écosystème résilient, capable d’absorber l’impact de la généralisation des IA offensives sans céder à une logique de censure généralisée.
Construire la résilience plutôt que bloquer les outils
L’émergence de WormGPT 4 et KawaiiGPT constitue une ligne de fracture vers un marché des services frauduleux, où la sécurité numérique ne peut plus reposer uniquement sur l’analyse comportementale ou la détection syntaxique des courriels malicieux. Ces modèles effacent les signaux faibles, masquent les fautes typiques et généralisent la production de contenus malveillants crédibles. Ce n’est plus la technicité qui détermine la menace, mais la capacité à s’approprier des outils semi-automatiques. Dans ce contexte, la résilience ne passe pas par l’interdiction des modèles, mais par l’adaptation des systèmes de défense à la vitesse, à la fluidité et à la personnalisation de ces nouvelles menaces.
Pour les entreprises, les administrations et les fournisseurs de services, cela signifie un renforcement des contrôles de contenu sortant, une vigilance accrue sur les canaux d’accès aux modèles IA, et une formation continue des équipes sur les nouveaux scénarios d’attaque. L’IA malveillante n’est pas un futur possible, mais un présent opératoire.























