Cloudflare vient de dévoiler Firewall for AI, un service conçu pour sécuriser les modèles de langage de grande taille (LLM). Cette barrière de sécurité, dédiée aux utilisateurs de son environnement Workers AI, a pour fonction de détecter les tentatives d’attaques avant qu’elles ne ciblent ces modèles d’intelligence artificielle spécialisés dans l’interprétation du langage humain et d’autres formes de données complexes.

« À chaque avancée technologique correspondent de nouvelles menaces. Ce constat est également valable pour les technologies propulsées par l’IA. Avec notre service Pare-feu pour l’IA, nous entendons intégrer la sécurité dès le début dans l’écosystème de l’IA. Nous offrons l’une des premières solutions de défense dédiées aux modèles d’IA, permettant aux entreprises de bénéficier des avantages offerts par cette technologie tout en assurant leur protection », souligne Matthew Prince, cofondateur et PDG de Cloudflare.

Du fait de leur capacité à traiter d’énormes quantités de données et à générer du texte, les LLM sont exposés à plusieurs types d’attaques spécifiques. Ces attaques peuvent viser soit à exploiter les vulnérabilités inhérentes à ces modèles, soit à abuser de leur fonctionnement pour mener à bien des actions malveillantes. Par exemple, les attaques par injection de données consistent à introduire des données malveillantes ou trompeuses durant le processus d’apprentissage du modèle, dans le but de le manipuler pour qu’il génère des réponses biaisées ou inappropriées. Les modèles peuvent également être exploités pour générer du contenu trompeur, tels que des fake news, des escroqueries par hameçonnage, ou d’autres formes de contenu malveillant, exploitant ainsi leur capacité à créer du texte crédible.  

Les LLM, des cibles privilégiées pour les cybercriminels

Une enquête récente a mis en lumière que seulement 25 % des dirigeants se sentent prêts à affronter les risques associés à l’IA. La protection des LLM représente un défi de taille, notamment parce qu’il est quasi impossible de restreindre les interactions des utilisateurs avec ces systèmes dès leur conception. Ces modèles, de nature non déterministe, sont susceptibles de générer une multitude de résultats variés même à partir d’un même ensemble de données. Cela rend les LLM des cibles privilégiées pour les cybercriminels, les exposant à des risques de manipulation, d’attaques et de mésusage.

Le service Firewall for AI proposé par Cloudflare fournira aux équipes de sécurité les outils nécessaires afin de sécuriser leurs applications basées sur les LLM. En se positionnant en amont de n’importe quel LLM déployé sur la plateforme Workers AI de Cloudflare, le pare-feu permettra l’identification des menaces. Par l’analyse et l’évaluation des requêtes des utilisateurs, il aura la capacité de repérer les tentatives malintentionnées d’exploitation des modèles.

Le système de Cloudflare propose en outre la possibilité de bloquer automatiquement ces menaces, sans qu’une intervention humaine soit nécessaire. Profitant de la couverture de son réseau mondial, avec plus de 250 points de présence, le service peut être activé très près des utilisateurs finaux, garantissant ainsi une réponse immédiate et efficace face aux abus. Enfin, Cloudflare assure une protection par défaut, et cela sans frais supplémentaires pour tous les utilisateurs exploitant des LLM au sein de l’environnement Workers AI. Une extension essentielle pour réduire les risques associés à l’injection de commandes malveillantes et aux fuites de données.