Les outils d'IA générative s'installent dans les usages professionnels quotidiens, hors de tout cadre de supervision IT dans une majorité d'organisations. Eset intègre à sa plateforme Protect de nouvelles capacités couvrant la surveillance des échanges utilisateurs-IA, la protection des chaînes logicielles agentiques et la détection des skills malveillants avant déploiement. Un outil d'analyse gratuit des skills, accessible sans inscription, complète le dispositif.

Le recours non supervisé à des chatbots cloud publics alimente le phénomène d'IA fantôme, soit des usages invisibles pour les équipes IT lors desquels des données sensibles (documents internes, clés API, identifiants) transitent vers des services tiers en dehors de tout contrôle. Des écarts de conformité peuvent en résulter, notamment au regard du RGPD, de même que des expositions à des contenus manipulés ou à des réponses délibérément trompeuses.

Eset intègre les nouvelles protections dans Eset Protect, sa console d'administration centralisée. Le dispositif repose sur un navigateur sécurisé déployé sur les postes de travail, qui intercepte en temps réel les interactions entre les collaborateurs et les outils d'IA, enregistre les échanges localement et les remonte dans la console pour analyse.

Supervision des échanges en temps réel

Le navigateur sécurisé analyse chaque interaction avec les outils d'IA en examinant à la fois les prompts soumis par les utilisateurs et les réponses reçues. Cette approche détecte en temps réel les adresses URL malveillantes intégrées dans les réponses des LLM, les tentatives de prompt injection, les scripts suspects et les saisies de données sensibles. Les organisations peuvent paramétrer des règles pour bloquer ou surveiller ces actions selon leur politique de sécurité interne.

Les journaux d'activité centralisés dans Eset Protect sont mis à la disposition des équipes SOC pour investigation et application des politiques internes. Pour les entités soumises au RGPD ou à DORA, ce dispositif fournit les éléments de traçabilité nécessaires pour démontrer que les flux de données sensibles restent dans le périmètre de contrôle de l'organisation, y compris lorsque des collaborateurs recourent à des outils d'IA tiers dans leur activité quotidienne.

L'IA agentique et la chaîne logicielle, nouveaux périmètres d'attaque

L'essor de l'IA agentique introduit des vecteurs d'attaque distincts de ceux liés aux chatbots conversationnels. Les menaces ciblent les frameworks d'orchestration d'agents et les bibliothèques tierces intégrées dans les pipelines autonomes. LiteLLM, largement utilisée dans les architectures multi-agents, a été identifiée comme cible de trojanisation. Les agents de type OpenClaw, capables d'agir sur des systèmes de fichiers ou d'exécuter du code avec une supervision humaine réduite, constituent un autre vecteur d'exfiltration ou de prise de contrôle.

Eset indique que ses mécanismes couvrent déjà les composants diffusés via les dépôts standards, et que la recherche se poursuit pour anticiper l'évolution de ces attaques. Sa participation à l'Agentic AI Foundation prolonge cette approche. Aux côtés d'autres acteurs du secteur, l'éditeur contribue à la définition de standards de communication sécurisés pour les agents IA et de bonnes pratiques d'interopérabilité.

Eset AI Skills Checker, un outil gratuit d'analyse comportementale

Eset met à disposition un outil d'évaluation gratuit des skills IA, accessible sans compte ni abonnement sur le site de l'éditeur. L'outil prend en charge les skills issus des principaux dépôts (ClawHub, playbooks.com, skills.sh, GitHub, GitLab) et délivre un verdict en trois niveaux (sûr, dangereux ou suspect), en inspectant le contenu brut du fichier skill, en extrayant et vérifiant chaque adresse URL externe référencée, et en traçant la chaîne de téléchargement dans son intégralité.

La simulation comportementale constitue la couche la plus distinctive du dispositif. L'outil exécute le skill dans une sandbox cloud dédiée aux agents IA, ce qui permet d'identifier des comportements malveillants qui n'émergent qu'au cours d'interactions prolongées et que les analyses statiques ne détectent pas. Cette logique d'analyse multicouche est par ailleurs intégrée aux solutions Endpoint d'Eset pour les organisations déjà équipées de la plateforme.

L'annonce d'Eset traduit un élargissement structurel du périmètre de la cybersécurité en entreprise. « Depuis plus de trente ans, Eset propose des solutions de sécurité basées sur l'IA et le machine learning, aidant les organisations à contrer l'utilisation croissante de l'IA par les cybercriminels pour mener des attaques sophistiquées et automatisées », souligne Juraj Jánošík, directeur de l'intelligence artificielle chez Eset. Pour les RSSI, l'enjeu dépasse le seul contrôle des outils. Il englobe désormais la gouvernance de l'ensemble de la chaîne d'exécution des agents autonomes déployés dans l'organisation.