Les agents IA ne sont plus une promesse futuriste : ils sont d’ores et déjà au cœur des opérations des entreprises. Plus de huit organisations sur dix les utilisent, souvent de manière diffuse, au sein de plusieurs fonctions critiques. Contrairement aux outils logiciels traditionnels, ces systèmes perçoivent, décident et agissent de manière autonome, à une vitesse qui dépasse largement les capacités humaines. Leur sophistication croissante les conduit à prendre en charge des tâches autrefois réservées à des experts qualifiés, tout en manipulant des volumes grandissants de données sensibles. Pourtant, alors que leur adoption s’accélère, la gouvernance reste dramatiquement en retard. Moins de quatre entreprises sur dix supervisent réellement ces agents. Ce désalignement entre l’usage et le contrôle crée un point de fragilité majeur. Les organisations doivent désormais gérer ces entités numériques avec le même niveau de rigueur que n’importe quel utilisateur humain, en s’appuyant notamment sur les capacités avancées de la sécurité des identités.

 

Repenser et contrôler la vitesse de l'IA

Les agents d’IA peuvent fonctionner de manière indépendante. Ils apprennent, s’adaptent et interagissent d’une certaine manière qu’il est difficile de prévoir. Sans une gouvernance solide, ils peuvent introduire de graves vulnérabilités dans les environnements les plus sécurisés. Cela ne signifie pas que les entreprises ne devraient pas exploiter les agents d’IA, bien au contraire. Il s’agit simplement d’une mise en garde. Les entreprises doivent mettre en place un système de sécurité afin que cette nouvelle “main-d’œuvre numérique” soit entièrement sous contrôle. Il est possible de comparer cette vision à celle des freins d’une voiture de course : ils ne sont pas là uniquement pour faire ralentir, mais aussi pour donner du contrôle à grande vitesse. Actuellement, de nombreuses entreprises conduisent la voiture à toute allure, sans freins fonctionnels. Résultat ? Les agents d’IA leur échappent, 80 % des organisations rapportent que leurs agents d’IA ont déjà effectué des actions non autorisées, notamment accéder mais aussi partager des informations sensibles. Et malgré le fait qu’une vaste majorité des leaders technologiques (92 %) reconnaissent que la gouvernance des agents d’IA est essentielle à la sécurité de l’entreprise, seuls 44 % ont mis en œuvre des politiques adaptées. Au-delà des exigences réglementaires, cela crée des vulnérabilités qui affectent toute la chaîne d’approvisionnement (employés, partenaires et clients ayant accès aux systèmes) qui pourraient recevoir des informations erronées ou, plus dangereusement, exposé des identifiants compromettant la sécurité de l’entreprise, laissant ainsi profiter aux acteurs malveillants.

 

Gérer l’explosion des identités non humaines

Avec 98 % des entreprises prévoyant d’étendre leurs déploiements d’agents d’IA dans l’année à venir, les organisations deviendront encore plus dépendantes de cette main-d’œuvre étendue au cours de la prochaine décennie. Cette explosion d’identités non humaines, combinée à des cybermenaces de plus en plus sophistiquées, nécessitera des outils capables de faciliter une approche plus adaptative. Autrefois, une approche “château et douves” suffisait. Les équipes SOC étaient responsables de ce qui se passait sur un terminal : leur rôle se limitait à protéger les périmètres. Désormais, les vulnérabilités peuvent facilement se propager depuis l’intérieur même de l’entreprise si les agents sont laissés libres de se déplacer latéralement au sein des réseaux. Pour éviter une “explosion d’identités”, les organisations doivent gérer les droits d’accès des agents d’IA de la même manière que ceux des humains. Cela signifie les gouverner selon leurs comportements et risques propres. Les outils de sécurité des identités nouvelle génération permettent de déployer des politiques de contrôle d’accès contextuelles, précises et adaptatives, où l’accès est accordé de manière intentionnelle lorsque nécessaire - et révoqué de façon agressive lorsqu’il ne l’est pas. L’exemple d’un agent IA dans le secteur financier illustre bien ces enjeux. Capable de gérer toute la chaîne d’octroi de prêt, il peut traiter une vaste gamme de données sensibles. Sans garde-fous, il pourrait mal interpréter un dossier, approuver des prêts risqués ou exposer des informations confidentielles. En revanche, avec des contrôles d’accès adaptés, l’agent ne manipule que les données nécessaires, sur une durée limitée, sans jamais disposer de privilèges superflus comme l’accès aux journaux d’audit ou aux tableaux de bord de direction. Les accès évoluent en fonction du comportement de l’agent et des risques observés.

 

Sécuriser la main-d’œuvre numérique en pleine mutation

Alors que les entreprises étendent rapidement leur main-d’œuvre numérique, beaucoup le font sans infrastructure de gouvernance suffisante. Le changement de paradigme est profond : il ne s’agit plus seulement d’identifier les personnes ayant accès à des données critiques, mais de comprendre la nature même des entités qui opèrent dans l’environnement numérique. Une gouvernance efficace impose une traçabilité stricte : chaque action d’un agent IA doit être suivie, comprise et attribuée. La responsabilité n’est plus un concept abstrait ; elle devient une exigence opérationnelle. De même, tout nouvel accès doit être soumis à des workflows d’approbation rigoureux. Les politiques statiques, uniformes et peu granulaires sont désormais obsolètes. L’avenir repose sur une sécurité des identités adaptative, capable d’ajuster les droits en temps réel selon le contexte, l’activité et le comportement.

  L’essor des agents IA transforme profondément l’organisation et la sécurité des entreprises. Leur utilité n’est pas en question, mais leur gouvernance reste insuffisante. Les entreprises ne doivent plus considérer ces systèmes comme de simples outils, mais comme une main-d’œuvre numérique dont les actions peuvent avoir un impact majeur sur les opérations, la conformité et la réputation. Seule une approche moderne de la sécurité des identités, dynamique, contextuelle et centrée sur les risques, permettra de libérer la puissance des agents IA tout en conservant le contrôle. Les organisations qui réussiront cette transition seront celles qui auront compris que la performance ne s’oppose pas à la maîtrise, mais qu’elle en dépend.

Par Mark McClain, CEO de SailPoint
publicité