L’utilisation d’une IA générative peut présenter certains risques pour la confidentialité des données et la divulgation d’informations confidentielles. Lorsqu’ils interagissent avec une IA générative, les collaborateurs lui fournissent souvent des informations dans leurs questions ou leurs requêtes. Si ces données sont stockées ou enregistrées, il existe un risque qu’elles soient compromises ou volées, ce qui pourrait entraîner des fuites de données sensibles. Par ailleurs, l’IA générative peut parfois produire des réponses ou des informations qui incluent des détails confidentiels ou sensibles. ExtraHop, spécialiste de la détection et de la réponse en réseau (NDR), a annoncé le lancement d’une nouvelle fonctionnalité pour surveiller l’utilisation de l’IA en tant que service (AIaaS) et plus généralement des outils d’IA générative, tels que ChatGPT, au sein des organisations. Cet outil a pour but d’aider les entreprises à évaluer plus efficacement leur exposition aux risques et à garantir leur conformité avec la politique interne de l’entreprise. Alors que l’adoption de l’IA générative et de l’AIaaS s’accélère dans le monde des entreprises, l’inquiétude grandit quant à la possibilité que des données propriétaires et d’autres informations sensibles soient partagées avec ces services. Bien que l’AIaaS puisse apporter des améliorations significatives de la productivité dans divers secteurs, les organisations doivent pouvoir auditer l’utilisation et la mauvaise utilisation potentielle de ces outils par leurs employés afin de se prémunir des menaces internes, qu’elles soient intentionnelles ou non.  

Comprendre ce qui se passe dans le réseau

Chris Kissel, vice-président de la recherche sur les produits de sécurité chez IDC, souligne que « les entreprises qui utilisent des solutions AIaaS risquent de voir leurs employés partager des données propriétaires, ce qui pourrait entraîner la perte de propriété intellectuelle et de données clients. ExtraHop répond à ce risque en proposant aux clients un mécanisme de vérification de la conformité et en aidant à prévenir la perte de propriété intellectuelle. Grâce à sa riche expérience en matière d’intelligence réseau, ExtraHop peut offrir une visibilité inégalée sur le flux de données lié à l’IA générative. » ExtraHop propose donc une visibilité sur les appareils, les utilisateurs et les réseaux qui se connectent à des domaines AIaaS externes. De plus, ExtraHop permet aux entreprises de suivre la quantité de données que les employés partagent avec ces services et, dans certains cas, d’identifier le type de données et de fichiers individuels qui sont partagés. « Nos clients ont exprimé une véritable inquiétude concernant la possibilité que les employés transmettent des données propriétaires et d’autres informations sensibles aux services d’IA, affirme Patrick Dennis, PDG d’ExtraHop, et jusqu’à aujourd’hui, il n’existait pas de moyen efficace pour évaluer l’ampleur de ce problème. Au milieu de la prolifération de l’AIaaS, il est essentiel que nous fournissions aux clients les outils nécessaires pour comprendre ce qui se passe sur leur réseau, quelles données sont partagées et ce qui pourrait être à risque. Avec cette nouvelle fonctionnalité, notre objectif est de permettre aux clients de bénéficier des nombreux avantages des outils d’IA générative tout en veillant à ce que leurs données soient protégées ».