- CONTENUS
- ACTUALITES
- Sécurité
- Authentification
- Cybersécurité
- Cybersécurité - Actualités
- Stratégie
- Gouvernance
- Réglementation
- Transformation digitale
ExtraHop ajoute une fonction pour pister l’utilisation de l’IA en tant que service et les outils d’IA générative
L’utilisation d’une IA générative peut présenter certains risques pour la confidentialité des données et la divulgation d’informations confidentielles. Lorsqu’ils interagissent avec une IA générative, les collaborateurs lui fournissent souvent des informations dans leurs questions ou leurs requêtes. Si ces données sont stockées ou enregistrées, il existe un risque qu’elles soient compromises ou volées, ce qui pourrait entraîner des fuites de données sensibles. Par ailleurs, l’IA générative peut parfois produire des réponses ou des informations qui incluent des détails confidentiels ou sensibles.
ExtraHop, spécialiste de la détection et de la réponse en réseau (NDR), a annoncé le lancement d’une nouvelle fonctionnalité pour surveiller l’utilisation de l’IA en tant que service (AIaaS) et plus généralement des outils d’IA générative, tels que ChatGPT, au sein des organisations. Cet outil a pour but d’aider les entreprises à évaluer plus efficacement leur exposition aux risques et à garantir leur conformité avec la politique interne de l’entreprise.
Alors que l’adoption de l’IA générative et de l’AIaaS s’accélère dans le monde des entreprises, l’inquiétude grandit quant à la possibilité que des données propriétaires et d’autres informations sensibles soient partagées avec ces services. Bien que l’AIaaS puisse apporter des améliorations significatives de la productivité dans divers secteurs, les organisations doivent pouvoir auditer l’utilisation et la mauvaise utilisation potentielle de ces outils par leurs employés afin de se prémunir des menaces internes, qu’elles soient intentionnelles ou non.