Datadog, la plateforme de monitoring et de sécurité des applications cloud, annonce la disponibilité générale de LLM Observability, un outil conçu pour surveiller, diagnostiquer, améliorer et sécuriser les applications utilisant de grands modèles de langage.

LLM Observability vise les développeurs et les ingénieurs en IA dans le cadre de la surveillance, de l’amélioration et de la sécurisation des applications utilisant de grands modèles de langage. Il offre une visibilité complète sur chaque étape des chaînes de développement et d’entraînement de grands modèles de langage. Une séquence d’étapes impliquant l’entraînement, le déploiement et l’utilisation de modèles d’intelligence artificielle capables de comprendre et de générer du texte. Ces chaînes comprennent des processus tels que la préparation des données, l’entraînement du modèle, l’évaluation des performances, le déploiement en production et la surveillance continue.  

Identifie les causes des erreurs et des réponses inattendues

LLM Observability permet d’identifier les causes des erreurs et des réponses inattendues, comme les hallucinations, d’optimiser les performances et les coûts, et de protéger les données sensibles. Il surveille aussi des indicateurs clés tels que la latence et l’utilisation des jetons. Il inclut également des évaluations de qualité et de sécurité des modèles prêts à l’emploi pour prévenir les fuites de données et les attaques de manipulation des réponses.

La solution propose le regroupement des invites et des réponses, une intégration transparente avec la surveillance des performances des applications (APM) de Datadog, et des capacités d’évaluation et de balayage des données sensibles prêtes à l’emploi pour améliorer les performances, la précision et la sécurité des applications d’IA générative tout en aidant à maintenir la confidentialité et la sécurité des données.

Ce produit répond aux tendances actuelles de l’adoption rapide de l’IA générative, la complexité des chaînes de traitement LLM, et la nécessité de sécurité et d’optimisation des coûts. Les organisations de tous les secteurs s’efforcent de lancer des fonctionnalités d’IA générative de manière rentable, mais leur mise en œuvre et leur passage en production peuvent poser plusieurs défis en raison de la complexité des chaînes LLM, de leur nature non déterministe et des risques de sécurité qu’elles posent.