Dataiku introduit sa suite de services LLM Guard Services pour permettre aux entreprises de déployer l’IA générative en interne, de la phase de preuve de concept à la production. L’offre se compose de trois services complémentaires : Cost Guard pour optimiser les coûts, Safe Guard pour la protection des données sensibles et Quality Guard pour évaluer la qualité des modèles. L’ensemble est intégré à Dataiku LLM Mesh, LLM Mesh sa solution pour centraliser et simplifier l’accès aux modèles de langage au sein des entreprises, quelles que soit leur provenance ou les technologies sous-jacentes.

Conçu pour être agnostique, LLM Mesh permet d’intégrer et de gérer différents modèles de langage, qu’ils soient open source ou propriétaires, en les regroupant sous une interface unique. Cette unification facilite l’exploitation des capacités des LLM sans que les entreprises aient à gérer des infrastructures complexes ou à adapter leur environnement à chaque modèle spécifique. Avec LLM Guard Services, Dataiku cible un problème critique dans les entreprises où, selon Dataiku, 88 % des dirigeants n’ont ni outil ni processus adaptés pour gérer les LLM.

Réduire les coûts de déploiement et d’entraînement

« En effet, explique l’éditeur, la majorité des entreprises continue d’expérimenter avec les IA génératives sans cadre défini pour la supervision, exposant ainsi les organisations à des risques financiers et de sécurité. La suite LLM Guard comble cette lacune en proposant un environnement unifié et no-code qui permet aux équipes de déployer et d’évaluer rapidement des cas d’usage, de manière collaborative et scalable. »

Cette proposition de Dataiku vise à combler les besoins actuels du marché, où l’explosion des cas d’usage des LLM génère des pressions sur les coûts et la conformité des pratiques. D’un côté, des solutions comme Cost Guard apportent aux entreprises un moyen de contrôler finement les dépenses, un besoin croissant alors que les coûts d’utilisation des LLM et la complexité des modèles augmentent. Des entreprises telles que Meta ou OpenAI explorent également des solutions similaires pour modérer les coûts liés aux calculs intensifs que nécessitent les LLM, témoignant ainsi d’un intérêt du marché pour une réduction des coûts, qui retiennent les entreprises de franchir le pas.

Avec l’essor de la législation européenne, telle que le règlement sur l’intelligence artificielle (AI Act), qui impose de nouveaux standards de sécurité et de transparence, les entreprises sont davantage pressées d’adopter des solutions conformes et sécurisées. Dataiku anticipe ce besoin avec Safe Guard, offrant un cadre de protection des données et une gestion rigoureuse des usages sensibles.

Automatiser l’évaluation des modèles

Enfin, Quality Guard illustre une tendance clé : l’automatisation de l’évaluation des modèles. Le marché montre un fort besoin d’outils capables de vérifier la pertinence et l’exactitude des réponses de l’IA sans dépendre d’interventions humaines coûteuses et chronophages. Quality Guard permet une évaluation no-code standardisée, en intégrant des techniques de comparaison statistique telles que BERT, ROUGE et BLEU, pour proposer une analyse qualitative de chaque cas d’usage. Cette automatisation de la qualité répond à l’un des principaux défis dans les entreprises, où l’expertise en IA est souvent
rare et coûteuse.

« Alors que la grande vague d’excitation autour de l’IA générative poursuit sa course, apparait une certaine frustration, voir une désillusion non sur les capacités de l’IA générative, mais sur sa fiabilité, explique Florian Douetteau, CEO de Dataiku. S’assurer que les applications d’IA générative délivrent bien une performance robuste en matière de coût, de qualité et de sécurité est essentiel si l’on veut que cette technologie libère son plein potentiel pour l’entreprise. Intégrés à la Plateforme d’IA Universelle de Dataiku, les LLMs Guard Services assurent une gestion efficace du déploiement de l’IA générative de bout en bout, de façon centralisée. Ils aident à éviter de coûteux revers et la prolifération d’IA “fantômes”, non autorisées, ce qui est crucial pour la direction générale d’une organisation que pour les équipes IT et data. »