Dataiku franchit un cap stratégique pour rendre l’IA agentique explicable. L'éditeur ouvre le 575 Lab, son bureau open source dédié à une IA d'entreprise explicable, auditable et gouvernable. Deux premières boîtes à outils ciblent directement les systèmes agentiques, la traçabilité décisionnelle et la protection des données en transit vers les modèles propriétaires.
Les difficultés d’intégration de l’IA sont désormais identifiée par l'ensemble de l'industrie, l'enjeu étant la confiance qu'on lui accorde. Dataiku a construit sa réponse autour d'un postulat utilisant l'open source comme fondation de confiance, non comme simple canal de distribution. Le 575 Lab matérialise cette orientation en proposant des composants réutilisables, auditables et standardisés pour les équipes qui conçoivent, déploient et font passer à l'échelle des agents IA au sein de leurs organisations.
Dataiku est déjà membre de la Linux Foundation et a rejoint la nouvelle Agentic AI Foundation, deux instances appelées à peser sur la normalisation des pratiques dans l'IA agentique. Le 575 Lab entend contribuer à l'émergence de standards communautaires pour le contrôle et l'inspection des systèmes agentiques — un chantier que le CEO et cofondateur Florian Douetteau qualifie d'urgent : « Les entreprises construisent des écosystèmes agentiques de plus en plus complexes. Pour en sécuriser l'usage, elles ont besoin de briques réutilisables, susceptibles de devenir des standards pour le contrôle et l'inspection des systèmes agentiques. »
Agent Explainability Tools : rendre les décisions des agents lisibles
Le premier projet open source du 575 Lab répond à une problématique croissante : dans un workflow agentique multiétape, il est devenu difficile de retracer le chemin décisionnel qui a conduit un agent à une action donnée. Les Agent Explainability Tools permettent aux équipes de suivre et d'analyser les processus décisionnels au sein de ces chaînes d'action, afin de rendre les décisions des agents intelligibles — non seulement pour les data scientists, mais pour les équipes conformité et les utilisateurs finaux.
Cette orientation répond directement aux exigences de l'AI Act européen, qui impose des obligations de transparence et d'explicabilité pour les systèmes d'IA à haut risque. Pour un DSI ou un responsable conformité, la capacité d'auditer le raisonnement d'un agent IA n'est plus un différenciateur : c'est une condition d'exploitation. Le fait que ces outils soient distribués en open source leur confère une portée normative potentielle — ils peuvent devenir la référence de fait pour l'audit des décisions agentiques à l'échelle d'une industrie.
Privacy-Preserving Proxies : protéger les données
Le second projet cible un vecteur de risque encore sous-évalué dans les architectures d'IA d'entreprise : les flux de données vers les modèles propriétaires hébergés en dehors du périmètre de l'organisation. Les Privacy-Preserving Proxies offrent un cadre d'utilisation plus sécurisé des grands modèles de langage, en assurant la protection des données de bout en bout tout en permettant aux équipes de déployer et d'exécuter les modèles en local.
Pour un RSSI, la proposition est directe : les proxies d'anonymisation ou de filtrage positionnés entre l'infrastructure interne et les API des fournisseurs réduisent l'exposition des données métier critiques sans interdire l'usage des modèles. C'est une réponse architecturale à la tension que vivent la majorité des grandes organisations — la pression de productivité qui pousse à utiliser les meilleurs modèles disponibles, et l'obligation de conformité qui impose de ne pas exposer les données clients ou confidentielles à des tiers.
Maîtriser les risques et exploiter l'IA de façon responsable
Le 575 Lab ne part pas de zéro, Dataiku capitalise sur dix ans de déploiements en production chez les plus grandes entreprises mondiales utilisatrices de la plateforme Dataiku — une base d'expérience qui confère à ses contributions open source une crédibilité industrielle que les projets issus de laboratoires de recherche peinent à atteindre. Hannes Hapke, directeur du 575 Lab, formule l'intention fondatrice : « À mesure que les systèmes d'IA gagnent en autonomie et en influence, les entreprises ont besoin d'outils qu'elles puissent examiner, auditer et adapter à leurs besoins. En développant ces bases de manière ouverte, les équipes peuvent mieux maîtriser les risques et exploiter l'IA de façon responsable. »
La cible opérationnelle du 575 Lab est clairement définie : les data scientists, les développeurs et les responsables data chargés de construire et de faire évoluer les systèmes agentiques de leurs organisations. Ces profils peuvent dès maintenant suivre les projets, rejoindre la communauté de contributeurs et peser sur la trajectoire des outils. La documentation et les dépôts sont accessibles sur le site de Dataiku, section Open Source.
Pour les directions informatiques en phase de déploiement d'agents IA, l'initiative 575 Lab représente moins une annonce produit qu'un signal sur l'évolution des pratiques de gouvernance : l'auditabilité et la protection des données ne peuvent plus être traitées comme des couches additionnelles, elles doivent être intégrées à l'architecture dès la conception. Que ces composants deviennent ou non des standards communautaires dépendra de l'adoption par la communauté, mais la direction est posée avec une cohérence que peu d'éditeurs ont jusqu'ici affichée aussi explicitement.























