Confluent élargit Tableflow pour s’imposer comme pivot des architectures d’IA en temps réel, dans la bataille des plateformes de streaming de données. Le support généralisé d’Apache Iceberg et l’ouverture vers Delta Lake transforment Tableflow en solution pour connecter les flux opérationnels aux usages analytiques et à l’intelligence artificielle. Une position stratégique entre données en mouvement et intelligence d’entreprise.

Avec la généralisation du support du format Apache Iceberg, Confluent franchit une nouvelle étape dans sa stratégie de plateforme. Tableflow, sa solution d’exposition des flux en tables analytiques permet désormais de convertir dynamiquement les données issues de Kafka en objets de données gouvernés, interopérables avec les principaux lacs et entrepôts du marché. L’annonce s’accompagne d’un accès anticipé à Delta Lake, le format initié par Databricks, et de nouvelles intégrations avec les catalogues AWS Glue et Snowflake Polaris.

Un rapprochement avec les plateformes d’analytique ?

Le support d’Apache Iceberg dans Tableflow marque effectivement un glissement de Confluent vers les plateformes d’analytique, mais il convient de nuancer cette
convergence : Confluent ne propose ni moteur SQL, ni notebook, ni visualisation. L’éditeur ne concurrence pas directement les plateformes d’analytique, mais alimente leurs moteurs avec des données fraîches et prêtes à l’usage. Confluent n’ambitionne donc pas (encore) de devenir une plateforme analytique complète, mais plutôt un pivot stratégique entre les systèmes opérationnels et les environnements analytiques.

L’objectif est clair : faire du streaming non plus une simple technologie d’ingestion, mais un socle actif, structuré et gouverné, capable d’alimenter en continu les systèmes analytiques et les moteurs d’intelligence artificielle. « Nous assistons à une convergence forte entre monde opérationnel et monde analytique, explique Alexandre Lamy, directeur régional des ventes chez Confluent. Tableflow incarne ce pont, avec des data products consommables à la volée, par les métiers, les analystes ou les agents IA. Historiquement, on se satisfaisait d’une donnée à J+1. Aujourd’hui, l’enjeu est d’exploiter l’information générée il y a quelques secondes pour personnaliser une expérience ou déclencher un processus. »

Une réponse à l’échec des projets IA

Cette proposition est une réponse à l’échec des projets IA liés à la mauvaise qualité des données. Le positionnement de Tableflow répond à un problème bien identifié : la fragmentation et l’obsolescence des données, qui pénalisent l’efficacité des projets d’intelligence artificielle. D’après IDC, 70 % des projets IA échoueront d’ici 2027 en raison de données silotées ou non synchronisées avec les usages métier. En assurant une synchronisation continue entre les flux Kafka et les systèmes analytiques, Tableflow a pour but de fournir une source unique de vérité, actualisée, gouvernée et contextualisée.

Cette approche réduit fortement la complexité des pipelines, les duplications de données et les traitements batch qui freinent l’automatisation. La donnée n’est plus stockée puis retraitée, mais activée en temps réel dès sa production, dans un format immédiatement utilisable. Pour les équipes IT comme pour les métiers, cela représente un gain de performance, de précision et de rapidité. « Pour tirer pleinement parti de l’IA, rappelle Alexandre Lamy, il faut des architectures de données bien structurées, avec un bon niveau de gouvernance. C’est devenu un prérequis. »

Une adoption tirée par les métiers

Sur le terrain, la simplification apportée par Tableflow trouve un écho direct : ingestion directe de données opérationnelles Kafka sous forme de tables Iceberg, réduction des coûts de stockage, simplification de l’architecture et accélération de l’accès aux données. Alexandre Lamy confirme cette demande croissante : « Nous voyons sur le terrain une volonté de plus en plus forte d’unifier les environnements de traitement, de réduire les dépendances à des outils multiples et de mieux gouverner les flux de données, en particulier lorsqu’ils doivent être utilisés à des fins métiers. »

Les fonctions marketing, RH, commerciales ou logistiques s’approprient ces outils, souvent via des assistants intelligents ou des tableaux de bord en libre-service, ce qui élargit considérablement le périmètre fonctionnel de Tableflow. « On voit des cas très concrets : des commerciaux qui utilisent ce type d’outils pour mieux cibler leurs clients, améliorer la qualité des ventes et gagner du temps sur l’analyse », renchérit Niki Hubaut, DGA de Confluent France.

Une architecture data structurante pour l’IA et la gouvernance

Derrière l’évolution de Tableflow se dessine une mutation plus large : la transformation du streaming en composant structurant des architectures IA. Confluent ne se contente plus de distribuer des événements Kafka en temps réel, l’entreprise propose désormais un modèle de gouvernance, de stockage flexible (via BYOS) et d’intégration native avec les grands catalogues, dans une logique d’architecture composable.

« Une IA performante suppose une base saine, cohérente et gouvernée », résume Alexandre Lamy. Ce qui implique non seulement la fraîcheur des données, mais aussi des mécanismes de contrôle d’accès, de traçabilité et d’audit, afin de respecter les règles de conformité tout en facilitant la productivité. Confluent s’aligne ainsi sur les exigences des directions informatiques et des responsables métiers, en quête d’une plateforme de données unique.

Faire face aux plateformes analytiques intégrées

En enrichissant Tableflow de fonctionnalités de gouvernance, de compatibilité interformats et de stockage décentralisé, Confluent se place comme un concurrent de plus en plus direct des grandes plateformes analytiques intégrées comme Snowflake, Databricks ou même Google BigQuery. Le streaming devient chez Confluent non pas une technologie périphérique, mais le cœur actif du système d’information, autour duquel gravitent IA, analyses et automatisations.

Ce repositionnement stratégique propulse Confluent au cœur des architectures orientées données, à l’heure où les entreprises s’équipent pour déployer des cas d’usage en IA générative, en analytique augmentée ou via des agents intelligents autonomes. En réunissant la fraîcheur du streaming et la robustesse des environnements analytiques, la plateforme entend se placer à l’intersection des usages métiers, de la gouvernance
et de l’automatisation.

Confluent ne se contente plus d’alimenter les flux : elle ambitionne de les orchestrer, de les contextualiser, et de les rendre immédiatement activables. Un effort de simplification sciemment dirigée vers les métiers, car l’enjeu est là, comme le résume Alexandre Lamy : « La vraie bataille va se jouer sur les interfaces : est-ce que l’utilisateur final accède à la donnée via son CRM, ou via une méta-interface ? », interroge-t-il.