Confluent Intelligence est un socle temps réel pour des agents IA plus fiables et contextualisés. En combinant le streaming de données, l’orchestration par événements et l’intégration native de modèles de langage comme Claude, l’éditeur entend combler le « fossé du contexte » qui freine les projets IA. Une offensive structurante dans un marché en quête de fiabilité et d’automatisation agentique.

Alors que les promesses de l’IA générative s’essoufflent sous le poids d’expérimentations fragmentées, Confluent met en avant un levier devenu stratégique : le contexte. L’éditeur du célèbre moteur de streaming Kafka propose avec Confluent Intelligence une pile managée pour bâtir des systèmes d’IA capables de raisonner à partir de données dynamiques, sans perte d’information ni traitement différé. L’enjeu n’est plus seulement d’entraîner un modèle, mais d’orchestrer une IA qui observe, décide et agit dans le flux même des événements métier. Une ambition qui repose sur trois piliers : un moteur de contexte en temps réel, des agents streamés sur Flink, et une intégration transparente avec les LLM de nouvelle génération.

Confluent Intelligence s’appuie sur l’infrastructure de Confluent Cloud et sur les fondations d’Apache Kafka et Apache Flink pour proposer un service complet, orienté usages IA. Son Real-Time Context Engine centralise la diffusion continue des données structurées, sans que les équipes aient à gérer l’infrastructure sous-jacente. Cette couche devient l’interface contextuelle entre les données en mouvement et les modèles de langage ou agents IA, notamment via le protocole MCP (Model Context Protocol).

Cas d’usage industriels et intégration directe avec Claude

Mais la véritable innovation réside dans la couche « Streaming Agents », qui permet de créer des agents événementiels directement orchestrés sur Flink. Contrairement aux architectures traditionnelles où l’IA est intégrée a posteriori dans les processus, cette approche permet d’imbriquer le raisonnement dans le traitement des flux. Les agents peuvent ainsi détecter des événements, inférer des décisions et déclencher des actions dans une logique entièrement réactive. Pour les entreprises, cela signifie une réduction de la latence opérationnelle et une capacité accrue à automatiser des chaînes métier complexes, sans supervision constante.

Plusieurs clients comme GEP (achats, logistique) ou le conseil municipal de Palmerston North (Nouvelle-Zélande) témoignent déjà des bénéfices concrets de cette approche. L’enjeu est autant la fiabilité des données que leur fraîcheur, en particulier pour des systèmes sensibles aux variations contextuelles. « Une IA performante repose sur de bonnes données », résume Atilio Ranzuglia, responsable Data & IA de la collectivité. C’est ce besoin de continuité temporelle, de fiabilité des sources et de traitement embarqué qui structure l’ensemble de la pile Confluent Intelligence.

Pour renforcer cette cohérence, Confluent a fait de Claude, le modèle de langage d’Anthropic, le LLM par défaut de ses Streaming Agents. Cette intégration native positionne l’offre dans la sphère des plateformes IA agentiques hybrides, capables de concilier réactivité événementielle et raisonnement large. L’interopérabilité avec les grands modèles devient un facteur d’alignement stratégique pour les entreprises cherchant à automatiser des décisions en gardant la main sur leurs données et leurs processus.

Une réponse à l’échec des projets IA sans ancrage contextuel

Le rapport MIT « The State of AI in Business 2025 » souligne un échec massif des projets IA générative, dont 95 % n’auraient produit aucun retour sur investissement mesurable. Ce décalage provient en grande partie d’un défaut de gouvernance du contexte : les modèles sont puissants mais aveugles aux dynamiques internes, aux signaux faibles et aux priorités métier. Confluent entend précisément refermer cette brèche en apportant aux LLM une continuité d’information, une orchestration par événements, et une supervision gouvernée.

Cette stratégie s’inscrit dans une tendance plus large à la servicialisation des infrastructures IA, où la convergence des briques techniques (streaming, agents, LLM, protocole de contexte) devient un critère clé de maturité. Le choix d’une approche ouverte (Kafka, Flink, MCP) marque également une volonté de s’intégrer dans les écosystèmes existants, en évitant le verrouillage technologique. Une posture que l’on retrouve aussi dans le lancement simultané de Tableflow et de Confluent Private Cloud, deux offres destinées à élargir la compatibilité et la souveraineté des déploiements IA.

De la promesse au produit, l’industrialisation du cycle IA

Avec Confluent Intelligence, l’éditeur change de registre. Il ne s’agit plus seulement de fournir une plateforme de diffusion de données, mais de porter un modèle d’IA contextuelle industrialisable. Ce mouvement répond à un besoin urgent exprimé par les directions métiers et les responsables data : passer du pilote au produit, sécuriser les flux, encadrer les agents et fiabiliser les chaînes de décision automatisées.

En apportant une réponse technologique à la crise de confiance dans l’IA générative, Confluent pourrait préempter une position stratégique sur le marché des agents IA en entreprise. La profondeur de son infrastructure, la cohérence de sa pile logicielle et son alignement avec les standards émergents comme MCP ou les LLM ouverts laissent entrevoir une convergence possible entre le monde du data streaming et celui des architectures IA orchestrées. Une convergence qui pourrait bien redéfinir les fondations de l’IA en production dans les mois à venir.

publicité