Simplification de l'accès aux données, qualité des informations, gouvernance : autant de questions qui se posent au DSI et autres responsables des données dans les entreprises.  Le dernier volet d’une étude de Confluent pointe les difficultés, mais aussi la nécessité de recourir aux plateformes de data streaming pour exploiter au mieux les données pour les usages de l’IA. 

L’enquête internationale Data Streaming Report 2025 de Confluent a interrogé  4175 responsables IT dans de nombreux secteurs d'activités au sein d’entreprises de plus de 500 salariés. Le constat qui s’en dégage montre le rôle central du traitement des données en temps réel. Selon Confluent, la quasi-totalité des décideurs IT (93,5 %) en France pointe au moins un obstacle majeur à l’adoption de l’IA. Ainsi, la fragmentation des systèmes, le manque de compétences et la gouvernance des données sont en tête des freins majeurs pour le data streaming. Quelque 60% des répondants citent la facilité d’accès aux données comme préalable à leur utilisation pertinente. Plus de la moitié, soit 53%, mentionnent la qualité des données. Enfin, 49%  mettent en avant la qualité de leur gouvernance. 

La diffusion et la collecte de données en temps réel, le data streaming, permet de réagir instantanément à des événements tels la détection de fraude, les relances marketing après abandon de panier, etc. mais aussi d’améliorer l’expérience utilisateur et de générer des recommandations en temps réel. Pour ne citer qu’eux, Netflix, Uber, Linkedin ou Orange font appel au data streaming. Mais leur usage n’est pas exempt d’inconvénients: complexité d’utilisation, coûts  non négligeables d’infrastructure ou encore, correction d’erreurs qu’il n’est pas possible de rectifier a posteriori.

Les promesses de l’intelligence artificielle passent aussi par la mise en œuvre du data streaming 

Les problèmes redoutés par les responsables IT sont triples. D’une part, 68  % des répondants considèrent la propriété fragmentée des données entre des systèmes disparates comme un problème majeur ou un défi courant. D’autre part, 65% d’entre eux évoquent une capacité limitée d’intégration de nouvelles sources de données. Enfin, 61 % du panel de l’étude de Confluent mentionne une infrastructure insuffisante pour traiter les données en temps réel.

Dans ces conditions, le data streaming est incontournable en fluidifiant les flux de données. Encore faut-il en garantissant leur qualité à chaque étape du cycle de vie de l’IA.

Sans données de bonne qualité pas de résultats tangibles pour l’IA

« Derrière l’enthousiasme pour l’IA, une réalité s’impose : sans socle data solide, les projets ne décollent pas. [...] Le data streaming permet aux entreprises de reprendre le contrôle de leurs données en temps réel et de faire de l’IA un levier réellement opérationnel » affirme Niki Hubaut, Country Leader France chez Confluent.

La Data Streaming Report 2025 met en avant  ces trois éléments clés, pour la France. 

En premier lieu, 35 % des répondants français considèrent l’alimentation des systèmes d’IA avec des données en temps réel, fiables et contextualisées comme un levier essentiel du data streaming (contre 87 % à l’échelle mondiale). Parmi ces données, figurent les clics sur un site web, les transactions financières, les données de capteurs IoT, les logs d’applications mobiles ou serveurs. 

En deuxième point, 84 % des répondants de l'hexagone classent le data streaming parmi leurs priorités stratégiques (contre 86 % dans le monde). Et parmi eux, 38 % en font une priorité majeure.

Enfin, 38 % des entreprises françaises déclarent avoir obtenu un retour sur investissement d’au moins 5 fois leurs investissements en streaming data (contre 44 % dans le monde, et 41 % en 2024). Le chiffre devrait être confirmé par d’autres études tant il est élevé.

La quasi-totalité des répondants français constatent au moins un bénéfice lié à une approche “shift & left”, à savoir la validation de la qualité des données dès leur traitement et à la bonne gouvernance des données (contre 81 % des décideurs IT dans le monde). Bien noter cependant, que la mise en place d’une architecture de streaming demande des compétences pointues dans le traitement  des données, la gestion de flux, et la mise à l’échelle .