Ce lancement marque une étape importante dans le déploiement de Lakeflow, une offre modulaire qui regroupe ingestion, transformation et orchestration au sein de la Data Intelligence Platform de l’éditeur. Databricks mise sur l’ingestion sans code pour accélérer l’exploitation des données.
Lakeflow Connect répond à une problématique bien connue des entreprises : la complexité de l’ingestion des données issues des applications SaaS et des bases de données. Chaque connecteur implique en effet une logique d’intégration spécifique, souvent soumise à des changements fréquents d’API, et nécessite des compétences avancées en ingénierie des données. Dans ce contexte, Databricks entend automatiser ces flux critiques, libérant ainsi les ingénieurs de tâches chronophages et répétitives.
Une approche serverless et multiplateforme
Les connecteurs de Lakeflow Connect sont entièrement gérés et s’appuient sur une infrastructure serverless disponible chez les principaux fournisseurs de cloud (AWS, Azure et GCP). Ils s’intègrent nativement avec les briques technologiques de la plateforme Databricks : DLT (Delta Live Tables) pour la transformation incrémentale, Workflows pour l’orchestration, Unity Catalog pour la gouvernance des données, et Lakehouse Monitoring pour le suivi de la qualité. En pratique, la création d’un pipeline d’ingestion peut se faire via quelques clics dans l’interface ou quelques lignes de code. L’outil prend en charge l’évolution des schémas, les mises à jour incrémentales et les alertes d’observabilité.Plusieurs grands comptes utilisent déjà la solution, dont Porsche Holding, Insulet, Equiniti, ou encore Flick. Ces entreprises s’appuient sur Lakeflow Connect pour mieux centraliser et exploiter les données clients ou RH dans des cas d’usage variés : analyse comportementale, prédiction de l’attrition, segmentation marketing, personnalisation des parcours client ou pilotage des effectifs.
Une stratégie de plateforme unifiée pour les données et l’IA
Lakeflow Connect constitue la première brique d’un agencement fonctionnel plus ambitieux de Databricks : fournir une plateforme unifiée couvrant l’ensemble du cycle de vie des données, de l’ingestion jusqu’à l’exploitation via des outils d’analyse avancée ou d’intelligence artificielle. L’annonce s’inscrit aussi dans la continuité du partenariat noué en 2023 entre Databricks et Salesforce, qui avait déjà donné lieu au développement d’un connecteur « zero-copy » avec Salesforce Data Cloud.L’approche a pour objectif de répondre à une tendance forte : l’intégration entre données opérationnelles (CRM, RH, etc.) et traitement analytique ou prédictif. Les clients peuvent désormais croiser, modéliser et gouverner leurs données de manière cohérente dans un environnement unifié.
Databricks prévoit d’étendre rapidement le catalogue de connecteurs avec le support de nouvelles sources comme SQL Server, ServiceNow, SharePoint, PostgreSQL ou Google Analytics. Ces intégrations devraient renforcer encore la capacité des entreprises à industrialiser l’exploitation de leurs données, notamment dans le cadre de projets d’IA générative ou de BI augmentée.
Avec cette annonce, Databricks continue de se positionner comme un acteur pivot dans l’écosystème des plateformes unifiées de traitement de données, face à Snowflake, Google BigQuery, Microsoft Fabric ou AWS Redshift. L’automatisation de l’ingestion est une composante stratégique pour réduire le time-to-value des projets de données, notamment dans les grandes entreprises confrontées à la multiplication des sources et à la rareté des compétences en ingénierie des données.