L’intelligence artificielle fascine, inquiète et promet. Mais dans les faits, la plupart des projets peinent à dépasser le stade expérimental. Non faute d’ambition ou de moyens, mais faute de données. Car l’IA n’est pas seulement une affaire d’algorithmes : c’est d’abord un problème de données.
Les modèles d’IA, qu’ils soient prédictifs ou génératifs, dépendent d’un flux constant de données fiables, contextualisées et gouvernées. Sans cette fondation, les résultats sont incomplets, biaisés ou tout simplement inutilisables. Or, trop d’entreprises abordent encore l’IA comme un sujet technologique isolé, sans repenser l’architecture de leurs données.
Des architectures de données à bout de souffle
Les systèmes hérités, que ce soit les entrepôts, lacs de données, ou applications métiers - ont été conçus pour répondre à des besoins analytiques précis, rarement pour collaborer entre eux. Résultat : les données sont éclatées, dupliquées et parfois contradictoires.
L’IA, en revanche, exerce une pression nouvelle sur la donnée : elle nécessite des accès rapides, des mises à jour continues, une traçabilité fine et des contrôles de sécurité renforcés. Les architectures rigides et fragmentées ne sont plus en mesure de suivre.
Le lakehouse, première brique d’une fondation moderne
Ces dernières années, le data lakehouse s’est imposé comme une évolution naturelle du paysage de la donnée. En combinant la flexibilité du data lake et la performance d’un entrepôt, il permet de gérer à la fois les données brutes et les données structurées, tout en offrant des outils de collaboration et de gouvernance.
Cela représente une avancée majeure : requêtes massives, alignement entre équipes, contrôle d’accès, gestion des versions, auditabilité. Le lakehouse permet d’envisager l’IA à grande échelle.
Mais il reste un écueil : rares sont les organisations capables de migrer d’un coup l’ensemble de leur patrimoine de données vers un lakehouse. Pour les grands groupes, les secteurs réglementés, comme le secteur de la banque-assurance, ou les infrastructures hybrides, une telle refonte est souvent irréaliste.
Vers une approche lakeside AI pragmatique
C’est là qu’émerge une approche plus pragmatique : le lakeside AI. Plutôt que de déplacer toutes les données vers un nouveau système, il s’agit d’apporter l’expérience lakehouse directement aux données existantes.
Concrètement, cela repose sur trois piliers :
- L’accès fédéré aux données. Il permet d’interroger et d’explorer les données là où elles se trouvent, qu’elles soient sur site, dans le cloud ou réparties entre plusieurs systèmes (hybrides ou clouds multiples).
- L’optimisation sélective. Seules les données critiques sont converties ou transférées vers un format lakehouse afin de maximiser la performance et la gouvernance.
- La gouvernance unifiée. Les politiques de conformité, de sécurité et de traçabilité s’appliquent de manière homogène, indépendamment de la localisation des données.
Cette approche réduit les délais de mise en œuvre, évite la duplication des efforts et maintient la maîtrise des données sensibles. Elle ouvre la voie à une IA réellement opérationnelle, connectée à la réalité des organisations.
Le futur de l’IA sera lakeside
Les entreprises qui réussiront l’IA ne seront pas celles qui possèdent le plus de données, mais celles qui sauront en tirer une valeur immédiate et fiable. Le lakeside AI représente une évolution naturelle : une manière de concilier innovation et contrôle, vitesse et conformité.
Aligner l’IA avec la donnée, plutôt que forcer la donnée à suivre l’IA : voilà la condition d’une intelligence artificielle performante, gouvernée et durable.
Par Victor Coustenoble, Solutions Architect chez Starburst











































