Cette acquisition intervient alors que Snowflake accélère dans l'intégration de modèles d’intelligence artificielle au sein de son offre. La plateforme propose déjà un accès à OpenAI via Azure et aux modèles d’Anthropic à travers Cortex AISQL. En y ajoutant les briques technologiques issues de Crunchy Data, l’éditeur renforce sa capacité à proposer une expérience unifiée, orientée vers la gouvernance, la portabilité et la simplicité. L’objectif est de bâtir une plateforme unifiée, de la donnée brute jusqu’à l’usage applicatif agentique, sans multiplier les silos ni complexifier les architectures.
Au-delà de la dimension open source, Snowflake ambitionne d’absorber toutes les variétés de données dans une structure cohérente. « L’IA devient le SQL des données non structurées. Elle permet de les structurer, de les interroger, de les intégrer », rappelait Benoît Dageville, cofondateur et President of the Product division, lors du dernier Snowflake Summit. C’est cette capacité à fusionner traitement, stockage, extraction et gouvernance — sur des documents, des images, du texte, des appels d’offres ou des CV — qui redéfinit la promesse de la plateforme. Snowflake développe en parallèle ses propres modèles (famille Arctic) et a intégré un moteur de recherche sémantique (Cortex Search, issu du rachat de Neeva). Cette convergence donne naissance à une logique d’agentification : les données non structurées deviennent interrogeables, actionnables et exploitables dans un cadre gouverné.
Au-delà de la dimension financière, le message est stratégique. En s’appropriant des briques technologiques open source, Snowflake veut réduire sa dépendance aux fournisseurs de modèles tiers, dont l’usage est coûteux et rogne les marges. Cette logique d’intégration verticale permet de capter davantage de valeur sur la chaîne IA-donnée-métier. L’opération confirme que l’enjeu se déplace : ce ne sont plus les modèles seuls qui comptent, mais leur articulation fine avec les données propriétaires et les outils d’interrogation déjà adoptés par les équipes techniques.
Oracle mise sur l’intégration native
Face à cette montée en puissance de Snowflake, Oracle a opté pour une stratégie complémentaire : proposer un accès direct aux modèles les plus avancés via son infrastructure cloud et ses bases de données. L’éditeur vient d’annoncer l’intégration de GPT‑5 d’OpenAI dans sa suite Oracle Fusion Applications et dans Oracle Database. Quelques jours plus tôt, il officialisait l’arrivée des modèles Gemini 2.5 de Google au sein de son service OCI Generative AI. Ces deux annonces renforcent une approche cohérente : fournir un accès encadré aux modèles leaders, tout en les combinant à des fonctions natives d’interrogation et d’orchestration.Cette stratégie met en avant la promesse d’une IA intégrée « au plus près » de la donnée, sans rupture ni migration. Oracle s’appuie sur son moteur vectoriel (Oracle AI Vector), ses requêtes enrichies (Select AI) et sa couche d’abstraction SQLcl pour interroger les données via des agents. L’objectif est de permettre l’automatisation de processus critiques, la génération de code, la recherche d’information ou encore l’assistance décisionnelle, tout en garantissant des standards élevés de sécurité, de gouvernance et de conformité. Dans cette logique, Oracle ne cherche pas à posséder les modèles, mais à orchestrer leur usage de façon industrielle, depuis ses propres bases.
Databricks entre dans la danse avec son Lakehouse
Databricks, de son côté, poursuit une trajectoire intermédiaire. Son modèle repose sur l’architecture Lakehouse, qui combine données transactionnelles et analytiques dans un même socle. En y intégrant progressivement des modèles d’IA, l’éditeur cherche à proposer une continuité entre stockage, traitement et exploitation intelligente des données. Comme Snowflake, Databricks s’appuie sur des partenariats pour proposer un accès aux modèles de référence du marché, sans chercher à développer les siens.L’enjeu reste cependant le même : orchestrer intelligemment des modèles de plus en plus fongibles, tout en limitant la dépendance économique à leurs éditeurs. Databricks valorise sa capacité à unifier des pipelines de données et à fournir des outils destinés aux data scientistes et aux ingénieurs en IA, ce qui en fait une offre attractive pour les équipes techniques avancées. Mais cette orientation suppose une maîtrise technique plus avancée que les plateformes à usage simplifié, comme Snowflake. L’équilibre économique, lui, dépendra de la capacité de l’éditeur à monétiser les usages IA sans trop de reversements aux partenaires.
La différenciation se déplace vers la donnée
Ces trajectoires croisées révèlent une constante : les modèles d’IA deviennent interchangeables. L’accès à GPT‑5, Gemini ou Claude n’est plus réservé à un acteur. Ce qui distingue désormais les offres, c’est la manière avec laquelle les modèles sont intégrés dans les environnements de données. Oracle capitalise sur son cœur applicatif et sur une gouvernance robuste, Snowflake sur l’accessibilité des requêtes en langage naturel, Databricks sur la fusion entre transaction et analytique. Tous visent à faire de la base de données un point d’entrée vers des agents intelligents, exploitant les ressources propres de chaque organisation.La différenciation se joue donc sur la qualité des données, leur accessibilité, leur sécurisation, et la capacité à les exploiter sans rupture de flux. Les éditeurs qui maîtrisent ces quatre dimensions pourront dépasser le rôle de simples intermédiaires techniques pour devenir des plateformes d’orchestration cognitive. Les autres resteront tributaires de la valeur créée par les modèles, sans capacité à capitaliser sur l’intelligence contextuelle que seules les données internes permettent de déployer.
À court terme, les accords avec les éditeurs de modèles et les opérations de croissance externe marquent un tournant dans la reconfiguration du marché des bases de données. L’intégration de l’IA n’est plus un bonus fonctionnel, mais une exigence stratégique. Snowflake, Oracle et Databricks convergent vers un même objectif : proposer aux entreprises un moyen fiable, sécurisé et productif d’exploiter l’intelligence artificielle sur leurs propres actifs numériques.
À moyen terme, la base de données pourrait devenir le support privilégié de l’IA agentique. Les bénéfices attendus sont nombreux : réduction des coûts opérationnels, automatisation de tâches complexes, accélération des cycles de décision. Mais la réussite de cette transition dépendra de la capacité des éditeurs à intégrer les modèles sans dépendance excessive, à offrir une expérience fluide aux utilisateurs métiers et à garantir la gouvernance des données. Dans ce nouveau paysage, seuls les fournisseurs capables d’articuler l’IA, les données et la conformité de manière cohérente pourront s’imposer durablement.