OpenAI, Anthropic et Google partagent des informations pour détecter et contrer les tentatives de distillation adverses menées par des entreprises chinoises contre leurs modèles. La coopération s’opère via le Frontier Model Forum, l’organisation sectorielle que les trois sociétés ont cofondée avec Microsoft en 2023. Derrière la convergence des intérêts, ce rapprochement entre rivaux constitue-t-il le noyau d’un dispositif de défense de la propriété intellectuelle des modèles frontière, ou une coalition de circonstance dont l’agenda mêle sécurité nationale et protection concurrentielle ?

La distillation de modèles est une technique d’apprentissage automatique légitime et largement pratiquée. Elle consiste à utiliser les sorties d’un modèle dit « enseignant », puissant et coûteux à entraîner, pour former un modèle « élève » plus compact, qui en reproduit les performances à moindre coût de calcul. Les laboratoires américains eux-mêmes y recourent systématiquement pour dériver des versions optimisées de leurs propres modèles. La ligne de démarcation que tracent OpenAI, Anthropic et Google vise la distillation dite « adversariale » en anglais, adverse en français, des modèles propriétaires tiers, en violation des conditions d’utilisation.

Le sujet a cristallisé en janvier 2025, lorsque DeepSeek publie son modèle R1, dont les performances rivalisent avec celles des systèmes américains de pointe, à une fraction du coût de calcul déclaré. Microsoft et OpenAI ouvrent aussitôt une enquête pour déterminer si DeepSeek a extrait massivement des données des modèles d’OpenAI pour construire R1. En février 2026, Anthropic franchit un cran supplémentaire en accusnat nommément DeepSeek, Moonshot AI et MiniMax d’avoir conduit des campagnes à grande échelle contre ses modèles, 16 millions de conversations générées via plus de 24 000 comptes frauduleux, en contournant les restrictions géographiques par des serveurs mandataires commerciaux (proxies) et des grappes de comptes distribuées, baptisées « réseaux hydra », pour échapper à la détection.

Les arguments qui fondent la thèse de la menace réelle

OpenAI adresse parallèlement un mémorandum à la commission de la Chambre des représentants dédiée à la Chine, portant à leur connaissance des tentatives de distillation allant au-delà de l’extraction simple des chaînes de raisonnement, vers des approches multiétapes combinant génération de données synthétiques, nettoyage à grande échelle et optimisation par renforcement. Google signale de son côté une augmentation significative des tentatives d’extraction de capacités de ses modèles. C’est dans ce contexte que Bloomberg révèle, le 6 avril 2026, que les trois sociétés partagent désormais des informations opérationnelles via le Frontier Model Forum pour coordonner la détection de ces tentatives.

Le dossier factuel que les trois entreprises ont constitué est substantiel. Selon une analyse du Center for Security and Emerging Technology portant sur plus de 9 000 appels d’offres de l’Armée populaire de libération en 2023 et 2024, l’armée chinoise recourt activement à des modèles d’IA dans ses opérations, y compris des modèles DeepSeek. Un rapport de la Fondation Jamestown d’octobre 2025 documente l’usage de ces modèles dans des contextes militaires et de sécurité publique. Ce contexte confère à la distillation adverse une dimension qui dépasse la violation de conditions d’utilisation : si les modèles distillés sont ensuite diffusés en source ouverte sans les dispositifs de sécurité qui encadrent les modèles originaux, les capacités extraites, génération de code malveillant, assistance à la synthèse de substances dangereuses, se propagent hors de tout contrôle.

Anthropic a en outre renseigné un usage spécifique dans lequel les comptes frauduleux DeepSeek ont utilisé Claude pour générer des alternatives « compatibles avec la censure » à des requêtes politiquement sensibles, entraînant potentiellement les modèles chinois à esquiver les questions relatives aux opposants au Parti communiste. L’argument sécuritaire n’est pas uniquement rhétorique. OpenAI et Anthropic ont cumulativement dépensé plus de 18 milliards de dollars en calcul de recherche et développement depuis 2024, selon les données d’Epoch AI. La distillation adverse permet d’approximer ces capacités par simple accès aux interfaces de programmation (API), contournant partiellement les restrictions américaines sur les exportations de semi-conducteurs.

Les limites qui alimentent le scepticisme

La frontière entre distillation légitime et adverse est, de l’aveu même d’Anthropic, floue, car la technique est identique, seule l’autorisation fait la différence. Or Anthropic, comme ses concurrents, a été mis en cause plusieurs fois pour extraction non autorisée de contenus sur le web dans le cadre de l’entraînement de ses propres modèles. Cette symétrie fragilise la posture morale du plaidoyer.

Des experts interrogés par CNBC soulignent par ailleurs que les avancées de DeepSeek ne sont pas entièrement explicables par la distillation. Les sorties d’un modèle enseignant interagissent de manière imprévisible avec les données d’entraînement existantes du modèle élève et ne produisent pas toujours les améliorations escomptées. Certaines capacités, notamment celles acquises par apprentissage par renforcement, ne se transfèrent pas par distillation. La coopération entre rivaux reste par ailleurs strictement limitée au partage de renseignements sur les tentatives détectées, il n’existe pas de mécanisme d’application commun ni de capacité d’intervention coordonnée. L’administration Trump soutient la formalisation d’un centre de partage d’information sectoriel dans son plan d’action sur l’IA, mais ce dispositif n’existe pas encore.

Un précédent dont l’Europe devrait tirer les conséquences

Quelle que soit la part respective des motivations sécuritaires et concurrentielles, ce rapprochement entre OpenAI, Anthropic et Google établit un précédent structurant. Pour la première fois, des laboratoires frontier en compétition directe construisent une infrastructure commune de défense de leurs modèles. Le Frontier Model Forum, jusqu’ici principalement orienté vers la sécurité au sens de la sûreté des systèmes IA, acquiert une fonction nouvelle de protection de la propriété intellectuelle des modèles à l’échelle industrielle.

Pour les entreprises qui intègrent des modèles frontier américains dans leurs architectures, cette évolution a des implications. Les modèles distillés sans autorisation, et potentiellement sans les dispositifs de sécurité des originaux, pourraient circuler dans des offres tierces sans que leur provenance soit traçable. L’enjeu de qualification des fournisseurs de modèles, déjà pressant dans le cadre réglementaire NIS2 et AI Act, prend une dimension supplémentaire. Il ne s’agit plus seulement de savoir où les données sont hébergées, mais d’où viennent les capacités du modèle déployé. L’Europe, absente de ce consortium et dépourvue de laboratoire frontière en position d’y contribuer, observe une recomposition du marché mondial des modèles à laquelle elle ne participe pas.