OpenAI vient d’officialiser la publication de GPT‑OSS, une famille de modèles à poids ouverts comprenant deux variantes de 20 et de 120 milliards de paramètres, respectivement adaptées aux environnements légers (postes de travail, mobiles) et aux infrastructures disposant de GPU haut de gamme. Présentés comme les meilleurs modèles « open » disponibles dans leur catégorie, ils peuvent être téléchargés, exécutés localement, et personnalisés par les entreprises ou les chercheurs. C’est une première pour OpenAI depuis GPT‑2, mais la manœuvre doit être replacée dans un contexte beaucoup plus large que celui de la simple publication de modèles IA.
Depuis un an, la dynamique de l’open source en intelligence artificielle a changé d’échelle. Meta a fait de la publication des poids de LLaMA une pièce maîtresse de sa stratégie d’influence dans l’écosystème des développeurs. Des acteurs chinois comme DeepSeek, Zhipu AI ou Moonshot investissent également dans des modèles ouverts performants, afin de créer des alternatives crédibles aux modèles états-uniens. L’objectif de ces initiatives dépasse la seule performance algorithmique : il s’agit de prendre pied dans l’infrastructure logicielle mondiale qui se redessine avec l’arrivée de l’IA générative.
Face à cela, OpenAI s’est longtemps tenue à l’écart. Malgré les critiques récurrentes sur son manque de transparence, notamment autour de GPT‑4 et GPT‑4o, l’entreprise a continué de privilégier un modèle fermé, reposant sur l’intégration profonde avec Azure et une logique de service commercial. Le lancement de GPT‑OSS intervient donc comme un geste symbolique fort, mais aussi comme une tentative de reprise en main d’un espace technologique en train de lui échapper.
Un modèle open core plutôt qu’open source
En y regardant de plus près, GPT‑OSS relève davantage d’un modèle « open core » que d’une réelle ouverture. Si les poids sont bien accessibles et publiés sous licence Apache 2.0, aucun détail n’est fourni sur les jeux de données d’entraînement, les recettes d’optimisation, ni les pipelines internes d’évaluation. De même, le modèle repose sur une architecture MoE (Mixture of Experts), dont la structure exacte n’est pas documentée. Ce flou permet à OpenAI de préserver ses avantages compétitifs tout en répondant à la pression de l’écosystème sur la question de l’accessibilité technique.La manœuvre n’est pas sans rappeler celle de Meta avec LLaMA : publier les poids, tout en gardant sous contrôle la gouvernance, les évolutions et l’exploitation commerciale. Sam Altman le reconnaît d’ailleurs à demi-mot : cette ouverture vise moins la transparence que l’utilité. Il s’agit de fournir aux développeurs et aux entreprises des outils immédiatement exploitables dans de nombreux cas d’usage, notamment pour des exécutions en local ou des intégrations dans des chaînes applicatives existantes.
Un jeu stratégique tourné vers les entreprises et les États
GPT‑OSS répond à un triple enjeu : reprendre l’initiative face à la concurrence, répondre aux critiques sur la fermeture de GPT‑4, et séduire les entreprises et les administrations soucieuses de souveraineté numérique. D’ailleurs Orange a été l’un des premiers à annoncer le déploiement de ces modèles. L’exécution locale d’un modèle OpenAI est désormais possible sur Windows 11 avec des GPU haut de gamme, via le programme Windows AI Studio piloté par Microsoft.C’est un virage important dans la stratégie d’adoption : les entreprises peuvent désormais tester, personnaliser, et auditer les modèles sans dépendance directe à un service cloud. Microsoft, actionnaire clé d’OpenAI, trouve ici un nouvel argument pour renforcer sa proposition sur les postes de travail professionnels et les architectures hybrides.
Sur le plan technique, OpenAI positionne GPT‑OSS comme une alternative ouverte sérieuse dans la gamme des modèles de milieu de spectre, mais sans rivaliser avec ses offres commerciales les plus avancées. Le modèle gpt‑oss‑120b, qui mobilise une architecture Mixture of Experts (MoE), active 5,1 milliards de paramètres par token, ce qui permet d’atteindre un bon compromis entre performance et coût de calcul. Il obtient un score de 2622 au benchmark Codeforces, utilisé pour évaluer les capacités de raisonnement algorithmique, contre 2516 pour la version 20 b.
Un taux d’hallucinations encore trop élevé
Ces résultats situent les deux modèles devant DeepSeek R1 ou Qwen3, mais encore en retrait par rapport aux modèles propriétaires o3 ou o4-mini. Sur le benchmark Humanity’s Last Exam (HLE), l’un des plus exigeants en raisonnement généraliste, gpt‑oss— 120 b atteint 19 % de bonnes réponses, soit mieux que les modèles open source concurrents, mais loin du niveau d’un GPT‑4-turbo entraîné à très grande échelle.En revanche, la fiabilité des réponses demeure une limite importante. OpenAI indique un taux d’hallucination de 49 % pour gpt‑oss— 120 b dans le benchmark PersonQA (centré sur la connaissance des personnalités publiques), contre 36 % pour o4-mini et seulement 16 % pour le modèle o1. Autrement dit, GPT‑OSS progresse sur le terrain de l’accessibilité et de la personnalisation, mais reste fragile sur les terrains critiques du BtoB que sont la précision, la factualité et la maîtrise des connaissances spécifiques. Pour les entreprises, cela signifie que GPT‑OSS peut constituer une bonne base de développement local ou d’expérimentation contrôlée, mais devra être encadré par des mécanismes de vérification ou d’orchestration sémantique s’il est utilisé dans des contextes sensibles.
Tenir compte de leurs limites
Dans un cadre professionnel, les modèles GPT‑OSS peuvent être mobilisés pour une large palette d’applications, à condition de tenir compte de leurs limites. Leur exécution locale ou dans des environnements maîtrisés permet d’envisager des cas d’usage tels que la classification de documents, la génération de contenus internes, l’assistance à la rédaction technique, la création d’agents spécialisés ou encore l’intégration dans des workflows RAG (Retrieval-Augmented Generation).Le support d’un contexte étendu jusqu’à 128 000 jetons et la possibilité d’ajuster le raisonnement via des chaînes de pensée paramétrables renforcent leur pertinence pour des cas où la structure du raisonnement importe autant que le résultat immédiat, typiquement dans les secteurs juridiques, réglementés ou industriels à forte exigence documentaire.
En revanche, le niveau élevé de fabrication de réponses erronées ou inventées limite leur usage dans les domaines où la fiabilité factuelle est critique : réponses automatisées en service client, traitement de données financières sensibles, assistance médicale ou production de contenus à diffusion externe. Pour ces usages, le recours à des modèles plus robustes, ou à des combinaisons hybrides incluant des vérifications factuelles,
reste préférable.
GPT‑OSS peut toutefois jouer un rôle important dans les environnements où la confidentialité des données interdit le recours à des API cloud externes, ou lorsque les équipes IT souhaitent expérimenter des modèles à coût maîtrisé sans dépendre de licences restrictives. Il devient alors un levier stratégique pour tester des cas d’usage à faible risque, affiner des prototypes, ou préparer une montée en charge vers des
modèles plus avancés.
Le grand écart entre modèle fermé et vitrine ouverte
La coexistence de GPT‑OSS et des modèles GPT‑4/4o illustre un nouveau dualisme dans la stratégie d’OpenAI. D’un côté, des modèles commerciaux à la pointe, fermés, monétisés par API et intégrés à ChatGPT. De l’autre, une gamme de modèles à poids ouverts, conçus comme vitrines technologiques, outils de démocratisation contrôlée et leviers d’influence dans l’écosystème des développeurs. Cette segmentation permet à OpenAI de se repositionner sur le terrain du « logiciel libre » tout en conservant le cœur de son modèle économique basé sur le SaaS et l’hébergement propriétaire.Ce grand écart n’est pas propre à OpenAI. Il reflète une tendance plus large : celle des grands éditeurs qui cherchent à concilier l’ouverture stratégique et le verrouillage technologique. L’ouverture des poids devient une monnaie d’échange pour gagner en influence, en part de marché ou en adhésion communautaire. Mais les clés de la valeur
— architecture, données, pipeline d’inférence, performances temps réel — restent fermement gardées. Les entreprises clientes exigent désormais plus que l’accès à une API cloud : elles veulent comprendre, adapter, et contrôler les modèles qu’elles déploient. Dans ce contexte, proposer des modèles véritablement ouverts ne s’apparente pas à une simple extension de gamme, mais à un réalignement stratégique sur le besoin de personnalisation locale et de contrôle technique exprimée par les développeurs, les intégrateurs et les
responsables IT.
De nouvelles possibilités de prototypage rapide
Pour les DSI et directions techniques, GPT‑OSS ouvre de nouvelles possibilités : prototypage rapide, de déploiement local, de compatibilité avec des environnements contraints. Mais les performances restent en deçà de GPT‑4o, notamment sur les tâches de synthèse complexe, les interactions multimodales et la compréhension fine du langage métier. Ces modèles s’adressent donc à des cas d’usage ciblés : agents spécialisés, RAG local, interfaces conversationnelles simplifiées ou prétraitement de données.Reste à savoir si cette ouverture sera maintenue dans le temps ou si elle s’apparente à une parenthèse tactique. Les prochaines annonces d’OpenAI — notamment autour de GPT‑5 et des agents autonomes, permettront de mesurer si cette inflexion s’inscrit dans une dynamique durable ou si elle relève d’une manœuvre circonstancielle face à la montée des modèles alternatifs.