Multiverse Computing, éditeur européen de logiciels d’IA, annonce une nouvelle phase de développement centrée sur la compression des grands modèles de langage et le déploiement d’applications full-stack dans les secteurs réglementés. Avec 100 millions de dollars de revenus annuels récurrents en 2025, une croissance de 300 % par rapport à 2024 et un objectif de 85 % supplémentaires en 2026, l’entreprise ibérique accélère son expansion française.
Multiverse Computing est un éditeur de logiciels d’IA fondé et basé à Donostia–San Sebastián, en Espagne, présent également aux États-Unis, au Canada et en Europe. Son positionnement original est inhabituel dans le secteur : l’entreprise applique des techniques d’inspiration quantique, c’est-à-dire des algorithmes qui s’appuient sur les principes mathématiques de la mécanique quantique sans nécessiter d’ordinateur quantique, pour optimiser les modèles d’IA classiques. C’est cette base de recherche fondamentale qui a produit CompactifAI, sa technologie de compression de LLM.
Un positionnement dicté par la nécessité : les organisations ont massivement expérimenté l’IA générative depuis 2023, mais se heurtent désormais au coût réel du déploiement industriel. Les LLM de référence, entraînés sur des infrastructures GPU de plusieurs centaines de millions de dollars, consomment des ressources de calcul disproportionnées en phase d’inférence. Pour les entreprises qui doivent passer de prototypes à des services de production à faible latence, intégrés dans des environnements contraints, systèmes embarqués, infrastructures air-gapped, environnements souverains sans connexion cloud, la question du coût computationnel et de la portabilité des modèles a pris de l’ampleur.
HyperNova 60 réduit les coûts d’inférence de 50 % à 80 %
C’est précisément ce point de friction que Multiverse Computing adresse avec sa technologie CompactifAI. En compressant des LLM de référence, Llama de Meta, GPT-OSS d’OpenAI, Qwen d’Alibaba, DeepSeek, sans dégradation mesurable de la précision, l’entreprise produit des modèles déployables sur des matériels standard, voire sur des terminaux mobiles à terme. Cette approche s’appuie sur des techniques d’inspiration quantique issues de la recherche fondamentale de l’entreprise, dont l’article « Quantum Computing for Finance : Overview and Prospects » a été cité plus de 1 000 fois dans la littérature académique, aux côtés de travaux d’IBM, D-Wave, IonQ et Quantinuum.
Le modèle HyperNova 60, lancé en janvier 2026, illustre concrètement les gains produits par CompactifAI. Selon les données publiées par Multiverse Computing, ce modèle fonctionne de 2 à 12 fois plus vite que les LLM de référence comparables, tout en réduisant les coûts d’inférence de 50 % à 80 %. Pour un DSI qui opère une plateforme de traitement documentaire ou de détection de fraude en production, ce différentiel a des implications directes sur le dimensionnement des clusters GPU et sur le coût total d’exploitation du service. À infrastructure constante, un facteur de compression suffisant permet de multiplier le débit de requêtes ou de réduire le nombre de nœuds de calcul nécessaires.
La même logique s’applique à BlackStar 12B, second modèle lancé simultanément. Plus compact que HyperNova 60B, il cible les cas d’usage où la contrainte matérielle est maximale : edge computing industriel, systèmes embarqués en aéronautique, équipements médicaux sans connexion réseau. Dans ces contextes, la performance brute est secondaire par rapport à la capacité à fonctionner de manière autonome avec une empreinte mémoire et énergétique minimale. Multiverse Computing a par ailleurs rendu accessible gratuitement la version open source d’HyperNova 60B ainsi qu’une version non censurée de Qwen3-Next-80B-A3B-Thinking, une décision qui élargit l’accès à sa technologie à la communauté des développeurs et accélère les retours terrain sur les performances réelles des modèles.
Pour les équipes d’architecture qui évaluent ces solutions, le paramètre critique n’est pas uniquement la vitesse d’inférence mais le ratio précision/coût en conditions réelles de production. Les benchmarks publiés par les éditeurs de modèles compressés doivent être validés sur les données métier spécifiques de l’organisation, notamment dans des domaines à fort enjeu de précision comme la détection de fraude financière ou le diagnostic médical. Multiverse Computing revendique ici un avantage différenciateur : la capacité à adapter la compression au cas d’usage, plutôt qu’à appliquer une réduction uniforme.
Se positionner sur la proposition souveraineté
L’ancrage de Multiverse Computing en France passe par de prestigieux noms. L’entreprise accompagne déjà le Crédit Agricole, Natixis (BPCE), Allianz France, Renault et Airbus, soit un panel représentatif des secteurs financier, industriel et aéronautique. Ces références couvrent des cas d’usage hétérogènes, automatisation de processus internes, analyse de risques, traitement de documents réglementaires, qui partagent une contrainte commune : l’impossibilité ou la réticence à externaliser les données traitées vers des infrastructures cloud non maîtrisées.
C’est précisément la proposition souveraineté qui structure l’expansion française prévue en 2026. Le déploiement on-premise de modèles compressés répond directement aux exigences de la RGPD, mais aussi aux recommandations de l’ANSSI sur le traitement des données sensibles dans les organismes d’importance vitale (OIV) et les opérateurs de services essentiels (OSE). Pour les DSI du secteur public et de la défense, la capacité à opérer un LLM performant sur une infrastructure physiquement isolée, sans dépendance à un fournisseur cloud américain, représente un critère d’éligibilité et non un simple avantage compétitif. Michel Kurek, CEO de Multiverse Computing France, formule cet enjeu sans ambiguïté : « L’enjeu aujourd’hui n’est plus seulement d’avoir accès à des modèles puissants, mais de pouvoir les exploiter à grande échelle tout en maîtrisant les coûts, la consommation énergétique et les exigences de conformité. »
Pour soutenir cette expansion, quatre recrutements sont prévus en 2026 sur les fonctions commerciales et techniques en France. Ce renforcement local est cohérent avec la nature des cycles de vente dans les comptes de grande taille : les déploiements en banque, assurance ou défense nécessitent des interlocuteurs capables d’adresser simultanément les équipes DSI, RSSI et conformité, dans un contexte réglementaire français spécifique. La présence locale est un prérequis opérationnel, et non un signal marketing.
Réduire la consommation des charges d’inférence
La dimension énergétique de la compression des LLM est souvent traitée comme un argument secondaire derrière le coût et la performance. Elle est pourtant en train de devenir un critère de décision primaire pour les entreprises, soumises à des objectifs de réduction de l’empreinte carbone du numérique. En France, la directive CSRD impose depuis 2024 aux grandes entreprises un reporting extra-financier incluant la consommation d’énergie liée aux infrastructures IT. Les charges d’inférence IA, en croissance exponentielle, sont désormais un poste visible dans ces bilans.
Un modèle qui fonctionne 2 à 12 fois plus vite sur la même infrastructure signifie mécaniquement une réduction proportionnelle du temps de calcul par requête, et donc de la consommation électrique associée. À l’échelle d’une plateforme traitant plusieurs millions de requêtes par jour, comme un système de détection de fraude bancaire ou un assistant de souscription assurantielle, les économies d’énergie générées par CompactifAI constituent un levier de reporting ESG mesurable. Cette articulation entre performance technique et conformité réglementaire extra-financière est un argument que les DSI peuvent faire valoir auprès des directions générales dans leurs arbitrages d’investissement IA.
Multiverse Computing positionne par ailleurs ses modèles compressés comme une réponse aux contraintes matérielles des environnements edge. Dans l’aéronautique et la défense, les systèmes embarqués opèrent avec des enveloppes énergétiques strictes, imposés par l’alimentation par batterie ou la dissipation thermique limitée. La capacité à faire tourner un modèle de langage performant sur ce type de matériel, sans recours à une liaison satellite ou réseau, ouvre des cas d’usage inédits pour les systèmes d’aide à la décision tactique ou la maintenance prédictive hors ligne.
Une levée de 215 millions de dollars pour l’extension sectorielle
La levée de fonds de 215 millions de dollars réalisée en 2025 donne à Multiverse Computing la surface financière nécessaire pour exécuter une stratégie d’expansion qui dépasse le seul marché de la compression de modèles. L’entreprise annonce son intention d’adresser en 2026 trois nouveaux secteurs : l’industrie manufacturière, la grande distribution et les télécommunications. Ces verticals partagent des caractéristiques communes — volumes de données élevés, contraintes de latence en production, besoin de personnalisation sectorielle — qui correspondent au positionnement de Multiverse Computing.
Dans les télécommunications, les opérateurs évaluent l’IA pour l’optimisation réseau en temps réel, la détection d’anomalies sur infrastructure et le support client automatisé à grande échelle. Les contraintes de latence et de volume de requêtes dans ces environnements rendent les LLM standards difficilement exploitables sans une couche de compression. Dans l’industrie, les cas d’usage de maintenance prédictive et de contrôle qualité visuel nécessitent des modèles déployables sur des contrôleurs industriels avec des ressources de calcul limitées. La grande distribution, enfin, opère des systèmes de recommandation et de gestion des stocks dont la scalabilité dépend directement du coût marginal de chaque inférence.
Avec le label « Champion 2025 » de Systematic Paris-Region — premier pôle de compétitivité Deep Tech européen — et plus de 100 clients actifs, Multiverse Computing aborde 2026 avec une base de validation industrielle suffisante pour accélérer les cycles de vente dans ces nouveaux secteurs. L’enjeu de la prochaine phase de croissance sera moins technologique que go-to-market : démontrer que les gains mesurés chez Crédit Agricole ou Airbus sont reproductibles dans des environnements IT manufacturiers ou télécom, avec des équipes techniques et des contraintes d’intégration substantiellement différentes.























