Chaque endpoint, ou point de terminaison, correspond à un modèle d’intelligence artificielle spécifique — un grand modèle de langage, un moteur de transcription vocale ou un générateur d’image — que les développeurs peuvent interroger à distance en envoyant une requête, et obtenir une réponse instantanée. L’utilisateur n’a ainsi plus besoin de déployer ni de gérer l’infrastructure d’IA sous-jacente : tout est pris en charge par OVHcloud, du calcul GPU à la montée en charge automatique, dans un cadre souverain et respectueux des normes européennes.
Cette nouvelle offre s’insère dans la stratégie du groupe dans le domaine de l’intelligence artificielle, avec des arguments de poids : garantir la maîtrise des données, la transparence des modèles et une approche écoresponsable. Concrètement, AI Endpoints permet d’intégrer des fonctions avancées d’IA dans des logiciels ou processus internes, sans expertise en apprentissage automatique. Le service est accessible à la demande. Il est facturé à l’usage, sur la base du nombre de jetons traités par les modèles.
Abstraire la complexité de l’infrastructure
Les usages couverts sont variés : génération de texte en langage naturel pour des assistants conversationnels ou des copilotes métier, extraction automatique de données dans des documents, transcription de la parole, synthèse vocale ou encore assistance au développement logiciel. Pour chaque cas d’usage, OVHcloud met à disposition un environnement de test (sandbox) permettant d’expérimenter les modèles avant leur intégration dans les environnements de production.AI Endpoints vise autant les grandes organisations que les PME et les éditeurs de logiciels. Il répond à une double problématique fréquente dans les projets IA : la complexité de mise en œuvre et la dépendance aux plateformes non européennes. En masquant totalement la couche d’infrastructure, et en offrant une bibliothèque de modèles open source déjà optimisés et déployés dans ses datacenters, OVHcloud propose une solution directement opérationnelle, qui respecte les exigences du RGPD et les contraintes de souveraineté
des données.
La plateforme s’appuie sur les infrastructures françaises du groupe, notamment le centre de données de Gravelines, qui bénéficie d’un système de refroidissement à eau, pour réduire l’empreinte carbone de l’inférence IA. Ce volet environnemental, rarement mis en avant dans l’IA générative, devient un facteur différenciant dans un contexte de pression réglementaire croissante autour de la performance énergétique des datacenters.
Plus de quarante modèles d’IA validés
L’offre de lancement inclut plus de 40 modèles d’IA couvrant les besoins les plus courants des entreprises : grands modèles de langage comme Llama 3.3 ou Mixtral, modèles compacts optimisés pour les usages embarqués, générateurs de code comme Codestral Mamba ou Qwen Coder, modèles multimodaux ou encore moteurs de transcription et de synthèse vocale. Tous sont proposés en version open weight ou poids ouverts en français, qui désigne un modèle d’intelligence artificielle dont les poids du réseau de neurones— c’est-à-dire les paramètres appris durant l’entraînement — sont rendus accessibles au public. Cette ouverture permet aux entreprises de redéployer les modèles en local ou dans d’autres environnements si elles le souhaitent.
Avec AI Endpoints, OVHcloud complète une stratégie IA engagée depuis plusieurs années : de la fourniture d’infrastructures GPU à la mise à disposition d’un service d’entraînement de modèles, en passant par des partenariats avec des acteurs comme Mistral AI ou Hugging Face. L’entreprise continue d’enrichir son offre pour se positionner comme un acteur européen de référence. Cette approche pourrait séduire aussi bien les administrations publiques que les banques, les acteurs de la santé ou les éditeurs de solutions métier, tous confrontés au besoin d’industrialiser rapidement des cas d’usage d’IA sans compromettre leur autonomie stratégique.