Avec sa gamme progressive de services IA, OVHcloud cherche à conjuguer maîtrise technologique, accessibilité économique et souveraineté numérique. Gilles Closset, Global AI Ecosystem Leader chez l’hébergeur européen, détaille une stratégie produits structurée en trois paliers, pensée pour accompagner toutes les maturités d’usage, de la start-up exploratoire au grand compte en production.
Quels sont les trois niveaux de l’offre IA d’OVHcloud ?
Nous proposons trois services complémentaires. Le premier, c’est la fourniture directe de puissance de calcul, avec toute la gamme de GPU NVIDIA disponibles à la demande. Le deuxième niveau, AI Deploy, permet de transformer un modèle dans un conteneur en une API scalable. Enfin, le troisième niveau, AI Endpoints, donne accès à un catalogue de modèles utilisables par simple appel API, sans besoin d’infrastructure ou de compétence IA. Ces trois niveaux répondent à des besoins très différents en termes d’expertise, de gouvernance et d’usage.
Pourquoi cette approche modulaire est-elle stratégique ?
Parce que le marché est très fragmenté. Certains clients savent ce qu’ils veulent et cherchent seulement une capacité de calcul. D’autres ont besoin d’un service managé. D’autres encore veulent juste intégrer un modèle dans leur application sans se soucier de l’architecture. Cette progressivité permet de faire monter les clients en autonomie, de tester, d’itérer, de produire… ou de revenir en arrière si besoin. Et surtout, cela permet d’ajuster les coûts à l’usage réel, ce qui est clé en phase exploratoire.
AI Deploy permet-il de gérer des modèles personnalisés ?
Oui. C’est même l’un de ses cas d’usage principaux. Une entreprise peut prendre un modèle open source, le fine tuner avec ses données métier, puis l’exécuter dans AI Deploy comme une API privée. L’originalité de notre solution, c’est la capacité à définir ses propres métriques d’autoscaling, y compris sur la charge GPU. C’est un différenciateur important pour les cas complexes ou sensibles, où les besoins ne sont pas standards.
Quel est le rôle d’AI Endpoints dans votre stratégie ?
AI Endpoints rend l’IA accessible à tous. Il s’agit d’un service serverless avec une quarantaine de modèles disponibles, en génération de texte, de code, d’audio ou d’embedding. Il n’y a rien à déployer : on consomme à la requête, au token. C’est idéal pour les développeurs qui veulent tester des modèles dans leurs outils, comme dans VS Code avec KiloCode, ou dans des orchestrateurs no-code comme N8n. C’est aussi une solution parfaite pour les POC, les MVP ou les cycles courts.
Quels types d’entreprises utilisent ces services ?
On voit trois grandes catégories. Les start-ups d’abord : plus de 75 % d’entre elles intègrent l’IA d’une manière ou d’une autre, et nous en accompagnons environ 800 par an. Ensuite, les grands groupes et institutions qui cherchent à passer à l’échelle, comme France Travail, qui a déployé deux assistants IA sur notre infrastructure. Enfin, les sociétés de services qui bâtissent leurs offres sur nos briques, en combinant modèle, données, et orchestration métier.
Qu’est-ce qui freine les projets IA à fort impact métier ?
Ce sont les plus ambitieux, mais aussi les plus risqués. Une étude du MIT estimait que 95 % des POC IA transformationnels échouent à passer en production. Les raisons en sont la complexité technique, l’instabilité des réponses, le ROI incertain, et le manque de méthode. On peut avoir un prototype qui fonctionne, mais qui coûte trop cher à déployer à l’échelle. Il faut savoir cadrer, découper, prioriser, et surtout accepter que tout ne peut pas être automatisé en une seule étape.
Comment OVHcloud conçoit-il la souveraineté numérique ?
Nous la concevons comme un triptyque. D’abord, la souveraineté des données, à la fois en matière de cybersécurité et de juridiction (Cloud Act, FISA…). Ensuite, la souveraineté technologique : logiciels ouverts, interopérables, réversibles. Enfin, la souveraineté opérationnelle : maîtrise industrielle, serveurs conçus en France et au Canada, équipes locales. Beaucoup s’arrêtent à la certification SecNumCloud, mais cela ne garantit pas une indépendance réelle. Nous visons les trois étages.
Vos modèles sont-ils vraiment découplés des grandes plateformes ?
Oui. Les modèles proposés dans AI Endpoints sont majoritairement open source. Certains, comme Mistral ou DeepSeek, ont des performances proches des modèles propriétaires. Une fois déployés sur notre infrastructure, ils ne communiquent avec aucun serveur externe. Le client peut aussi les exporter pour les exécuter ailleurs. Cette réversibilité est au cœur de notre promesse. Même les modèles d’OpenAI récemment ouverts sont intégrés dans notre catalogue.
OVHcloud s’aligne-t-il sur la vague des agents IA ?
Oui. Nos modèles supportent le function calling, ce qui les rend compatibles avec des scénarios d’orchestration. Cela permet à des outils comme KiloCode ou N8n de les intégrer comme moteurs d’agents. On voit émerger des agents métiers dans le marketing, la finance, la relation client. Nous ne fournissons pas les orchestrateurs, mais nous soutenons tout l’écosystème qui les construit. Et nous investissons sur ce terrain car les agents seront la norme en 2025.
La question du coût devient centrale. Quelle est votre réponse ?
Nous anticipons un changement de paradigme. Les grands modèles sont aujourd’hui financés à perte par des levées de fonds, ce qui fausse le marché. Demain, il faudra optimiser. Cela passe par la spécialisation : entraîner un petit modèle bien calibré pour une tâche métier. C’est moins coûteux, plus rapide, plus sobre. Et cela permet de mobiliser des GPU plus anciens, donc moins chers. Nous allons proposer en 2025 une offre complète de fine tuning as a service pour aider les entreprises à franchir ce cap.
En résumé, quel cap stratégique OVHcloud suit-il dans l’IA ?
Nous voulons une IA utile, soutenable et souveraine. Utile, car elle doit répondre à des besoins concrets. Soutenable, parce qu’elle doit s’intégrer dans une logique économique et écologique réaliste. Souveraine, enfin, car elle ne doit pas créer de dépendances critiques. C’est cette combinaison qui structure notre feuille de route IA pour 2025 et au-delà.