La société américaine, historiquement spécialisée dans les réseaux de diffusion de contenu (CDN), revendique aujourd’hui un positionnement distinct sur le marché, à mi-chemin entre la cybersécurité, le cloud et les plateformes de traitement de données
à grande échelle.
Cloud Inference permet aux entreprises de déployer des modèles d’inférence IA — qu’il s’agisse de modèles de langage étendus ou de modèles plus légers, adaptés à des cas d’usage métier spécifiques — au plus près des terminaux et des utilisateurs. L’offre s’adresse aux développeurs et ingénieurs IA à la recherche de performances accrues, de coûts réduits et de meilleure proximité avec les sources de données. Akamai annonce des gains sensibles en matière de débit (multiplié par trois), de latence (réduite jusqu’à 2,5 fois), et surtout de coûts, avec des économies allant jusqu’à 86 % sur les charges de travail d’inférence, en comparaison avec les infrastructures hyperscale traditionnelles.
Pour les applications à faible latence
L’offre repose sur plusieurs piliers technologiques. Concernant le calcul, Akamai propose une large gamme d’options, allant des processeurs classiques aux GPU optimisés pour l’IA, intégrés à l’écosystème Nvidia (Triton, TensorRT, Tao Toolkit, NvFlare), jusqu’aux processeurs ASIC spécialisés. Côté gestion des données, le partenariat avec Vast Data permet de proposer un stockage d’objets évolutif et un accès en temps réel aux données, avec un support natif pour des bases vectorielles telles qu’Aiven ou Milvus, nécessaires à la génération augmentée de récupération (RAG).Plusieurs cas d’usage illustrent l’approche défendue par Akamai : assistance vocale embarquée dans les objets connectés, suivi agricole par l’IA, optimisation des visuels pour le commerce en ligne, réalité augmentée pour l’expérience client, génération automatique de descriptions produit ou encore analyse des avis consommateurs. Ces exemples témoignent d’un intérêt croissant pour des applications à faible latence, où le traitement des données doit être rapide, localisé et sécurisé.
En matière d’orchestration, l’infrastructure repose sur Kubernetes, avec un support complet pour les projets open source Kserve, Kubeflow ou SpinKube, le tout intégré à la plateforme Kubernetes Entreprise de Linode — racheté par Akamai en 2022.
L’inférence gagne à être décentralisée
Enfin, Akamai mise aussi sur l’exécution serverless et les fonctionnalités WebAssembly (WASM) pour permettre l’exécution de l’inférence directement en périphérie, à partir d’applications légères. Cette approche permet d’améliorer la réactivité tout en limitant les transferts de données vers des centres de traitement distants.La stratégie défendue par Akamai prend appui sur un constat partagé par nombre d’analystes : alors que la formation des grands modèles de langage restera probablement concentrée dans des centres de données hyperscale, l’exécution — ou inférence — de ces modèles gagne à être décentralisée. Cette évolution alimente une demande croissante pour des solutions capables d’exploiter les données là où elles sont produites, dans des délais très courts, pour des décisions plus rapides et plus intelligentes.
Une nouvelle étape stratégique pour Akamai
C’est précisément à cette demande que répond Cloud Inference. Le positionnement d’Akamai reflète également un changement d’état d’esprit parmi les entreprises utilisatrices d’IA. L’engouement initial pour les LLM a souvent éclipsé des solutions d’intelligence artificielle plus ciblées, pourtant mieux adaptées aux réalités opérationnelles. Là où les LLM restent coûteux et complexes à entraîner, les modèles IA plus légers — intégrant des données propriétaires — permettent de répondre à des problématiques spécifiques avec une meilleure rentabilité.Avec cette nouvelle solution, Akamai franchit une étape stratégique. En se positionnant sur le segment de l’inférence et de l’IA distribuée, la société ne cherche pas à concurrencer frontalement les hyperscalers, mais à occuper une place différenciante dans la chaîne de valeur. En capitalisant sur son infrastructure de diffusion et ses partenariats avec Nvidia, Vast Data et la communauté Kubernetes, Akamai ambitionne de devenir un acteur central de l’IA opérationnelle, au plus près des usages métiers. Les projections de croissance du marché mondial de l’inférence justifient pleinement le virage stratégique pris par Akamai pour s’y insérer avec une approche originale, fondée sur la connectivité, la proximité et l’optimisation des ressources.