Adopté par un nombre croissant d’organisations, l’hébergement cloud serverless allège la gestion des services et applications. Quant aux conteneurs, ils permettent un contrôle plus personnalisé de l’environnement cloud. Datadog dresse un état complet des lieux dans un rapport récent.

Dans son étude, Datadog définit en préambule le terme serverless par sa mise en œuvre dans au moins un des services suivants : Amazon ECS Fargate, Amazon EKS Fargate, AWS App Runner, Google Kubernetes Engine Autopilot, Google Cloud Run, Azure Container Instances et Azure Container Apps. Ces derniers fournissent, gèrent et dimensionnent l’infrastructure nécessaire qui devient transparente pour les développeurs d’applications. Le serverless est encore en quête de maturité mais 46 % des organisations utilisant les containers y ont à ce jour recours contre 31 % il y a deux ans.

L'utilisation du calcul basé sur les GPU a augmenté pour les charges de travail conteneurisées

Les GPU (Graphics Processing Unit), traditionnellement utilisés dans le traitement d’images et vidéo, sont désormais également utilisés pour entraîner efficacement les grands modèles de langage (LLM) des IA génératives. Datatog a observé, sur un an, une augmentation de 58 % du calcul par les instances GPU conteneurisées.

Les instances basées sur Arm pour les charges de travail conteneurisées ont plus que doublé

Datadog constate que les systèmes Arm, optimisés pour les conteneurs, peuvent réduire les coûts de 20 % par rapport aux instances x86 d’Intel, en raison de leur consommation d'énergie et de leur production de chaleur plus faibles. Pour rappel, ARM rassemble sur une seule puce (SoC) le microprocesseur, le processeur graphique (GPU), le contrôleur de périphériques et autres composants électroniques de contrôle.

Plus de la moitié des organisations Kubernetes ont adopté l'élasticité des pods

Cela permet aux organisations d’obtenir une bonne expérience utilisateur et des performances d'application fluides lors des pics de trafic. Autre avantage, réduire les coûts d'infrastructure pendant les périodes de faible activité en ajustant automatiquement le nombre de pods (un pod Kubernetes est un ensemble composé d'un ou plusieurs conteneurs Linux). A noter, plus de 65 % des charges de travail Kubernetes utilisent moins de la moitié de l'unité centrale et de la mémoire disponibles. Une sous-utilisation notable.

Les bases de données et les serveurs web sont les principales charges de travail pour les conteneurs

Plus de 41 % des organisations utilisant des conteneurs hébergent désormais des bases de données et serveurs web sur des conteneurs. En revanche, dans une architecture serverless, le client n'est responsable que de la fourniture de la fonction sans serveur (Faas) et ne connaît pas les ressources informatiques sous-jacentes. Point important, la facturation ne se fait qu’en fonction de la consommation des ressources.

Node.js reste le principal langage pour les conteneurs

Dans le rapport de Datadog, Node.js reste en tête des langages de programmation les plus populaires pour les conteneurs, suivi par Java et Python, une tendance identique à l’analyse effectuée en 2019. Les applications construites sur Node.js sont légères et évolutives ce qui en fait un premier choix pour leur déploiement en tant que conteneurs.

Containerd devient un runtime prédominant pour les conteneurs

Containerd est un outil d'exécution de conteneur, souvent associé à Docker mais pouvant être utilisé à sa place. Disponible sous forme de daemon (processus en arrière-plan) pour Linux et Windows, Containerd peut gérer le cycle de vie complet du conteneur de son hôte. Au cours de l'année écoulée, l'adoption de Containerd a fortement augmenté. Ainsi d’après le rapport de Datadog, 53 % des organisations utilisant des conteneurs font appel aujourd’hui à Containerd, contre seulement 23 % il y a un an et 8 % il y a deux ans.