En quelques années, Kubernetes s'est affirmé comme l'API par défaut pour la gestion des infrastructures de containers. Quatre-vingt-douze pour cent des quelques 1 300 spécialistes de l'IT interrogés par la Cloud Native Computing Foundation il y a un an ont déclaré que leur organisation utilisait des conteneurs en production, soit un bond de 300 % depuis 2016. Et 83 % ont déclaré utiliser Kubernetes pour gérer le cycle de vie de leurs conteneurs. À l'approche du huitième anniversaire de sa création en 2014, la technologie Kubernetes a dépassé le stade d'outil d'orchestration de conteneurs plutôt rudimentaire, conçu pour un usage interne chez Google, pour devenir la plateforme privilégiée pour le déploiement, la surveillance et la gestion d'applications et de services dans les cloud avec une communauté open-source dynamique qui la soutient. Qu'attendre pour la suite ?

L'approvisionnement en bare metal, un standard pour les clusters sur le edge

Une telle évolution est non seulement souhaitable pour le cloud public, mais aussi pour les déploiements sur le edge. Kubernetes fournit en effet une API consolidée pour le déploiement d'applications et de conteneurs. Or, les déploiements sur le edge signifient généralement beaucoup plus de sites et les équipes d'exploitation veulent toujours utiliser la même interface que celle qu'elles utilisent avec le cloud public. La différence majeure avec le cloud public est toutefois que les serveurs physiques doivent être gérés par ces mêmes équipes, à une époque où le déploiement et la configuration manuels des serveurs ne sont plus souhaitables. Les intégrations standardisées entre Kubernetes et le bare métal sont donc tout aussi importantes.

L'utilisation de clusters K8s à un seul nœud pour le edge va s'accélérer

Les sites Edge avec une seule machine seront de plus en plus importants. Sur certains sites, l'application ne justifie pas une redondance matérielle ou il n'est pas économiquement viable de le faire. Toutefois, il est souhaitable de conserver l'API Kubernetes pour le déploiement des applications et la gestion de leur cycle de vie.

Les offres Kubernetes de production, petites et agiles, sont parfaitement adaptées aux petits déploiements. Il est essentiel de pouvoir proposer Kubernetes sur des clusters à un seul nœud.

Kubernetes en bare metal sera la solution par défaut pour toutes les nouvelles stations 5G

L’industrie des télécoms s’efforce toujours de trouver des moyens plus efficaces de déployer des applications. L’architecture 5G a désagrégé de nombreuses fonctions, ce qui permet de les conteneuriser et de les déployer sur du matériel COTS (commercially available off-the-shelf, souvent appelées CNF (Cloud Native Functions). La maturité de Kubernetes permet aujourd’hui de déployer et de gérer les CNF de manière plus efficace. Cela permet également une standardisation sur une abstraction d’infrastructure. Par conséquent, la méthode privilégiée pour déployer les stations de base 5G et les fonctions associées sera via Kubernetes.

Les charges de travail AI/ML ou VR/AR seront fournies à la périphérie sur Kubernetes en bare metal

En raison de la façon dont ces applications utilisent du matériel tel que les GPU, elles sont plus faciles à déployer et offrent des performances supérieures sur du bare metal. L’intelligence artificielle et le machine learning créent des gains d’efficacité en se rapprochant des données qu’elle traite. La réalité virtuelle et augmentée bénéficie quant à elle du fait d’être plus proche des utilisateurs. Dans le cas de la VR/AR, c’est en raison de la réduction de la latence vers l’utilisateur final.

Pour l’IA/ML, le traitement des données en informations significatives plus près de l’endroit où elles sont générées réduit les besoins de stockage central et abaisse le débit du réseau. Le streaming de jeux où le moteur de jeu fonctionne en périphérie bénéficiera également d’une latence réduite. Comme pour les autres applications, le déploiement de ces applications à la périphérie est plus facile et plus efficace d’un point de vue opérationnel lorsqu’on utilise Kubernetes, il faut donc s’attendre à ce qu’elles soient également déployées en tant que conteneurs sur du métal nu.

La multi location sur le Edge verra davantage de solutions open-source basées sur les machines virtuelles.

L’isolation basée sur les VM est importante lorsque la sécurité la plus stricte est nécessaire et l’hébergement des locataires sur du matériel partagé est le facteur clé de cette évolution. Les solutions open source seront donc de plus en plus adoptées à la périphérie. Elles apportent un riche ensemble de fonctionnalités et offre la possibilité de réduire les dépenses d’investissement pour la gestion des VM. Les conteneurs et l’orchestration via Kubernetes resteront importants.

Comme le montrent ces cinq prédictions, Kubernetes continue de mûrir pour s’affirmer comme une technologie de transformatrice pour le déploiement de logiciels. Alors que la solution fête ses 8 ans, il est clair qu’elle n’a pas encore révélé tout son potentiel.

Par Alex Chalkias, product manager Kubernetes chez Canonical