Les entreprises ont de plus en plus en tête de leurs priorités la modernisation application, pour faire face à l’explosion des volumes de données à traiter et à l’émergence de nouveaux cas d’usage, notamment en lien avec l’IA, afin de s’aligner avec les attentes plus élevées des utilisateurs. Cela soutient un rythme lent mais constant d’adoption des architectures en conteneurs. De son côté, les nouvelles opportunités d’innovation créées par le marché de la virtualisation invitent les entreprises à rechercher une plus grande flexibilité et une indépendance stratégique. Face à ces nouvelles dynamiques, la virtualisation doit être repensée dans le cadre du paradigme cloud natif, en tirant à la fois parti des capacités d’orchestration désormais indispensables, en intégrant d’autres outils et environnements, et en préservant un maximum d’agilité.

L’évolution de l’IT, depuis la virtualisation jusqu’aux conteneurs

C’est pour optimiser l’usage des ressources matérielles, en particulier celle des serveurs physiques, qui étaient auparavant constitués d’un système d’exploitation et une application uniques pour limiter les risques de dépendances applicatives, donnant lieu à une utilisation en sous régime des ressources matérielles. L’utilisation de machines virtuelles (VM) a abouti à des environnements construits sur leur système d’exploitation et leurs ressources virtuelles propres, tout en étant isolés entre eux dans une même machine.

Les inconvénients de cette approche se sont révélés, à commencer par le besoin pour chaque VM de posséder son propre système d’exploitation, nécessitant aussi une consommation de ressources plus importante et impliquant des démarrages très longs. Une voie alternative a émergé, sous l’influence du cloud et du développement agile, en réponse aux besoins en agilité et en rapidité : celle des conteneurs, avec une logique différente. Ces derniers partagent un noyau commun du  système d’exploitation hôte et isolent uniquement les applications et leurs dépendances, au lieu de virtualiser le matériel. Ils se révèlent au final moins lourds que les VM, plus rapides à démarrer et moins énergivores en ressources, tout en étant également plus portables d’un environnement à un autre (développement, test, production, cloud).

Afin d’assurer la gestion, la mobilité et la continuité de services des conteneurs, leur déploiement doit se faire selon des mécanismes d’orchestration, en garantissant la disponibilité des applications même en cas de défaillance d’un nœud. Si l’orchestration reposait auparavant sur un empilement complexe de couches (machine physique, hyperviseur, machines virtuelles, outils de conteneurisation puis conteneurs), le modèle est simplifié pour les nouvelles architectures, et l’installation d’un orchestrateur de conteneurs directement sur la machine physique suffit désormais à remplir ces fonctions. Ce processus simplifié grâce à une couche d’abstraction réduite, s’appelle « virtualisation 2.0 ».

Gagner en agilité avec les microservices

En raison des économies qu’ils permettent de réaliser et du renforcement d’agilité qu’ils permettent, les principes d’architecture de microservices sont devenus un vecteur majeur de modernisation applicative. Ils sont conçus de façon découpée selon des modules indépendants, correspondant à des cas d’usage spécifiques et connectés aux autres par des APIs, ce qui les différencient des applications monolithiques et rigides. Les modules fonctionnent en autonomie depuis les conteneurs dans lesquels ils sont hébergés, accélération l’évolution fonctionnelle des applications et donc la valeur générée.

Cette dynamique permet de multiplier l’envergure de traitement uniquement sur les microservices qui peuvent constituer des blocages, selon une approche qui favorise l’optimisation ciblée, sans impacter l’ensemble de l’application. Cependant, il n’est pas possible d’appliquer ce modèle de façon universelle, car tous les types d’applications, en fonction des bases de données ou des logiciels sous-jacents, ne sont pas adaptés à une architecture en microservices.

La possibilité, au sein d’un même cluster, de faire cohabiter des composants applicatifs exécutés sur des conteneurs et d’autres déployés sur des machines virtuelles se révèle être un élément déterminant. Grâce à cette configuration, il devient possible d’assurer la cohérence de la gestion des environnements, même lorsqu’ils sont hétérogènes, tout en veillant à leur maintien en conditions opérationnelles

Avantages commerciaux tirés des innovations techniques

La modernisation est un processus continu et non ponctuel pour beaucoup d’entreprises. La réalité stratégique, sans que l’on puisse l’assimiler à un échec, c’est que 70 % des applications en moyenne sont encore sur des machines virtuelles. Il y a donc un enjeu business très clair : réussir à innover avec des services modernes basés sur des conteneurs, et plus particulièrement ceux qui s’appuient sur l’IA, tout en continuant de tirer parti de ces applications héritées essentielles?

Lorsque la gestion des environnements virtuels et conteneurisés est effectuée de manière isolée, cela introduit davantage de complexité, entraînant une hausse des coûts opérationnels et un frein à l’innovation. Cette situation peut être évitée grâce à la mise en œuvre d’une plateforme unifiée, au sein de laquelle machines virtuelles et conteneurs sont considérés et administrés comme des composants à part entière du même écosystème. Grâce à cette approche, ce qui constituait auparavant un défi purement technique se transforme en véritable levier de création de valeur. Les entreprises peuvent ainsi avancer à leur propre cadence dans leur processus de modernisation, en faisant évoluer progressivement leurs applications et en migrant les charges de travail des machines virtuelles vers des conteneurs, le tout sur une plateforme commune sans devoir procéder à un remplacement complet. Par ailleurs, la complexité opérationnelle est réduite grâce à la disparition des silos technologiques : un même ensemble d’outils sert désormais à la gestion, à la sécurité et à la mise en réseau, limitant les besoins de formation et les coûts associés. Enfin, l’innovation se trouve accélérée, car les équipes de développement disposent de la liberté de choisir l’architecture la plus adaptée à chaque projet, qu’il s’agisse d’une machine virtuelle ou d’un conteneur, tout en s’appuyant sur une base unifiée pour concevoir, déployer et administrer leurs applications.

La stratégie de virtualisation ne peut à présent plus être dissociée de la stratégie des chefs d'entreprise en matière de cloud et d'IA. Leur compétitivité dépend directement d décisions prises aujourd'hui, au sein d’un environnement de plus en plus dépendant des applications intelligentes. La meilleure façon d’assurer l’indépendance stratégique sans se cantonner à la feuille de route d’un fournisseur donné, c’est de choisir une voie fondée sur des normes ouvertes. Il ne s’agit pas de construire un nouveau silo, mais plutôt un pont vers l'avenir. Il revient aux entreprises et à leurs dirigeants d’avoir la capacité d’unifier leur présent et leur avenir, avec une plateforme cloud native.

Par Mos Amokhtari, Sr Manager Specialist Solutions Architects, Red Hat

publicité