Les stratégies multicloud ont généré une complexité accrue, et dans leurs efforts pour monitorer et gérer des environnements en perpétuelle évolution, les équipes chargées des infrastructures se retrouvent submergées de données.
Bâtir la résilience grâce à l’IA est un des nouveaux paradigmes post-crise, censés permettre aux entreprises de surmonter les prochaines crises. Par ailleurs, les organisations se tournent massivement vers des architectures multicloud dans le but d’atteindre l’agilité et la mise à l’échelle dont elles ont besoin pour suivre la cadence de la transformation numérique.
Ces stratégies multicloud ont généré une complexité accrue, et dans leurs efforts pour monitorer et gérer des environnements en perpétuelle évolution, les équipes chargées des infrastructures se retrouvent submergées de données. Elles consacrent donc davantage de temps à des tâches manuelles de routine, ce qui limite leur capacité à se concentrer sur l’innovation, et met en lumière le besoin croissant de faire appel à l’intelligence artificielle et l’automatisation. Selon Dynatrace, « la progression des environnements multicloud sonne le glas des approches traditionnelles de monitoring des infrastructures ».
Cinq plateformes cloud en moyenne par entreprise
Dans une étude sur les défis rencontrés par les entreprises qui utilisent des architectures multicloud (The move to multicloud environments has broken traditional approaches to infrastructure monitoring), Dynatrace révèle que 99 % des organisations utilisent un environnement multicloud, avec en moyenne 5 plateformes différentes, incluant notamment AWS, Microsoft Azure, Google Cloud Platform, et IBM Red Hat. Menée auprès de 1 300 DSI et professionnels de l’IT impliqués dans la gestion des infrastructures, l’étude met en lumière l’empilement des couches applicatives au fil du temps.
Elle révèle que les organisations s’appuient en moyenne sur 7 solutions différentes de monitoring des infrastructures pour gérer leurs environnements multicloud, ce qui, pour 57 % d’entre elles, complique l’optimisation des performances et de la consommation de ressources de leur infrastructure. En effet, chaque environnement cloud est fourni avec son propre outil de supervision, de sorte que les équipes chargées de l’infrastructure sont obligées de passer de plus en plus de temps à rassembler manuellement des informations provenant de divers tableaux de bord.
La gestion de l’infrastructure pèse de plus en plus sur les ressources
En conséquence, l’infrastructure est devenue plus difficile à gérer, épuisant les ressources et empêchant les équipes de donner la priorité aux tâches qui stimulent l’innovation. Pour 58 % des responsables informatiques, la gestion de l’infrastructure pèse de plus en plus sur les ressources en raison de l’utilisation accrue des services dans le cloud, ce qui oblige les équipes à passer constamment d’une solution et d’un tableau de bord à l’autre pour obtenir des informations.
En outre, les environnements Kubernetes produisent d’importants volumes de données que les équipes utilisent pour les informations nécessaires à leur optimisation. Souvent, ce processus est manuel, ce qui oblige les équipes à passer de plus en plus de temps à analyser les données et les tableaux de bord. Qui plus est, cette tâche est sur le point de devenir encore plus chronophage, car l’adoption universelle de technologies et de normes d’observabilité ouvertes s’ajoute au déluge de données.
Selon le rapport, les responsables informatiques déclarent que les angles morts de l’observabilité dans leurs environnements deviennent un risque accru pour la transformation numérique, car les équipes se retrouvent sans moyen facile pour surveiller leurs technologies de bout en bout. Par conséquent, les équipes ont besoin d’une nouvelle approche qui améliore la visibilité sur les environnements multicloud et automatise les tâches manuelles et routinières, afin d’avoir plus de temps à consacrer au développement de l’entreprise.