Les entreprises désireuses de tirer le meilleur parti possible du cloud pour le stockage, l’accès, la gestion et la protection de leurs données, sont confrontées à des défis inédits qu’elles doivent prendre en compte en amont de leurs projets– faute de quoi elles pourraient se trouver face à différents types de risques (sécurité insuffisante, conformité réduite, barrières technologiques) ou tout simplement à des coûts inattendus.
Responsabilités partagées : trop d’entreprises ont encore une perception erronée
Beaucoup d’entreprises sont encore persuadées que le fait de confier leurs données à un fournisseur de service cloud revient à se décharger de la plupart des responsabilités liées à ces données. Cela est pourtant rarement le cas, comme très souvent directement stipulé sur les sites web des fournisseurs de services cloud majeurs. Ceci est par ailleurs aligné au RGPD, où les entreprises restent responsablesaux yeux de la loi, du traitement et de la protection des données personnelles de leurs clients.Ensuite, les fonctionnalités de protection, de récupération, et plus généralement de sécurité face aux cyberattaques et leurs conséquences, restent de la responsabilité de l’entreprise, a minima dans la plupart des contrats. Les fournisseurs se portent garants, à travers leurs conditions générales de vente, quand il s’agit d’assurer un certain degré de disponibilité du service et s’engagent à le rétablir en cas d’interruption. Par défaut, ils ne s’engagent que très rarementintégralement sur la protection des données stockées ou sur leur rétablissement. Et dans le meilleur des cas, il est peu probable que le dédommagement prévu pour la perte de données soit suffisant pour couvrir le coût réel d'un incident de ce type.
Au moment de la signature d’un contrat avec un fournisseur de services cloud, il est important pour les entreprises d’identifier précisément le périmètre de chacune des parties en termes de responsabilité et de s’assurer qu’aucun aspect ne passe entre les mailles du filet.
Coûts du cloud : attention aux mauvaises surprises
Le plus souvent, c’est la facture qui réserve les plus grosses surprises aux entreprises. Les grands fournisseurs de services de cloud ont fait d’énormes progrès sur la lisibilité des coûts et il est aujourd’hui plus facile pour les entreprises d’évaluer ce que sera leur première facture. Ceci à condition qu’elles aient une description claire et précise de leurs charges de travail et de leurs volumes de données.Toutefois,une augmentation de la consommation des services cloud n’entrainera pas nécessairement une évolution linéaire du montant figurant sur la facture et celui-ci sera même parfois difficile à prédire. Le volume de données stockées n’est en effet qu’un des facteurs associés au calcul de la consommation totale. La fréquence d’accès, les échanges inter applicatifs ou les transferts depuis et vers d’autres fournisseurs – de plus en plus fréquents avec l’avènement du multicloud – ne sont que quelques-uns des facteurs qui peuvent rendre le calcul de la facture finale complexe. En d’autres termes, à moins que l’entreprise ne renonce à déployer de nouveaux services, son architecture applicative va généralement en se complexifiant, souvent exponentiellement. La facture a tendance à suivre la même trajectoire, particulièrement si l’architecture n’est pas dans les canons du cloud native.
Le poids de l’héritage en matière de stockage
Les outils natifs fournis par les opérateurs de cloud publics ont évolué en faveur des clients, mais restent souvent incomplets et limités. En effet, ils sont conçus pour gérer et orchestrer les rares situations où les charges de travail sont intégralement cloud natives et single cloud. Une approche FinOps peut aider à maîtriser les coûts mais son succès repose largement sur l’architecture des applications déployées. Si celle-ci est héritée d’infrastructures privées fondées sur des structures de coûts différentes, il sera difficile d’accomplir des miracles. L’alternative qui consiste à la modernisation d’une stack applicative ancienne et complexe peut s’avérer tout aussi coûteuse, voire impossible sur le plan technique… ou faute de talents.En ce qui concerne les architectures de données et leurs protections, des outils tiers existent pour limiter la croissance ou les doublons inutiles. Ainsi,ils permettent aux entreprises de tirer le meilleur parti des différents tiers de stockage offerts par les fournisseurs de cloud selon l’importance des données et les besoins en termes d’accès. Ils peuvent agir en amont par identification des données éligibles à la migration. Tout comme avant un déménagement, un tri et une réorganisation peuvent aider à limiter les coûts. Ils peuvent continuer d’agir en aval pour réduire au maximum l’empreinte de stockage, avec des technologies de déduplication globale.
Les talents et l’expertise sont déterminants
Tirer le meilleur parti possible du cloud et de ses technologies et appliquer les meilleures pratiques en vigueur dans ce domaine requiert des talents, qui restent aujourd’hui encore, rares. C’est du reste sans doute une des explications du succès croissant du SaaS et plus récemment du DBaaS.Comme ils sont rares, ces talents sont chers et potentiellement assez volatiles. Le recrutement et la pérennisation de tels profils dans une équipe peut faire grimper la facture de manière substantielle. Malheureusement, faute de talents, il sera difficile de tirer le meilleur parti des technologies modernes qu’offre le cloud. S’ilest tout à fait possible pour les entreprises de faire appel à des intégrateurs spécialisés et d’autres partenaires pour bénéficier d’un apport ponctuel ou durable d’expertise,celles-ci devront le prendre en compte dans le calcul final de leurs coûts.
La sécurité, catalyseur du risque
Tout comme pour les infrastructures privées, la sécurité est un casse-tête grandissant qui concentre tous les aspects précédemment évoqués. Les entreprises ont besoin de talents spécifiques pour élaborer une protection robuste contre les risques qui peuvent impacter leurs opérations. La sécurité dans le cloud repose en effet sur des paradigmes particuliers, et donc sur des structures de coûts différentes qui peuvent bouleverser les prédictions en cas d’attaque. La protection et le cas échéant le retour à la normale des opérations, peuvent obéir à des mécanismes différents qui ne seront qu’amplifiés par la complexité du multicloud. Cette année, les attaques par ransomware ont à elles seules causé des dégâts matériels et réputationnels colossaux, et le contexte géopolitique actuel invite tout un chacun à voir ce contexte s’intensifier. La résilience devient un enjeu majeur.Il est clair que sur le plan technologique, les cloud publics offrent des atouts indéniables, susceptibles d’aider les entreprises à devenir plus compétitives, notamment en facilitant le déploiement et la croissance de nouveaux services. Peu d’entreprises dans le monde disposent des ressources suffisantes pour répliquer dans des infrastructures privées le niveau de flexibilité ou d’élasticité qu’offrent les grands fournisseurs de cloud mondiaux, d’autant que ceux-ci font évoluer leurs services à un rythme soutenu. Sur le plan économique en revanche, le calcul est moins évident. Les coûts bruts peuvent sembler compétitifs mais la migration dans le cloud d’une infrastructure préexistante exige des compétences différentes et des outils spécifiques. Comprendre en amont quels seront les besoins pour franchir les obstacles contractuels, technologiques et humains tout en maintenant des coûts compétitifs et une posture de sécurité suffisante, est la clé pour une migration pertinente qui ouvre la voie à l’innovation.
Par Daniel de Prezzo, Head of Technology Southern Europe chez Veritas Technologies