Amazon Web Services est confronté depuis peu à « des vents contraires temporaires ». Une situation que l’entreprise justifie par la volonté de ses clients de réduire les coûts.
« L’un des nombreux avantages d’AWS et de l’informatique en nuage est que lorsque votre entreprise se développe, vous pouvez augmenter sa capacité de manière transparente. Inversement, si vos affaires ralentissent, vous pouvez choisir de nous rendre cette capacité et cesser de la payer » expliquait il y a peu Andy Jassy dans une lettre adressée à ses investisseurs.
En effet, au cours des 15 dernières années, de nombreuses entreprises ont transféré leurs opérations vers des clouds opérés par AWS et quelques-uns de ses concurrents. Attirées par la promesse de réduire l’utilisation de leurs propres centres de données énergivores et d’être en mesure d’augmenter ou de réduire rapidement leurs processus informatiques en fonction des besoins, toutes n’ont cependant pas réalisé les économies d’argent escomptées, certaines ont même vu leurs factures augmenter.
Ainsi, selon une étude de 451 Research, 54 % des entreprises interrogées prévoyaient d’abandonner le traitement et/ou les données dans le cloud public en 2022. Parmi ces entreprises, 4 % prévoyaient de quitter entièrement le cloud public et 25 % de rapatrier plus de la moitié de leurs actifs en ligne sur site. 25 % des entreprises interrogées ont déclaré que leurs dépenses cloud dépassaient de plus de 30 % les budgets initialement prévus, et 42 % ont déclaré des dépenses dépassant de 10 à 30 % leurs prévisions.
La seule manière d’économiser avec le cloud consiste à décommissionner les ressources inutilisées. Cela ne correspond pas à toutes les charges et demande un niveau rare de maîtrise de l'infrastructure. Il faut analyser en permanence les ressources inutilisées et décider s’il est rentable de les conserver ou s’il est préférable de les décommissionner.
Or les entreprises attribuent les coûts additionnels du cloud au manque d’outils d’optimisation, au manque de transparence des prix de la part des hyperscalers ainsi qu’aux pics d’activité imprévisibles.
D’où le rapatriement sur site ou dans des clouds privés des infrastructures cloud et des volumes de données les plus faciles à réintégrer.
Les données froides (par exemple les données d’archivage, peu fréquemment utilisées) font partie des workloads éligibles dans les stratégies de « cloud repatriation ».
Rapatrier les traitements qui ont été basculés vers le cloud public sans avoir été profondément remaniés pour tirer pleinement parti des avantages de ce dernier en matière d’automatisation est également une méthode permettant une économie financière rapide exempte de prise de risque.
Les fournisseurs cloud à la recherche de la prévisibilité du revenu
Si les fournisseurs cloud continuent de faire usage de l’argument marketing de la flexibilité pour attirer les clients, force est de constater qu’elle n’a pas — pour eux — que des avantages, car elle les prive d’une capacité très recherchée par les entreprises : la prévisibilité du revenu.Or, si beaucoup d’entreprises du logiciel ont fait évoluer leur modèle économique vers le SaaS, c’est que ce format de vente permet de générer un flux constant et prévisible de revenus permettant de planifier le prochain trimestre de l’entreprise, fixer des objectifs ou encore convaincre un investisseur, rassurer un actionnaire…
Bases de données et adhérence au cloud
Le désir de prévisibilité du revenu explique peut-être en partie les efforts soutenus des fournisseurs cloud pour développer des offres complètes et très intégrées de bases de données.Il faut dire que la flexibilité dont parle Andy Jassy s’efface un peu une fois qu’un applicatif a été développé pour bénéficier pleinement des avantages du cloud : il devient plus difficile à en extraire.
Si l’infrastructure cloud disponible en tant que service (IaaS) est très peu verrouillée puisqu’il ne s’agit que de louer des machines virtuelles à l’heure, il en va autrement pour les applications développées en environnement « serverless » qui sont capables de configurer et provisionner de manière totalement automatisée la quantité exacte des ressources nécessaires pour effectuer leur travail, puis les remettre dans le « pool » cloud après utilisation. Les plateformes data et IA reposant sur les bases de données, data lake et data warehouse managés, mais aussi des systèmes tirant parti des capacités de calcul quantique du cloud public sont également concernées.
Dépendant fortement du fournisseur, elles ne sont pas éligibles au retour sur site, ni même à la migration d’un fournisseur vers un autre.
En effet, les fournisseurs de services cloud ne prennent pas en charge les services à valeur ajoutée de la même manière, notamment en ce qui concerne les services de base de données.
AWS, Google, Microsoft Azure, Oracle et IBM proposent ainsi des services de base de données cloud avec des API et des modèles de données qui leur sont spécifiques, ce qui rend difficile la migration vers un autre service ou l’utilisation de plusieurs fournisseurs pour une application, même en utilisant une base de données open source. Ces approches “propriétaires” peuvent mettre les clients en position de faiblesse dans les négociations et les enfermer auprès leur fournisseur actuel.
Dans le monde de la base de données, longtemps les entreprises ont essayé de se défaire de fournisseurs dont les pratiques en matière de tarification obscure, de menaces d’audits et d’audits effectifs faisaient peser un risque sur leur activité et leur rentabilité.
Encore régulièrement, le Cigref et son homologue européen EuroCIO s’indignent des comportements commerciaux d’Oracle ou SAP.
La volonté de se mettre à l’abri de leurs pratiques ont d’ailleurs permis en France et ailleurs une adoption rapide et forte de PostgreSQL, système de gestion de bases de données de classe entreprise offrant une alternative open source et communautaire aux bases propriétaires.
Il est important d’être attentif aux effets de verrous du cloud, quelle que soit la forme qu’ils peuvent prendre (licences, verrous technologiques). Même les coûts de transferts de données sont à prendre en compte : on rencontre peu de barrières à l'entrée dans le cloud, mais les barrières à la sortie peuvent devenir un frein à la migration ou à la rapatriation des données.
Le cloud ne fait pas exception et l’analyse des coûts est la première étape de la liberté technologique, car le coût n’est pas seulement une question de résultat, il représente aussi une mesure de l’efficacité, de la liberté d’usage et — par extension — permet une meilleure gestion du risque.
Par Étienne Bersac, Développeur logiciels senior, associé chez Dalibo