Etat de l’Art du marché de la « Data Resiliency », de la Définition au Marché : un éclairage du Forrester.
La résilience est la capacité de résister aux chocs, savoir rebondir et lorsque cette définition s’applique à l’informatique, cela se transforme en la possibilité pour un système à surmonter une altération de son environnement et à continuer de fonctionner en cas de panne (selon Wikipédia). Et plus précisément, en ce qui concerne les données, il représente la protection des données et leur récupération en cas de sinistre. Bref un nouveau mot pour les opérations de sauvegarde et restauration d’antan. Mais pas seulement ...
Outil de « Data Resiliency » en pleine évolution
... En effet, les infrastructures ont évolué en quelque années et depuis l’apparition du Cloud, la tâche du Responsable des données s’est complexifiée à souhait car le On premise, le Cloud privé, le Cloud public ou le Cloud hybride se banalisent au sein des Systèmes d’Information (SI). Les outils ont non seulement dû s’adapter et tenir compte d’un système géographiquement éclaté mais également à faire face à de nouvelles technologies comme les containers ou à prendre en compte la rapidité des développements applicatifsvia les plateformes DevOps. Côté sécurité, les données sont aussi fragilisées du fait de nombreuses attaques de type ransomwares. Résultat, la « Data Resiliency » devient beaucoup plus en termes de fonctions que ce qu’elle n’était au départafin de prendre en considération tous ces nouveaux paramètres. Elle va au delà de la protection des données et deleur récupération selon le cabinet d’analyses. Car au défi du Cloud, s’ajoutent également des réglementations comme le RGPD qui imposent de nouveaux processus sur le traitement, le stockage ou l’utilisation des données.
Du fait de ces évolutions, le Forrester Research insiste auprès des entreprises pour qu’elles choisissent leurs nouvelles solutions de résilience de données en s’assurant que les fonctions de gestion de politiques, de récupération et de sécurité des données soient naturellement présentes au sein de leur outil mais également suffisamment développées pour répondre à toutes ces nouvelles contraintes.
Une gestion de la politique
L’éparpillement des données dû aux différents Clouds qui s’additionne aux environnements on premise, démultiplie les endroits de stockage et leurs techniques. Cela rend impossible d’envisager leur gestion sans une plateforme qui puisse également appliquer une politiqueunique etqui tienne compte de l’hétérogénéité des systèmes de stockage.
Récupération des données, une fonction critique
C’est une caractéristique qui doit être désormais considérée comme critique au sein de la future solution de Data Resiliency. Le Forrester préconise également une fonction qui permette une vision globale de ce qui est récupérable ou non à un instant précis.
Sécurité de l’outil de Protection
La sécurité a toujours été vitale en ce qui concerne les donnéesSource mais aujourd’hui elle inclut également celles dupliquées. Les derniers ransomwares s’attaquant à l’environnement de backup ont largement prouvé que sa protection est au moins aussi importante que celle de l’infrastructure source.
Un nouveau marché
L’évolution des infrastructures a également bouleversé le marché et d’anciens leaders du « Back Up & Restore » se retrouvent en simples compétiteurs (IBM ou Micro Focus) voire Challenger (Dell EMC). Seul Veritas réussit l’exploit de se classer en acteur bien noté en termes de performances aux côtés de startups devenues légitimes ces dernières années. Les leaders (Commvault, Rubrik, Cohesity ou Veeam) sont toutes de jeunes entreprises face aux dinosaures IBM ou Veritas.
Source : The Forrester Research