Si les ressources quasi illimités du Cloud, tant en capacité de stockage que sur le traitement de la donnée, en font un outil de prédilection pour le Big Data, la migration vers le nuage fait l'objet d'idées reçues, dont nous décortiquons les 10 plus répandues.
Dans la famille des idées reçues dans les IT, le Big Data en tient lourd aux pieds. Normal pour une approche de l'analytique de la donnée qui se veut volumique, nous direz-vous ! Nous répondrons par : idées fausses. La preuve.
1 – Certaines données sont trop lourdes
Certes, le support des données non structurées est une porte ouverte sur des fichiers dont la taille dépasse largement les formats classiques de données et dont la structure ne se prête pas au découpage. Cependant, le raisonnement en taille de fichier est généralement lié à l'usage du protocole FTP (File Transfer Protocol), dont nous connaissons les limites. De nouveaux protocoles, plus modernes, plus puissants, sont aujourd'hui disponibles et permettent le transferts des gros fichiers en mode SaaS.
2 – Le transfert prend trop de temps
Corolaire à la première idée fausse, le protocole TCP (Transfer Control Protocol) sur lequel reposent FTP et HTTP affiche en effet une latence qui n'a pas d'effet sur les transferts courants, mais qui en revanche peut rendre le transfert de gros fichiers peu fiable, voire inefficace. Là encore, de nouvelles technologies d'accélération des transferts offrent la capacité d'éliminer des temps de latences, comme les risques de perte de données, et d'accélérer les transferts.
3 – La bande passante n'est pas suffisante
C'est une idée qui est encore véhiculée par les opérateurs de réseaux. Sauf que ce n'est pas l'augmentation de la bande passante, coûteuse, qui aura le plus grand effet sur la vitesse de transfert des données, mais plutôt la réduction de la latence. C'est pourquoi l'achat d'une bande passante supplémentaire n'est pas toujours justifiée, alors que la réduction de la latence permettra d'optimiser l'usage de la bande passante disponible.
4 – Le déplacement du Big Data vers le cloud coûte cher
Ce n'est pas le déplacement qui coûte cher, mais l'acquisition ou l'agrandissement des tuyaux, surtout qu'un gros tuyaux est rarement utilisé au maximum de sa capacité. Le modèle du SaaS, avec sa facturation à la consommation, donc à la donnée déplacée, se prête à résoudre cette difficulté.
5 – C'est un fardeau pour mes équipes
C'est vrai, la création, le déploiement et la gestion des instances de machines virtuelles dans le cloud, tout comme l'intégration de certaines solutions, sont des démarches complexes, qui demandent de l'expertise, et consomment énormément de ressources internes. Là encore, le modèle SaaS trouve sa place en déportant la gestion des environnements, jusqu'à leur dimensionnement, vers l'opérateur de la solution.
6 – Est-ce que cela en vaut la peine ?
Les organisations qui tentent d'adopter le Big Data s'interrogent sur l'opportunité d'ajouter une couche de complexité supplémentaire avec le Cloud à des projets réputés difficiles. C'est oublier que le stockage et l'analytique dans le cloud ont des effets immédiats, mais également sur le long terme, face à des capacités de stockage comme de traitement qui ne peuvent qu'augmenter.
7 – Il n'y a pas un mais plusieurs clouds
Si chaque environnement de Cloud dispose de sa propre solution, évidemment différente des autres et nécessitant des déploiements spécifiques, les éditeurs de solutions Big Data en mode SaaS permettent de ne s'abonner qu'à une solution unique, qui automatise la gestion et la bascule entre les différents clouds retenus par l'entreprise. Ce qui peut également permettre de bénéficier de leurs spécifités et/ou tarifs.
8 – La complexité du passage du datacenter au cloud
Lorsque la donnée est dispersée, le processus de transfert vers le nuage généralement retenu passe par une centralisation sur un datacenter central, puis un transfert vers le cloud. L'opération est fastidieuse, double le volume des transferts, donc le temps et les ressources, et augmente les risques. C'est oublier la nature distribuée du Cloud. Pour éliminer la répétition et accroitre l'efficacité du transfert, il faut profiter des capacités offertes d'accès direct à l'emplacement où est physiquement la donnée.
9 – C'est trop technique
Le Big Data dans le Cloud serait trop technique pour les utilisateurs finaux ? Les architectures unifiée sont gérées par les opérateurs du SaaS, ce qui rend leur utilisation beaucoup moins complexe, et pour un coût réduit. A l'opposé, sur une solution interne à l'entreprise, le transfert de fichier peut se révéler être une tâche complexe, réservée aux équipes de la DSI, et en effet pas aux utilisateurs.
10 – La sécurité en question
Alors que de nombreuses entreprises hésitent à confier leurs données à des opérateurs qui sont loin d'elles, et craignent pour leur sécurité, toutes les organisations qui ont tenté l'aventure reconnaissent que ces mêmes opérateurs affichent autrement plus de compétences et de moyens qu'elles ne peuvent en disposer en interne. Les couches de sécurité prennent place au dessus du nuage de l'opérateur, le chiffrement est incontournable, et les meilleures pratiques s'appliquent chez le fournisseur. En est-il de même dans l'entreprise ?
Si cette vision milite pour la migration du Big Data dans le Cloud, elle se révèle en revanche très américaine dans son approche. Du coup, elle en oublie deux éléments essentiels : la localisation des opérateurs et de la donnée – qui peuvent la placer sous le regard et la coupe d'administrations que l'organisation ne souhaite pas ou n'est pas légalement autorisée à intégrer dans la boucle - , et la sensibilité de cette dernière qui ne se prête pas à ce qu'elle circule dans des infrastructures qui ne sont ni contrôlées ni sécurisées par l'entreprise.
Image d'entête iStock @ kmlmtz66