Les prédictions de Hu Yoshida, Vice-Président et CTO d’Hitachi Data Systems, pour le marché du stockage et de la gestion de données, sont toujours très attendues.



L'Internet des objets et les objets connectés, vedettes de cette fin d'année, ne sont que la partie émergée d'un phénomène plus large, avec le cloud, le Big Data et la mobilité, qui impacte fortement le stockage des données. Considéré comme un des 'gourous' de ce domaine, les prédictions de Hu Yoshida, Vice-Président et CTO d’Hitachi Data Systems, font figure de prévisions pour les observateurs du marché.



2015 – 10 prédictions dans le stockage des données – HDS

1. L'informatique métier

La mobilité, le cloud, les réseaux sociaux et le Big Data sont les quatre grandes tendances qui vont favoriser la croissance durable de l'entreprise. Ces dernières passeront par une collaboration plus étroite entre l'informatique et les métiers. En 2015, les DSI actionneront plus habilement les leviers qui accompagnent ces tendances et consacreront une part plus importante de leur budget aux initiatives commerciales. De leur côté, les entreprises contrôleront davantage les dépenses informatiques.

Pour se concentrer sur les résultats de l'entreprise plutôt que sur l'infrastructure, les services informatiques devront adopter des technologies capables de faire converger, de coordonner, d'automatiser et d'intégrer leur infrastructure. Pour permettre aux DSI de se focaliser sur les résultats de l'entreprise, les fournisseurs devront donc coupler leurs produits à des solutions de coordination, d'automatisation et d'intégration, mais aussi fournir des logiciels de gestion et de reporting ainsi que des services adaptés à ce nouveau modèle informatique.

2. Accélération de l'adoption des plates-formes convergées et hyperconvergées

Capables de s'intégrer avec les systèmes et la pile applicative, les solutions convergées jouent un rôle moteur dans l'informatique métier. Les services informatiques vont commencer à s'intéresser davantage aux plates-formes convergées de pointe, qui peuvent être personnalisées, coordonnées et optimisées à partir d'un tableau de bord unique. La baisse des tarifs d'entrée de gamme, l'intégration plus étroite entre les logiciels et l'infrastructure, l'imbrication d'hyperviseurs sont autant de facteurs qui vont accélérer l'adoption des solutions convergées et hypercongervées.

Les solutions convergées d'entrée de gamme seront proposées à un tarif adapté aux petites et moyennes entreprises ainsi qu'aux sites distants et au back-office, et s'intègreront aisément dans les configurations en place. Les solutions hyperconvergées contribueront, pour leur part, à réduire les coûts des architectures évolutives, comme les serveurs web et les applications d'analyse MapReduce.

3. Gestion automatisée

En 2015, les entreprises investiront davantage dans les outils d'automatisation de la gestion. L'allocation des applications et la coordination des charges de travail reposeront désormais sur des modèles. L'automatisation de la gestion commencera par inclure la surveillance des exceptions, la génération d'alertes, l'analyse de la cause des problèmes et l'application automatique de mesures correctives. Sa mise en œuvre sera en outre facilitée par une infrastructure convergée dotée d'une couche de coordination rendant inutile l'association et le lancement de différents gestionnaires d'éléments. Les éditeurs informatiques devraient pouvoir partager ces meilleures pratiques sous forme de modèles exploitables à des fins d'automatisation.

4. Le « Software-defined »

Le concept du « Software-defined » aura le vent en poupe en 2015. C'est d'ailleurs sous cette bannière que nombre d'éditeurs commercialiseront leurs produits. Il représente une étape importante dans la simplification et l'automatisation de l'infrastructure informatique. De nouvelles entreprises arriveront sur le marché avec des logiciels prétendument de classe entreprise couplés à du matériel de base peu onéreux. Même si cette combinaison peut se révéler suffisante dans certains cas, l'ère du « Software-defined » exigera des équipements intelligents.

5. Nouvelle dimension de la virtualisation du stockage grâce à la virtualisation globale

Jusqu'ici, la virtualisation du stockage suivait un schéma vertical et reposait sur un moteur capable de virtualiser d'autres systèmes de stockage lui étant rattachés. La virtualisation globale va, pour sa part, s'étendre de manière horizontale à des systèmes de stockage pouvant être séparés par des distances plus ou moins importantes, créant ainsi des machines virtuelles avec un ensemble de ressources accessibles par plusieurs systèmes physiques.

L'avantage lorsque plusieurs systèmes de stockage gèrent la même image logique des données d'une application, c'est que cette dernière peut continuer à s'exécuter, même en cas de dysfonctionnement de l'un des systèmes. Ainsi, dans une configuration où deux systèmes de stockage sont actifs (actif/actif), l'application assure la cohérence des transactions lors de la panne de l'un des systèmes. Il s'agit d'un point particulièrement important pour les applications stratégiques qui doivent réduire la durée maximale d'interruption admissible (DMIA) et la perte de données maximale admissible (PDMA).

6. Une plus grande importance accordée à la restauration des données et à la gestion de leur protection

Les études montrent que la protection des données reste la principale préoccupation des responsables de datacenters. Le volume des données de sauvegarde continue d'exploser, ce qui augmente les DMIA et PDMA. L'enjeu pour 2015 est de réduire ces délais et pertes, tout en continuant à diminuer le coût de la protection des données. Diverses techniques seront mises en œuvre pour écourter les délais d'interruption : utilisation intensive des archives actives pour réduire la plage de travail nécessaire à la reprise, utilisation accrue d'instantanés et de clones basés sur des technologies de copie légères, stockage à l'état d'objet des données non structurées à répliquer mais pas à sauvegarder, synchronisation et partage de fichiers depuis un référentiel centralisé et mise à profit d'outils de chargement capables de répliquer du contenu dans un référentiel centralisé à des fins de reprise immédiate.

7. Optimisation de l'intelligence des modules flash d'entreprise

En 2015, les dispositifs à l'état solide (Solid State Devices) conçus pour le marché des ordinateurs standard seront remplacés par des modules flash d'entreprise, offrant la puissance de traitement nécessaire pour répondre aux exigences de performances, de durabilité et de capacité. De nouvelles technologies flash comme TLC et 3D NAND feront leur apparition pour augmenter la capacité des disques flash. Toutefois, les modules flash devront intégrer un plus grand nombre de données pour gérer la complexité accrue et la plus faible durabilité de ces technologies.

8. Le Big Data et l'Internet des objets

Le succès des outils d'analyse du Big Data, comme SAP HANA et Hadoop, qui renvoient des résultats en seulement quelques heures ou minutes, ne se démentira pas en 2015. Les plates-formes convergées et hyperconvergées préconfigurées accéléreront la mise en œuvre des applications orientées Big Data. Le Big Data de demain relèvera davantage de l'Internet des objets (IoT) et favorisera les communications machine-machine, ce qui aura un réel impact sur nos vies. L'Internet des objets va générer une multitude de nouvelles informations, qui pourront être exploitées pour créer améliorer et optimiser notre quotidien. En 2015, les sociétés informatiques s'associeront à des spécialistes de l'infrastructure sociale pour tirer pleinement parti du potentiel de l'Internet des objets.

9. Des « lacs de données » (Data Lake) pour analyser le Big Data

Si la demande de systèmes de stockage et de calcul évolutifs restera forte, de nouveaux modèles distribués et souples s'avèreront indispensables face à la multiplication des données non structurées et à l'intérêt qu'elles présentent pour l'analyse du Big Data. Ces « lacs de données » rassembleront d'énormes quantités d’information et seront accessibles par le biais d'interfaces web et fichiers. Des répliques seront générées pour assurer la protection des données. Par ailleurs, ces dernières n'étant pas actualisées, aucune sauvegarde ne sera nécessaire. Les ensembles de données volumineux seront protégés par un code d'effacement, qui garantira une restauration rapide. L'Open Source permettra de réduire le coût des licences, et les systèmes de calcul seront optimisés. La hiérarchisation automatique des données répondra pour sa part aux exigences de performance et de conservation à long terme. Des systèmes de stockage ne nécessitant aucune énergie pour conserver durablement les données se présenteront sous la forme de supports optiques ou à bande.

10. Le cloud hybride gagne du terrain

Le cloud hybride, qui allie cloud public et cloud privé, a le vent en poupe. Sachant que la plupart des données créées pour le Big Data et l'Internet des objets seront peu fréquemment consultées, il convient de miser sur un cloud public pour bénéficier d'un stockage à moindre coût. Ces données peuvent être transférées dans un cloud public via les protocoles RESTful, tandis que les métadonnées actives demeurent hébergées dans un cloud privé, derrière le pare-feu. Les données transférées doivent par ailleurs être partitionnées, de sorte qu'en les récupérant, il soit possible de comparer les différentes partitions et vérifier qu'aucune modification n'a été effectuée. Cette méthode permettra également de bénéficier de la souplesse nécessaire pour transférer des données d'un cloud public à l'autre, en fonction des besoins.