Les données sont plus largement et plus facilement disponibles qu’auparavant. Mais il reste encore des limites. Certains  règlements empêchent ou limitent l'accès aux données. Dans d'autres cas, il s'agit de processus qui permettent uniquement aux spécialistes de la data ou aux services informatiques de les traiter. Comment dès lors développer une architecture data centric ?

L'objectif des entreprises était de dé-siloter et de décloisonner l'ensemble de leur SI pour arriver à avoir une information fiable en temps réel. Cet objectif repose notamment sur le cloud et les outils du Big Data.

En préambule à un projet orienté data centric, il est donc important de commencer par unifier les applications on-premise et celles qui sont dans le cloud. Cet objectif nécessite de favoriser la compatibilité des applications, afin que les données puissent circuler plus facilement et qu’elles alimentent un Data Lake.

De manière générale, une architecture centrée sur les données possède cinq attributs clés :

  • Un accès rapide aux données partagées : c’est la raison pour laquelle des organisations s’intéressent au stockage d’objets. Il est possible d’accéder aux données et aux métadonnées via des API ou un navigateur en https. Par ailleurs, il n’y a pas de limite sur le type ou la quantité de métadonnées, ce qui rend le stockage d’objets puissant et personnalisable.
  • Sur demande et automatisé : la normalisation et l'automatisation de l'architecture de stockage favorisent l’accès et le traitement à la demande. La livraison automatisée favorisera l'innovation et permettra de réduire les coûts ;
  • Une sécurité renforcée : l'infrastructure interne et externe doit être conçue et gérée de façon à assurer la confidentialité des données sensibles. C’est d’ailleurs une obligation du RGPD (référence à la coresponsabilisation du Responsable du traitement et de ses sous-traitants) ;
  • Une flexibilité : les volumes de stockage doivent pouvoir être déplacés facilement vers et depuis le cloud. Par exemple, le stockage objets permet de répliquer les données sur différents data centers ;
  • Une évolution permanente : les utilisateurs s'attendent à ce que le cloud soit toujours accessible (d’où la nécessité de revoir précisément les SLA pour la disponibilité…). L'infrastructure de stockage de l’entreprise doit également être conçue et administrée de façon à être améliorée en permanence tout en limitant au maximum les coupures (pas d’accès aux données).

Mais la réussite d’un tel projet implique une évolution des méthodes de travail, en particulier du côté des opérations. Les changements doivent se faire de la manière la plus naturelle possible.

Cela implique d'aller vers une approche de type DevOps.