Devenue actif stratégique de l’entreprise, la donnée réclame de nouvelles architectures en équilibre entre l’explosion des volumes d’information, la chute des coûts du stockage, l’adaptation aux nouveaux besoins analytiques et l’évolution des environnements réglementaires.
Collectées, agrégées, stockées et archivées, les données sont une matière vivante est stratégique pour l’entreprise. Traditionnellement leur gestion repose sur deux approches, par métier où chacun construit son système selon ses besoins, et transverse pour la réconciliation de l’ensemble des métiers.
Cependant, ces approches souffrent de deux problèmes récurrents : le maintien de la qualité tout au long du cycle de vie de la donnée dans une chaine de production et de consommation hétérogène ; et des contraintes réglementaires, dont le RGPD ne sera certainement pas le seul épiphénomène.
Ajoutons à cela la prolifération des données avec le Big data, et les futurs usages avec l’Intelligence Artificielle, en particulier le Machine Learning et le Deep Learning.
Pour répondre aux attentes de l’entreprise et des métiers, et maintenir un niveau élevé d’excellence sur le donnée, les entreprises doivent revoir à la fois leur modèle structurel et leur modèle économique afin de faire évoluer leur architecture sur les données.
Ces nouvelles architectures s’articulent désormais autour de 5 composants :
1Le hub d’intégration et de traitement des signaux
Il prend en charge la collecte et le stockage des données brutes au sein d’un data lake, et peut s’appuyer sur des outils d’analyse de langage ou d’image pour extraire les données issues de canaux complexes (signal audio, vidéo, chatbot, mailbot).
2Le moteur d’exploration des données
S’appuyant sur un dictionnaire de données, il permet de gérer les métadonnées et de définir dynamiquement les liens et les entrées permettant l’accès aux données.
3Le moteur de contrôle d’intégrité et de conformité
Il contrôle la qualité et vérifie la conformité des informations tout au long de la chaine de traitement.
4L’assistant intelligent pour l’intendance des données
Les opérations de contrôle et de validation des intendants (data stewards) sont optimisées par des robots prenant en charge une partie des opérations d’enrichissement et de correction des données.
5La couche de visualisation et restitution des données
Les solutions de Machine Learning et d’analytiques offrent aux data scientists une nouvelle palette d’analyse et de restitution des données pour les décideurs.
Source : « Tech Trends 2018 » de Deloitte Insights
Image 519529548 @ iStock IkonStudio