Une étude souligne des perceptions différentes entre les spécialistes de la data et les métiers à propos des processus décisionnels. Les principaux points de divergence portent sur l’efficacité des architectures de données, la gestion des données, voire des données proprement dites.

La data, une source de conflit en interne ? Intitulée « The Future of Data Architecture », l’étude de Precisely (spécialisé dans l’intégrité des données) constate un écart de confiance entre les équipes de gestion et d’analyse des données et leurs interlocuteurs métier.

Il y a des divergences majeures quant à la façon dont l’architecture et la gestion des informations sont perçues au sein des entreprises. Si les équipes chargées des fonctions analytiques et des données centrales se disent globalement satisfaites de la viabilité future de leur environnement de données, les utilisateurs métier estiment que l’architecture existante n’est pas suffisamment moderne pour répondre à des besoins en constante évolution.  

Des données pas adaptées

  S’appuyant sur les réponses d’environ 300 professionnels de différents secteurs (IT, finance, secteur public, retail), cette étude indique que 70 % des utilisateurs métier sont convaincus que les applications analytiques et de gestion des données mises en œuvre ne satisfont pas à leurs besoins présents ou futurs.

Par contre, seul un tiers des équipes chargées des fonctions analytiques et des données centrales partagent le même sentiment. Par ailleurs, 52 % des utilisateurs professionnels reconnaissent que les données existantes ne sont pas adaptées aux analyses métier nécessaires, contre seulement 36 % des équipes de gestion et d’analyse des données.

Le fossé est significatif entre ces dernières et les principales parties prenantes, les utilisateurs métier estimant ne pas être en mesure de s’appuyer sur des données fiables pour prendre des décisions en toute confiance.

L’étude met par ailleurs en exergue les principaux défis que doivent relever les business managers :  
  • L’augmentation des exigences en temps réel ou quasi réel (41 %)
  • l’aptitude à comprendre le paysage ou l’architecture des données dans son ensemble (39 %)
  • la flexibilité des exigences élargies concernant les données (32 %).
  Les principaux leviers de la modernisation sont l’optimisation des modèles et des processus de données existants, la migration vers des plateformes cloud et les initiatives permettant d’améliorer la qualité des données sources ou des interfaces de données.  

Des approches centralisées

  En dépit des défis soulevés par la prolifération des sources de données hétérogènes, l’étude révèle que 50 % des entreprises amenées à refondre leur architecture de données continuent de s’appuyer sur les datawarehouses comme modèle de conception.

Cependant, les dirigeants et les utilisateurs métier déplorent l’incapacité des approches centralisées à empêcher l’émergence de nouveaux silos de données. Résultat, les entreprises cherchent à améliorer leurs données sources pour rationaliser leurs pipelines de données et créer de meilleures bases pour la virtualisation des données.

« Sans une stratégie claire et précise en matière d’intégrité des données, ces entreprises vont rapidement se rendre compte que les données qui nourrissent leurs décisions les plus importantes sont inexactes, incohérentes et dénuées de contexte vital », indiquent Emily Washington, Senior Vice President, Product Management de Precisely.