Les organisations privées et publiques font face aujourd’hui à d’importants défis en termes de coûts, de complexité de gestion et de talents qui freinent l’exploitation efficace des données. Investir dans une architecture fédérative devient un impératif.

La croissance exponentielle du volume et de la vitesse des données n’est pas nouvelle mais elle devient de plus en plus difficile à gérer. Le recours accru au multicloud, la réglementation, le nombre en augmentation de sources de données uniques et la pénurie de profils qualifiés sont des enjeux essentiels pour les entreprises. Ce sont les principaux enseignements de l’étude A New Architecture to Manage Data Costs and Complexity du Boston Consulting Group (BCG) qui dessine 3 tendances fortes. D’une part, un volume et une vitesse des données en fort accroissement, ensuite des cas d’utilisation qui se démocratisent avec les « citizen data scientists », enfin, des progrès technologiques qui poussent les tarifs à la hausse. Dans le rapport du BCG, plus de la moitié des DPO déclarent que les architectures de données atteignent à ce jour une complexité critique. Autre préoccupation, le nombre total de fournisseurs de données uniques a presque triplé au cours de la dernière décennie, passant d'environ 50 à plus de 150 aujourd'hui pour les grandes entreprises.

Malgré ces fortes contraintes, 56% des dirigeants confirment la hausse des coûts d'exploitation des données mais continuent d’accroitre leurs investissements avec la construction de nouvelles architectures de données (data stack). Ces dernières intègrent automatiquement les informations, un data warehouse issu du cloud, un outil de transformation des données et un outil de veille stratégique.

« La démocratisation des données continue alors que les capacités de lecture des données et les compétences basiques en langages de programmation, tels que SQL, deviennent plus répandues auprès des audiences non techniques. Selon l’étude, près des trois quarts
(73 %) des personnes interrogées s'attendent à ce que le nombre de consommateurs de données non techniques augmente au cours des trois prochaines années
», explique Pranay Ahlawat, partenaire et directeur associé au Boston Consulting Group.

L’IA doit s’appuyer sur des méthodes et des compétences pointues de gestion de la data

L’intelligence artificielle (IA) est une aide de plus en plus prégnante mais nécessite des compétences d’analyse et traitement des données encore trop rares. La sophistication accrue des cas d'utilisation liés à l'IA ajoute à la complexité et limite beaucoup les résultats commerciaux qu’elle pourrait générer. Point saillant, selon le rapport, seuls 54 % des dirigeants pensent que les initiatives de leur entreprise en matière d'IA créent une valeur commerciale tangible.

« Les résultats de l'enquête confirment que de nombreuses entreprises peinent à s'adapter à l'augmentation des volumes de données dans le multicloud et en périphérie, tout en maintenant des architectures de données héritées », avertit Steven Huels Senior Director, Cloud Services for AI and Machine Learning chez Red Hat.

Une certitude, le marché continuera de peser sur les choix d'architecture via le cloud, l'open source et les hyperscalers. L’utilisation de code open source peut réduire les coûts du data stack de 15 à 40 % mais là aussi, cela suppose des compétences pour en tirer le meilleur parti.