Selon les chiffres, 97 % des utilisateurs en entreprise éprouvent des difficultés à utiliser les données de manière efficace. Outre le « data lettrisme », les entreprises ont du mal à gérer la qualité des données dans le temps.

Depuis l’avènement de l’informatique, la donnée a toujours été une denrée précieuse qu’il fallait structurer et utiliser à l’aide des bases de données, et stocker en s’assurant de sa pérennité et de sa disponibilité. Plus tard, avec l’arrivée des réseaux et d’Internet, la donnée a entamé une nouvelle phase de croissance exponentielle, se multipliant à tel point qu’il fallait mettre au point de nouveaux outils capables de traiter d’immenses quantités de données à la fois, l’ère du Big data et de l’analytique.

Mus par des algorithmes statistiques au début, les applicatifs se sont sophistiqués avec l’évolution des sciences cognitives appliquées à l’informatique. Ils intègrent à présent de véritables moteurs d’inférence basés sur l’apprentissage machine et le brassage d’immenses quantités de données. Naturellement, suivant une trajectoire darwiniste habituelle, l’écosystème autour de la donnée, de sa préservation et de son exploitation s’est mis en place, créant un marché colossal. D’après une étude de Research And Markets, la taille du marché du MDM (Master data management) à lui seul devrait passer de 16,7 Md $ en 2022 à 34,5 Md $ en 2027, un taux de croissance annuel composé de 15,7 %.

Une tendance structurante de l’évolution du SI de l’entreprise

Il est vrai que ces impératifs de gestion et d’exploitation de la donnée sont devenus une des tendances structurantes de l’évolution du SI de l’entreprise. Ils stimulent l’adoption de technologies et de services de stockage, de gestion et de traitement des données, sans oublier la sécurité et la qualité. Divers facteurs et besoins y contribuent, tels que les exigences de conformité, l’augmentation de l’utilisation d’outils de traitement des données, la multiplication des connecteurs permettant de constituer des réseaux entre diverses applications pour échanger des données, suivant en cela la tendance croissante à la gestion des données dans des environnements multidomaine.

À ce stade où l’écosystème de l’offre est pléthorique et les entreprises sensibilisées, du moins en partie, on pourrait penser que le plus dur a été fait. Mais la data s’avère être une matière multiforme, difficile à administrer, car elle évolue, se transforme et a besoin de protection et de règles d’utilisation qui évoluent. Comme le souligne le baromètre annuel sur la santé des données de Talend, près de la moitié des entreprises affirment que leurs données n’ont pas encore la vitesse ou la flexibilité nécessaires pour satisfaire toutes leurs demandes, et 41 % déclarent ne pas disposer d’un accès rapide aux données adéquates.

La qualité des données est un sujet de préoccupation central

« Sans confiance dans les données, affirment les rédacteurs du rapport, les organisations continueront à remettre en question leurs décisions fondées sur celles-ci, perdant ainsi un temps précieux alors qu’il est urgent de pouvoir adapter sa stratégie et réagir rapidement. En 2022, la qualité des données est un sujet de préoccupation central, laissant les entreprises douter à la fois de leurs données et des décisions qu’elles prennent sur la base de ces données ».

L’administration de la donnée n’est donc pas une fonction dont la qualité est acquise une bonne fois pour toutes. Elle est une action constante, une culture (dans les deux sens du terme : action de cultiver et attitude) dont la compréhension a été théorisée et résumée par l’expression « data lettrisme ». Selon l’étude, la capacité des entreprises à assurer la gestion de leurs données se dégrade d’année en année : sur les cinq facteurs indiquant si les données de l’entreprise sont saines, à savoir l’actualisation, la fiabilité, l’homogénéité, l’accessibilité et l’exhaustivité, les entreprises se classent environ 10 points plus bas qu’en 2021.

En matière de data lettrisme, le chemin semble encore long

L’actualisation (— 29 points) et l’accessibilité (— 15 points) sont les facteurs qui ont connu les baisses les plus importantes. Cela est notamment dû au fait que 57 % des répondants ont du mal à obtenir les données dont ils ont besoin en raison du travail à distance. Certes, le manque de compétences y est pour partie. Un tiers des répondants a déclaré que les obstacles principaux à la valorisation des données ne sont pas le budget ou la technologie, mais plutôt la culture. En matière de data lettrisme, le chemin semble encore long : un répondant sur trois émet des réserves sur la manière dont les salariés comprennent les données avec lesquelles ils travaillent.

« Si les entreprises ne parviennent pas à mettre en place un langage commun pour les données à l’ensemble de leur structure, elles risquent de ne pas être prêtes à relever les défis à venir », met en garde le rapport en guise de conclusion.