Si le monde est censé être plus connecté, les individus se retrouvent de plus en plus isolés et séparés. Appliqué aux business models et aux données, ce paysage fragmenté peut se transformer en une véritable opportunité. Mais pour y parvenir, l’analyse des données n’est plus suffisante. Il faut à la fois procéder à la synthèse et à l’analyse des données pour relier les données distribuées à la chaîne analytique, tout en utilisant les catalogues de données comme connecteur. Si nous disposons aujourd’hui de la technologie, cette dernière doit également être accompagnée des bons processus et des personnes compétentes. Pour tirer parti de l’omniprésence des données, la synthèse et l’analyse sont deux éléments essentiels qui faciliteront la transition vers « la constitution d’une mosaïque de données ».
Voici les 5 tendances majeures qui devraient s’imposer au cours de l’année à venir.
1Place au concept de « Wide Data »
La définition de « Big Data » varie selon les entreprises. Une façon de définir ce concept serait de le concevoir comme le volume au-delà duquel les technologies existantes ne sont plus adaptées.
Dès lors qu’il est nécessaire de mettre à l’échelle les infrastructures pour pouvoir traiter de plus gros volumes de données, alors on peut considérer qu’il s’agit d’un enjeu de type Big Data. Toutefois, cette difficulté a disparu avec la capacité infinie que présente le stockage cloud. Il est désormais très simple d’effectuer une indexation et une analyse au sein des bases de données, et des outils permettent de migrer les données au bon endroit. Il ne reste rien de la dimension mystique des données : la consolidation et la disparition rapide des distributeurs Hadoop en 2019 en sont le premier signal.
Le prochain enjeu sera les données très distribuées, ou « wide data » en anglais. Alors que les formats de données sont de plus en plus variés et fragmentés, le nombre de bases de données adaptées à différents types de données a plus que doublé, de 162 en 2013 à 342 en 2019[1]. Les entreprises en mesure d’obtenir des synthèses de ces données fragmentées et de ces sources de données variées ne rencontrerons plus de difficultés à gérer les big data et obtiendront ainsi un avantage concurrentiel sur leur marché.
2DataOps + analytique en libre-service = agilité des données dans toute l’entreprise
L’analytique en libre-service est à l’ordre du jour depuis un certain temps. D’ailleurs, la technologie de BI moderne a donné aux utilisateurs métiers des réponses plus proches de leurs besoins. Toutefois et jusqu’à présent, la gestion des données ne tirait pas parti de ce même niveau d’agilité. C’est pourquoi le DataOps a été introduit. Cette méthodologie automatisée et axée sur les processus est destinée à améliorer la qualité, ainsi qu’à diminuer le cycle de gestion des données pour l’analyse. En mettant l’accent sur une livraison continue, elle tire parti des ressources IT existantes, et automatise les tests et le déploiement des données. Elle est facilitée par des technologies telles que l’intégration en temps réel des données, le change data capture (CDC) et le streaming de pipelines de données. Le DataOps rend possible la mise à disposition aux utilisateurs métiers de 80% des données de base de manière systématique, et va même jusqu’à leur proposer, pour des besoins ponctuels, la préparation des données en libre-service. En combinant le DataOps du côté de l’opérationnel et l’analytique en libre-service du côté de l’utilisateur métier, il est possible d’assurer la fluidité de l'ensemble de la chaîne de valeur reliant synthèse et analyse.
3Les catalogues de métadonnées actifs : les connecteurs entre les données et l’analytique
La demande de catalogues de données est en forte hausse puisque les entreprises peinent encore à trouver, à inventorier et à synthétiser des données très distribuées et variées. En 2020, les catalogues de métadonnées seront enrichis à l’IA, ce qui permettra de faire passer cette tâche monumentale d’une démarche passive à une démarche active, adaptative et changeante. Ces catalogues serviront de connecteurs et de gouvernance pour l’agilité que présente les DataOps et l’analytique. Ils impliquent aussi la personnalisation de l’information, qui est la clef pour générer des enseignements pertinents et du contenu personnalisé. Mais pour que cela soit possible, un doit intégrer l’ensemble fragmenté des outils présents dans la plupart des entreprises.
4La data literacy as a service
Corréler la synthèse et l’analyse de manière à former un système inclusif est une façon de stimuler l’utilisation des données. Néanmoins, aucune technologie ou processus d’analyse de données ne peut fonctionner si les individus ne participent pas. Or il ne suffit plus de déployer des outils et d’espérer que les utilisateurs les adoptent. Pour parvenir à dépasser les 35% de taux d’adoption de l’analytique, qui est la norme pour le secteur, il est nécessaire d’accompagner les individus pour qu’ils puissent acquérir la confiance nécessaire pour lire, utiliser, analyser et communiquer avec les données. En 2020, les entreprises s’attendent à voir la data literacy (ou datalphabétisation en français) se développer, et cherchent des fournisseurs pour les aider dans cette démarche. Comment ? En combinant logiciel, formation et support, proposés as a service, et axé sur les résultats. Les 100% de taux d’adoption devraient ainsi être atteints, ce qui faciliterait l’alliance entre le DataOps et l’analytique en libre-service et contribuerait à faire en sorte que les données influent systématiquement dans les prises de décisions. Pour ce faire, un auto-diagnostic doit être impérativement effectué afin d’identifier où en est l’entreprise et où elle veut aller, pour déterminer la meilleure manière d’atteindre ces objectifs.
5“Shazamer” les données et les interactions entre l’homme et l’ordinateur
Les effets de l’analyse des données sur de grands volumes ont atteint leur sommet, et donnent lieu à des réalisations remarquables. Tout le monde connaît Shazam, l’application qui permet d’enregistrer une mélodie pour en identifier la chanson. Plus récemment, cette technique a été élargie à de nouveaux cas d’utilisation, tel que le fait de pouvoir acheter des vêtements à partir d’une simple photo, ou de pouvoir identifier des plantes ou des animaux. En 2020, les cas d’utilisation liés au fait de « shazamer » les données se multiplieront en entreprise, en imaginant, par exemple, « shazamer » une source de données pour en obtenir des informations sur son origine, ses utilisateurs, la qualité des données et la part des données ayant été modifiées. Grâce aux algorithmes, les systèmes analytiques prendront les empreintes digitales des données, identifieront des anomalies et des enseignements, et suggéreront des données à ajouter. Le processus d’analyse sera ainsi simplifié, et il sera possible de consommer les bonnes données au bon moment.
Ce phénomène sera accompagné d’avancées décisives en matière d’interactions avec les données, qui iront au-delà de la recherche, des tableaux de bord et de la visualisation. Nous serons de plus en plus capables d’interagir de manière sensorielle par nos mouvements et nos expressions, et même avec notre esprit. En 2020, certaines de ces innovations viendront changer la façon dont nous interagissons avec les données. Les bénéfices humains sont énormes, mais ces innovations peuvent être utilisées pour le meilleur comme pour le pire et doivent donc être utilisées de manière responsable.
Il est possible de faire de la fragmentation une force en reliant la synthèse à l’analyse pour former un système dynamique. Le DataOps et le libre-service constitueront le processus et la méthode. La data literacy et l’éthique guideront les individus sur la bonne voie. Les technologies innovantes axées sur l’IA permettront de faciliter et d’accélérer l’utilisation des données sur l’ensemble de la chaîne de valeur. Ces tendances permettent de bâtir, dans un monde complexe et fragmenté, une mosaïque de données qui permet d’étendre l’utilisation de la data dans toute l’entreprise, et d’aborder avec succès la prochaine phase de l’ère digitale.
Par Stéphane Briffod, Directeur avant-vente Europe centrale, Qlik
[1] https://db-engines.com/en/ranking