En 2020, tant les entreprises que les citoyens ont été impactés par l’une des perturbations les plus importantes de cette dernière décennie. En conséquence, ils ont été contraints de modifier leur manière de prendre des décisions et de faire des choix au quotidien afin de s’adapter. Appliqués au domaine de l’informatique, les changements les plus fondamentaux se sont portés sur les données. Ayant été particulièrement scrutées et analysées ces derniers mois, les données ont permis aux entreprises de prendre les meilleures décisions possibles pour leur reprise économique.

Comme l’a prouvé cette année 2020, se préparer pour pouvoir réagir rapidement est désormais vital. Les entreprises doivent prendre des mesures préemptives afin de prévoir de futurs bouleversements, et cela passe par un virage technologique, avec l’aide des solutions SaaS et des nouveaux modes de collaboration en entreprise. L’année 2021 devrait être marquée par 5 tendances majeures :

1La démocratisation des données partagées, des visualisations et du storytelling

En 2020, la visualisation des données a occupé une place prépondérante sur toutes les chaînes d’information grand public. Il est plus que jamais nécessaire de faire progresser le storytelling car cela met des millions de personnes sur la voie de la data literacy. Néanmoins, l’interprétation des données pose toujours autant de questions. Comment avoir accès à ce qui se cache derrière l’image présentée ? À l’argumentaire qui sous-tend l’indicateur présenté ? Comment démontrer la traçabilité et facilement intégrer de nouveaux ensembles d’informations ?

D’un point de vue technique, élargir le contexte sera de plus en plus facile grâce à des modèles de données communs plus nombreux et un renforcement de la logique métier, avec notamment des informations rendues accessibles sur des catalogues et des « marketplaces » de données. Il sera alors possible de les synthétiser plus simplement et d’initier des discussions plus productives. Mais dans le but d’assurer une certaine honnêteté intellectuelle lorsque les données seront au centre des discussions, poser des bases communes et mettre au point des protocoles seront également nécessaire.

2Disposer de données à jour et prêtes à l’emploiest désormais essentiel

Depuis le début de la pandémie, avoir accès à de données mises à jour en temps réel a été un besoin qui s’est fait ressentir de plus en plus intensément. Des informations traditionnellement assez répétitives, telles que les prévisions trimestrielles – sont désormais fluctuantes et variables. Il est nécessaire d’instaurer un système qui regroupera exhaustivement des alertes, des rafraichissements et des prévisions concernant les données, mis à jour grâce à des variables les plus récentes.

Plus la vélocité des données s’accélère, plus l’activité des entreprises doit également suivre le rythme. Est-ce possible de parvenir aux résultats anticipés de manière automatique, via des processus automatisés ou une action humaine ? Les données « prêtes à l’emploi » peuvent-elles être disponibles plus tôt ? Les entreprises devront adapter leur infrastructure et les applications. Les entreprises pourront alors agir de manière proactive sur la base de ce facteur principal.

3Faire survenir la collaboration plus tôt dans la chaîne analytique

Cette année, la collaboration a été marquée par le digital et le besoin de rapidité, franchissant donc une nouvelle étape. Quant au secteur de l’analytique, celui-ci s’est adapté par l’intégration de l’ensemble des composantes du pipeline de données, combinant ainsi synthèse et analyse. Les métadonnées actives, la logique métier et les catalogues sont également utilisées et forment un tissu connecteurs. Ces changements vont permettre d’encourager la collaboration, l’innovation et les débats sur les données elles-mêmes.

Certaines tâches vont ainsi devenir plus engageantes, plus rapides et plus fréquentes, notamment celles concernant la transformation des données brutes en informations prêtes à être analysées. En conséquence, le monde des spécialistes des données et celui des consommateurs d’informations ne cessent de se rapprocher. Avec la persistance de la logique métier les données prêtes pour l’analyse seront transformées bien plus rapidement en enseignements prêts pour les décisions business.

4Le nouveau Graal portera sur les solutions SaaS

De nombreuses entreprises estiment que l’essor des fournisseurs de services dans le cloud et en ligne a joué un rôle clé l’année dernière, afin de préserver l’activité sur des environnements virtuels. Ainsi, nombre d’entre elles ont dépassé l’inertie qui entourait les solutions SaaS, PaaS et autres produits « as-a-Service », et les obstacles inhérents. Pour ce qui est des données et de l’analytique, les solutions SaaS permettent d’accéder à de nouvelles technologies, telles que l’analytique augmentée, facilitant ainsi ces transformations.

Davantage de migration de bases de données et d’applications ont eu lieu grâce au passage immédiat aux solutions SaaS. C’est pourquoi les technologies permettant d’accéder, de transférer et d’harmoniser les données depuis des lieux différents serviront de piliers aux prochaines innovations. Bien que les conteneurs et les infrastructures sans serveurs constituent aussi un vaste potentiel pour la gestion des données dans le cloud, il faut avoir une certaine maturité organisationnelle et un savoir-faire conséquent pour l’utiliser à l’échelle. Pour ne pas dépendre de certains fournisseurs, un déploiement hybride à travers plusieurs cloud demeure la solution.[1]

5La collecte et la synthétisationdes données dites « alternatives » deviennent vitales

Aurait-il été possible de détecter plus tôt la présence de la COVID-19? Selon des études réalisées à partir de données dites « alternatives », le virus pourrait circuler depuis la fin de l’année 2019.[2]Si les investisseurs exploitent ces données alternatives pour recueillir des données issues de divers documents, elles sont dorénavant communément utilisées pour détecter les anomalies beaucoup plus tôt.

Dériver des données par combinaison, par association ou par synthèse avec des informations issues de systèmes d’enregistrement est alors envisageable. Comme IDC le constate : « Alors que de plus en plus de données sont collectées et disponibles depuis des sources externes, la capacité à les exploiter davantage devient un facteur différenciateur. Cela permet de tirer des enseignements provenant de secteurs qui ne sont pas les nôtres ».[3]Cette tendance – ressemblant trait pour trait à celle que Gartner appelle « l’analytique X »[4] – n’est pas récente. Néanmoins, grâce à la réduction des coûts de traitement et à la maturité des techniques d’IA, elle joue enfin un rôle prépondérant dans la data science et l’analytique. Comme l’œil humain est incapable de tout saisir, cette tendance dépend entièrement du ML et de l’IA.

Par Nicolas Hirsch, responsable de Qlik en France


[1] Gartner, A CIO’s Guide to Serverless Computing, 28 avril 2020

[2]https://abcnews.go.com/International/satellite-data-suggests-coronavirus-hit-china-earlier-researchers/story?id=71123270

[3]https://blog.qlik.com/the-imperative-for-change

[4]https://www.gartner.com/smarterwithgartner/gartner-top-10-trends-in-data-and-analytics-for-2020/