Selon le dernier rapport IDC « Global DataSphereForecast 2021-2025 » sur les données, la création et la réplication de données mondiales devraient connaître un taux de croissance annuel composé (TCAC) de 23 %, passant à 181 zettaoctets en 2025, 64,2 zettaoctets de données en 2020. Le nombre de données ne s’élevait qu’à 6,5 zettaoctets en 2012. Pour référence, un seul zettaoctet équivaut à 1 000 000 000 000 000 000 000 (1021) octets, soit environ 250 milliards de DVD selon une comparaison de l’entreprise RedGate. Fondamentalement, il est impossible de fonctionner sans données : pour preuve, elle est devenue le fonds de commerce des cybercriminels. Or, avec la multiplication des données boostée par la transformation numérique, les entreprises doivent savoir distinguer la « bonne » de la « mauvaise » donnée, afin de rester compétitives et performantes.
Par « intégrité » on entend la qualité, la fiabilité, la crédibilité et l'exhaustivité d'un ensemble d’informations ; lesquelles fournissent de l’exactitude, de la cohérence et du contexte. Il s’agit pour une entreprise d’une source cruciale d’informations pour l’élaboration de documents sources comme les rapports. L'intégrité des données repose sur quatre piliers essentiels : l'intégration à l'échelle de l'entreprise, l'exactitude et la qualité, la localisation et l'enrichissement des données. En tant qu’actif stratégique de l'entreprise, plus elles sont fiables, plus elles permettent une prise de décision précise qui repose sur quatre principes :
- L’intégration des données, avec une interconnexion fiable et sécurisée ;
- La qualité des données ;
- L’intelligence de localisation ;
- L’enrichissement des données, c’est-à-dire la possibilité de créer une valeur supplémentaire en intégrant des données provenant de sources tierces.
Intégration des données à l'échelle de l'entreprise
Pour intégrer des données, une entreprise doit englober l’ensemble des datas sources présentes et utilisées. S’il y a quelques dizaines d'années, les entreprises se limitaient à une seule application monolithique, elles sont désormais agiles et innovantes et doivent par conséquent gérer un ensemble de systèmes logiciels différents pour les principaux outils de gestion tels que les ERP, CRM, automatisation du marketing, ressources humaines ou analyses.
Le déploiement de systèmes logiciels distincts, pour répondre aux besoins individuels des équipes, peut par exemple générer des décalages dans la façon dont ces différents services traitent un dossier client. En effet, une modélisation différente des données pourrait entraîner des divergences ou des inexactitudes entre les deux systèmes ; posant problème lorsque les données doivent être partagées ou analysées.
À certains égards, les entreprises elles-mêmes sont devenues des silos. Dans un monde hautement interconnecté dans lequel les partenaires de la supplychain partagent des informations sur les catalogues d'articles en stock, les numéros de série, les informations sur les fournisseurs et les clients, il est nécessaire d’ assurer une symétrie des données de manière uniformisée dans l’entreprise. Ainsi, si le partage de l'information élimine la friction des processus d'affaires, il amplifie les défis de l'intégrité des données, en raison de modèles croissants de données, de processus d'affaires et de systèmes logiciels .
Le défi de l’exactitude et de la cohérence
À l'ère du big data et de l'intelligence artificielle, l'intégrité des données est un composant clé qui peut faire la différence entre le succès ou l'échec d’une initiative de transformation numérique. Avec l'avènement des objets connectés, des applications mobiles et du cloud, le volume de données avec lequel les entreprises doivent travailler est plus important que jamais. La mauvaise qualité des données est particulièrement problématique à grande échelle, puisqu’elle amplifie des problèmes initialement bénins ; des données inexactes ou incomplètes sont ainsi susceptibles de diminuer la valeur des analyses d'entreprise, et peuvent même, dans le pire des cas, rendre les résultats invalides. C’est la raison pour laquelle une bonne stratégie d'intégrité des données doit permettre de gérer et de valider les données dans plusieurs systèmes, d'identifier les lacunes ou les divergences, et de déclencher des flux de travail ainsi que des processus pour corriger ces erreurs.
Bénéfices de l'intelligence géographique
La géo-intelligence implique l'utilisation de données géospatiales pour réduire les risques et mieux comprendre le comportement des clients. Pratiquement tous les points de données dans le monde peuvent être associés à la localisation. En matière de données, elle constitue notamment un élément clé de la stratégie globale des entreprises qui se lancent dans des initiatives de transformation numérique. Cela peut être aussi simple que de normaliser les informations d'adresse dans l'ensemble d'une base de données clients afin de les rendre intelligibles et analysables dans un contexte commun. Il peut s’agir par exemple de l’adresse de livraison d’un client, en des termes différents, mais à la même localisation. Une bonne stratégie d'intégrité des données garantirait donc la capacité de voir ces deux emplacements dans le contexte adéquat. Cette uniformisation apporte ainsi une meilleure analyse et compréhension d’une situation. Lorsqu’il est possible de mieux comprendre les limites, les mouvements et l'environnement qui entourent le client, le fournisseur, le commerce ou toute autre entité, il est plus aisé d’obtenir des informations plus riches pour prendre de meilleures décisions commerciales. En outre, les données de mobilité peuvent aider à l’analyse des flux de circulation à l'intérieur et autour de ces sites, et livrer une image réaliste de phénomènes courants comme du trafic, ou encore des embouteillages dans la zone. Cette simple recherche permet une meilleure compréhension des attentes du client, et un service optimisé.
La confiance, base de l’intégrité
Toutefois, l’intégrité des données peut être compromise par une erreur humaine, comme un mauvais transfert de données, du fait d’une incompréhension, un bug ou un virus et même parfois à cause d’un matériel défectueux. C’est pourquoi, d’autant plus à présent avec l’importance grandissante des données, il est intéressant de les protéger et de s’assurer de leur fiabilité, pour garantir au client des informations sûres, afin in fine d’améliorer significativement la capacité d'un client à fournir des données précises, cohérentes et contextualisées. A terme, un client doit pouvoir examiner l'ensemble du spectre de l'intégrité des données, la précision et la cohérence provenant de la meilleure qualité et de l'intégration de données. Cela constitue l'élément essentiel du contexte issu de la géo-intelligence et de l'enrichissement de données leaders du marché. Le manque de confiance dans la qualité des données peut créer des faiblesses dans leur traitement au quotidien. C’est pour cela qu’il est important de construire une culture des données basée sur la fiabilité et la qualité. L'intégrité des données fournit une base solide pour l'analyse des données et les actions de confiance.
La précision et la cohérence des données, renforcées par le contexte, grâce à la localisation et à l'enrichissement, peuvent aider les entreprises à atteindre l'intégrité des données. Ainsi, l’intégrité des données, à travers quatre piliers définis, fait office de moteur et offre aux entreprises un cadre sûr pour la prise de décision, les rapports d’activité, et les analyses. Assurer des données complètes, cohérentes et exactes, permettra ainsi aux entreprises de bénéficier d’une meilleure compréhension, d’un meilleur traitement de l’information et donc d’une meilleure maitrise de leur marché.
Par Steve van den Berg, Vice Président Sales chez Precisely