Sur le seul territoire américain, IBM a estimé qu’en 2016 le coût global annuel des données de mauvaise qualité a été de 3.100 milliards de dollars ! Ce calcul a mis en application la ‘règle des dix’.

Nous avons, dans notre précédent article « Seulement 3 % des données sont jugées acceptables » (lire ici), évoqué la méthode FAM (Friday Afternoon Measurement) qui a permis aux chercheurs de la University College Cork de prendre la mesure de l’effroyable volume des mauvaises données dans les organisations.

Ces données erronées qui s’accumulent ont un coût exorbitant pour les entreprises comme pour l’économie. Pour les Etats-Unis et en 2016, IBM a estimé ce coût à 3,1 billons de dollars (3,1 milliers de milliards $). Et ses répercussions sont multiples :

  • Les travailleurs du savoir gaspillent 50 % de leur temps consacré au traitement des données à la recherche de ces données, à la recherche et la correction d'erreurs, et à la recherche de sources de confirmation pour les données auxquelles ils ne font pas confiance.
  • Les scientifiques perdent 60 % de leur temps au nettoyage et à l'organisation des données (source : CrowdFlower).

Les pertes en cascade...

Le bilan n’a rien de glorieux :

  • Les vendeurs perdent du temps à gérer des données de prospects erronées ;
  • Les prestataires de services perdent du temps à corriger les commandes erronées des clients reçues des ventes ;
  • Les spécialistes des données consacrent énormément (trop) de temps au nettoyage des données ;
  • La DSI consacre énormément d'efforts à mettre en place des systèmes qui « ne parlent pas » ;
  • Les cadres couvrent (dans le sens de couvrir les risques) leurs projets parce qu'ils ne font pas confiance aux chiffres de la finance.

Et pourtant, selon IBM, si l’entreprise travaille activement à réduire les coûts évoqués ci-dessus, ceux-ci peuvent être réduit des deux tiers, voire de 90 % et plus

La règle des dix

Avec la méthode FAM (Friday Afternoon Measurement), nous savons comment évaluer le volume des données erronées. La ‘règle des dix’ permet d’estimer, donc de prévoir leur coût, avec une certaine précision. Cette règle spécifie qu’« il en coûte dix fois plus pour compléter une unité de travail lorsque les données sont imparfaites, de quelque façon que ce soit, que quand elles sont parfaites ».

Les chercheurs de la University College Cork donnent l’exemple suivant :

Supposons que vous avez 100 choses à faire et que chacune coûte 1 € lorsque les données sont parfaites.

  • Si toutes les données sont parfaites, le coût total est de :

100 x 1 € = 100 €

  • Si 89 données sont parfaites et 11 sont défectueuses, le coût total est de :

89 x 1 € + 11 x 10 = 199 €

Notons que pour la plupart des organisations, les coûts opérationnels sont bien plus importants. Et la ‘règle des dix’ ne tient pas compte des coûts non monétaires, tels que les clients perdus, les mauvaises décisions ou les dommages à la réputation de votre entreprise.

Résultat, le coût des mauvaises données a de quoi effrayer tous les gestionnaires. Ajoutons à cela que la majorité des données sont erronées. La conclusion vous appartient...

Sources :

  • Travaux de l’University College Cork, Irlande, relayés par la Harvard Business Review
  • « Extracting business value from the 4 V's of big data » d’IBM

Image d’entête 861865194 @ iStock ilyakalinin

AUCUN COMMENTAIRE