Ou, autrement dit, faut-il donner du crédit la vision de certains observateurs du Big Data qui affirment que plus on a de données, plus les analytiques sont précises ?

Nous n'avons jamais eu autant d’accès à des données, et le taux d'obésité de nos organisations ne cesse de grossir, au sens propre comme figuré. Et ce phénomène n'est pas prêt de s'arrêter. Se pose alors la question de savoir s'il faut jouer la carte de l'accumulation des données pour réaliser les meilleures analyses ?

À regarder de près, on s'aperçoit très rapidement que l'accumulation de données n'a pas changé grand-chose dans nos pratiques. Et quelques clics de souris suffisent souvent à obtenir la bonne information au bon moment et dans le bon contexte, sans passer par des analyses qui reposent sur des masses volumiques inimaginables.

Ne pas mélanger volume et traitement

La réalité est que l'accès aux données n'est pas la même chose que le traitement qui lui est porté. L'exemple le plus concret vient de l'administration américaine, qui au travers de plusieurs projets dont la NSA a accumulé des masses incroyables de données sur nos échanges privés comme commerciaux, et sur une multitude de réseaux. Aujourd'hui encore, cela ne permet toujours pas de détecter les comportements des terroristes, qu’ils soient réels ou cyber, alors que la promesse était de lutter efficacement contre eux !

L'assemblage de toutes ces données qui s'accumulent ne permet pas de résoudre les défis que doivent affronter les entreprises. En particulier, on peut légitimement se poser la question : ne faudrait-il pas mieux affiner l'exploitation des données produites en interne, plutôt que d'aller rechercher des informations à l'extérieur qui ne correspondront ni au contexte ni à la culture de l'entreprise ?

A chaque problématique sa réponse

Bien sûr, la réponse variera d'une entreprise à l'autre, du marché sur lequel elle évolue, de son organisation, de son écosystème, sans oublier l'humain. Le Big Data et les analytiques apparaissent encore pour beaucoup d'entreprises comme une solution magique qui va instantanément les transformer. Il leur suffit de labourer le champ de données qui se présente à elles ! L'investissement sauvage dans les capteurs physiques et numériques répond à cette approche.

Le risque est que l'entreprise se perde à vouloir accumuler toujours plus de données à fournir aux outils analytiques. Mais la plupart de ces données provienne déjà d'un écosystème de capteurs qui est saturé, pour des informations souvent obsolètes, et des réseaux sociaux dont on oublie qu'ils n'ont pas de frontières et que l'information extraite n'est que trop souvent sans aucun rapport avec le contexte de la recherche.

La raison, la démocratisation, la personnalisation

Plutôt que d'investir massivement dans le Big datas, les entreprises devraient se poser la question de savoir s'il n'existe pas un juste milieu entre la BI (Business Intelligence) réservée à l'élite et le Big data destiné à la masse. Quelques bons outils d'analyse sur des bases de données ciblées réduites à leur pertinence permettront  d'obtenir de meilleurs résultats. Et surtout de réduire les investissements afin de se concentrer sur la personnalisation des recherches et des indices dans une approche de démocratisation de la prise de décision. C'est la que l'on trouvera de la valeur pour tous.

Image d’entête 86304941 @ iStock aleksei-veprev