Il ne suffit plus d’enregistrer et de générer de plus en plus de données, il faut les comprendre et les exploiter de plus en plus rapidement. Le temps est l’essence du Fast Data, autrement dit du Big Data en version temps réel.

Posons la problématique : chaque minute se créaient 48 heures de vidéo sur YouTube, 204 millions d’emails, 600 nouveaux sites web, 600.000 partages sur Facebook et 100.000 tweets. Des chiffres qui datent de 2015 et sont certainement dépassés aujourd’hui ! Jamais la création de données ni sa duplication d’ailleurs, n’ont été aussi fortes.

La surcharge d’informations est un défi auquel toutes les organisations seront confrontées, dès aujourd’hui pour certaines, dans moins d’une décennie pour les autres. Simplement, avec le temps, la sévérité du défi ne fera que croître. Le Big Data, moins dans le contexte du stockage que dans celui de l’analyse des données, n’est plus une option. Il est devenu une nécessité !

Du Big Data au Fast Data

Toutes les organisations sont à l’écoute des données. Elles les enrichissent. Leur valeur dépasse largement celle des actifs matériels et des compétences réunis. Et si elles sont si importantes, c’est que la donnée, au travers des analytiques, en plus de sa valeur accompagne la prise de décision.

Dans ce contexte, un délai de quelques secondes dans la compréhension de l’information peut faire perdre des sommes considérables, et même des vies ! Nous avons pourtant – pour combien de temps encore ? - une chance : le temps se heurte à des obstacles qui peuvent jouer pour nous. En effet, la propagation des flux se heurte aux mécanismes techniques et aux facteurs humains.

Concrètement, cela signifie que les temps d’action et de réaction nous offrent l’opportunité d’être proactifs. Prenons l’exemple d’une attaque virale : elle ne peut s’étendre dans l'instantanéité ! Au moment où elle est détectée, si l’information est diffusée immédiatement, le monde entier peut en être informé et s’en protéger. Le risque zéro n’existe pas, mais une seule victime suffit pour propager l’information. L’essentiel est dans la vitesse.

Les analytiques et le temps réel

Le Fast Data peut se traduire par la nécessité de disposer de la bonne information et de son analyse en temps réel. Ou de la capacité d’acquérir la connaissance à partir des données à l’instant où elles sont créées. Cette rapidité est cruciale pour l’entreprise moderne. Elle apporte un avantage commercial évident.

En revanche, les données historiques, utiles dans une vision rétroactive, ne se prêtent plus à répondre au besoin d’une analyse de données utile. De plus en plus, l’analyse en temps réel ne nécessite plus d’archivage, ou alors sur une sélection de  données stratégiques et/ou critiques. L’exemple le plus flagrant porte sur l’exploitation des données météorologiques pour accompagner la prise de décision. Quant à la pratique, encore ‘trop’ répandue, du traitement par lots, elle impose des interventions manuelles, pour des résultats statiques qui ne peuvent accompagner le changement.

Voilà pourquoi l’analyse en temps réel s’impose. Appliquée au Big Data, elle permet d’obtenir des résultats mis à jour à chaque interrogation. L’analyse des flux permet également des mises à jour automatiques des résultats, qui intègrent le flux des données, et ne cessent de les enrichir. Quant au ‘streaming analytics’, il fournit automatiquement des signaux sur les données entrantes, et sans qu’il soit nécessaire de les interroger manuellement.

Le Fast Data

Le Fast Data est une émanation et une élévation du Big Data qui répond à la question : « Comment pouvons-nous traiter de grandes quantités de données en temps réel, d'une manière transparente, sûre et fiable ? ».

Du Big Data, il hérite le support d’une informatique distribuée, fiable (l’infrastructure se prête à la tolérance de pannes), et au coût réduit. Si un workload est déficient, une autre machine prend le relais de manière automatique et transparente. Aucune information ne se perd, toutes ont la garantie d’être traitées et analysées.

Le temps est réduit. Là où il fallait parfois plusieurs mois pour collecter les données et les traiter, quelques secondes, voire millisecondes suffisent aujourd’hui. Les algorithmes regroupent les données et détectent les signaux, et leurs donnent très rapidement un sens. Une approche essentielle dans un monde où la donnée sera de plus en plus introduite par l’Internet des Objets et où la prise de décision sera automatisée.

Pour résumer, si le Big Data est l’outil qui permet de réunir la botte de foin dans laquelle se trouve l’aiguille, le Fast Data est celui permet de la retrouver immédiatement.

Image d’entête 78035127 @ iStock EtoileArk