L'année 2014 aura été l'année de la découverte du Big Data et des premiers gros investissements, 2015 sera celle du déploiement, avant que vienne la maturité.

Il y a un vrai problème lié au Big Data : tout le monde veut l'adopter, mais pour passer de l'annonce à la réalité, il y a un gouffre, celui de la compétence. Les technologies sont bien présentes, Hadoop en tête, mais peu de gens comprennent réellement comment cela fonctionne. Ainsi, 73 % des organisations qui affirment s'enticher du Big data… ne font pas du Big Data ! (source Lavastorm)

Pourtant, les budgets consacrés à l'analytique auraient augmenté de 75 %. Et 30 % des grandes organisations auraient déployé des solutions qualifiées de Big Data. Elles seront 64 % en 2015 (source Gartner).

L'investissement moyen annuel de ces grandes entreprises dans les solutions de Big data serait de 2,5 millions de dollars. Mais serait proche des 100 millions de dollars pour 15 % de ces organisations, et même proche de 500 millions pour 7 % d'entre elles (source Tata Consultancy Services).

A la recherche des compétences

Nous avons déjà évoqué ici (lire « 2015 – Les 10 compétences les plus recherchées » ), le Big Data et l'analyse des données ont fait une entrée spectaculaire dans la liste des compétences les plus recherchées, où elles squattent 2 des dernières places du Top 10 (source Robert Half Technology). Aux Etats-Unis, le phénomène est encore plus marqué, l'analyse des données a figuré à la première place du Top 25 des compétences les plus recherches en 2014 (source LinkedIn).

Le résultat est une totale inadéquation entre l'offre et la demande, entre les attentes des entreprises et la faiblesse des compétences disponibles sur le marché. Le phénomène est tel que les prix gonflent : aux Etat-Unis, un poste de data scientist se négocie en moyenne à 123.000 dollars annuels. Pour compenser le déséquilibre, les universités ont lancé des programmes non pas de formation, mais de certification au Big Data destinés aux profils MBA et ingénieurs.

Small, Medium, Big Data

Pour solutionner la problématique, un axe de réflexion porte sur la qualification de la donnée. Une première approche simple va consister à raisonner non pas en peta octets mais en tera octets. 28 % des organisations pensent que leur challenge sur la donnée n'a rien à voir avec les gros volumes de donnés. Elles se déclarent plutôt concernées par la variété de la donnée et la vitesse de son traitement.

C'est ainsi que beaucoup de projets tentent de faire passer Hadoop aux forceps, alors que l'outil ne se révèle pas adapté et encore moins maitrisé. Ce peut n'être qu'une question de Medium Data, c'est à dire un volume de données pour lequel une machine ne suffit plus, mais qui ne nécessite pas non plus de créer un cluster Hadoop. Ou plus simplement de Small Data, qui ne souffre pas de problématique de volume, et pour laquelle une solution de BI simple se révèlerait adaptée !

Mobilité et IoT

Dernière problématique de fond, l'émergence de l'usage des applications et données en mobilité, conjuguée à celle de l'Internet des objets (IoT), qui vont continuer et accélérer l'explosion des volumes de données. A stocker comme à traiter. Ce phénomène pose deux questions d'ordre technologique : où stocker les données (et sur quelles bases de données), et comment analyser des données qui, pour une grande partie, ont peu de valeur ?

La réponse devrait venir du cloud. Les jeunes fournisseurs de services de Big Data dans le nuage vont se multiplier, nous en avons rencontrés (lire nos articles 'Silicon Valley'). L'agilité du cloud est la seule réponse adaptée à l'inertie des bases de données géantes et à l'automatisation des processus analytiques en dehors de compétences locales, que nous savons difficiles à recruter.

2015, l'année du déploiement

2015 sera une année charnière pour le Big Data, celle du déploiement des premières solutions Hadoop qui ne seront plus empiriques, et celle du retour à la raison pour des projets qui n'ont ni le besoin, ni les moyens de passer sur une infrastructure Hadoop, sauf si elle est fournie sous la forme d'une solution en mode SaaS.

Une année qui s'annonce donc riche pour le Big Data, mais qui ne sera certainement pas celle de la maturité d'une technologie qui se cherche encore et qui souffre de grandes faiblesses.