8 % seulement des pilotes analytiques seraient convertis en solutions, selon McKinsey, dont les analystes constatent qu’une courte fraction de la valeur attendue de ces projet serait débloquée. Voici 10 alertes qui signalent qu’un projet est en danger et va se planter...
Le constat que fait McKinsey sur son « Index AI » est sans appel, la grande majorité des projets analytiques et d’IA (Intelligence Artificielle) seraient en position d’échec. 8 % seulement des initiatives analytiques et Machine Learning iraient au-delà du pilote, celui-ci échouant massivement à être converti en solution.
D’autre part, McKinsey constate que les conseils d’administration et les actionnaires jugent médiocres la majorité des programmes analytiques, pointant la faiblesse de la valeur qui peut être débloquée par cette approche, qui dans certains secteurs ne dépasserait pas 10 %.
Mais que font les CAO (Chief Analytics Officer) et CDO (Chief Data Officer) ? Si ces métiers spécialistes de la donnée commencent outre-Atlantique à être pointés du doigt, leur part de responsabilité dans ces échecs est bien faible, ils sont généralement en poste que depuis peu de temps, et ils pourraient bien intervenir en pompiers pour sauver les meubles !
Selon McKinsey, la liste des ratés et des lacunes sur les projets analytiques et IA s’étoffe, et les modèles de défaillance commencent à se dévoiler. Suffisamment pour que ses analystes identifient 10 indicateurs qui lorsqu’ils sont dans le rouge signalent un programme analytique en danger voire en échec.
1Le manque de vision claire de l’équipe de direction
Les entreprises expérimentent de nombreux programmes pilotes d’IA et d’analytiques, mais aucun n’est adopté à grande échelle. Les équipes manquent généralement des bonnes compétences, et la traction des pilotes est un échec. Généralement cette problématique est associée à la confusion et au manque de compréhension chez les cadres entre l'analytique traditionnelle (BI et reporting) et l'analyse avancée (outils prédictifs et prescriptifs comme le Machine Learning).
2Personne ne détermine la valeur que peuvent fournir les cas d’usage la première année
Qui a évalué avec précision la faisabilité ou calculé la valeur commerciale que doivent générer les cas d’usage des premiers pilotes ? La réussite passe par une poignée de pilotes réalisables le plus rapidement possible, à l’impact fort, et qui génèrent de la valeur afin de pousser la dynamique et d’encourager l’adhésion. Mais trop souvent les projets analytiques sont comme un papier peint qui embellit mais cache un gaspillage à grande échelle.
3Absence de stratégie analytique au-delà des cas d’usage
S’attaquer aux opportunités d’analyses de l’entreprise de manière non structurée, sans vision au-delà des situations spécifiques recherchées sur les premiers pilotes, c’est l’assurance de rater une occasion de capitaliser sur des opportunités beaucoup plus grandes. Voir petit et en manque de direction stratégique rend plus difficile de dynamiser les équipes pour imaginer les opportunités que porte la transformation digitale.
4Mauvaise définition des rôles analytiques présents et futurs
Où sont les compétences, qui possède les talents ? La compréhension de la mosaïque des compétences et des rôles interactifs est indispensable pour éviter de confondre l’expert de la donnée avec le data scientist. Il manque aux projets une définition des rôles analytiques qui permette d’affecter ou de recruter les bonnes personnes.
5Manque de traducteurs analytiques
Le rôle de traducteur analytique est trop souvent négligé alors qu’il est essentiel pour identifier les cas d'usage analytiques à fort impact et ‘traduire’ les besoins métier aux data scientists et autres experts techniques de la donnée. Ces derniers ayant la charge de construire une solution analytique exploitable. Pour déverrouiller la valeur, le traducteur analytique doit être un mélange de connaissances commerciales, de maîtrise technique générale et d'excellence en gestion de projets.
6Isolement des capacités analytiques qui rend la structure inefficace
Dans les entreprises où les initiatives analytiques sont un succès, les fonctionnalités d’analyse sont intégrées aux activités principales. A l’inverse, trop d’entreprises centralisent (et recréent des goulots d’étranglement) ou éloignent (la décentralisation réduit la capacité de connexion) le développement de capacités analytiques qui s’en trouvent isolées, et forment des poches sporadiques de silos mal coordonnés. Les acteurs de la donnée constatent alors le faible impact de leur travail, avec la démotivation qui l’accompagne.
7Nettoyage coûteux et en masse des données
C’est une idée reçue, les données disponibles doivent commencer par être nettoyées ! Le résultat, selon McKinsey, est que 70 % des budgets des projets analytiques et de création de data lake seraient consacrés au nettoyage des données. Un vrai gâchis… Car même si les données sont nettoyées, ce qui aboutit à un méta-modèle de données, le flux de données est permanent, ce qui rend le nettoyage de moins en moins efficace, et les problèmes demeurent, comme l’incapacité à suivre ce flux ou à comprendre le contexte.
8Inadaptation des plateformes analytiques
Une architecture informatique moderne est le fondement de la transformation digitale. Pourtant, beaucoup d’entreprises commettent l’erreur de penser qu’elles doivent commencer par intégrer leur SI existant. C’est la même erreur qui pousse à commencer à créer un data lake, avant de se poser la question de sa structuration et de son remplissage (partitions). Le coût d’investissement devient énorme, auquel s’ajoute la nécessité de modifier significativement la conception de l’architecture et du data lake, ce qui réduit singulièrement le bénéfice potentiel. Beaucoup de programmes analytiques et IA s’interrompent brutalement sur le constat du trop plein des budgets d’investissement engagés.
9Méconnaissance de l’impact de l’analyse
C’est un paradoxe des analytiques et de l’IA, peu d’entreprises sont capables de mesurer ou plus simplement d’attribuer l’impact de leurs investissements sur les résultats de l’entreprise. Pourtant, une première étape va consister à élaborer des mesures de suivi dans un cadre de gestion des performances des projets. Puis la seconde étape sera d’élever ces mesures sur la rentabilité et le ROI. L’alignement des métriques offre l’opportunité de modifier les projets en déplaçant les ressources afin de corriger les éventuels problèmes identifiés.
10Absence d’identification des implications éthiques, sociales et réglementaires potentielles des projets analytiques
Il faut anticiper comment les données seront acquises et consommées, et comprendre les exigences réglementaires comme les problématiques éthiques afin de déterminer les éventuels compromis. Travailler sur des données, en particulier les données personnelles et les données sur le personnel, introduit une multitude de risques liés aux biais algorithmiques, ainsi qu’à l’attention des régulateurs. Appliquer des jugements humains appropriés aux domaines analytiques demande des efforts importants de supervision, de gestion des risques et d’atténuation.
Source : McKinsey