Si l’informatique cognitive, machine et deep learning, va bouleverser le paysage des données, rien ne sert de s’emballer pour ces technologies membres de l’Intelligence Artificielle, car pour le moment les obstacles sont trop nombreux, à commencer par la compréhension des systèmes d’apprentissage.
Les usages de l’IA (Intelligence Artificielle) s’annoncent sans limite. En particulier les modèles d’apprentissage automatique machine learning et deep learning. Ils sont en effet les moteurs d’un bouleversement du paysage de la donnée, par leur capacité d’automatiser le traitement de la donnée et d’accompagner la prise de décision.
L’apprentissage automatique séduit car il permet de découvrir des indicateurs et des modèles à partir des données accumulées par l’entreprise. C’est une base pour se différencier grâce à l’automatisation de la prise de décision et pour l’amélioration des niveaux d’efficacité à partir de règles métier connues.
Cependant, avec les récents réseaux GAN (Generative Adversarial Networks) et les réseaux neuronaux récurrents RNN (Recurrent Neural Networks), qui sont des extensions de l’apprentissage en profondeur, la tendance dans les organisations les plus avancées sur l’IA semble être au remplacement de systèmes de machine learning par du deep learning. Comme le proposent Amazon, Google ou Microsoft qui l’ont intégré à leurs plateformes.
L’IA, même si ses bases sont connues depuis des décennies, s’apparente encore à un développement ou un travail en cours. Tout cela d’autant plus que notre compréhension des systèmes d’apprentissage reste encore limitée.
Sans aucun doute l’intégration de l’apprentissage automatique dans la prise de décision signe une nette amélioration de la maturité de l’automatisation via les plateformes décisionnelles améliorées. Cependant, cette belle machinerie et les projets qui lui sont associés restent entravés par la pénurie de compétences.
Malgré l’accélération des cursus de formation sur les analytiques et l’IA dans les écoles d’ingénieurs, la rareté des ‘data scientists’, qui plus est de ‘data scientists’ performants, est presque palpable. Et en tous état de cause, leur faible disponibilité est très éloignée des besoins des entreprises.
Cette pénurie de compétences, associée à la nouveauté des technologies à mettre en place et à maitriser, entraine un taux d’échec élevé sur les projets d’IA. Nous l’avons déjà évoqué ici. Lire par exemple « 8 mythes de l’IA sur le poste de travail ».
Dans ces conditions, la révolution des sciences de la donnée - qui finira par avoir lieu, ne serait-ce que pour satisfaire les actionnaires à la recherche du moindre gain de productivité et prêts à sacrifier l’humain pour cela – est pour l’instant plutôt mal engagée. Ou plutôt s’élèvent devant elle de nombreux obstacles qu’il va falloir éliminer.
Certes, machine learning et deep learning libèrent les scientifiques des contraintes de volume associées aux outils traditionnels. Mais la compréhension des modèles et des projets d’analyse prédictive souffre encore de zones d’ombre. A la question, que nous leur avons posé plusieurs fois, « Pouvez-vous déterminer le taux d’erreur inévitablement induit par les outils d’informatique cognitive, donc la marge d’erreur dans l’automatisation de la prise de décision ? », les experts au mieux reconnaissent une faille, et pointent la faible qualité des données, au pire bottent en touche…
Alors oui, l’IA s’impose et s’imposera, mais entre l’incompréhension de certains modèles et de leur exécution, et le manque de compétences, il nous faudra affronter une période de désillusion. L’inconnu portant sur la durée de cette période, transitoire...
Image d’entête 949895818 @ iStock aurielaki