Selon un rapport d'InRule Technology, la majorité des décideurs en matière d'IA/ML sont inquiets quant à l'incapacité d'atteindre les objectifs commerciaux éthiques de leur organisation.
L'intelligence artificielle (IA) et l'apprentissage automatique (ML-Machine learning) sont essentiels à la réussite de la prise de décision numérique, selon près de deux tiers (66 %) des 350 décideurs américains interrogés, ce chiffre devant passer à 95 % dans trois ans.
Pourtant, la complexité de l'adoption d'un éventail de technologies pour les processus décisionnels automatisés provoque des blocages. Le principal est l’incapacité à atteindre des objectifs commerciaux éthiques selon cette étude menée par une entreprise américaine spécialisée dans le « Business Rule Management System ».
Les autres principaux risques cités sont les coûts élevés (60 %), les mauvais résultats commerciaux (47 %) et le non-respect des exigences réglementaires (37 %). Seulement un peu plus de la moitié (56 %) ont confiance dans leur capacité à atténuer ces risques.
En dépit de l’accélération de la transformation numérique, l’adoption de l’IA se fait donc à pas comptés selon une autre étude, menée par IBM.
L'automatisation des processus robotiques (RPA) et l'automatisation des processus numériques (DPA) sont courantes, mais elles ne répondent pas entièrement aux normes de l'« automatique ».
70 % des utilisateurs ont cité des difficultés à maintenir des décisions complexes en utilisant des solutions uniquement DPA et 41 % ont déclaré que leur organisation utilise un système de gestion des processus métier avec un moteur de décision externe.
En d'autres termes, les entreprises réclament des solutions d'automatisation, vues comme des catalyseurs de la transformation numérique, mais se retrouvent coincées face à des technologies disparates qui ne s'intègrent pas toujours de manière transparente et nécessitent une évaluation et une surveillance constantes.
C'est ce qui ressort de près de deux tiers des réponses, qui signalent que des problèmes technologiques, organisationnels et opérationnels entravent l'agilité et l'évolutivité, en particulier le glissement de périmètre et la dérive des modèles.
Bien que les décideurs informatiques comprennent la valeur de l'IA/ML dans les technologies de prise de décision, les personnes interrogées ont déclaré qu'elles craignaient également que des biais nuisibles puissent entraîner :
- des décisions inexactes (58 %)
- des décisions incohérentes (46 %)
- une diminution de l'efficacité opérationnelle (39 %)
- une perte d'activité (32 %).
Si les décideurs informatiques expriment leur crainte de nuire aux relations avec les clients, cette crainte n'est pas infondée : plus des trois quarts ont également déclaré que leur organisation avait déjà fait l'expérience de préjugés nuisibles dans ses initiatives de prise de décision numérique.