Les applications de l’IA les plus réussies reposent sur la puissance de leurs algorithmes appliqués à d’importants volumes de données. Mais il leur manque un élément crucial : être centrées sur l’humain.

Prenez un véhicule et guidez-le avec le GPS d’un smartphone. Placez le véhicule dans une situation familière, un voyage simple qui ne nécessite qu’une faible quantité de connaissances et qui crée la confiance pour le conducteur. Puis brouillez le signal reçu par le smartphone. Vous placez ainsi les occupants du véhicule en situation de danger… Et pourtant, il suffirait de placer un message de type ‘faible niveau de confiance’ ou ‘interférences élevées’ pour attirer l’attention du conducteur et l’inciter à plus de prudence…

Cet exemple est emblématique d’une des faiblesse de l’IA (Intelligence Artificielle) que peu d’utilisateurs connaissent et sont capables de combler : l’IA est capable d’automatiser les tâches associées à la connaissance humaine, mais beaucoup de projets échouent car ils ne sont pas conçus pour promouvoir leur adoption intelligente par les humains.

Les algorithmes sont d’une conception mécanique, il leur manque les principes de conception centrés sur l’humain que sont :

La pertinence de la réponse

Un application d’IA doit être conçue pour satisfaire les besoins intrinsèques des utilisateurs finaux. Les réponses numériques sont certes plus précises, mais elles sont plus utiles si elles sont intuitives. Les 312.679 km² de la surface de la Pologne est une réponse précise, mais qui parle moins que de dire qu’elle est deux fois moins grande que la France.

La reprise manuelle

Comme évoqué dans l’exemple du véhicule, de nombreux systèmes d’IA qui fonctionnent en mode pilote automatique devraient bénéficier d’un transfert sur intervention humaine lorsque son fonctionnement nécessite une compréhension contextuelle.

Les boucles de rétroaction

Les décisions algorithmiques automatisées peuvent refléter et amplifier le comportement indésirable et les biais sociétaux des utilisateurs dans les données sur lesquelles ils sont formés. Par exemple, laissez un chatbot disposant d’une fonction de machine learning apprendre de propos sexistes, racistes et fascistes, et très vite il fournira des réponses sexistes, racistes et fascistes aux questions qui lui sont posées.

L’impact psychologique

Tout comme le comportement de l'utilisateur peut altérer les algorithmes, les algorithmes peuvent altérer le comportement de l'utilisateur. C’est ainsi que le filtrage des commentaires peut mener à des communautés fermées aux opinions polarisées à la pensée unique.

L’IA contre-productive

Il peut être contre-productif de déployer des systèmes d'IA sans une conception centrée sur l'humain, qui reflète de manière appropriée les informations, les objectifs et les contraintes pesant sur les décisions.

Il est donc fortement conseillé :

  • de consulter les utilisateurs finaux ayant des connaissances sur le domaine en cours de développement afin d’anticiper les réalités des cas d'utilisation ;
  • de communiquer clairement les hypothèses, les limites et les caractéristiques de données d'un algorithme aux utilisateurs finaux grâce à une écriture claire et à une visualisation intuitive des informations ;
  • d'établir des lignes directrices et des règles de gestion pour convertir les prédictions d'IA en prescriptions ;
  • de suggérer quand et comment les utilisateurs pourraient outrepasser l'algorithme ou compléter ses recommandations par d'autres informations.

Source : Deloitte

Image d’entête 823303786 @ iStock nadia_bormotova

AUCUN COMMENTAIRE