Par Victor Azria, Capgemini
L'IA soulève aujourd'hui de nouvelles questions éthiques et juridiques. A travers l'exemple des véhicules autonomes, comment penser la responsabilité des algorithmes ?
Le paradoxe des objets autonomes
Les objets connectés sont des vecteurs d’automatisation qui grâce à l’IA (Intelligence Artificielle) et ses algorithmes vont évoluer vers l’autonomie, c’est à dire la capacité de prendre seuls des décisions, sans intervention de l’humain. Mais ce domaine, encore exploratoire, reste soumis à de puissants paradoxes dont la peur de l’absence de contrôle de l’homme sur la ‘machine intelligente’.
L’Intelligence Artificielle (IA) n’est pas chose nouvelle. Dans les années 50, de nouvelles expérimentations laissaient entrevoir un avenir radieux, proche à l’époque de la science-fiction, où il était permis d’imaginer des robots ou des automobiles autonomes. La décennie suivante a marqué un coup d’arrêt à ces visions, les expériences menées aboutissant à un plafond de résultat dû à la faible puissance des équipements et au manque de données.
La révolution est venue après 2012 avec la mise en place des infrastructures massivement distribuées, la fourniture de capacités de calcul quasi infinie, le renouveau des réseaux de neurones, la multiplication des données, et la réapparition du Machine Learning. Un nouveau cycle de maturité autour de l’IA a été relancé, qui associe les théories mathématiques pour les traitements analytiques au Big Data pour la donnée et à la technologie pour outiller tout cela dans la perspective de créer de nouveaux usages.
Aujourd’hui, même si les capacités de stockage et le taux de performance et de précision élevés des algorithmes IA laissent entrevoir l’émergence d’objets autonomes, cette autonomie interroge car par défaut l’IA induit une ‘intelligence’ entrainée dans le périmètre de son usage – est ce que cette caractéristique sera suffisante pour construire un objet réellement autonome, là est le paradoxe.
L’exemple du piéton et du véhicule autonome
Imaginons qu’un objet inconnu surgisse devant un véhicule en circulation.
Le conducteur humain s’adaptera au contexte inconnu en construisant sa décision sur un référentiel étendu de faits (son éducation, son expérience de piéton et de conducteur, ses réflexes de survie, …) qui dépasse le cadre de la conduite.
Du côté véhicule autonome, cette base est beaucoup plus spécialisée, et l’affolement des capteurs peut sortir du cadre appris. S’il ne peut associer un modèle de décision aux données qui lui parviennent, comment l’IA va-t-elle réagir ? Si c’est un piéton qui apparaît sur la route, et que l’IA prend la décision de l’écraser par rapport à d’autres éléments de la circulation, qui est responsable ?
Comment prévenir et anticiper ce type de circonstance dans un système qui ne s’appuie pas sur une algorithmie impérative « si alors sinon » mais sur la répartition de faits dans un réseau de neurones ?
Si nous savons aujourd’hui reproduire un schéma intellectuel humain dans des réseaux neuronaux, nous ne savons pas donner à l’IA la capacité de réagir dans un monde ouvert. L’architecture des algorithmes des réseaux de neurones n’est pas suffisante pour atteindre le niveau d’abstraction attendu face au mode de prise de décision de l’humain. Les objets autonomes les plus avancés sont capables d’enclencher énormément d’actions adaptées et proportionnées, ce qui leur permet de mettre à la disposition de l’humain ‘augmenté’ des outils d’aide dans le quotidien. Mais qui dit aide … ne dit pas 100% autonomie.
Où va la responsabilité ?
Qui est responsable ? C’est le sujet numéro un de l’IA dans les années à venir. Une question à la fois éthique et juridique, qui repose sur la capacité de remplacer l’humain dans la prise de décision par des modèles algorithmiques soumis à des niveaux de précision dans leurs résultats. Reprenons l’exemple de l’automobile : peut-on considérer comme fiable une réponse qui repose sur un modèle probabiliste de l’ordre de 99,99 % ? La réponse est non, en raison du risque humain du cas d’usage, même si en soit ce résultat peut être considéré comme ultra-performant. En l’état, la responsabilité sera transmise au conducteur, sous le couvert de son assurance.
Pourrait alors se poser la question de l’intérêt du Machine Learning dans un contexte où l’humain moins réactif que la machine est encore requis ? Même si cette technologie, basée sur les mathématiques, l’algèbre et les statistiques, est de plus en plus précise – Par exemple par la traduction, la reconnaissance d’objets dans des images, la transcription de voix ou encore la génération de langage naturel - Elle a déjà aujourd’hui surpassé les capacités humaines dans certains domaines spécifiques tels que la reconnaissance d’objets dans des images (analyse médicale d’IRM par exemple). En revanche, pour des tâches complexes comme la conduite, les résultats sont très loin d’être suffisants. Un humain apprend à conduire en 20 heures environ tandis qu’une voiture autonome n’y arrive pas encore après des millions de km de conduite. Nous avons simplement gratté la surface de l’autonomie à travers des tâches unitaires simples, mais qui ouvrent un champ d’utilisation gigantesque dans les applications aux services ou à l’industrie.
Ajoutons à cela que le Machine Learning est souvent assimilé à une boite noire, dont nous sommes encore loin de comprendre ce qu’il se passe à l’intérieur. Des méthodes apparaissent progressivement pour expliquer les modèles d’exécution, en particulier des réseaux de neurones, et la problématique générale, celle de l’apprentissage sans éthique.
L’algorithme prend la décision… sous la responsabilité de l’humain
Si la machine totalement autonome dans la prise de décision laisse planer des zones d’ombre, il est un domaine dans lequel l’IA peut s’exprimer pleinement, celui de l’homme augmenté. Les expériences menées sur les messageries démontrent que l’intelligence de l’IA est aujourd’hui capable de répondre à 80 % des messages. Ce qui représente un gain de temps pour l’humain. L’IA se montre déjà efficace - c’est à dire que les capacités d’analyse des données, voix, images, etc., affichent un haut niveau de succès – sur les applications du quotidien où l’intelligence augmentée peut aider l’humain. Il ne s’agit pas d’une autonomie entière, l’IA participe à l’augmentation des employés et aide à la décision. Le contrôle de la marge d’erreur est assuré par l’humain, qui assure le contact et la supervision. Et déjà dans ce cadre les cas d’usage sont quasi infinis…
Où sera l’IA dans... 5 ans ? Les technologies avancent à grande vitesse, tout comme la transformation des organisations. Si le mouvement s’accélère, la tendance est à laisser la décision aux algorithmes, tandis que la responsabilité restera à l’humain. Les outils d’IA clé en main, ouverts à tous et au coût en baisse, vont participer à la démocratisation de ces usages et par la même à l’amélioration des faits enregistrés, de la précision de la réponse, et in fine à améliorer le niveau d’efficacité collectif entre l’homme et la machine.
Pour en apprendre plus sur les usages connectés avec nos clients et nos experts Capgemini, participez à la #CWIN18 à Paris mardi 16 octobre. Au programme : "Vers les objets autonomes - IA et IoT augmentent votre business."