Dans une nouvelle étude, les participants ont montré plus d'empathie pour un agent d'intelligence artificielle anthropomorphe en ligne lorsqu'il semblait divulguer des informations personnelles sur lui-même pendant qu'il discutait avec eux.

L'utilisation de l'I.A. dans la vie quotidienne est de plus en plus fréquente, ce qui suscite l'intérêt pour les facteurs qui pourraient contribuer au niveau de confiance et d'acceptation que les personnes ressentent à l'égard des agents de l'I.A.

Des recherches antérieures ont suggéré que les personnes sont plus susceptibles d'accepter des objets artificiels si ceux-ci suscitent de l'empathie. Par exemple, elles peuvent éprouver de l'empathie pour les robots nettoyeurs, les robots qui imitent les animaux domestiques et les chatbots.

Une étude menée par des chercheurs de la Graduate University for Advanced Studies et de l'Institut national d'informatique, tous les deux à Tokyo, a été publiée dans la revue à accès libre PLOS ONE, le 10 mai dernier.  

Collègues de bureau

Ces deux chercheurs ont émis l'hypothèse que la divulgation d'informations personnelles par un chatbot pourrait renforcer l'empathie des personnes à leur égard.

Ils ont mené des expériences en ligne au cours desquelles les participants ont eu une discussion textuelle avec un agent d'I.A. en ligne représenté visuellement soit par une illustration de type humain, soit par une illustration d'un robot anthropomorphe.

Dans ce scénario, le participant et l'agent étaient des collègues en pause déjeuner sur le lieu de travail. Dans chaque conversation, l'agent semblait divulguer soit des informations personnelles très pertinentes pour le travail, soit des informations moins pertinentes sur un hobby, soit aucune information personnelle.

L'analyse finale a porté sur les données de 918 participants dont l'empathie à l'égard de l'agent d'I.A. a été évaluée à l'aide d'un questionnaire d'empathie standard. Les chercheurs ont constaté que, par rapport à une divulgation d'informations moins pertinentes, une divulgation d'informations très pertinentes pour le travail de la part de l'agent d'I.A. était associée à une plus grande empathie de la part des participants.  

Relations sociales

L'absence d'autodivulgation était associée à une empathie supprimée. L'apparence du chatbot, qu'il s'agisse d'un humain ou d'un robot anthropomorphe, n'avait pas d'association significative avec les niveaux d'empathie.

Ces résultats suggèrent que la divulgation de soi par les agents d'intelligence artificielle peut, en effet, susciter l'empathie des humains, ce qui pourrait contribuer au développement futur d'outils d'intelligence artificielle.

"Cette étude examine si la divulgation de soi par des agents anthropomorphes affecte l'empathie humaine. Notre recherche modifiera l'image négative des artefacts utilisés dans la société et contribuera aux futures relations sociales entre les humains et les agents anthropomorphes", estiment les auteurs de cette étude.