L’Institut de recherche AI Now de la New York University vient de publier un rapport concernant leur crainte vis à vis de la technologie de reconnaissance d’émotions. Le laboratoire de recherche a également déposé une requête auprès des régulateurs pour interdire cette technologie. AI Now a déclaré que les systèmes de reconnaissance d’émotions utilisés pour détecter les traits de personnalité, les émotions ou pour évaluer la santé mentale permettent aux laboratoires de recherche d’affiner leurs données biométriques. Toutefois, ces mêmes institutions pourraient utiliser ces données pour évaluer notre aptitude à participer à la vie société, à obtenir un emploi ou pour l’évaluation de la douleur des patients ,ou encore du prix de son assurance. Cependant, AI Now a déclaré que cette technologie n’est pas fiable. Pour soutenir cet argument, le rapport a cité un article publié par ProPublica indiquant que la détection d’agression développée par Sound Intelligence testée dans des écoles, des hôpitaux, des banques et des prisons interprètent la toux comme un signe d’agression. AI Now a également fait allusion à une étude réalisée avec Face++ et Face API de Microsoft analysant des photos de joueurs de la NBA. Suite à une analyse approfondie, les deux systèmes ont conclu que les joueurs noirs avaient un score émotionnel plus négatif que tous les autres joueurs. L’étude montrait aussi que Face++ qualifiait les joueurs noirs comme plus agressifs tandis que Face API de Microsoft les jugeait comme ayant plus de mépris malgré les sourires qu’ils affichaient.

En novembre dernier, Harvard Business Review a également publié un article concernant l’utilisation de la reconnaissance émotionnelle dans certaines écoles en Chine. Cette technologie permettrait selon eux de suivre la concentration des élèves. Cependant, AI Now a déclaré que l’utilisation d’une telle technologie serait inadéquate dans le domaine de l’éducation. Il faut en effet prendre en compte les différents styles d’apprentissage. Certaines personnes apprennent en regardant, d’autres en pratiquant tandis que certains peuvent privilégier une concentration intense. Face à tous ces constats, AI Now a demandé aux gouvernements et aux entreprises de cesser d’utiliser la technologie de reconnaissance faciale dans les contextes sociaux et politiques sensibles. AI Now espère également que les autorités vont mettre en place plus de réglementation, et permettre ainsi à chacun de déposer une plainte sur l’utilisation de données biométriques par des acteurs privés, à des fins telles que la surveillance, le profilage de reconnaissance faciale et le suivi. AI Now estime que le secteur non réglementé de l’analyse des émotions devrait absorber 25 milliards de dollars en 2023, et pourrait s'immiscer dans toutes les facettes de la vie quotidienne. En effet, Disney utilise déjà ce type de technologie pour analyser la réaction du public devant ses films. Des chercheurs se tournent également vers cette innovation pour diagnostiquer des problèmes de santé mentale.

À lire aussi Facebook conçoit une application de reconnaissance faciale destinée à ses employés