Plusieurs entreprises de technologies comme IBM, Amazon et Microsoft développent actuellement des algorithmes de reconnaissance des émotions basés sur l’analyse des traits faciaux. Toutefois, une étude récente a montré que les résultats de ces dispositifs ne sont pas fiables. Lisa Feldman Barret, professeur de psychologie à la Northeastern University, et 5 autres scientifiques de renom ont été commandités par « Association for Psychological Science » pour examiner la fiabilité de cette technologie. Après 2 ans de recherches, les scientifiques ont conclu que les émotions s’expriment de différentes manières, rendant difficile la manière de déduire réellement ce que ressent une personne en analysant les traits de son visage.
Les données accumulées par les scientifiques montrent que les gens se fâchent en moyenne moins de 30% du temps. Un regard renfrogné ne montre pas forcément une expression de colère. De plus, certaines personnes ont des traits tirés mêmes s’ils ne sont pas en colère. Cette étude confirme le fait que les entreprises utilisant l’IA pour évaluer une émotion induisent les consommateurs en erreur. Le rapport des scientifiques reconnait le fait qu’il existe une grande variété de croyances dans le domaine des études sur les émotions. Microsoft a déclaré par exemple que son IA était capable de reconnaitre 8 états émotionnels fondamentaux basés sur des expressions faciales universelles. Ce que l’étude des scientifiques a réfuté catégoriquement. Toutefois, Feldman Barret a indiqué que, plus tard, nous serons capables de mesurer plus précisément les émotions en utilisant des paramètres plus sophistiqués.