La vérité, rien que la vérité?

Démasquer des terroristes dans un aéroport? Juger la sociabilité d’un candidat lors d’un entretien d’embauche? IBM stoppait l’an dernier la recherche et la vente de technologies liées à la reconnaissance faciale d’émotions pour des raisons éthiques. Mais l’intérêt pour ces intelligences artificielles ne faiblit pas. Des chercheurs de l’université de Cambridge attirent donc l’attention du public sur les biais de cette technologie via un browser game éloquent. Demandant d’exprimer six émotions face à sa webcam, Emojify.info fait passer ses sujets entre contentement, tristesse, peur et surprise. Ces quatre expressions ont été validées lors de notre essai. Mais l’IA confondait colère et dégoût. Interpellante, cette démonstration par la pratique illustre un processus qui non content d’être racialement biaisé (en défaveur des Noirs qui montreraient plus d’émotions négatives) n’a aucune valeur scientifique. Plusieurs recherches pointent en effet que l’état émotionnel d’un individu ne peut pas être réduit à l’expression de son visage.

www.emojify.info

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Partner Content