Assistants vocaux et émotions

Ce que vous direz et comment vous le direz, pourra être retenu contre vous ! Les applications d’analyse de la voix et de captation des émotions sont de plus en plus nombreuses sur le marché. Quelle est leur fiabilité et qu’en est-il de la protection de la vie privée et des libertés ?

edison delights 1905 linc cnil assistants vocaux

L’analyse des émotions, à quoi ça sert ?

Une startup développe, avec le concours d’une équipe de chercheurs du MIT, un assistant intelligent qui devra permettre aux téléconseillers de connaître et analyser l’humeur de leurs interlocuteurs en temps réel, en se basant sur le rythme et les propos qu’ils tiennent. L’objectif est que les téléconseillers puissent mieux adapter leurs réponses, diminuer leur fatigue, et in fine répondre à un nombre plus important d’appels chaque jour. Le même système pourra également être utilisé par les employeurs pour analyser la voix et les propos des téléconseillers.

D’autres startups, comme Nemesysco ont recours à ces technologies dans les call-centers, pour surveiller les téléconseillers, mais également dans le domaine de la sécurité, pour des interrogatoires, ou dans le domaine de l’assurance, pour repérer d’éventuelles tentatives de fraudes, à la manière d’un détecteur de mensonge.

IA et descrimination

La captation des émotions par la voix reste un champ à surveiller, il porte en lui les risques et interrogations notamment pour les applications basées sur l’IA et le machine learning : discrimination et exclusion constituent des effets clairement identifiés dans les algorithmes et l’intelligence artificielle.

Le rapport de l’IEEE, Ethically Aligned Design, précise dans le chapitre consacré à l’affective computing qu’il est nécessaire de prendre en compte les artefacts culturels, c’est-à-dire que certains signes peuvent être interprétés différemment selon les cultures : « les sociétés et les individus à travers le monde ont différentes manières de maintenir le contact visuel, exprimer des intentions dans la gestuelle, interpréter les silences » mais aussi d’exprimer des signes dans les intonations de voix.

Ainsi, « un système basé sur l’intelligence artificielle entrainé à partir d’une base de données d’une zone culturelle ne sera pas directement utilisable dans une autre culture« , ou pour une personne issue d’une autre culture.

L’utilisation sans précaution de telles technologies, au-delà des notions de consentement des personnes à s’y soumettre, pourraient avoir pour conséquence de nuire à des individus pourtant honnêtes ou sincères, qu’ils soient des particuliers qui cherchent à obtenir un crédit immobilier, ou des salariés en centre d’appel dont le timbre de voix ne correspondrait pas aux canons et stéréotypes des algorithmes d’analyse vocale.


Extraits de l’article publié par la CNIL : Captation des émotions : comment vous le direz pourra être retenu contre vous…

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.