Quand l’IA interprète les émotions humaines : focus sur le projet de recherche UMons – MoodMe

UMONS MOODME émotions

Un projet de recherche de trois ans porté par une équipe de l’UMons dans le cadre d’un projet porté par la start-up MoodMe s’est focalisé sur l’analyse des « émotions » de participants. L’intelligence artificielle, déjà utilisée pour l’analyse d’images à des fins d’identification de personnes, est pressentie et même déjà utilisée pour identifier les émotions des internautes, des clients ou de spectateurs.

Deux modes d’identification des émotions

Selon Matei Mancas, chercheur spécialisé en modélisation computationnelle de l’attention et fondateur de la spin-off Ittention, émanation de l’UMons, il existe deux modes d’identification et d’analyse des émotions :

  • l’interprétation, via des algorithmes, des sept expressions primaires (joie, tristesse, surprise, colère, peur, dégoût, mépris), ce qu’utilise jusqu’à présent MoodMe dans ses solutions. Une technique qui exige une bonne qualité des bases de données sur lesquelles les algorithmes sont entraînés. Pour ce spécialiste, l’écueil majeur demeure la prédominance des visages d’Européens ou d’Américains blancs dans les bases d’images, qui orientent l’algorithme :

« Il a déjà été démontré que certains modèles [algorithmiques] existants sont mauvais ou inefficaces sur des visages de noirs, par exemple. Par manque de visages de référence. Raison pour laquelle, à l’UMons, nous travaillons également sur un modèle d’ethnicité pour éliminer les biais. »

L’autre point de vigilance est la « véracité » de l’image : l’émotion captée est-elle spontanée, authentique ou simulée ? Quid des biais culturels ? Les sept émotions primaires sont-elles réellement universelles ? À la base des techniques d’identification de ces émotions, souligne Matei Mancas, il y a, en partie, les travaux d’anthropologues qui garantissent des conclusions sérieuses.

Afin de rendre utilisable sur smartphone le potentiel de « calcul » d’émotion, les chercheurs de l’UMons ambitionnent d’adapter les réseaux neuronaux, en trouvant d’autres moyens que les techniques de compression trop insuffisantes. Des réseaux neuronaux qui soient suffisamment légers et néanmoins efficaces et rapides pour s’installer dans nos assistants mobiles.

  • Autre piste, toujours sur base d’algorithmes, la méthode FACS (Facial Action Coding System), une méthode de description des mouvements du visage développée en 1978 par les psychologues Paul Ekman et Wallace Friesen. Elle repose sur l’étude des muscles du visage et de ceux qui sont activés pour chaque émotion, sur un panel d’émotions plus large et plus varié que les 7 primaires. Elle permet une lecture d’émotions où se combinent plusieurs états émotionnels (joie et fatigue par exemple). La pertinence de la base de données est ici encore importante, il faut donc vérifier les conditions dans lesquelles elle a été constituée : qualité des images, description exacte, sérieux des auteurs, équilibre ethnique et/ou culturel de la cohorte…

Où trouver ces bases de référence FACS ? Matei Mancas répond :

« Il est plus difficile de trouver des bases FACS. Certaines sont utilisables [autorisées comme telles par leurs auteurs] uniquement à des fins de recherche. La difficulté s’accentue quand on veut s’en servir pour lancer un produit, une appli ou un service sur le marché. »

Le projet de l’UMons

Pour les besoins du projet, les chercheurs de l’UMons ont souhaité disposer d’un maximum de modèles qui gèrent spécifiquement des cas d’espèce tels que l’âge, le genre, l’ethnicité…Cette multiplicité de modèles suppose une puissance de calcul décuplée et des tests poussés pour déterminer l’interaction ou les influences croisées entre plusieurs modèles aux thématiques différentes. Ainsi, dans telle ou telle circonstance, pour telle ou telle émotion, un jeune sera-t-il plus expressif qu’une personne âgée? Tel modèle est-il plus efficace sur les femmes ou sur les hommes, sur les jeunes ou sur les personnes plus âgées ?

Pour poursuivre les travaux, l’UMons doit trouver de nouveaux financements afin d’avancer dans cette recherche innovante. En effet, la piste de solutions embarquées (exploitables et opérationnelles en mode mobile voire sur objet connecté) constitue une originalité. Aboutir à une solution embarquée constituerait un précieux argument différenciateur, estime Matei Mancas :

« Pas besoin de devoir envoyer les images vers les serveurs d’un GAFA ou d’un BATX. »

Moins de risque de piratage, préservation de la confidentialité, pas de dépendance vis-à-vis des plateformes, etc., les conséquences sont nombreuses.

La question éthique

Jusqu’où peut-on aller avec ces techniques FACS ? Doit-on définir un cadre pour une utilisation « vertueuse » ? Pourrait-on franchir le pas de l’utilisation prédictive voire prescriptive de solutions FACS ? Les types d’applications potentielles sont diverses et variées et flirtes souvent avec des lignes rouges : « guider » un acheteur en fonction de l’émotion ressentie, permettre à une société d’anticiper ses réactions, ses choix et adapter les propositions en conséquence ; optimiser le comportement ou la démarche de commerciaux ou encore le fonctionnement en équipe ; conseiller à un individu la manière de rendre ses présentations plus efficaces lors de webinaires ; aider un enseignant à mieux capter l’attention de ses élèves, etc.

La reconnaissance des émotions est-elle un sujet plus sensible que la reconnaissance automatisée des visages qui suscite déjà de nombreux débats ? Pour Matei Mancas :

« Si la reconnaissance des visages est aujourd’hui remise en question, c’est parce qu’elle permet de mettre un nom sur un visage, de retrouver un individu sur une vidéo, de le “tracer” à long terme… Du côté de l’identification des émotions, on parle plutôt d’une utilisation qui n’est pas liée à un processus d’identification personnelle. On agrège et compare les données avec une cohorte, avec d’autres personnes. »

Il reconnaît malgré tout la possibilité d’utilisations de ces techniques à des fins néfastes :

« Il est dès lors important de définir un cadre légal et éthique. »

Comment ? En adoptant, selon Matei Mancas, une démarche « ethics by design » au début d’un projet, c’est-à-dire entraîner un algorithme et effacer immédiatement les données sur les visages des individus sur lesquels on s’est basé pour l’exercice, ou encore, en prenant toutes les garanties possibles pour qu’un hacker qui prendrait le contrôle d’une application mobile ne puisse pas mettre la main sur des données. La frontière est ténue entre des pratiques désirables ou non. Cela demande une grande vigilance d’utilisation et une pratique encadrée. Un schéma similaire aux balises que définit par exemple le RGPD pourrait être mis en œuvre. Un projet a été lancé à la fac de psychologie de l’UMons :

« Apprendre aux professeurs à reconnaître des attitudes et réactions de leurs élèves, pour lutter contre la perte d’attention. »

Avec la garantie que les données collectées pour créer le modèle analytique ne seront pas conservées. Et que l’on ne visera pas un individu en particulier.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
Offre exclusive : 1 an d'abonnement au magazine ActuIA + Le guide pratique d'adoption de l'IA en entreprise pour seulement 27,60€ Boutique ActuIA Pour tout abonnement à ActuIA, recevez en cadeau le Guide Pratique d'Adoption de l'IA en Entreprise, d'une valeur de 23€ !
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.