Intelligence artificielle Quand l’IA interprète les émotions humaines : focus sur le projet de...

Pour approfondir le sujet

Sur le même thème :

Systèmes de reconnaissance automatisée dans les espaces publics : le CEPD et l’EDPB demandent leur interdiction

En avril dernier, le Contrôleur européen de la Protection des Données (CEPD) exprimait sa réserve sur la reconnaissance faciale, en lien avec la réglementation...

Le colloque DRIAS évoquera les responsabilités éthiques, juridiques et techniques des outils d’IA en santé

Les 21 et le 22 juin prochains aura lieu le Colloque DRIAS (Droit, IA et Santé), une initiative coorganisée par l'Institut de Recherche en...

La Chine présente ses « spécifications éthiques de l’intelligence artificielle de nouvelle génération »

Fin septembre, le ministère chargé de la Science et de la Technologie chinois a présenté ses nouvelles lignes directrices sous la forme de "spécifications...

Twitter annonce des travaux visant à rendre ses algorithmes plus éthiques et transparents

Dans la présentation de ses travaux en cours, Twitter a mis en avant, ce 14 avril, l'IA éthique. Le réseau social souhaite améliorer ses...

Quand l’IA interprète les émotions humaines : focus sur le projet de recherche UMons – MoodMe

Un projet de recherche de trois ans porté par une équipe de l’UMons dans le cadre d’un projet porté par la start-up MoodMe s’est focalisé sur l’analyse des « émotions » de participants. L’intelligence artificielle, déjà utilisée pour l’analyse d’images à des fins d’identification de personnes, est pressentie et même déjà utilisée pour identifier les émotions des internautes, des clients ou de spectateurs.

Deux modes d’identification des émotions

Selon Matei Mancas, chercheur spécialisé en modélisation computationnelle de l’attention et fondateur de la spin-off Ittention, émanation de l’UMons, il existe deux modes d’identification et d’analyse des émotions :

  • l’interprétation, via des algorithmes, des sept expressions primaires (joie, tristesse, surprise, colère, peur, dégoût, mépris), ce qu’utilise jusqu’à présent MoodMe dans ses solutions. Une technique qui exige une bonne qualité des bases de données sur lesquelles les algorithmes sont entraînés. Pour ce spécialiste, l’écueil majeur demeure la prédominance des visages d’Européens ou d’Américains blancs dans les bases d’images, qui orientent l’algorithme :

« Il a déjà été démontré que certains modèles [algorithmiques] existants sont mauvais ou inefficaces sur des visages de noirs, par exemple. Par manque de visages de référence. Raison pour laquelle, à l’UMons, nous travaillons également sur un modèle d’ethnicité pour éliminer les biais. »

L’autre point de vigilance est la « véracité » de l’image : l’émotion captée est-elle spontanée, authentique ou simulée ? Quid des biais culturels ? Les sept émotions primaires sont-elles réellement universelles ? À la base des techniques d’identification de ces émotions, souligne Matei Mancas, il y a, en partie, les travaux d’anthropologues qui garantissent des conclusions sérieuses.

Afin de rendre utilisable sur smartphone le potentiel de « calcul » d’émotion, les chercheurs de l’UMons ambitionnent d’adapter les réseaux neuronaux, en trouvant d’autres moyens que les techniques de compression trop insuffisantes. Des réseaux neuronaux qui soient suffisamment légers et néanmoins efficaces et rapides pour s’installer dans nos assistants mobiles.

  • Autre piste, toujours sur base d’algorithmes, la méthode FACS (Facial Action Coding System), une méthode de description des mouvements du visage développée en 1978 par les psychologues Paul Ekman et Wallace Friesen. Elle repose sur l’étude des muscles du visage et de ceux qui sont activés pour chaque émotion, sur un panel d’émotions plus large et plus varié que les 7 primaires. Elle permet une lecture d’émotions où se combinent plusieurs états émotionnels (joie et fatigue par exemple). La pertinence de la base de données est ici encore importante, il faut donc vérifier les conditions dans lesquelles elle a été constituée : qualité des images, description exacte, sérieux des auteurs, équilibre ethnique et/ou culturel de la cohorte…

Où trouver ces bases de référence FACS ? Matei Mancas répond :

« Il est plus difficile de trouver des bases FACS. Certaines sont utilisables [autorisées comme telles par leurs auteurs] uniquement à des fins de recherche. La difficulté s’accentue quand on veut s’en servir pour lancer un produit, une appli ou un service sur le marché. »

Le projet de l’UMons

Pour les besoins du projet, les chercheurs de l’UMons ont souhaité disposer d’un maximum de modèles qui gèrent spécifiquement des cas d’espèce tels que l’âge, le genre, l’ethnicité…Cette multiplicité de modèles suppose une puissance de calcul décuplée et des tests poussés pour déterminer l’interaction ou les influences croisées entre plusieurs modèles aux thématiques différentes. Ainsi, dans telle ou telle circonstance, pour telle ou telle émotion, un jeune sera-t-il plus expressif qu’une personne âgée? Tel modèle est-il plus efficace sur les femmes ou sur les hommes, sur les jeunes ou sur les personnes plus âgées ?

Pour poursuivre les travaux, l’UMons doit trouver de nouveaux financements afin d’avancer dans cette recherche innovante. En effet, la piste de solutions embarquées (exploitables et opérationnelles en mode mobile voire sur objet connecté) constitue une originalité. Aboutir à une solution embarquée constituerait un précieux argument différenciateur, estime Matei Mancas :

« Pas besoin de devoir envoyer les images vers les serveurs d’un GAFA ou d’un BATX. »

Moins de risque de piratage, préservation de la confidentialité, pas de dépendance vis-à-vis des plateformes, etc., les conséquences sont nombreuses.

La question éthique

Jusqu’où peut-on aller avec ces techniques FACS ? Doit-on définir un cadre pour une utilisation « vertueuse » ? Pourrait-on franchir le pas de l’utilisation prédictive voire prescriptive de solutions FACS ? Les types d’applications potentielles sont diverses et variées et flirtes souvent avec des lignes rouges : « guider » un acheteur en fonction de l’émotion ressentie, permettre à une société d’anticiper ses réactions, ses choix et adapter les propositions en conséquence ; optimiser le comportement ou la démarche de commerciaux ou encore le fonctionnement en équipe ; conseiller à un individu la manière de rendre ses présentations plus efficaces lors de webinaires ; aider un enseignant à mieux capter l’attention de ses élèves, etc.

La reconnaissance des émotions est-elle un sujet plus sensible que la reconnaissance automatisée des visages qui suscite déjà de nombreux débats ? Pour Matei Mancas :

« Si la reconnaissance des visages est aujourd’hui remise en question, c’est parce qu’elle permet de mettre un nom sur un visage, de retrouver un individu sur une vidéo, de le “tracer” à long terme… Du côté de l’identification des émotions, on parle plutôt d’une utilisation qui n’est pas liée à un processus d’identification personnelle. On agrège et compare les données avec une cohorte, avec d’autres personnes. »

Il reconnaît malgré tout la possibilité d’utilisations de ces techniques à des fins néfastes :

« Il est dès lors important de définir un cadre légal et éthique. »

Comment ? En adoptant, selon Matei Mancas, une démarche « ethics by design » au début d’un projet, c’est-à-dire entraîner un algorithme et effacer immédiatement les données sur les visages des individus sur lesquels on s’est basé pour l’exercice, ou encore, en prenant toutes les garanties possibles pour qu’un hacker qui prendrait le contrôle d’une application mobile ne puisse pas mettre la main sur des données. La frontière est ténue entre des pratiques désirables ou non. Cela demande une grande vigilance d’utilisation et une pratique encadrée. Un schéma similaire aux balises que définit par exemple le RGPD pourrait être mis en œuvre. Un projet a été lancé à la fac de psychologie de l’UMons :

« Apprendre aux professeurs à reconnaître des attitudes et réactions de leurs élèves, pour lutter contre la perte d’attention. »

Avec la garantie que les données collectées pour créer le modèle analytique ne seront pas conservées. Et que l’on ne visera pas un individu en particulier.


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
 
Thierry Maubant

Partager l'article

CentraleSupélec et SystemX lancent l’Alliance CircularIT pour mettre le numérique au service de l’économie circulaire

Le 10 mai dernier, CentraleSupélec et l’IRT SystemX ont annoncé la création d'« Alliance CircularIT » afin de « mettre la puissance du numérique...

Le Val de Marne mise sur l’intelligence artificielle pour améliorer son réseau d’assainissement

En novembre 2020, l’agence de l’eau Seine-Normandie lançait l'appel à projets innovation pour la gestion de l’eau, « Transition numérique et économie circulaire »...

RAFAEL vise à devenir la plateforme dédiée au post-Covid de référence en francophonie

La Haute Autorité de Santé, à la date du 19 novembre 2021, déclarait que 10% des malades du Covid-19 développent un covid long, syndrome...

Des chercheurs de l’Université de Buffalo identifient les principaux facteurs du cancer du poumon grâce à l’IA

Le cancer du poumon et des bronches (LBC) est l'une des causes les plus courantes de décès par cancer dans le monde, représentant 11,6...
Recevoir une notification en cas d'actualité importante    OK Non merci