Actualité Une étude dévoile que l'avis d'une foule est moins pris en compte...

Pour approfondir le sujet

Synapse AI : Entretien avec Julian Lucchesi, directeur des partenariats du CenTech à Montréal

L'adoption de l'intelligence artificielle en entreprise nécessite bien souvent un accompagnement. Dans ce numéro 3 de Synapse AI, Mathieu Barreau rencontre Julian Lucchesi, Directeur...

Un modèle de deep learning pour repérer plus facilement les tumeurs métastasiques complexes

Nous vous présentions récemment un système mis au point par des scientifiques écossais permettant de repérer plus facilement les mésothéliomes, une forme rare de cancer....

Trois start-up, spécialisées data et intelligence artificielle, finalistes du LVMH Innovation Award

Dans le cadre de la cinquième édition du LVMH Innovation Award, 28 start-up ont été sélectionnées. Grâce à ce prix dédié à l'innovation, les...

Quelle fiabilité pour la reconnaissance vocale utilisée pour le diagnostic du COVID-19 ?

Savoir si des patients sont atteints du COVID-19 grâce à leur voix ? C'est le défi que se sont lancé plusieurs équipes de recherche....

Une étude dévoile que l’avis d’une foule est moins pris en compte que celui d’un algorithme

Dans le cadre d’une étude qui a fait l’objet d’un article publié le 13 avril dernier, trois chercheurs ont remarqué que nous avions tendance à faire confiance aux machines et aux algorithmes plus qu’aux autres êtres humains dans une situation de prise de décision. Cette étude, financée à hauteur de 300 000$ par l’armée américaine, a été dirigée par Eric Bogert, doctorant au département des technologies de l’information de l’Université de Géorgie, accompagné de Aaron Schecter et Richard Watson, tous deux professeurs au sein de du même département. Trois expériences ont été menées afin de constater ces résultats.

Une batterie d’expériences psychologiques

Afin de réaliser cette étude, 1 500 personnes ont été sollicités sur internet afin de compter le nombre de personnes présentes dans une série de photographies. A chaque nouvelle expérience, le nombre d’individus sur les photographies augmentaient. Pour chaque photographie, les personnes testées devaient choisir entre les suggestions d’un groupe formé de 5 000 personnes (la foule) ou celles d’un algorithme entrainé au préalable à l’aide d’une base de données de 5 000 images.

Cette étude est le premier pas d’une longue série de recherches comme l’explique Aaron Schechter :

“Le but final est d’examiner des groupes d’humains et de machines qui prennent des décisions et de trouver comment nous pouvons les amener à se faire confiance et comment cela change leur comportement.”

Eric Bogert, l’auteur principal de la publication détaillant l’ensemble de l’étude explique tout l’intérêt des ces trois expériences :

“Les algorithmes sont capables d’accomplir un grand nombre de tâches, et le nombre de tâches qu’ils sont capables d’accomplir augmente pratiquement chaque jour. Il semble qu’il y ait un biais cognitif qui montre que l’on s’appuie sur les algorithmes, car les tâches à réaliser au quotidien deviennent plus difficiles et cet effet est plus fort que le biais consistant à se fier aux conseils d’autres personnes.”

Des résultats surprenants

Les résultats sont clairs : lorsque l’on compare les effets des trois expériences, on remarque que plus le nombre de personnes sur la photographie est grand, plus les gens vont faire confiance à l’algorithme pour prendre leur décision plutôt qu’à l’avis donné par la foule. Cet effet persiste même si la qualité des conseils, la numératie et l’exactitude des sujets sont contrôlés. Une des analyses que propose Aaron Schecter vis-à-vis de ces résultats est la suivante : les individus testés pensent en général qu’un travail dépendant d’un comptage est un travail plus approprié à donner à un algorithme entraîné plutôt qu’à un être humain.

Ce dernier poursuit son analyse en évoquant la perception que se font les individus des algorithmes et de l’IA :

“L’un des problèmes courants de l’IA est lorsqu’elle est utilisée pour octroyer des crédits ou approuver une personne pour des prêts. Bien que ce soit une décision subjective, il y a beaucoup de chiffres là-dedans – comme le revenu et la cote de crédit – donc les gens ont l’impression que c’est un bon travail pour un algorithme. Mais nous savons que la dépendance conduit à des pratiques discriminatoires dans de nombreux cas en raison de facteurs sociaux qui ne sont pas pris en compte.”

Toutefois, un autre fait est partiellement à l’opposé des premiers résultats de l’enquête : les sujets de l’expérience avaient également tendance à ignorer plus fortement les conseils inexacts étiquetés comme algorithmiques par rapport aux conseils tout aussi inexacts étiquetés comme provenant de la foule.

Zacharie Tazrout

Partager l'article

Synapse AI : Entretien avec Julian Lucchesi, directeur des partenariats du CenTech à Montréal

L'adoption de l'intelligence artificielle en entreprise nécessite bien souvent un accompagnement. Dans ce numéro 3 de Synapse AI, Mathieu Barreau rencontre Julian Lucchesi, Directeur...

Un modèle de deep learning pour repérer plus facilement les tumeurs métastasiques complexes

Nous vous présentions récemment un système mis au point par des scientifiques écossais permettant de repérer plus facilement les mésothéliomes, une forme rare de cancer....

Trois start-up, spécialisées data et intelligence artificielle, finalistes du LVMH Innovation Award

Dans le cadre de la cinquième édition du LVMH Innovation Award, 28 start-up ont été sélectionnées. Grâce à ce prix dédié à l'innovation, les...

Quelle fiabilité pour la reconnaissance vocale utilisée pour le diagnostic du COVID-19 ?

Savoir si des patients sont atteints du COVID-19 grâce à leur voix ? C'est le défi que se sont lancé plusieurs équipes de recherche....