Intelligence artificielle Une étude dévoile que l'avis d'une foule est moins pris en compte...

Pour approfondir le sujet

Sur le même thème :

Deux rapports de l’ONU se penchent sur l’utilisation de l’IA pour lutter contre le terrorisme en ligne

Dans le cadre de la 2021 Counter-Terrorism Week de l'Organisation des Nations Unies (ONU), deux rapports ont été présentés autour de l'utilisation de l'intelligence...

Comment l’intelligence artificielle peut lutter contre la falsification d’images satellites ?

Alors que nous sommes nombreux à admirer les clichés bien réels de Thomas Pesquet depuis l'espace, une étude menée par des chercheurs de plusieurs...

Des chercheurs utilisent un modèle basé sur l’apprentissage supervisé pour mieux gérer les inondations

Le dégel, les différences de niveau du sol, la quantité d'eau reçue et son débit : ce sont trois des variables entrant en jeu...

Des chercheurs ont mis au point un algorithme de prédiction des maladies dues à des régimes spécifiques

Les consultations auprès de nutritionnistes ont considérablement augmenté ces dernières années. Grâce aux progrès scientifiques, les régimes se sont améliorés et sont beaucoup plus...

Une étude dévoile que l’avis d’une foule est moins pris en compte que celui d’un algorithme

Dans le cadre d’une étude qui a fait l’objet d’un article publié le 13 avril dernier, trois chercheurs ont remarqué que nous avions tendance à faire confiance aux machines et aux algorithmes plus qu’aux autres êtres humains dans une situation de prise de décision. Cette étude, financée à hauteur de 300 000$ par l’armée américaine, a été dirigée par Eric Bogert, doctorant au département des technologies de l’information de l’Université de Géorgie, accompagné de Aaron Schecter et Richard Watson, tous deux professeurs au sein de du même département. Trois expériences ont été menées afin de constater ces résultats.

Une batterie d’expériences psychologiques

Afin de réaliser cette étude, 1 500 personnes ont été sollicités sur internet afin de compter le nombre de personnes présentes dans une série de photographies. A chaque nouvelle expérience, le nombre d’individus sur les photographies augmentaient. Pour chaque photographie, les personnes testées devaient choisir entre les suggestions d’un groupe formé de 5 000 personnes (la foule) ou celles d’un algorithme entrainé au préalable à l’aide d’une base de données de 5 000 images.

Cette étude est le premier pas d’une longue série de recherches comme l’explique Aaron Schechter :

“Le but final est d’examiner des groupes d’humains et de machines qui prennent des décisions et de trouver comment nous pouvons les amener à se faire confiance et comment cela change leur comportement.”

Eric Bogert, l’auteur principal de la publication détaillant l’ensemble de l’étude explique tout l’intérêt des ces trois expériences :

“Les algorithmes sont capables d’accomplir un grand nombre de tâches, et le nombre de tâches qu’ils sont capables d’accomplir augmente pratiquement chaque jour. Il semble qu’il y ait un biais cognitif qui montre que l’on s’appuie sur les algorithmes, car les tâches à réaliser au quotidien deviennent plus difficiles et cet effet est plus fort que le biais consistant à se fier aux conseils d’autres personnes.”

Des résultats surprenants

Les résultats sont clairs : lorsque l’on compare les effets des trois expériences, on remarque que plus le nombre de personnes sur la photographie est grand, plus les gens vont faire confiance à l’algorithme pour prendre leur décision plutôt qu’à l’avis donné par la foule. Cet effet persiste même si la qualité des conseils, la numératie et l’exactitude des sujets sont contrôlés. Une des analyses que propose Aaron Schecter vis-à-vis de ces résultats est la suivante : les individus testés pensent en général qu’un travail dépendant d’un comptage est un travail plus approprié à donner à un algorithme entraîné plutôt qu’à un être humain.

Ce dernier poursuit son analyse en évoquant la perception que se font les individus des algorithmes et de l’IA :

“L’un des problèmes courants de l’IA est lorsqu’elle est utilisée pour octroyer des crédits ou approuver une personne pour des prêts. Bien que ce soit une décision subjective, il y a beaucoup de chiffres là-dedans – comme le revenu et la cote de crédit – donc les gens ont l’impression que c’est un bon travail pour un algorithme. Mais nous savons que la dépendance conduit à des pratiques discriminatoires dans de nombreux cas en raison de facteurs sociaux qui ne sont pas pris en compte.”

Toutefois, un autre fait est partiellement à l’opposé des premiers résultats de l’enquête : les sujets de l’expérience avaient également tendance à ignorer plus fortement les conseils inexacts étiquetés comme algorithmiques par rapport aux conseils tout aussi inexacts étiquetés comme provenant de la foule.


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
 
Zacharie Tazrout

Partager l'article

Lancement de l’appel à candidatures de la phase V des pôles de compétitivité

Alors que la phase IV (2019-2022) des pôles de compétitivité prendra fin en décembre 2022, Bruno Le Maire, Ministre de l’Economie, des Finances et...

Focus sur SMART, programme de l’IARPA visant à identifier et surveiller les constructions à grande échelle grâce au machine learning

L'IARPA (Intelligence Advanced Research Projects Activity), la branche de recherche de la communauté du renseignement aux Etats-Unis, a lancé le programme SMART (Space-based Machine...

Lancement d’un projet pilote de navette autonome Navya au Minnesota

Le 5 août dernier, NAVYA, entreprise française spécialisée dans la conception et la construction de véhicules autonomes, électriques et robotisés a annoncé un nouveau partenariat...

Bateaux autonomes : le Mayflower Autonomous Ship a rejoint Plymouth dans le Massachussets

Après des arrêts techniques aux Açores et à Halifax, au Canada, le trimaran océanographique de 15 mètres de long Mayflower est arrivé dans le...
Recevoir une notification en cas d'actualité importante    OK Non merci