Intelligence artificielle Traiter les enjeux éthiques et sociétaux de l'IA : 3 questions à...

Pour approfondir le sujet

Sur le même thème :

Vers une intelligence artificielle inclusive et responsable : Trois questions à Cristina Lunghi d’Arborus

Arborus et Orange ont dévoilé, le 21 avril 2020, la Charte internationale pour une intelligence artificielle inclusive. Un an plus tard, l'ensemble des partenaires...

Le LNE lance une consultation publique sur sa certification autour de l’intelligence artificielle

Le Laboratoire National de Métrologie et d'Essais (LNE) a constitué un groupe de travail composé de plusieurs grands groupes industriels dans l'optique de créer...

Replay : Conférence de Laurence Devillers, Les enjeux éthiques de l’intelligence artificielle à AI for Tomorrow

Du 21 mai au 12 juillet 2020 se tient le cycle de webinars d'AI for Tomorrow. À cette occasion, Laurence Devillers (Professeur d'intelligence artificielle...

Inria, ANSSI, Capgemini, Dassault Systèmes, Inserm, Lunabee Studio, Orange, Santé Publique France et Withings forment l’équipe-projet StopCovid

L'équipe-projet StopCovid et l’écosystème des contributeurs ont annoncé leur mobilisation pour développer une application mobile de "contact tracing" pour la France. Composée de Inria,...

Traiter les enjeux éthiques et sociétaux de l’IA : 3 questions à Hélène Chinal et François Taddei

Impact AI, collectif de réflexion et d’action constitué d’un ensemble d’acteurs de l’intelligence artificielle, réunis autour de deux objectifs communs : traiter des enjeux éthiques et sociétaux de l’IA et soutenir des projets innovants et positifs pour le monde de demain, organisera ce 10 juin la conférence explor’IA.

Comment éduquer à l’IA et former les personnes qui sont ou seront amenées à développer des IA de manière éthique et inclusive ? C’est le sujet de la table ronde d’ouverture de la journée, à laquelle François Taddei, Chercheur, Président-Fondateur du centre de Recherche Interdisciplinaire (CRI) et Hélène Chinal, Head of transformation for SBU South & Central Europe de Capgemini, Vice présidente d’Impact AI, participeront aux cotés de Valérie Pehririn, spécialiste de l’IA et de la data chez Capgemini Invent, Damien Bourgeois, Responsable Ingénierie, Expertise et Innovation pédagogique au sein d’Axa et Joel Courtois, Directeur de l’Epita.

Nous saisissons cette occasion nous entretenir avec Hélène Chinal et François Taddei.

ActuIA : Au-delà des compétences techniques quel constat peut-on faire sur la situation actuelle de l’IA éthique et responsable ?

Hélène Chinal : Il me parait important tout d’abord de définir ce qu’on entend par une IA responsable et éthique. Créer une intelligence artificielle de manière éthique, c’est s’assurer que cette IA ne comporte pas de biais, mais également comprendre que son usage ne doit pas porter préjudice à l’être humain. C’est le sens du projet de réglementation au niveau européen. L’IA fonctionne sur la donnée, si les données sont biaisées, les IA reproduisent ces biais, et donc des préjugés existants dans la société. C’est pourquoi l’éthique est devenu un point essentiel dès lors qu’on envisage de créer une IA et qui a donc toute sa place au cœur de l’enseignement.

François Taddei : Oui sauf que dans la grande majorité des cas, l’éthique ne fait pas encore l’objet d’un enseignement spécifique au même titre que les compétences techniques par exemple. Pour l’instant, seule la réflexion éthique individuelle entre en ligne de compte, et cette capacité au raisonnement éthique, au questionnement, à la remise en cause d’un modèle n’est pas forcement la qualité la plus recherchée et plus stimulée chez un étudiant en école d’ingénieur, ou de développement informatique. Il y a un véritable travail pédagogique à faire pour favoriser une prise de conscience sur les biais. Et ce pour tous les types de biais, genre, diversité etc.

ActuIA : Comment faire pour avancer sur cette prise de conscience ?

Hélène Chinal : Cela rejoint une des thématiques sur lesquelles travaillent des Directions RSE en entreprises, un sujet qui me tient particulièrement à cœur étant engagée depuis de nombreuses années sur la mixité et la diversité. A mon sens, il faut prendre les choses à la racine, éduquer pour déconstruire les biais, il ne faut pas se contenter d’embarquer ceux qui sont déjà motivés et concernés, mais également aller chercher ceux qui considèrent que ce n’est pas un sujet. Apprendre à reconnaitre les biais devraient être au programme de n’importe quelle filière de l’enseignement supérieur. Au sein des entreprises, la formation et l’implication des managers est essentielle.

François Taddei : Absolument, il est plus facile de corriger un algorithme qu’un préjugé ! pour comprendre qu’une base de données contient des biais encore faut-il savoir les identifier, il y a une réelle réflexion collective à mener par exemple en créant des listes de bases de données et de méthodes non-biaisées afin d’équiper les développeurs et les ingénieurs de check-lists. Mais le plus important pour moi est de développer notre capacité et celle des étudiants à challenger la question posée. La question du sens au cœur des préoccupations éthiques régresse. Ceux qui tirent la sonnette d’alarme sont impuissants à changer le fonctionnement de l’entreprise pour le moment, c’est le constat actuel dans la Silicon Valley, les individus qui se posent des questions éthiques sont rejetés par le système.

ActuIA : Il y a beaucoup à faire, par où commencer ? avez-vous des exemples de ce qui est fait dans vos organisations respectives ?

François Taddei : Au CRI nous mettons les étudiants en situation de pouvoir ouvrir les boites noires qu’elles soient relationnelles, émotionnelle ou algorithmique. Et pour se faire, nous les laissons être eux-mêmes. Nous les encourageons à prendre soin d’eux, des autres et de la planète. La science et la technologie ne doivent pas être une fin en soi, mais bien un moyen pour atteindre cette fin.

Hélène Chinal : Au sein de Capgemini, nous avons développé un code de conduite des projets d’intelligence artificielle, et le Capgemini Research Institute a récemment mené une étude qui nous dit l’importance de la transparence mais aussi la nécessaire pro-activité pour prendre en compte la diversité et l’inclusion sur tout le cycle de vie de l’IA pour assurer une IA « humaine ». Au-delà, tous nos collaborateurs sont formés à nos principes éthiques en cohérence avec nos valeurs.

Pour plus d’informations sur le sujet, nous vous invitons à assister à la conférence explor’IA , dont vous pouvez retrouver tous les détails et le programme ici.


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
 
Zacharie Tazrout

Partager l'article

Le groupe Manutan investit dans la Robotic Process Automatisation pour dynamiser son département Finances

Manutan, fournisseur européen de produits et services aux entreprises et aux collectivités et spécialiste du e-commerce BtoB, investit dans la Robotic Process Automatisation (RPA)...

Spice AI veut faciliter l’intégration de l’intelligence artificielle dans les applications

Spice AI, startup basée à Seattle, a pour objectif de faciliter le travail des développeurs lors du développement d'applications intelligentes. Bien que l'IA ait...

Podcast : L’université Paris Dauphine-PSL dévoile le premier épisode de « EX MACHINA, l’ère des algorithmes »

"IA : qui sont les humains derrière la machine ?", c'est le titre du tout premier podcast d'EX MACHINE, lancé par l'université Paris Dauphine-PSL....

Les startups Manitty, PaIRe et Beyond Aero récompensées lors de la 11e édition du prix Jean-Louis Gerondeau – Safran

Manitty, PaIRe et Beyond Aero sont les startups lauréates du prix Jean-Louis Gerondeau - Safran 2021. Leurs innovations dans les domaines de l’aéronautique, des...