Le CNRS, le CIFAR et UKRI créent des ateliers de recherche “Intelligence artificielle et société”

Le CNRS, le CIFAR et UKRI créent des ateliers de recherche “Intelligence artificielle et société̶
Actu IA
Cifar CNRS UKRI

Le CIFAR a dévoilé la liste des ateliers de recherche internationaux dans le cadre de son programme Intelligence artificielle et société. En partenariat avec le CNRS et UKRI, ils proposent de réunir des groupes d’experts internationaux, interdisciplinaires et plurisectoriels afin de réfléchir à l’utilisation responsable de l’intelligence artificielle et aux répercussions économiques, éthiques, politiques et juridiques de l’intelligence artificielle sur la société.

Qu’il s’agisse des assistants numériques ou des véhicules autonomes, les technologies d’intelligence artificielle occupent une place grandissante dans nos vies et soulèvent de vives préoccupations entourant leur développement responsable et éthique. Les nouveaux ateliers de recherche, qui auront lieu de juin 2019 à juin 2020 au Canada, en France et au Royaume-Uni, miseront sur la collaboration internationale afin de mobiliser différents points de vue provenant des sciences sociales, des sciences humaines, du droit, du génie et de l’informatique, de même que de la politique, des affaires et de la société civile. Les équipes interdisciplinaires ainsi formées examineront l’incidence de l’IA sur différents groupes de personnes et secteurs d’activité.

Administrés et gérés par le CIFAR, avec le soutien du CNRS et d’UKRI, les ateliers traitent des répercussions mondiales de l’IA sur une foule d’aspects allant des conflits pressentis dans l’Arctique à la confiance de la société dans les systèmes d’IA, en passant par l’incidence de l’IA sur la pratique médicale. Chaque atelier mènera à une publication non universitaire destinée au grand public et aux responsables des politiques des secteurs publics et privés. Les huit ateliers ont fait l’objet d’un processus de sélection rigoureux qui s’est échelonné sur trois mois. Chaque atelier recevra un soutien financier pouvant aller jusqu’à 33.000€ (50 000 $ CA), pour un investissement total de 266.000€ (400 000 $ CA).

« La force de ces ateliers réside dans leur vocation interdisciplinaire, internationale et plurisectorielle, » a expliqué Alan Bernstein, président et chef de la direction du CIFAR.

« L’IA est en voie d’être adoptée partout dans le monde. Dans ce contexte, il est essentiel que nous élaborions de nouvelles approches pour mesurer l’étendue de ses répercussions sur les personnes, les secteurs et les disciplines. Le CIFAR est ravi de s’associer à des organismes de la France et du Royaume-Uni pour approfondir notre compréhension des enjeux sociétaux de l’IA. »

Cette série d’ateliers est la deuxième organisée sous l’égide du programme Intelligence artificielle et société lancé en 2017 par le CIFAR. Pilier important de la Stratégie pancanadienne en matière d’IA du CIFAR, ce programme jouit d’un octroi de 125 millions de dollars alloué par le gouvernement canadien afin d’assurer le leadership du Canada dans le secteur de la recherche et de l’enseignement en apprentissage automatique.

Pour Antoine Petit, président-directeur général du CNRS :

« œuvrer à analyser et à mieux comprendre les répercussions éventuelles d’ordre éthique, sociale, juridique ou économique de l’intelligence artificielle est primordial. Le CNRS est ravi de s’engager aux côtés de CIFAR et d’UKRI pour alimenter la réflexion autour de ces questions. »

« Le potentiel de l’intelligence artificielle s’étend à tous les domaines de la société et des affaires. C’est pourquoi il est crucial que nous accordions toute l’attention nécessaire aux enjeux éthiques et sociétaux de son utilisation croissante, » a déclaré sir Mark Walport, directeur général d’UKRI.

« Organisés en collaboration avec le CIFAR et le CNRS, les ateliers annoncés aujourd’hui contribueront de façon importante à l’étude des répercussions de l’intelligence artificielle et généreront des connaissances qui éclaireront les décideurs politiques, les entreprises et le public. »

Résumé des propositions approuvées

En février 2019, huit propositions d’ateliers ont été sélectionnées dans le cadre du Deuxième appel de propositions d’ateliers Intelligence artificielle et société. Les sujets et les équipes qui les ont proposés sont les suivants :

1- L’IA et la conservation de la culture

La distribution des biens culturels dans le monde se fait dorénavant par l’intermédiaire des algorithmes des systèmes de recommandation numérique. Toutefois, les impacts de cette approche sur la production et la consommation de biens culturels, comme la musique, les films et les livres, ne sont pas clairs. Cet atelier examinera comment l’utilisation de ces algorithmes dans le cadre de services aux consommateurs influe sur la manière de conserver, de créer et de consommer ces biens dans la société et comment les politiques pourraient influencer cette technologie à l’échelle internationale.

Équipe : Ashton Anderson, Université de Toronto, Canada ; Georgina Born, Université d’Oxford, Royaume-Uni ; Fernando Diaz, Microsoft Research, Canada ; Jeremy Morris, Université du Wisconsin à Madison, États-Unis

2- L’IA et les conflits futurs dans l’Arctique

L’environnement arctique change : les banquises fondent, les glaciers reculent et le pergélisol dégèle. Avec le changement climatique, de nouvelles réserves de ressources naturelles émergeront, ce qui compliquera la dynamique géopolitique existante et pourrait générer des conflits relatifs à ces milieux. Cet atelier analysera le rôle de l’IA dans les scénarios de conflits mondiaux potentiels ainsi que les défis politiques, éthiques et juridiques qui peuvent en découler.

Équipe : Stephanie Carvin, Université Carleton, Canada ; Klaus Dodds, Royal Holloway College (Université de Londres), Royaume-Uni ; Patrick Lin, Université polytechnique de Californie, États-Unis ; Fritz Allhoff, Université de Western Michigan, États-Unis

3- La confiance dans les systèmes d’IA

La confiance est un concept complexe et multiforme qui joue un rôle fondamental dans le déploiement et l’acceptation des technologies d’IA. L’atelier proposé vise à mieux comprendre comment des facteurs tels que le domaine d’application et les différences entre les utilisateurs entrent en jeu pour créer des systèmes d’IA dignes de confiance.

Équipe : Cristina Conati, Université de la Colombie-Britannique, Canada ; Élisabeth André, Université d’Augsbourg, Allemagne ; Kaska Porayska-Pomsta, University College de Londres, Royaume-Uni ; Judy Kay, Université de Sydney, Australie

4- Avenir éthique et médecine basée sur l’IA

À mesure que les technologies d’IA sont adoptées dans le secteur des soins de santé, il faut s’intéresser de près aux implications éthiques et sociétales de leurs effets sur le travail des médecins qui ne manquera pas d’être perturbé. Cet atelier examinera comment l’assistance de l’IA peut influencer notre compréhension de la pratique de la médecine, notamment en évaluant l’impact de l’IA sur les valeurs professionnelles fondamentales, les rôles professionnels des médecins et l’avenir des services de santé.

Équipe : Heather Draper, Université de Warwick, Royaume-Uni ; Lisa Schwartz, Université McMaster, Canada ; Daniel Racoceanu, Sorbonne Université, France ; Wendy Rogers, Université Macquarie, Australie

5- L’IA et les soins de santé, un atelier sur la fusion du droit et de la science

Les régimes médicaux juridiques et réglementaires actuels, qui protègent la sécurité et la vie privée des patients, ont été élaborés à une ère révolue de la médecine. Le but de cet atelier est de se pencher sur les lois existantes en matière de sécurité et de protection de la vie privée entourant les technologies de santé basées sur l’IA d’un point de vue éthique, juridique et réglementaire.

Équipe : Colleen Flood, Université d’Ottawa, Canada ; Ian Kerr, Université d’Ottawa, Canada ; Joëlle Pineau, Université McGill, Canada ; Céline Castets-Renard, Université Toulouse Capitole, France

6- La durabilité à l’ère numérique

Au carrefour de la technologie, de la durabilité et de la politique, il est possible d’identifier les leviers de changement systémique qui mèneront la société sur la voie de la durabilité mondiale. Cet atelier mise sur les connaissances d’une équipe multidisciplinaire pour établir les possibilités d’utiliser des technologies puissantes comme l’IA dans le cadre du changement climatique, tout en améliorant la compréhension des implications éthiques de ces leviers basés sur l’IA et des relations qui définissent les systèmes mondiaux de production, de consommation et d’organisation.

Équipe : Amy Luers, FutureEarth, Canada ; Mathilde Mougeot, École Nationale Supérieure d’Informatique pour l’Industrie et l’Entreprise (ENSIIE), France ; Lyse Langlois, Université Laval, Canada ; Sana Khareghani, Office for Artificial Intelligence, Royaume-Uni

7- Dynamique sociale et culture de l’IA

Étant donné les effets de l’IA et d’autres technologies sur la dynamique sociale et les interactions humaines, cet atelier examinera les répercussions du développement de l’IA sur la diversité et l’expression culturelles, l’impact de l’IA sur la discrimination ethnique, sexuelle et socioculturelle ainsi que les possibilités de gouvernance pour préserver la diversité et les droits humains.

Équipe : Marie-Hélène Parizeau, Université Laval, Canada ; Vanessa Nurock, Université de Paris 8, France ; Raja Chatila, Sorbonne Université, France ; Véronique Guèvremont, Université Laval, Canada

8- Équité, interprétabilité et protection de la vie privée pour les systèmes algorithmiques

Abordant les thèmes de la sécurité et de la protection de la vie privée liées à l’IA, cet atelier propose d’étudier comment les algorithmes utilisés dans le cadre des services aux consommateurs peuvent être déployés de façon éthique et sécuritaire. Les points de vue d’avocats, d’éthiciens et d’experts en technologie éclaireront ce programme de recherche et transcenderont les frontières nationales et disciplinaires.

Équipe : Adrian Weller, The Alan Turing Institute, Royaume-Uni ; Nozha Boujemaa, Inria, France ; Jonathan Schaeffer, Université de l’Alberta, Canada