Le collectif Confiance.ai dévoile les quatre lauréats de son appel à manifestations d’intérêt SHS

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus important programme de recherche technologique du plan #AIforHumanity qui vise à faire de la France un pays leader de l’IA. Ce collectif vient de présenter les quatre lauréats de l’AMI qu’il a lancé en avril dernier à destination de la communauté de recherche en Sciences Humaines et Sociales qui travaille notamment sur l’IA de confiance. 

Lancé en 2021, piloté et coordonné par l’IRT SystemX, fondé par un collectif de 13 industriels et académiques français (Air Liquide, Airbus, Atos, Naval Group, Renault, Safran, Sopra Steria, Thales, Valeo, ainsi que le CEA, Inria, l’IRT Saint Exupéry et l’IRT SystemX), Confiance.ai est doté de 45 millions d’euros sur 4 ans. Il ambitionne de relever le défi de l’industrialisation de l’IA dans les produits et services critiques.

Cette ambition se concrétise et se structure autour de 5 axes :

  • La caractérisation de l’IA,
  • L’IA de confiance by design,
  • L’ingénierie de la donnée et des connaissances,
  • La maîtrise de l’ingénierie système fondée sur l’IA,
  • L’IA de confiance pour l’embarqué.

Durant les quatre années de ce programme, les partenaires s’attacheront également à lever de nombreux verrous scientifiques.

Le collectif a déjà lancé plusieurs AMI depuis sa création, l’un concernait les défis scientifiques ce qui avait permis à 11 laboratoires de le rejoindre sur les sites de Paris Saclay ou de Toulouse pour contribuer à la montée en maturité de travaux scientifiques ou à la résolution de verrous scientifiques amont, le plus souvent sous la forme de thèse ou de doctorat. Il a également été rejoint par 12 start-ups et PME innovantes suite à un AMI de juillet 2021 et compte actuellement une quarantaine de membres.

L’AMI SHS

L’objectif de cet appel était de solliciter les laboratoires en Sciences Humaines et Sociales pour accompagner d’une démarche SHS la résolution des verrous scientifiques du programme Confiance.ai. Les verrous scientifiques se rapportaient aux trois thématiques suivantes :

  • confiance et ingénierie système à composants IA ;
  • confiance et données d’apprentissage ;
  • confiance et interaction humaine.

Il vise à compléter les développements technologiques du programme par des travaux, entièrement financés par celui-ci, sur l’appropriation de l’IA de confiance par celles et ceux qui en seront concepteurs, utilisateurs et clients.

Les onze propositions reçues ont été évaluées par un comité de sélection comprenant des représentants du programme et deux personnalités externes. Par la suite, le comité a procédé à sept auditions et a finalement recommandé quatre propositions au comité de pilotage de Confiance.ai, qui a suivi ces recommandations.

Les lauréats se pencheront sur des cas d’usages apportés par les partenaires industriels du programme Confiance.ai. La plupart des travaux débuteront à la rentrée 2022 et apporteront des recommandations et des éléments complémentaires au programme, début 2023. Certaines de ces propositions pourront donner lieu, selon les besoins identifiés, à des travaux de recherche sous forme de thèses ou de séjours postdoctoraux.

L’évènement de lancement officiel des travaux devrait se tenir courant septembre 2022.

Les quatre propositions lauréates

Benoit Leblanc (ENSC) & coll. avec l’ONERA et l’Institut Cognition : Expérimentation de la confiance d’un utilisateur de système d’IA

La proposition va dans le sens de l’exploration des réactions des individus face à des systèmes utilisant de l’IA ; la confiance étant un pilier de ces réactions. L’étude de ces réactions amène des éléments scientifiques d’intérêt à la fois pour l’industrialisation de systèmes anthropotechniques comme le sont les dispositifs de transport, mais aussi pour le déploiement de ces systèmes dans des domaines d’application.

Enrico Panaï (EM Lyon) & Laurence Devillers (LISN-CNRS) : Cartographie de la situation morale : Analyses de cas d’usage 

Pour construire la confiance, les auteurs proposent de délimiter l‘espace d’action et d’identifier ses éléments constitutifs. L’une des méthodes les plus intéressantes consiste à cartographier l’espace dans lequel l’action est menée. Ce processus permet de positionner les situations morales à un niveau de granularité approprié afin de reconnaître des ensembles d’actions aux niveaux individuel, social, organisationnel ou des interfaces homme-machine.

Marion Ho-Dac (CDEP, Univ. Artois) et coll., avec l’institut AITI : Le respect des valeurs de l’Union européenne by design par les systèmes d’IA

Le CDEP apporte une expertise spécialement tirée des sciences juridiques, axée sur le respect du cadre juridique de l’UE compris largement, incluant en particulier les valeurs de l’Union (au sens de l’article 2 du traité sur l’UE), la Charte des droits fondamentaux de l’UE et le cadre juridique de l’espace judiciaire européen.

Arnaud Latil et coll. (SCAI) :Les interfaces des systèmes algorithmiques : quelles informations communiquer pour générer la confiance ?

Les auteurs proposent de porter leur analyse sur les interfaces des systèmes algorithmiques. Il s’agit d’étudier les effets sur la confiance des messages légaux communiqués par les producteurs de systèmes d’IA.​


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
RML (Responsible Machine Learning) par Axionable

Notre solution dédiée à la réalisation de projets de machine learning responsable pour vous accompagner dans le cadrage, le développement et l'industr...

 
Partager l'article
Abonnez-vous à ActuIA, la revue professionnelle de l'intelligence artificielle magazine intelligence artificielle Découvrez la revue professionnelle de l'intelligence artificielle
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.