Le collectif Confiance.ai fait le bilan des avancées de son programme dédié à l’IA de confiance dans les systèmes critiques

En janvier 2021, le programme Confiance.ai, mis en œuvre dans le cadre du Grand Défi « Sécuriser, fiabiliser et certifier des systèmes fondés sur l’intelligence artificielle » et du Programme d’investissements d’avenir (PIA), était lancé. Les premiers résultats significatifs étaient dévoilés le mois d’octobre suivant à Toulouse. Cette année, c’est à CentraleSupélec sur le campus de Paris-Saclay que les Confiance.ai Days se déroulent et que les membres du collectif sont venus partager les avancées scientifiques et technologiques du programme, les retours des premiers déploiements chez les partenaires et les perspectives à venir.  

Piloté par l’Institut de Recherche Technologique (IRT) SystemX, le programme Confiance.ai est impulsé par un collectif de 13 industriels et académiques français (Air Liquide, Airbus, Atos, Naval Group, Renault, Safran, Sopra Steria, Thales, Valeo, ainsi que le CEA, Inria, l’IRT Saint Exupéry et l’IRT SystemX) et doté de 45 millions d’euros sur 4 ans. Il ambitionne de relever le défi de l’industrialisation de l’IA dans les produits et services critiques, dont les accidents, les pannes ou les erreurs pourraient avoir des conséquences graves sur les personnes et les biens.

L’objectif de ce programme, sur la période 2021 à 2024, est de concevoir et proposer un plateforme d’outils logiciels dédiée à l’ingénierie des produits et services industriels innovants intégrant de l’IA.

Les premiers secteurs ciblés sont notamment l’automobile, l’aéronautique, l’énergie, le numérique, l’industrie 4.0, la défense et le maritime, avec des cas d’applications variés comme le contrôle industriel en ligne, la mobilité autonome ou les systèmes d’aide à la décision

Un collectif composé à présent de 50 partenaires

Le programme vise à fédérer un écosystème de partenaires industriels, académiques et de laboratoires de recherche autour de l’ambition de faire de la France un leader de l’IA de confiance. Ainsi, autour des 13 fondateurs s’est rapidement constitué un collectif de près de 50 partenaires industriels et académiques :

  • Douze start-ups et PME lauréates de l’AMI qui les invitait à participer aux actions prioritaires de la stratégie nationale d’IA sont venues enrichir les travaux du programme avec leurs technologies de simulation, d’interactions homme-machine, de test et d’explicabilité;
  • Un programme doctoral de 8 thèses et 4 postdocs a également été mis en place fin 2021, suite à un AMI académique.
  • Les laboratoires IRIT Toulouse, Onera, Inria, Cristal CNRS, Lamih – Lille, LIP6 – Sorbonne Université, IMT – Toulouse, U2IS-ENSTA, LITIS – INSA Rouen, CRIL – Université Artois, au travers d’un AMI sur les Sciences Humaines et Sociales lancé en 2022.
  • D’autres partenariats stratégiques ont été initiés comme celui avec ANITI en septembre 2022 pour maturer les connaissances produites par ANITI autour de l’IA certifiable et hybride au contact de cas d’usages industriels.

Contribuer à la mise en œuvre opérationnelle du futur AI-Act

L’UE via son projet de règlement sur l’IA, l’AI Act, souhaite encadrer l’IA et ses usages, pour la rendre digne de confiance, éthique, durable, inclusive et centrée sur l’humain. Elle vise ainsi à instaurer un cadre réglementaire et juridique qui régira les technologies d’IA conçues au sein des pays membres mais aussi celles des opérateurs traitant avec eux, en les classant en 4 catégories selon leur niveau de risque.

Le programme Confiance.ai contribuera à la mise en œuvre opérationnelle de ce futur règlement par les industriels, en leur proposant un environnement technique qui garantira un haut niveau de confiance dans les produits et services à base d’IA.

2021 : La première version de l’environnement de confiance

Le programme adresse les grandes thématiques autour desquelles s’articule l’IA de confiance : méthodes et guidelines pour la conception de l’IA de confiance, caractérisation et évaluation de systèmes à base d’IA de confiance, conception de modèles à base d’IA de confiance, ingénierie de la donnée et de la connaissance, certification et IVVQ, et embarquabilité.

  • Des interviews ont été réalisés auprès des partenaires industriels du programme qui ont confirmé que malgré l’intérêt porté à l’IA et son potentiel, son adoption est beaucoup plus timide. Les préoccupations portent surtout sur l’absence d’un cadre de conception outillé, fiable e efficace, sur lequel ils pourraient s’appuyer et se référer;
  • Une approche top-down (définition et spécification très détaillée des besoins opérationnels du programme et des capacités attendues de l’environnement de confiance) et une démarche bottom-up (choix et test de la pertinence de composants, librairies, algorithmes modèles, etc. existants) ont été mises en place. Une vingtaine d’états de l’art scientifiques conséquents ont ainsi été constitués portant sur les différentes thématiques adressées par l’IA de confiance : le monitoring, l’ingénierie de la donnée et de la connaissance, l’intelligence artificielle symbolique ou la caractérisation de la notion de confiance.
  • Apportés par les partenaires, 11 premiers cas d’usage concernant des problématiques opérationnelles réelles offrent aux équipes un référentiel concret de contraintes, de modèles, de données et d’objectifs sur lesquels ils peuvent appuyer leurs travaux, tester les différents composants technologiques et méthodologiques identifiés afin d’en valider ou non leur pertinence dans le contexte de l’IA de confiance.

Une première version de l’environnement de confiance a été livrée fin 2021. Elle comporte un environnement de développement adossé à une chaine MLOps (chaine de traitement et de déploiement automatique des modèles de machine learning). Mise à disposition des équipes, elle sert d’environnement de travail dans le cadre du programme.

Début 2022 : Un déploiement réussi au sein des ingénieries des partenaires

Au printemps 2022, la première version de l’environnement de confiance a été mise à disposition des industriels. Certains d’entre eux l’ont d’ores et déjà redéployé, ce qui permet d’avoir des premiers retours opérationnels.

Pour Safran, les premiers retours sont très positifs et il est désormais question d’étendre l’expérimentation de l’environnement au travers sa mise en application sur un cas d’usage interne.

Jacques Yelloz, ingénieur en chef dans le domaine de l’IA chez Safran Electronics & Defense, déclare :

« Nous avons pu aisément adapter la procédure d’installation de l’environnement de confiance avec le support de Confiance.ai. Notre équipe a installé cet environnement sur un de nos serveurs de calcul dans une logique « On Premise ». Cette opération est stratégique pour nous du fait du caractère sensible de nos activités car nous avons désormais l’opportunité d’appliquer les briques de cet environnement à nos uses cases internes en nous affranchissant du recours à un cloud public. Nous avons prévu d’évaluer dans les prochains mois l’interopérabilité des outils de MLOps avec les outils d’explicabilité et de robustesse développés par Confiance.ai dans le cadre de nos uses cases. Nous attendons avec impatience la version 2 avec les nouveautés annoncées, en particulier autour de la data. »

Du côté de Sopra Steria, c’est la possibilité de redéployer individuellement les actifs du programme qui représente une valeur ajoutée déterminante pour les activités de la société.

Yves Nicolas, Deputy Group CTO de Sopra Steria, explique :

« Les travaux 2022 de confiance.ai nous permettent d’ores et déjà de concrétiser la promesse d’une IA de confiance déployable en production. Sur plusieurs cas d’usage métier, nous avons pu en effet évaluer plusieurs paramètres de confiance tels que l’explicabilité et la robustesse au sein d’une chaine MLOps industrielle, prête à se conformer aux règlementations à venir telles que l’AI Act. »

Enfin pour Renault, qui porte l’un des cas d’usage de référence du programme, c’est au travers la mise en application effective de premiers résultats que se porte l’intérêt du partenaire.

Antoine Leblanc, expert AI @ industry 4.0 / DSII / PESI chez Renault Group, commente :

« L’enjeu de l’adoption et de l’intégration des solutions d’IA dans les systèmes industriels est un challenge d’autant plus important qu’il s’accompagne, pour les équipes Manufacturing de Renault Group, d’un changement de culture et de méthodes. Le programme Confiance.ai nous livre des outils clés en main, testés sur les cas d’usage industriels, proposés par nos équipes, qui nous permettent de consolider notre démarche globale de gestion des données industrielles. Aide à la qualité d’annotation, à la visualisation des données ou encore à la mesure de l’acceptabilité sociale de l’IA sur un poste industriel, les solutions proposées par les partenaires du programme Confiance.ai renforcent la robustesse de nos procédés et le temps d’exploitation de la donnée. »

Fin 2022 : Une deuxième version de l’environnement de confiance et quatre plateformes dédiées à des problématiques majeures de l’IA de confiance 

Les travaux de l’année 2022 sont centrés sur les problématiques suivantes :

  • Montée en maturité de la robustesse, de l’explicabilité, du monitoring ou encore du cycle de vie de la donnée, caractérisation de la confiance;
  • Embarquabilité des composants d’IA, conformité aux référentiels;
  • Insertion de nouveaux processus d’ingénierie, en l’occurrence dédiés à la conception d’IA de confiance, dans les ateliers d’ingénierie mise en œuvre chez les industriels, sujet d’étude central puisqu’elle garantit l’utilisabilité in-fine de l’environnement de confiance.

En 2022, l’environnement propose notamment quatre plateformes dédiées à des problématiques majeures de l’IA de confiance :

  • Une plateforme consacrée à la gestion du cycle de vie de la donnée (acquisition, stockage, spécifications, sélection, augmentation);
  • Un ensemble de librairies dédiées à la robustesse et au monitoring des systèmes à base d’IA. Elles permettent notamment d’assurer que le système et son composant d’IA évoluent bel et bien dans le contexte préalablement défini (Operational Domain Design);
  •  Une plateforme dédiée à l’explicabilité, dont l’objectif est de rendre en des termes compréhensibles par un humain les choix et décisions prises par une IA;
  • Une plateforme destinée à l’embarquabilité des composants d’IA qui doit permettre d’une part, d’identifier sur la base des spécificités matérielles du système cible les contraintes de conception à respecter, et d’autre part, d’accompagner tout au long de la réalisation et ce, jusqu’au déploiement du composant dans le système.

A ce jour, plus de 100 composants logiciels (applications, librairies…) sont en en cours de conception dans le cadre du programme, à des niveaux de maturité différents. Progressivement évalués et intégrés, ils sont également mis à disposition des partenaires afin d’en permettre la manipulation dans leurs propres ateliers d’ingénierie.

 

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.