Intelligence artificielle Pourquoi et comment certifier l’intelligence artificielle ?

Pour approfondir le sujet

Sur le même thème :

Le LNE lance une consultation publique sur sa certification autour de l’intelligence artificielle

Le Laboratoire National de Métrologie et d'Essais (LNE) a constitué un groupe de travail composé de plusieurs grands groupes industriels dans l'optique de créer...

Recevez le numéro 4 d’ActuIA, le magazine de l’intelligence artificielle !

Le numéro 4 d'ActuIA, le magazine de l'intelligence artificielle, arrive en kiosques et en version numérique le 18 mai 2021 ! Recevez-le directement chez...

Le LNE présente sa plateforme LEIA dédiée à l’évaluation de l’intelligence artificielle

Le Laboratoire national de métrologie et d'essais (LNE) a annoncé la création de LEIA, la première plateforme générique mondiale dédiée à l’évaluation de l’intelligence...

10ème édition de Big Data & AI Paris, l’évènement européen dédié à l’intelligence artificielle et au big data

Les mardi 28 et mercredi 29 septembre 2021 se déroulera la dixième édition de Big Data & AI Paris, un évènement européen majeur dédié...

Pourquoi et comment certifier l’intelligence artificielle ?

Dans un contexte de développement pléthorique de l’IA et d’un marché jusqu’à présent essentiellement porté par l’offre, les conditions d’un rapprochement de cette dernière avec la demande doivent être réunies au plus tôt.

La certification, qui repose sur un référentiel d’exigences partagées par tous et sur des résultats d’évaluation de conformité produits par des organismes tiers indépendants, est un outil efficace pour instaurer la confiance nécessaire à la transition d’une IA en développement vers une IA marchande. Le LNE a ainsi constitué fin 2020 un groupe de travail (GT) comprenant des acteurs représentatifs du domaine pour bâtir le premier référentiel de certification volontaire dédié à l’IA et transverse aux différents domaines d’application (dispositifs et diagnostics médicaux, robotique industrielle et agricole, legaltech, fintech, assurtech, mobilité autonome, etc.). Cette certification devra, pour contribuer efficacement au succès commercial de l’IA, apporter des garanties et critères de choix objectifs aux utilisateurs des systèmes intelligents. Elle devra également, pour constituer un avantage concurrentiel, permettre aux développeurs d’acquérir et de démontrer la mise en œuvre de bonnes pratiques, attestant de la fiabilité des fonctionnalités d’IA développées.

Les travaux du GT, constitué notamment des groupes industriels comme Orange, Schneider Electric et Thales, de cabinets de conseil comme Axionable et Capgemini, de PME/ETI comme Arcure, Scortex et Kick-maker, de clusters d’entreprises comme Proxinnov – A2D, le TOSIT (représenté par e.Voyageurs SNCF), et l’IRT Railenium, ont porté sur la définition du périmètre de cette certification et donc sur les exigences essentielles qui permettront d’apporter des garanties sur les performances, la sécurité et l’éthique des systèmes intelligents. Les décisions suivantes, validées suite à une consultation publique qui s’est déroulée en mai 2021, ont contribué à déterminer la portée de cette certification :

  • Il s’agit d’une certification de processus, ce qui lui permet d’être transverse aux différents domaines d’application de l’IA et de s’affranchir de certaines difficultés propres à la certification de produit (notamment le renouvellement régulier de bases de données de test spécifiques aux très nombreuses applications de l’IA et gérées par l’organisme certificateur, etc.).
  • La certification porte ainsi sur tous les processus mis en place par le développeur tout au long du cycle de vie de son système d’IA : la conception, le développement, l’évaluation et le maintien en conditions opérationnelles (MCO). Elle garantira que la mise au point de chaque intelligence artificielle par un fabricant certifié aura été réalisée selon les pratiques identifiées de manière consensuelle comme essentielles.
  • La certification ne concerne que les processus de conception, développement, évaluation et MCO de fonctionnalités d’IA reposant sur de l’apprentissage automatique, en raison de l’urgence identifiée d’apport de garanties quant aux avantages et limites de ces systèmes. Les processus liés aux IA hybrides sont donc concernés, mais pas ceux visant à développer des IA purement symboliques.
  • Les exigences sont construites en terme de résultats à atteindre et non de moyens à mettre en place, évitant ainsi de freiner l’innovation.

Le pilotage par le LNE de ce groupe de travail se fait dans la continuité de ses missions statutaires visant à apprécier, structurer et accompagner, par des travaux de caractérisation, de qualification et de certification, l’offre de nouveaux produits et les innovations de rupture (intelligence artificielle, nanotechnologies, fabrication additive, mesure de radioactivité, stockage de l’hydrogène, etc.), en cherchant à la fois à protéger et répondre aux besoins des consommateurs et à développer et favoriser la compétitivité de l’industrie (cf. article L823-1 du Code de la consommation).

Au LNE, l’initiative a été portée par deux équipes : le département Évaluation de l’intelligence artificielle et le pôle Certification Instrumentation et Technologies de l’Information.

Le département Évaluation de l’IA apporte son expertise unique au niveau européen en évaluation de l’IA. Il a réalisé plus de 950 évaluations de systèmes d’IA depuis 2008, notamment en traitement de la langue (traduction, transcription, reconnaissance de locuteurs, etc.), en traitement des images (reconnaissance de personnes, reconnaissance d’objets, etc.) et en robotique (véhicules autonomes, robots de service, robots agricoles, robots collaboratifs, dispositifs médicaux intelligents, etc.) ce qui lui permet de partager une connaissance fine des avantages et limites des technologies d’IA déployées dans différents domaines d’application, ainsi que des exigences métier associées. Par ailleurs, son implication dans les différentes instances de normalisation (COS information et communication numérique d’Afnor, CN Afnor IA, CN CEN-CENELEC JTC21, ISO/IEC JTC1 / SC42, UNM81, etc.) et dans de nombreux projets collaboratifs portant sur l’IA de confiance (Grand défi IA, METRICS, Robotics4eu, COVR, partenariat stratégique sur la robotique intelligente signé avec le NIST en 2020, etc.) permet d’assurer la cohérence d’ensemble.

Le pôle Certification Instrumentation et Technologies de l’Information apporte quant à lui son expertise en certification, en particulier dans le domaine du numérique. Accrédité par le COFRAC pour la certification de produit et de système de management, le pôle CITI réalise chaque année plus de 400 audits de certification dans les secteurs de l’instrumentation et de la cybersécurité. Il exerce ses activités de certification aussi bien dans le cadre de certifications réglementaires, que volontaires.

Concernant les prochaines étapes, le LNE va procéder aux premières certifications dès 2021, pour les acteurs déjà prêts. Des actions seront également mise en place pour promouvoir le référentiel au niveau européen et à l’international. Il s’agira notamment de mettre en avant la réponse apportée par cette certification au besoin d’évaluation de conformité notamment introduit par le projet de réglementation de l’IA à haut risque présenté en avril 2021 par la Commission européenne afin « de garantir la sécurité et les droits fondamentaux des citoyens et des entreprises, tout en renforçant l’adoption de l’IA, les investissements et l’innovation dans l’ensemble de l’UE ».

Le LNE organisera également fin novembre à Paris la première édition du Forum « Évaluation de l’Intelligence Artificielle ». Ce dernier aura pour vocation de favoriser le partage d’expériences et valoriser les bonnes pratiques d’évaluation et de qualification des systèmes intelligents. Structuré autour de tables rondes et d’interventions d’acteurs de l’écosystème IA, la thématique de l’édition de cette année sera « vers une IA de confiance » et traitera notamment de la certification de l’IA.


1ère Marketplace de l'IA et de la transformation numérique vous recommande :

1er spécialiste du conseil en Intelligence Artificielle durable et responsable | Paris & Montréal. Certifié B Corp®

Axionable est le leader de l’intelligence artificielle durable en France et au Canada. Certifiée B Corp, membre du Conseil d’Administration du collec

Découvrir Axionable

 

Contributeur expert

Guillaume Avrin

Guillaume Avrin est Coordonnateur national pour l’intelligence artificielle en France.

P

Partager l'article

Sora Turbo : l’IA générative de vidéos d’OpenAI est désormais disponible

En février dernier, OpenAI dévoilait son premier modèle text-to-video, Sora, depuis lors en preview. La société a annoncé ce 9 décembre le déploiement de...

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...