Actualité Europe : annonce officielle du projet de réglementation en matière d'intelligence artificielle

Pour approfondir le sujet

Synapse AI : Entretien avec Julian Lucchesi, directeur des partenariats du CenTech à Montréal

L'adoption de l'intelligence artificielle en entreprise nécessite bien souvent un accompagnement. Dans ce numéro 3 de Synapse AI, Mathieu Barreau rencontre Julian Lucchesi, Directeur...

Un modèle de deep learning pour repérer plus facilement les tumeurs métastasiques complexes

Nous vous présentions récemment un système mis au point par des scientifiques écossais permettant de repérer plus facilement les mésothéliomes, une forme rare de cancer....

Trois start-up, spécialisées data et intelligence artificielle, finalistes du LVMH Innovation Award

Dans le cadre de la cinquième édition du LVMH Innovation Award, 28 start-up ont été sélectionnées. Grâce à ce prix dédié à l'innovation, les...

Quelle fiabilité pour la reconnaissance vocale utilisée pour le diagnostic du COVID-19 ?

Savoir si des patients sont atteints du COVID-19 grâce à leur voix ? C'est le défi que se sont lancé plusieurs équipes de recherche....

Europe : annonce officielle du projet de réglementation en matière d’intelligence artificielle

Ce 21 avril 2021, la commission européenne a officiellement annoncé son projet de réglementation et d’actions “en faveur de l’excellence et de la confiance dans l’intelligence artificielle”. Cette annonce intervient deux mois après la publication du livre blanc sur l’IA en février 2021 et la mise en place d’une large consultation participative. C’est la première fois dans l’histoire de l’Union Européenne qu’un cadre juridique sur l’IA sera mis en place.

Contexte initial

La semaine dernière, une première esquisse de ce qu’aurait pu donner le projet de réglementation européen sur l’IA avait été dévoilé par plusieurs médias. Reprenons rapidement l’ensemble de ces informations :

Selon plusieurs sources, le projet de réglementation visait à distinguer les systèmes d’IA “bénéfiques” de ceux qui pourraient poser problème dans le futur. Ces systèmes seraient dans le cadre de cette législation, considérés comme des systèmes à “haut risque”. Seraient concernés les systèmes d’IA utilisés pour des opérations de “surveillance indiscriminée”. L’Union Européenne souhaiterait donc les interdire et aurait pour objectif de mettre en place des règles drastiques : Les entreprises et institutions continuant à utiliser ces systèmes à “haut risque” pourraient encourir une amende à hauteur de 4% du chiffre d’affaires, plafonnée à 20 millions d’euros.

Aujourd’hui, la commission européenne s’est exprimée quant à l’annonce de son projet de réglementation “en faveur de l’excellence et de la confiance dans l’intelligence artificielle” : “La constitution du tout premier cadre juridique sur l’IA et d’un nouveau plan coordonné avec les états membres garantiront la sécurité et les droits fondamentaux des personnes et des entreprises, tout en renforçant l’adoption, l’investissement et l’innovation de l’IA dans toute l’UE. De nouvelles règles sur les machines et les équipements compléteront cette approche en adaptant les règles de sécurité pour accroître la confiance des utilisateurs dans la nouvelle génération polyvalente de produits.”

Plusieurs niveaux de risque pour les systèmes d’IA

Suite à l’annonce de la nouvelle réglementation européenne sur l’intelligence artificielle, la commission européenne propose une approche des systèmes d’IA selon plusieurs niveaux de risque. Chaque niveau de risque correspond à une utilisation plus ou moins proscrite du système d’IA réglementé. Ci-dessous, retrouvez la liste croissante et exhaustive des quatre niveaux de risques exposés dans le cadre de cette réglementation :

  • Les systèmes d’IA à risque minime : la législation européenne autorise l’utilisation libre d’applications telles que les jeux vidéo ou les filtres anti-spam reposant sur l’IA. Le projet de règlement ne prévoit pas d’intervention dans ce domaine, car ces systèmes ne représentent qu’un risque minime, voire nul, pour les droits ou la sécurité des citoyens.
  • Les systèmes d’IA à risque limité : rentrent dans ce niveau de risque, les systèmes d’IA auxquels s’appliquent des obligations spécifiques en matière de transparence: Lorsqu’ils utilisent des systèmes d’IA tels que des chatbots, les utilisateurs doivent savoir qu’ils interagissent avec une machine afin de pouvoir décider en connaissance de cause de poursuivre ou non.
  • Les systèmes d’IA à risque élevé : ce sont les systèmes d’IA considérés comme à “haut risque”. On peut citer : les technologies d’IA utilisées dans les infrastructures critiques, dans l’éducation ou la formation professionnelle, dans les composants de sécurité des produits, dans l’accès à emploi indépendant ou non, dans la gestion de la main-d’œuvre, dans les services privés et publics essentiels, dans le domaine du maintien de l’ordre, dans la gestion de la migration, de l’asile et des contrôles aux frontières, dans l’administration de la justice et des processus démocratiques.Ces systèmes d’IA peuvent être utilisés et mis sur le marché si elles sont conformes aux obligations strictes suivantes :
    • systèmes adéquats d’évaluation et d’atténuation des risques
    • qualité élevée des ensembles de données alimentant le système afin de réduire au minimum les risques et les résultats ayant un effet discriminatoire
    • enregistrement des activités afin de garantir la traçabilité des résultats
    • documentation détaillée fournissant toutes les informations nécessaires sur le système et sur sa finalité pour permettre aux autorités d’évaluer sa conformité
    • informations claires et adéquates à l’intention de l’utilisateur; contrôle humain approprié pour réduire au minimum les risques; niveau élevé de robustesse, de sécurité et d’exactitude.
  • Les systèmes d’IA à risque inacceptable : Les systèmes d’IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes seront prohibés. On retrouve dans cette catégorie les applications d’IA qui manipulent le comportement humain afin de priver les utilisateurs de leur libre arbitre ou encore des systèmes d’IA qui permettent la notation sociale par les états.

 

Nouvelles règles pour les fournisseurs de systèmes d’IA à haut risque

(source ec.europa.eu)

Étape 1

AI icon

Étape 2

AI icon conformity

Étape 3

AI icon requirements

Étape 4

AI icon market

Un système d’IA à haut risque est mis au point. Il doit faire l’objet d’une évaluation de la conformité et satisfaire aux exigences en matière d’IA.

Pour certains systèmes, un organisme notifié intervient.

Les systèmes d’IA autonomes sont enregistrés dans une base de données de l’UE Une déclaration de conformité doit être signée et le système d’IA doit porter le marquage CE. Le système peut être mis sur le marché. En cas de changements substantiels au cours du cycle de vie du système d’IA, retour à l’étape 2.

Une fois le système d’IA commercialisé, les autorités surveillent le marché, les utilisateurs assurent la surveillance humaine et le suivi, tandis que les fournisseurs mettent en place un système de surveillance consécutive à la mise sur le marché. Les fournisseurs et les utilisateurs signalent également les incidents graves et les dysfonctionnements.

Un plan coordonné annoncé

Cette nouvelle réglementation s’accompagne également d’un plan coordonné entre les états membres de l’Union Européenne. Les objectifs de ce plan sont multiples. Il s’agira de créer des conditions propices au développement de l’IA, de favoriser l’excellence en matière d’IA, de faire en sorte que l’IA soit au service des citoyens tout en faisant en sorte qu’elle constitue une force positive pour la société et pour finir, d’établir un leadership stratégie dans les secteurs et technologies à fort impact comme l’écologie, la production durable, l’agriculture, les secteurs publics ou la mobilité.

La commission européenne propose également une approche concernant les nouveaux équipements et machines. Ce nouveau règlement relatif aux machines garantira que les machines de nouvelle génération offrent toute la sécurité requise aux utilisateurs et aux consommateurs et encouragera l’innovation. Alors que le règlement sur l’IA traitera des risques liés à la sécurité que présentent les systèmes d’IA, le nouveau règlement sur les machines garantira une intégration sûre des systèmes d’IA dans les machines.

Margarethe Vestager, vice-présidente exécutive pour une Europe adaptée à l’ère du numérique, s’est exprimée quant à cette initiative européenne :

“En matière d’intelligence artificielle, la confiance n’est pas un luxe mais une nécessité absolue. En adoptant ces règles qui feront date, l’UE prend l’initiative d’élaborer de nouvelles normes mondiales qui garantiront que l’IA soit digne de confiance. En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l’UE. À l’épreuve du temps et propices à l’innovation, nos règles s’appliqueront lorsque c’est strictement nécessaire: quand la sécurité et les droits fondamentaux des citoyens de l’Union sont en jeu.”

 

Détail de l’annonce : https://ec.europa.eu/commission/presscorner/detail/fr/IP_21_1682

Zacharie Tazrout

Partager l'article

Synapse AI : Entretien avec Julian Lucchesi, directeur des partenariats du CenTech à Montréal

L'adoption de l'intelligence artificielle en entreprise nécessite bien souvent un accompagnement. Dans ce numéro 3 de Synapse AI, Mathieu Barreau rencontre Julian Lucchesi, Directeur...

Un modèle de deep learning pour repérer plus facilement les tumeurs métastasiques complexes

Nous vous présentions récemment un système mis au point par des scientifiques écossais permettant de repérer plus facilement les mésothéliomes, une forme rare de cancer....

Trois start-up, spécialisées data et intelligence artificielle, finalistes du LVMH Innovation Award

Dans le cadre de la cinquième édition du LVMH Innovation Award, 28 start-up ont été sélectionnées. Grâce à ce prix dédié à l'innovation, les...

Quelle fiabilité pour la reconnaissance vocale utilisée pour le diagnostic du COVID-19 ?

Savoir si des patients sont atteints du COVID-19 grâce à leur voix ? C'est le défi que se sont lancé plusieurs équipes de recherche....