Intelligence artificielle Europe : annonce officielle du projet de réglementation en matière d'intelligence artificielle

Pour approfondir le sujet

Sur le même thème :

La Commission européenne se penchera sur la législation sur la responsabilité des robots et de l’IA

La législation européenne actuelle se trouve confrontée à des cas particuliers avec le développement des nouvelles technologies. C'est ce que confirme un nouveau rapport de...

Utilisation de l’IA dans les médias : La commission de la culture demande à la Commission européenne un cadre éthique clair

Suite à la publication de son livre blanc sur l'IA, la Commission européenne travaille sur un cadre législatif pour une IA fiable qui devrait...

Chine : adoption d’une règlementation sur la protection des données personnelles

La protection des données, une thématique délicate qui fait très souvent débat. En France, et plus généralement dans toute l'Union européenne, le règlement général...

Europe : la commission européenne prévoit de réglementer l’utilisation des systèmes d’IA à “haut risque”

Dans le cadre de sa nouvelle réglementation en matière d'intelligence artificielle, l'Union Européenne envisage des règles strictes. Parmi les points abordés, on retrouve les...

Europe : annonce officielle du projet de réglementation en matière d’intelligence artificielle

Ce 21 avril 2021, la commission européenne a officiellement annoncé son projet de réglementation et d’actions “en faveur de l’excellence et de la confiance dans l’intelligence artificielle”. Cette annonce intervient deux mois après la publication du livre blanc sur l’IA en février 2021 et la mise en place d’une large consultation participative. C’est la première fois dans l’histoire de l’Union Européenne qu’un cadre juridique sur l’IA sera mis en place.

Contexte initial

La semaine dernière, une première esquisse de ce qu’aurait pu donner le projet de réglementation européen sur l’IA avait été dévoilé par plusieurs médias. Reprenons rapidement l’ensemble de ces informations :

Selon plusieurs sources, le projet de réglementation visait à distinguer les systèmes d’IA “bénéfiques” de ceux qui pourraient poser problème dans le futur. Ces systèmes seraient dans le cadre de cette législation, considérés comme des systèmes à “haut risque”. Seraient concernés les systèmes d’IA utilisés pour des opérations de “surveillance indiscriminée”. L’Union Européenne souhaiterait donc les interdire et aurait pour objectif de mettre en place des règles drastiques : Les entreprises et institutions continuant à utiliser ces systèmes à “haut risque” pourraient encourir une amende à hauteur de 4% du chiffre d’affaires, plafonnée à 20 millions d’euros.

Aujourd’hui, la commission européenne s’est exprimée quant à l’annonce de son projet de réglementation “en faveur de l’excellence et de la confiance dans l’intelligence artificielle” : “La constitution du tout premier cadre juridique sur l’IA et d’un nouveau plan coordonné avec les états membres garantiront la sécurité et les droits fondamentaux des personnes et des entreprises, tout en renforçant l’adoption, l’investissement et l’innovation de l’IA dans toute l’UE. De nouvelles règles sur les machines et les équipements compléteront cette approche en adaptant les règles de sécurité pour accroître la confiance des utilisateurs dans la nouvelle génération polyvalente de produits.”

Plusieurs niveaux de risque pour les systèmes d’IA

Suite à l’annonce de la nouvelle réglementation européenne sur l’intelligence artificielle, la commission européenne propose une approche des systèmes d’IA selon plusieurs niveaux de risque. Chaque niveau de risque correspond à une utilisation plus ou moins proscrite du système d’IA réglementé. Ci-dessous, retrouvez la liste croissante et exhaustive des quatre niveaux de risques exposés dans le cadre de cette réglementation :

  • Les systèmes d’IA à risque minime : la législation européenne autorise l’utilisation libre d’applications telles que les jeux vidéo ou les filtres anti-spam reposant sur l’IA. Le projet de règlement ne prévoit pas d’intervention dans ce domaine, car ces systèmes ne représentent qu’un risque minime, voire nul, pour les droits ou la sécurité des citoyens.
  • Les systèmes d’IA à risque limité : rentrent dans ce niveau de risque, les systèmes d’IA auxquels s’appliquent des obligations spécifiques en matière de transparence: Lorsqu’ils utilisent des systèmes d’IA tels que des chatbots, les utilisateurs doivent savoir qu’ils interagissent avec une machine afin de pouvoir décider en connaissance de cause de poursuivre ou non.
  • Les systèmes d’IA à risque élevé : ce sont les systèmes d’IA considérés comme à “haut risque”. On peut citer : les technologies d’IA utilisées dans les infrastructures critiques, dans l’éducation ou la formation professionnelle, dans les composants de sécurité des produits, dans l’accès à emploi indépendant ou non, dans la gestion de la main-d’œuvre, dans les services privés et publics essentiels, dans le domaine du maintien de l’ordre, dans la gestion de la migration, de l’asile et des contrôles aux frontières, dans l’administration de la justice et des processus démocratiques.Ces systèmes d’IA peuvent être utilisés et mis sur le marché si elles sont conformes aux obligations strictes suivantes :
    • systèmes adéquats d’évaluation et d’atténuation des risques
    • qualité élevée des ensembles de données alimentant le système afin de réduire au minimum les risques et les résultats ayant un effet discriminatoire
    • enregistrement des activités afin de garantir la traçabilité des résultats
    • documentation détaillée fournissant toutes les informations nécessaires sur le système et sur sa finalité pour permettre aux autorités d’évaluer sa conformité
    • informations claires et adéquates à l’intention de l’utilisateur; contrôle humain approprié pour réduire au minimum les risques; niveau élevé de robustesse, de sécurité et d’exactitude.
  • Les systèmes d’IA à risque inacceptable : Les systèmes d’IA considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes seront prohibés. On retrouve dans cette catégorie les applications d’IA qui manipulent le comportement humain afin de priver les utilisateurs de leur libre arbitre ou encore des systèmes d’IA qui permettent la notation sociale par les états.

 

Nouvelles règles pour les fournisseurs de systèmes d’IA à haut risque

(source ec.europa.eu)

Étape 1

AI icon

Étape 2

AI icon conformity

Étape 3

AI icon requirements

Étape 4

AI icon market

Un système d’IA à haut risque est mis au point. Il doit faire l’objet d’une évaluation de la conformité et satisfaire aux exigences en matière d’IA.

Pour certains systèmes, un organisme notifié intervient.

Les systèmes d’IA autonomes sont enregistrés dans une base de données de l’UE Une déclaration de conformité doit être signée et le système d’IA doit porter le marquage CE. Le système peut être mis sur le marché. En cas de changements substantiels au cours du cycle de vie du système d’IA, retour à l’étape 2.

Une fois le système d’IA commercialisé, les autorités surveillent le marché, les utilisateurs assurent la surveillance humaine et le suivi, tandis que les fournisseurs mettent en place un système de surveillance consécutive à la mise sur le marché. Les fournisseurs et les utilisateurs signalent également les incidents graves et les dysfonctionnements.

Un plan coordonné annoncé

Cette nouvelle réglementation s’accompagne également d’un plan coordonné entre les états membres de l’Union Européenne. Les objectifs de ce plan sont multiples. Il s’agira de créer des conditions propices au développement de l’IA, de favoriser l’excellence en matière d’IA, de faire en sorte que l’IA soit au service des citoyens tout en faisant en sorte qu’elle constitue une force positive pour la société et pour finir, d’établir un leadership stratégie dans les secteurs et technologies à fort impact comme l’écologie, la production durable, l’agriculture, les secteurs publics ou la mobilité.

La commission européenne propose également une approche concernant les nouveaux équipements et machines. Ce nouveau règlement relatif aux machines garantira que les machines de nouvelle génération offrent toute la sécurité requise aux utilisateurs et aux consommateurs et encouragera l’innovation. Alors que le règlement sur l’IA traitera des risques liés à la sécurité que présentent les systèmes d’IA, le nouveau règlement sur les machines garantira une intégration sûre des systèmes d’IA dans les machines.

Margarethe Vestager, vice-présidente exécutive pour une Europe adaptée à l’ère du numérique, s’est exprimée quant à cette initiative européenne :

“En matière d’intelligence artificielle, la confiance n’est pas un luxe mais une nécessité absolue. En adoptant ces règles qui feront date, l’UE prend l’initiative d’élaborer de nouvelles normes mondiales qui garantiront que l’IA soit digne de confiance. En établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l’UE. À l’épreuve du temps et propices à l’innovation, nos règles s’appliqueront lorsque c’est strictement nécessaire: quand la sécurité et les droits fondamentaux des citoyens de l’Union sont en jeu.”

 

Détail de l’annonce : https://ec.europa.eu/commission/presscorner/detail/fr/IP_21_1682


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
 
Zacharie Tazrout

Partager l'article

United Robotics envisagerait l’achat de Pepper, division française de Softbank.

Selon Reuters, Softbank, après avoir donné un coup d'arrêt à la production des robots Peppers créés en 2014, a engagé des pourparlers avec United...

800 millions du plan France 2030 consacrés à la Robotique.

Lundi 25 octobre dernier, lors de la Visite du groupe Siléane à Saint-Etienne, Emmanuel Macron a annoncé que le plan d'investissement France 2030 allait...

Le nouveau GPU d’ARM, doté d’une puissance de calcul 30% supérieure à celle du Mali-G710 arrive en 2022

Les puces de conception ARM sont utilisées dans les domaines allant de l'Intelligence Artificielle à la 5G (pratiquement tous le smartphones en sont équipés)....

États-Unis : pluie de critiques sur la création éventuelle d’un centre de recherche national dédié à l’intelligence artificielle

La course à l'intelligence artificielle continue et les États-Unis cherchent à renforcer leur leadership dans le domaine face à une Chine qui aspire à dominer...