La Commission Européenne adopte deux nouvelles propositions pour adapter les règles de responsabilité à l’ère numérique et protéger les consommateurs

Didier Reynders, European Commissioner for Justice

Les règles actuelles de l’UE en matière de responsabilité des produits, fondées sur la responsabilité objective des fabricants, datent de près de 40 ans. Adapter ces règles à la transformation numérique, aux nouvelles technologies telles que l’IA, à l’économie circulaire et à l’impact des chaînes de valeur mondiales s’avère nécessaire. Dans cet objectif, la Commission Européenne a adopté le 28 septembre dernier deux propositions, l’une vise à moderniser les règles existantes, l’autre à harmoniser les règles nationales en matière de responsabilité applicables à l’IA.

Les règles révisées procureront aux entreprises davantage de sécurité juridique, ce qui les incitera à investir dans des produits nouveaux et innovants et garantiront que les consommateurs peuvent obtenir une indemnisation équitable lorsque des produits défectueux, y compris des produits numériques et remis à neuf, causent un préjudice.

Révision de la directive sur la responsabilité du fait des produits

La proposition de révision vise à moderniser et renforcer les règles actuelles, adoptées en 1985, fondées sur la responsabilité objective des fabricants, pour la réparation des dommages corporels, des dommages aux biens ou des pertes de données causées par des produits dangereux, depuis les chaises de jardin jusqu’aux machines de pointe. Elle garantit des règles équitables et prévisibles tant pour les entreprises que pour les consommateurs, et ce :

• en modernisant les règles de responsabilité pour les modèles économiques de l’économie circulaire, de sorte que les règles de responsabilité soient claires et équitables pour les entreprises qui modifient substantiellement des produits;

• en modernisant les règles de responsabilité pour les produits à l’ère numérique, permettant ainsi la réparation des dommages lorsque des produits tels que des robots, des drones ou des systèmes domestiques intelligents sont rendus dangereux par les mises à jour logicielles, l’IA ou les services numériques nécessaires au fonctionnement du produit, ainsi que lorsque les fabricants ne parviennent pas à remédier à des vulnérabilités en matière de cybersécurité;

• en créant des conditions de concurrence plus équitables entre les fabricants de l’UE et ceux des pays tiers: lorsque des consommateurs sont lésés par des produits dangereux importés de pays tiers, ils pourront s’adresser à l’importateur ou au représentant du fabricant dans l’UE pour obtenir réparation;

• en mettant les consommateurs sur un pied d’égalité avec les fabricants, en exigeant de ces derniers qu’ils divulguent des éléments de preuve, en instaurant une plus grande souplesse concernant les restrictions temporelles applicables à l’introduction des actions en réparation et en allégeant la charge de la preuve pour les victimes dans les cas complexes, tels que ceux impliquant des produits pharmaceutiques ou l’IA.

Thierry Breton, Commissaire au marché intérieur, a déclaré :

« La directive sur la responsabilité du fait des produits est l’une des pierres angulaires du marché intérieur depuis près de quarante ans. Grâce à la proposition présentée aujourd’hui, cette directive sera apte à répondre aux défis des décennies à venir. Les nouvelles règles refléteront les chaînes de valeur mondiales, favoriseront l’innovation et la confiance des consommateurs, et offriront davantage de sécurité juridique aux entreprises participant aux transitions écologique et numérique. »

La directive sur la responsabilité en matière d’IA : protéger les consommateurs en cas de problème

Conformément aux objectifs du livre blanc sur l’IA et à la proposition de règlement sur l’IA présentée par la Commission en 2021, établissant un cadre pour l’excellence et la confiance dans l’IA, les nouvelles règles garantiront que les victimes bénéficient des mêmes normes de protection lorsqu’elles sont lésées par des produits ou services d’IA que si un préjudice était causé dans d’autres circonstances.

Les règles nationales existant en matière de responsabilité, notamment en ce qui concerne la responsabilité pour faute, ne sont pas adaptées pour traiter les actions en responsabilité dans le cas de dommages causés par des produits et services dotés d’IA.

En effet, selon ces règles, il incombe à la victime de prouver l’existence d’un acte préjudiciable ou d’une omission de la part de la personne qui a causé le dommage. Compte tenu des caractéristiques spécifiques de l’IA, notamment la complexité, l’autonomie et l’opacité, il peut être difficile ou/et très coûteux pour les victimes d’identifier la personne responsable et d’apporter la preuve des conditions requises pour obtenir gain de cause.

L’objectif de la directive sur la responsabilité en matière d’IA est d’établir des règles uniformes pour l’accès à l’information et l’allègement de la charge de la preuve en ce qui concerne les dommages causés par des systèmes d’IA, d’instaurer une protection plus large pour les victimes (qu’il s’agisse de particuliers ou d’entreprises) et de favoriser le secteur de l’IA en renforçant les garanties.

Elle harmonisera certaines règles pour les actions en réparation ne relevant pas du champ d’application de la directive sur la responsabilité du fait des produits, dans les cas où des dommages sont causés par un comportement fautif. Cela concerne, par exemple, les atteintes à la vie privée ou les dommages causés par des problèmes de sécurité.

Les nouvelles règles permettront, par exemple, d’obtenir plus facilement réparation si une personne a subi une discrimination au cours d’une procédure de recrutement faisant appel à une technologie d’IA.

La directive simplifie le processus juridique pour les victimes lorsqu’il s’agit pour elles de prouver que la faute d’une personne a causé des dommages, en introduisant deux éléments principaux :

  • Premièrement, dans des circonstances où une faute pertinente a été établie et où un lien de causalité avec les performances de l’IA semble raisonnablement probable, la « présomption de causalité » répondra aux difficultés rencontrées par les victimes lorsqu’elles doivent expliquer en détail comment un préjudice a été causé par une faute ou une omission particulière, ce qui peut être particulièrement difficile lorsqu’il s’agit de comprendre et de parcourir des systèmes d’IA complexes.
  • Deuxièmement, les victimes disposeront d’un plus grand nombre d’outils pour demander réparation en justice, grâce à l’introduction d’un droit d’accès aux éléments de preuve auprès des entreprises et des fournisseurs, lorsque des systèmes d’IA à haut risque sont utilisés.

Vera Jourová, vice-présidente chargée des valeurs et de la transparence, a commenté :

« Nous voulons que les technologies de l’IA prospèrent dans l’UE. Pour cela, les citoyens doivent avoir confiance dans les innovations numériques. Avec la proposition présentée aujourd’hui sur la responsabilité civile en matière d’IA, nous donnons aux clients des instruments de recours en cas de dommages causés par l’IA, de sorte qu’ils bénéficient du même niveau de protection que celui offert pour les technologies traditionnelles, et nous garantissons la sécurité juridique de notre marché intérieur. »

Ces nouvelles règles conduisent à un équilibre entre la protection des consommateurs, la promotion de l’innovation et la suppression d’obstacles supplémentaires empêchant les victimes d’obtenir réparation, tout en établissant des garanties pour le secteur de l’IA en introduisant, par exemple, le droit de contester une action en responsabilité fondée sur une présomption de causalité.

Il appartient maintenant au Parlement européen et au Conseil d’adopter ces deux propositions.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.

1ère Marketplace de l'IA et de la transformation numérique vous recommande :
Aloception par Visual Behavior

Aloception recentre l'intelligence des robots autonomes sur le degré de compréhension de leur système de vision plutôt que sur les capteurs et les bas...

 
Partager l'article
Offre exclusive : 1 an d'abonnement au magazine ActuIA + Le guide pratique d'adoption de l'IA en entreprise pour seulement 27,60€ Boutique ActuIA Pour tout abonnement à ActuIA, recevez en cadeau le Guide Pratique d'Adoption de l'IA en Entreprise, d'une valeur de 23€ !
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.