Actualité Le Conseil de l'Europe présente sa recommandation sur les impacts des systèmes...

Pour approfondir le sujet

L’Europe se dote de sa première Charte éthique d’utilisation de l’IA dans les systèmes judiciaires

Alors que sera lancée aujourd'hui la Déclaration de Montréal IA responsable, la Commission européenne pour l’efficacité de la justice (CEPEJ) du Conseil de l’Europe...

Visionnez le lancement de la déclaration de Montréal IA Responsable en direct

La déclaration de Montréal IA responsable est constituée d'un ensemble de 10 principes et 60 sous-principes destinés à prôner une IA responsable. Cette déclaration...

L’intelligence artificielle est-elle raciste, sexiste et homophobe ?

Nous allons tenter, dans cet article, de passer en revue les différentes intentions ou pensées controversées qui sont souvent prêtées à l'intelligence artificielle. L'intelligence artificielle...

Le Conseil de l’Europe présente sa recommandation sur les impacts des systèmes algorithmiques sur les droits de l’homme

En cette période de pandémie, de nombreux pays se penchent d’autant plus sur les algorithmes et le traitement automatique, notamment pour lutter et contrôler l’expansion du Covid-19. Cependant, de nombreux experts ont alerté de possibles violations des libertés fondamentales et droits de l’Homme. 

Le Conseil de l’Europe a appelé ce 8 avril ses 47 États membres à appliquer le principe de précaution dans la réalisation et la mise en œuvre de systèmes fondés sur des algorithmes et à se doter de lois, de politiques et de pratiques respectant pleinement les normes des droits de l’homme.

Dans sa Recommandation sur les impacts des systèmes algorithmiques sur les droits de l’homme, le Comité des Ministres du Conseil de l’Europe énonce une série de lignes directrices invitant les gouvernements à garantir qu’ils n’enfreignent pas les droits de l’homme dans le cadre de l’utilisation, du développement ou de l’acquisition de systèmes algorithmiques. De plus, leur pouvoir réglementaire donne à ces derniers l’obligation d’établir des cadres législatifs, réglementaires et de supervision efficaces et prévisibles, capables de prévenir, de détecter, d’interdire et de remédier aux violations des droits de l’homme, qu’elles soient imputables à des acteurs publics ou privés.

La recommandation se félicite du vaste potentiel dont disposent les processus algorithmiques en matière d’innovation et de développement économique dans de nombreux domaines tels que la communication, l’éducation, les transports, la gouvernance et les systèmes de santé. Dans le contexte actuel de la pandémie du COVID-19, les systèmes algorithmiques facilitent la prédiction, le diagnostic et la recherche sur les vaccins et les traitements. Des dispositifs de suivi électronique poussée sont envisagés par un nombre croissant d’États membres – ils s’appuient, une fois de plus sur des systèmes algorithmiques et automatisés.
En même temps, la recommandation met en garde face aux importants défis en matière de droits de l’homme que soulève le recours aux systèmes algorithmiques, notamment en ce qui concerne le droit à un procès équitable ; le droit au respect de la vie privée et à la protection des données ; le droit à la liberté de pensée, de conscience et de religion ; le droit à la liberté d’expression et de réunion ; le droit à l’égalité de traitement ; et les droits économiques et sociaux.

Face à la complexité des algorithmes et à la vitesse et l’ampleur de leur développement, les lignes directrices appellent les États membres à rester attentifs aux conséquences des processus concernés sur les droits fondamentaux et à mettre en œuvre des dispositifs efficaces de gestion des risques. Ils devraient interdire le développement de certains systèmes dès lors que leur déploiement présente un risque élevé de dommages irréversibles ou qu’ils sont tellement opaques que tout contrôle et surveillance par l’être humain devient illusoire. Des conséquences aussi graves qu’imprévisibles peuvent survenir du fait de l’interdépendance et de l’interconnexion croissante de multiples systèmes algorithmiques déployés dans un même environnement.

Par principe, les États devraient veiller à ce que les systèmes algorithmiques intègrent dès leur conception des dispositifs aptes à protéger la sûreté, la vie privée, les données et la sécurité. Les États doivent en outre évaluer minutieusement la qualité et la provenance des jeux de données ainsi que des risques inhérents comme la possible identification à partir de données traitées sous couvert d’anonymat, les utilisations inappropriées ou décontextualisées et la génération de nouvelles données potentiellement sensibles déduites par traitement automatisé.

Les lignes directrices soulignent que les institutions nationales de surveillance, de contrôle, d’évaluation des risques et d’application des compétentes doivent être dotées par leurs gouvernements des ressources et des pouvoirs nécessaires. Les gouvernements doivent aussi mener des consultations et une coopération régulière avec toutes les parties prenantes concernées, y compris le secteur privé, et sensibiliser le grand public au potentiel et aux incidences des systèmes algorithmiques, et notamment à leurs risques.

Pierre-yves Gerlat

Partager l'article

Le corpus d’articles arXiv est désormais disponible sur Kaggle

Le corpus d'articles arXiv permet depuis plus de 30 ans à la communauté de chercheurs et au public d'avoir accès aux articles scientifiques dans...

Scikit-learn, SOFA, Coq, Pharo : Inria lance son Academy de formation continue dédiée aux logiciels libres

Inria a présenté fin juillet son nouveau dispositif de formation continue. Centré sur les logiciels libres cette structure permettra l’accès aux grands noms des...

Partenariat Life & Soft et CEA en bio-informatique, génomique, intelligence artificielle et technologies d’imagerie de pointe

Ce 4 août, Life & Soft et le CEA ont présenté officiellement leur accord de collaboration. Signé en avril 2020 pour une durée de...

Machine learning : L’Université d’Oxford et Atos installeront le plus grand super calculateur du Royaume-Uni

Atos et l'Université d'Oxford ont signé un contrat de quatre ans et d'une valeur de 5 millions de livres sterling pour un nouveau supercalculateur de...