Intelligence artificielle Robots tueurs : les Nations Unies peinent à poser un cadre juridique...

Pour approfondir le sujet

Sur le même thème :

Face aux robots tueurs, un rapport demande la négociation d’un nouveau traité pour protéger les populations

Début décembre, alors que les gouvernements se réunissaient au palais des Nations unies à Genève pour décider de l’opportunité d’ouvrir des négociations permettant de...

XXII lance une charte éthique pour l’édition de logiciels d’IA

L'Intelligence Artificielle est en plein essor et les technologies qu'elle a permis de développer, en évolution constante. Les problèmes éthiques que peuvent poser leur...

SUISSE : La Haute Ecole de Lucerne développe un avocat IA en collaboration avec la plateforme Profila

La protection des données personnelles est problématique, la plupart des gens acceptent leur utilisation sans savoir réellement à quoi ils s'engagent. Pour leur permettre...

Mettre l’intelligence artificielle au service des forces : au coeur du projet européen STARTLIGHT

Tous les pays européens sont concernés par le crime et le terrorisme. Pour mieux lutter contre ces défis de sécurité, 18 pays européens persuadés...

Robots tueurs : les Nations Unies peinent à poser un cadre juridique à l’emploi des armes létales autonomes

Dès 2013, les Systèmes d’Armes Létales Autonomes (SALA) ont fait l’objet de discussions lors de la Convention des Nations Unies portant sur les Armes Classiques (CCAC). Fin 2021, le sujet a de nouveau été abordé par les 125 Etats réunis à Genève mais, faute d’entente, le dossier, renvoyé devant les experts gouvernementaux, sera de nouveau traité cette année.

Les SALA

À la pointe des hautes technologies, utilisant des intelligences artificielles, les SALA, ne font pas à ce jour l’objet d’une définition commune, ni d’un encadrement international. Ils suscitent de vives inquiétudes, notamment d’ordre éthique et juridique, interrogent par rapport au droit international humanitaire (DIH), tandis que des discussions ont été engagées dès 2013 à Genève dans le cadre de la convention sur certaines armes classiques (CCAC) de 1980, amendée en 2001.

Pour nombre d’entre nous, les robots tueurs font partie de la science fiction et l’opinion publique mondiale ne semble pas concernée par les problèmes qu’ils soulèvent d’ores et déjà. Pourtant, des organisations comme “Stop Robot Killers” ou “Human Rights Watch” ont, dès 2013, lancé une campagne visant à l’interdiction d’armes entièrement autonomes à laquelle de nombreux pays ont adhéré et réclamant une loi en ce sens. Mary Wareham, coordinatrice de la campagne, a déclaré :

“Si ces dirigeants politiques sont vraiment déterminés à lutter contre la menace posée par les robots tueurs, ils devraient alors débuter des négociations sur un traité les interdisant et exiger le maintien d’un contrôle humain significatif sur les systèmes d’armes et le recours à la force.”

La Course aux SALA

Si certains pays se déclarent contre le développement de SALA et adhèrent à la campagne de “Stop Robot Killers”, d’autres sont plus mitigés, voire pour… Le Comité d’Ethique de l’Armée Française, quant à lui, réprouve “les robots, boostés par l’intelligence artificielle, qui utilisent eux-mêmes un logiciel intégré pour trouver et frapper des cibles” mais n’est pas vraiment contre les armas robotisées pilotées par l’homme.

Toutes les grandes puissances investissent dans l’intelligence artificielle pour leurs armées. Vladimir Poutine a déclaré au sujet de l’IA en 2017:

 “Celui qui deviendra le leader dans ce domaine sera le maître du monde.”

Des systèmes d’armes semi-autonomes ont été employées lors des dernières guerres “modernes”: les drones, les missiles, les chars, les sous-marins… mais ils sont supervisés par l’homme. Selon les experts, qu’un robot tueur puisse décider seul d’attaquer grâce à des caméras, des capteurs, des logiciels de reconnaissance visuelle, des algorithmes, ne dépend que de la décision des autorités, la technologie est pratiquement opérationnelle.
Les Etats-Unis, La Chine, la Russie, la Corée du Sud, l’Australie, l’Inde, la Turquie et Israël investissent dans le développement de systèmes d’armes autonomes meurtriers  qui peuvent identifier, cibler et tuer une personne par eux-mêmes sans qu’aucune loi internationale ne régisse leur utilisation.

Une déresponsabilisation de l’homme

Donner une décision de vie et de mort à une technologie à partir de données pose évidemment un problème d’éthique. Une machine ne comprendra jamais le contexte d’une action ni ses conséquences. Sans l’intervention humaine, la proportionnalité d’une attaque, la distinction entre civils et militaires ne seront pas prises en compte par le système d’IA. Les droits de la guerre seront bafoués : un groupe d’hommes voulant se rendre, par exemple, sera reconnu comme des attaquants et abattus… Noel Sharkey, président du Comité International pour le contrôle des armes robotisées, expert en IA et en robotique à l’université britannique de Sheffield, a déclaré :

“Ne vous laissez pas tromper par l’absurdité de l’intelligence de ces armes… Vous ne pouvez tout simplement pas faire confiance à un algorithme – aussi intelligent soit-il – pour rechercher, identifier et tuer la bonne cible, surtout dans la complexité de la guerre”

Un cadre juridique nécessaire

Une course à l’armement des SALA est déjà engagée, la protection des civils n’y entre pas réellement en compte et les robots tueurs pourraient être victimes de cyberattaques pouvant entraîner des conflits mondiaux. Le danger est réel et une loi pour s’en protéger indispensable. Même si de plus en plus de gouvernements, d’institutions, d’experts en IA , de scientifiques… appellent à une réglementation des SALA, des pays s’y opposent : la Russie, les Etats-Unis, l’Inde et Israël en tête et rendent la mise en place d’une loi impossible à ce jour. Si la CCAC n’a pu aboutir sur des recommandations tangibles, un nouveau traité international pourrait cependant être adopté par le biais d’un processus indépendant.


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
 
Marie-Claude Benoit

Partager l'article

I-Stem, Généthon et Kantify découvrent une thérapie prometteuse contre les maladies génétiques

Les équipes d’I-Stem et de Généthon, laboratoires de l’Association Française contre les Myopathies (AFM-Téléthon), ont collaboré avec la start-up belge Kantify, spécialisée dans le...

La finale de « Ma thèse en 180 secondes » aura lieu à Lyon le 31 mai prochain

« Ma thèse en 180 secondes » concours qui s'inspire de « Three minute Thesis », conçu à l'Université du Queensland, en Australie, est...

CentraleSupélec et SystemX lancent l’Alliance CircularIT pour mettre le numérique au service de l’économie circulaire

Le 10 mai dernier, CentraleSupélec et l’IRT SystemX ont annoncé la création d'« Alliance CircularIT » afin de « mettre la puissance du numérique...

Le Val de Marne mise sur l’intelligence artificielle pour améliorer son réseau d’assainissement

En novembre 2020, l’agence de l’eau Seine-Normandie lançait l'appel à projets innovation pour la gestion de l’eau, « Transition numérique et économie circulaire »...
Recevoir une notification en cas d'actualité importante    OK Non merci