Des chercheurs en IA créent une vidéo pour demander l’interdiction des armes autonomes aux Nations Unies

Des chercheurs en IA créent une vidéo pour demander l’interdiction des armes autonomes aux Nations Uni
Actu IA

En réponse aux inquiétudes grandissantes concernant les armes autonomes, une coalition de chercheurs en IA et d’organisations a publié ce lundi une vidéo fictive dépeignant un avenir troublant dans lequel les armes autonomes létales seraient devenues bon marché et omniprésentes.

Une vidéo fictive alertant sur le danger des armes autonomes

Cette vidéo a été dévoilée à Genève, où Stuart Russell l’a présentée lors d’un événement organisé par la Convention des Nations Unis sur les Armes Conventionnelles, dans le cadre de la Campaign to Stop Killer Robots. Stuart Russell apparait à la fin de la vidéo en précisant que la technologie montrée à l’écran existe d’ores et déjà et que nous n’avons plus beaucoup de temps pour intervenir.

En 2015, le Future of Life Institute avait publié une lettre ouverte, signée par plus de 20.000 chercheurs en IA et robotique dont Elon Musk et Stephen Hawking. Depuis, plusieurs pétitions ont également circulé sur ce thème plus que jamais d’actualité. Cet été, 130 dirigeants d’entreprises IA ont signé une lettre de soutien aux discussions de la Convention des Nations Unis sur les Armes Conventionnelles. Enfin, la semaine dernière, ce sont plus de 300 scientifiques canadiens et australiens du milieu universitaire et de l’industrie qui ont participé à des lettres ouvertes à destination de Justin Trudeau et de Malcolm Turnbull pour les exhorter à appuyer l’interdiction.

Ces lettres ouvertes indiquent à la fois une grave préoccupation et le sentiment que l’opportunité de réduire les armes autonomes mortelles tend à disparaitre.

Une opportunité d’action à saisir

Noel Sharkey du Comité International pour le Contrôle des Armes Robot explique:

“La campagne pour arrêter les robots tueurs n’essaie pas d’étouffer l’innovation en intelligence artificielle et en robotique et ne veut pas interdire les systèmes autonomes dans le monde civil ou militaire.

Au contraire, nous voyons un besoin urgent d’empêcher l’automatisation des fonctions critiques pour la sélection des cibles et l’application de la force violente sans délibération humaine et pour assurer un contrôle humain significatif de chaque attaque. “

La technologie des drones est sur le point de devenir totalement autonome. De nombreux chercheurs en IA mondiaux s’inquiètent du fait que si ces armes autonomes sont développées, elles pourraient réduire considérablement le seuil pour se lancer dans des conflits armés, faciliter les pertes humaines, renforcer les capacités des terroristes et créer une grande instabilité mondiale. Les États-Unis et d’autres pays ont déjà utilisé des drones et des systèmes semi-automatisés pour mener des attaques, mais supprimer l’humain dans la chaîne de décision entre en contradiction avec les Droits de l’Homme.

Une interdiction souhaitable

Une interdiction pourrait avoir un effet considération sur le développement technologique sans pour cela avoir besoin de mettre un frein à tous les cas d’abus. Max Tegmark, professeur au MIT et cofondateur du Future of Life Institute, souligne que:

“la réaction instinctive des gens selon laquelle les interdictions n’apportent rien n’est pas historiquement exacte: l’interdiction de l’arme biologique a eu un tel impact, en dépit des manquements au traité, que nous ne subissons presque aucune attaque bioterroriste aujourd’hui et presque tout le financement de la biotechnologie est civil. “

Comme Toby Walsh, professeur en IA à l’Université de New South Wales, l’affirme:

“La communauté universitaire a envoyé un message clair et cohérent. Les armes autonomes seront des armes de terreur, l’outil parfait pour ceux qui n’ont aucun scrupule face aux terribles usages auxquels ils serviront. Nous devons agir maintenant avant que ce futur arrive. “

Pour plus d’informations sur les armes autonomes, consultez les ressources suivantes:

Source: Future of Life Institute