Intelligence artificielle Armes létales autonomes et intelligence artificielle à des fins militaires : plus...

Pour approfondir le sujet

Sur le même thème :

Recevez le numéro 4 d’ActuIA, le magazine de l’intelligence artificielle !

Le numéro 4 d'ActuIA, le magazine de l'intelligence artificielle, arrive en kiosques et en version numérique le 18 mai 2021 ! Recevez-le directement chez...

Intégration de l’autonomie des systèmes d’armes létaux : Le Comité d’éthique de la défense remet son avis

Après la publication de ses travaux sur le soldat augmenté, le Comité d'éthique de la défense a remis à Florence Parly et au ministère...

L’ANR retient 22 établissements suite à son appel à programmes « contrats doctoraux en IA »

En juin 2019, l'ANR avait lancé un appel à programmes « contrats doctoraux en IA » ouvert à tous les établissements habilités à délivrer le...

L’UNESCO réunit aujourd’hui des experts pour débattre du rôle d’un cadre éthique mondial dans la réalisation d’une IA bénéfique

Ce mardi 24 novembre de 15h à 17h20, l'Unesco organise deux débats consacrés à l'éthique de l'intelligence artificielle (IA). Sous la gouverne de Yoshua...

Armes létales autonomes et intelligence artificielle à des fins militaires : plus de 200 entreprises et 2700 experts s’engagent

En parallèle de la 2018 International Joint Conference on Artificial Intelligence (IJCAI) à Stockholm, le Future of Life Institute a présenté une lettre ouverte sous forme d’engagement signée à ce jour par plus de 2 685 chercheurs, ingénieurs, scientifiques ou encore entrepreneurs auxquels s’ajoutent plus de 200 entreprises et organisations. Parmi les signataires, on retrouve les fondateurs de DeepMind Demis Hassabis, Shane Legg et Mustafa Suleyman, Stuart Russell, Yoshua Bengio, Toby Walsh, Jeffrey Dean, la Fondation XPRIZE, Snips, DataValoris, Jaan Tallinn, Max Tegmark, Elon Musk, Jean-Paul Delahaye de l’Université de Lille, Joël Colloc de l’Université du Havre, Viviane Baladi, Robin Lamarche-Perrin et Mehdi Khamassi du CNRS, Jean-Philipe Vert de Mines ParisTech et ENS Paris, Engelbert Mephu Nguifo de l’Université de Clermont-Auvergne, Martin Cooper de l’Université de Toulouse, A. Marco Saitta, Lionel Tabourier, François Bouchet, Guillaume Morel et Nicolas Bredeche de Sorbonne Université, Arnaud Lallouet de l’Université de Caen-Normandie ou encore Elli Zavou d’Inria – INSA Lyon.

Au total, les signataires viennent de plus de 90 pays différents et s’engagent contre les armes létales autonomes.

“L’intelligence artificielle (IA) est appelée à jouer un rôle croissant dans les systèmes militaires. Il existe une opportunité et une nécessité urgentes pour les citoyens, les décideurs politiques et les dirigeants de faire la distinction entre les utilisations acceptables et inacceptables de l’IA.

Dans cette optique, nous, les soussignés, sommes d’accord que la décision de prendre une vie humaine ne devrait jamais être déléguée à une machine. Il y a une composante morale à cette position, à savoir que nous ne devrions pas permettre aux machines de prendre des décisions de vie pour lesquelles d’autres – ou personne – ne seront coupables.

Il existe également un argument pragmatique puissant : des armes autonomes létales, la sélection et l’engagement de cibles sans intervention humaine, seraient dangereusement déstabilisantes pour chaque pays et chaque individu. Des milliers de chercheurs en IA s’accordent à dire qu’en supprimant le risque, l’imputabilité et la difficulté de tuer, des armes autonomes létales pourraient devenir de puissants instruments de violence et d’oppression, surtout lorsqu’elles sont liées à la surveillance et aux systèmes de données.

De plus, les armes autonomes létales ont des caractéristiques très différentes des armes nucléaires, chimiques et biologiques, et les actions unilatérales d’un seul groupe pourraient trop facilement déclencher une course à l’armement que la communauté internationale ni les moyens techniques, ni les systèmes de gouvernance mondiale, de gérer. Stigmatiser et prévenir une telle course à l’armement devrait être une priorité pour la sécurité nationale et mondiale.

Nous, les soussignés, appelons les gouvernements et les leaders à créer un futur avec des normes internationales fortes, des lois et des règles strictes face aux armes autonomes létales. Comme elles sont pour le moment absentes, nous avons choisi de nous ranger derrière cette position : nous ne participerons ni ne soutiendrons le développement, la production, la commercialisation ou l’utilisation d’armes autonomes létales. Nous demandons aux entreprises technologiques et aux organisations, ainsi qu’aux dirigeants, dédideurs politiques, et tout autre personne, de se joindre à nous dans cet engagement »

 
Thierry Maubant

Partager l'article

Etude du Centre Hubertine Auclert sur « Les freins à l’accès des filles aux filières informatiques et numériques »

De nombreuses études sont menées tout au long de la scolarité des élèves, certaines se rapportent à la réussite scolaire des filles et leurs...

Le Conseil de l’UE invite les Etats Membres à poursuivre leurs efforts dans la lutte contre le terrorisme

Début juin, le Conseil de l'UE a adopté des conclusions sur les actions accomplies et les prochaines étapes à franchir pour assurer la protection...

Village by CA Paris dévoile les duos lauréats des « Village Awards 2022 »

Le 30 juin dernier, le Village by CA Paris a organisé la cinquième édition des Village Awards en collaboration avec Les Echos Entrepreneurs et...

Focus sur les recommandations de la CNCDH visant à promouvoir un encadrement juridique ambitieux de l’IA

Le 21 avril 2021, la Commission Européenne présentait son projet de réglementation de l'IA. Plus récemment, en décembre dernier, la Slovénie qui assurait alors...
Recevoir une notification en cas d'actualité importante    OK Non merci