Intelligence artificielle Armes létales autonomes et intelligence artificielle à des fins militaires : plus...

Pour approfondir le sujet

Sur le même thème :

Recevez le numéro 4 d’ActuIA, le magazine de l’intelligence artificielle !

Le numéro 4 d'ActuIA, le magazine de l'intelligence artificielle, arrive en kiosques et en version numérique le 18 mai 2021 ! Recevez-le directement chez...

Intégration de l’autonomie des systèmes d’armes létaux : Le Comité d’éthique de la défense remet son avis

Après la publication de ses travaux sur le soldat augmenté, le Comité d'éthique de la défense a remis à Florence Parly et au ministère...

L’ANR retient 22 établissements suite à son appel à programmes « contrats doctoraux en IA »

En juin 2019, l'ANR avait lancé un appel à programmes « contrats doctoraux en IA » ouvert à tous les établissements habilités à délivrer le...

L’UNESCO réunit aujourd’hui des experts pour débattre du rôle d’un cadre éthique mondial dans la réalisation d’une IA bénéfique

Ce mardi 24 novembre de 15h à 17h20, l'Unesco organise deux débats consacrés à l'éthique de l'intelligence artificielle (IA). Sous la gouverne de Yoshua...

Armes létales autonomes et intelligence artificielle à des fins militaires : plus de 200 entreprises et 2700 experts s’engagent

En parallèle de la 2018 International Joint Conference on Artificial Intelligence (IJCAI) à Stockholm, le Future of Life Institute a présenté une lettre ouverte sous forme d’engagement signée à ce jour par plus de 2 685 chercheurs, ingénieurs, scientifiques ou encore entrepreneurs auxquels s’ajoutent plus de 200 entreprises et organisations. Parmi les signataires, on retrouve les fondateurs de DeepMind Demis Hassabis, Shane Legg et Mustafa Suleyman, Stuart Russell, Yoshua Bengio, Toby Walsh, Jeffrey Dean, la Fondation XPRIZE, Snips, DataValoris, Jaan Tallinn, Max Tegmark, Elon Musk, Jean-Paul Delahaye de l’Université de Lille, Joël Colloc de l’Université du Havre, Viviane Baladi, Robin Lamarche-Perrin et Mehdi Khamassi du CNRS, Jean-Philipe Vert de Mines ParisTech et ENS Paris, Engelbert Mephu Nguifo de l’Université de Clermont-Auvergne, Martin Cooper de l’Université de Toulouse, A. Marco Saitta, Lionel Tabourier, François Bouchet, Guillaume Morel et Nicolas Bredeche de Sorbonne Université, Arnaud Lallouet de l’Université de Caen-Normandie ou encore Elli Zavou d’Inria – INSA Lyon.

Au total, les signataires viennent de plus de 90 pays différents et s’engagent contre les armes létales autonomes.

“L’intelligence artificielle (IA) est appelée à jouer un rôle croissant dans les systèmes militaires. Il existe une opportunité et une nécessité urgentes pour les citoyens, les décideurs politiques et les dirigeants de faire la distinction entre les utilisations acceptables et inacceptables de l’IA.

Dans cette optique, nous, les soussignés, sommes d’accord que la décision de prendre une vie humaine ne devrait jamais être déléguée à une machine. Il y a une composante morale à cette position, à savoir que nous ne devrions pas permettre aux machines de prendre des décisions de vie pour lesquelles d’autres – ou personne – ne seront coupables.

Il existe également un argument pragmatique puissant : des armes autonomes létales, la sélection et l’engagement de cibles sans intervention humaine, seraient dangereusement déstabilisantes pour chaque pays et chaque individu. Des milliers de chercheurs en IA s’accordent à dire qu’en supprimant le risque, l’imputabilité et la difficulté de tuer, des armes autonomes létales pourraient devenir de puissants instruments de violence et d’oppression, surtout lorsqu’elles sont liées à la surveillance et aux systèmes de données.

De plus, les armes autonomes létales ont des caractéristiques très différentes des armes nucléaires, chimiques et biologiques, et les actions unilatérales d’un seul groupe pourraient trop facilement déclencher une course à l’armement que la communauté internationale ni les moyens techniques, ni les systèmes de gouvernance mondiale, de gérer. Stigmatiser et prévenir une telle course à l’armement devrait être une priorité pour la sécurité nationale et mondiale.

Nous, les soussignés, appelons les gouvernements et les leaders à créer un futur avec des normes internationales fortes, des lois et des règles strictes face aux armes autonomes létales. Comme elles sont pour le moment absentes, nous avons choisi de nous ranger derrière cette position : nous ne participerons ni ne soutiendrons le développement, la production, la commercialisation ou l’utilisation d’armes autonomes létales. Nous demandons aux entreprises technologiques et aux organisations, ainsi qu’aux dirigeants, dédideurs politiques, et tout autre personne, de se joindre à nous dans cet engagement »


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
 
Thierry Maubant

Partager l'article

Covid-19 : Focus sur Early Warning System (EWS) développé par BioNTech et InstaDeep pour détecter les variants à haut risque du SARS-CoV-2

En ce moment, nous entendons beaucoup parler de Delta et Omicron, les deux variants circulant le plus en France, mais on est loin d'imaginer...

La CNIL lance une consultation publique sur l’usage des caméras intelligentes dans les espaces publics

Devant la recrudescence des caméras intelligentes ou augmentées dans les espaces publics et les problèmes éthiques ou juridiques que ces dispositifs posent, la CNIL,...

Est-ce que Python est sécurisé ? Etude réalisée par Snyk

Selon une étude réalisée par Snyk, aujourd'hui, 43 % de toutes les fuites de données sont directement liées à des vulnérabilités découvertes au sein...

Bouches-du-Rhône et Var : 12 000 piscines non déclarées détectées grâce à l’Intelligence Artificielle

Il y a et il y aura toujours des fraudeurs... L'intelligence artificielle va permettre de repérer ceux qui ont «omis» de déclarer certains bâtis...
Recevoir une notification en cas d'actualité importante    OK Non merci