Actualité Armes létales autonomes et intelligence artificielle à des fins militaires : plus...

Pour approfondir le sujet

La 2e édition du Modap sera consacrée à l’intelligence artificielle le 28 novembre prochain

L’EVENT Mouvements d’Après, événement prospectif annuel du CEDAP, se tiendra le 28 novembre prochain de 15h à 18h à l'Elyséum, Paris. Il sera consacré au...

L’Université de Stanford lance HAI, l’Institut pour l’intelligence artificielle centrée sur l’humain

L'Université de Stanford lance un nouvel institut spécialisé dans l'étude, la direction et le développement de technologies et d'applications d'intelligence artificielle centrées sur l'humain....

Mobile learning : Teach on Mars et Inria Sophia-Antipolis – Méditerranée nouent un partenariat

Proposer un apprentissage plus efficace aux apprenants, aux formateurs et aux organisations, c'est tout l'objectif du nouveau partenariat entre Teach on Mars, spécialiste en mobile learning,...

Lancement du Mastère Spécialisé de MINES ParisTech « Intelligence Artificielle et Mouvement, dans les industries et la création » (AI Move) avec le soutien...

L'école MINES ParisTech a dévoilé son nouveau Mastère Spécialisé baptisé « Intelligence Artificielle et Mouvement, dans les industries et la création ». À noter que...

Armes létales autonomes et intelligence artificielle à des fins militaires : plus de 200 entreprises et 2700 experts s’engagent

En parallèle de la 2018 International Joint Conference on Artificial Intelligence (IJCAI) à Stockholm, le Future of Life Institute a présenté une lettre ouverte sous forme d’engagement signée à ce jour par plus de 2 685 chercheurs, ingénieurs, scientifiques ou encore entrepreneurs auxquels s’ajoutent plus de 200 entreprises et organisations. Parmi les signataires, on retrouve les fondateurs de DeepMind Demis Hassabis, Shane Legg et Mustafa Suleyman, Stuart Russell, Yoshua Bengio, Toby Walsh, Jeffrey Dean, la Fondation XPRIZE, Snips, DataValoris, Jaan Tallinn, Max Tegmark, Elon Musk, Jean-Paul Delahaye de l’Université de Lille, Joël Colloc de l’Université du Havre, Viviane Baladi, Robin Lamarche-Perrin et Mehdi Khamassi du CNRS, Jean-Philipe Vert de Mines ParisTech et ENS Paris, Engelbert Mephu Nguifo de l’Université de Clermont-Auvergne, Martin Cooper de l’Université de Toulouse, A. Marco Saitta, Lionel Tabourier, François Bouchet, Guillaume Morel et Nicolas Bredeche de Sorbonne Université, Arnaud Lallouet de l’Université de Caen-Normandie ou encore Elli Zavou d’Inria – INSA Lyon.

Au total, les signataires viennent de plus de 90 pays différents et s’engagent contre les armes létales autonomes.

“L’intelligence artificielle (IA) est appelée à jouer un rôle croissant dans les systèmes militaires. Il existe une opportunité et une nécessité urgentes pour les citoyens, les décideurs politiques et les dirigeants de faire la distinction entre les utilisations acceptables et inacceptables de l’IA.

Dans cette optique, nous, les soussignés, sommes d’accord que la décision de prendre une vie humaine ne devrait jamais être déléguée à une machine. Il y a une composante morale à cette position, à savoir que nous ne devrions pas permettre aux machines de prendre des décisions de vie pour lesquelles d’autres – ou personne – ne seront coupables.

Il existe également un argument pragmatique puissant : des armes autonomes létales, la sélection et l’engagement de cibles sans intervention humaine, seraient dangereusement déstabilisantes pour chaque pays et chaque individu. Des milliers de chercheurs en IA s’accordent à dire qu’en supprimant le risque, l’imputabilité et la difficulté de tuer, des armes autonomes létales pourraient devenir de puissants instruments de violence et d’oppression, surtout lorsqu’elles sont liées à la surveillance et aux systèmes de données.

De plus, les armes autonomes létales ont des caractéristiques très différentes des armes nucléaires, chimiques et biologiques, et les actions unilatérales d’un seul groupe pourraient trop facilement déclencher une course à l’armement que la communauté internationale ni les moyens techniques, ni les systèmes de gouvernance mondiale, de gérer. Stigmatiser et prévenir une telle course à l’armement devrait être une priorité pour la sécurité nationale et mondiale.

Nous, les soussignés, appelons les gouvernements et les leaders à créer un futur avec des normes internationales fortes, des lois et des règles strictes face aux armes autonomes létales. Comme elles sont pour le moment absentes, nous avons choisi de nous ranger derrière cette position : nous ne participerons ni ne soutiendrons le développement, la production, la commercialisation ou l’utilisation d’armes autonomes létales. Nous demandons aux entreprises technologiques et aux organisations, ainsi qu’aux dirigeants, dédideurs politiques, et tout autre personne, de se joindre à nous dans cet engagement »

Thierry Maubant

Partager l'article

Focus sur le projet APRIORICS de l’IUCT-O Toulouse : IA et médecine personnalisée pour lutter contre le cancer du sein

Le projet APRIORICS (Apprentissage Profond Renforcé par l’ImmunohistOchimie pour la Requalification d’Images de Cancers du Sein) a pour objectif d’utiliser l’intelligence artificielle afin de décrire...

Focus pays : Webinaire « L’intelligence artificielle, instrument de relance économique en Tunisie ? »

Le 29 juillet dernier, le ministère de l'industrie et des PME, en collaboration avec le projet Innov’i – EU4Innovation, a organisé un webinaire réunissant...

Le corpus d’articles arXiv est désormais disponible sur Kaggle

Le corpus d'articles arXiv permet depuis plus de 30 ans à la communauté de chercheurs et au public d'avoir accès aux articles scientifiques dans...

Scikit-learn, SOFA, Coq, Pharo : Inria lance son Academy de formation continue dédiée aux logiciels libres

Inria a présenté fin juillet son nouveau dispositif de formation continue. Centré sur les logiciels libres cette structure permettra l’accès aux grands noms des...