Actualité Armes létales autonomes et intelligence artificielle à des fins militaires : plus...

Pour approfondir le sujet

Cyberdéfense et Cybersécurité : retrouvez “L’intelligence artificielle et ses implications possibles pour la défense”, le replay du café stratégique de l’université Bretagne Sud

Le 31 janvier dernier, l'Université Bretagne Sud organisait un café stratégique animé par M. Gérard de BOISBOISSEL, Ingénieur de recherche au Centre de Recherche...

Des chercheurs en IA créent une vidéo pour demander l’interdiction des armes autonomes aux Nations Unies

En réponse aux inquiétudes grandissantes concernant les armes autonomes, une coalition de chercheurs en IA et d'organisations a publié ce lundi une vidéo fictive...

Intelligence artificielle et Armée : création d’une Agence de l’innovation de défense

Ce vendredi 16 mars sur le site de Dassault Aviation à Saint-Cloud, Florence Parly, ministre des Armées a assisté au lancement de l’étude «...

La construction d’une vision partagée des questions éthiques liées à l’intelligence artificielle au centre des préoccupations de l’UNESCO

Ce mardi a débuté la 40e session de la Conférence générale de l'UNESCO devant les représentants des 193 États membres et des 11 Membres...

Armes létales autonomes et intelligence artificielle à des fins militaires : plus de 200 entreprises et 2700 experts s’engagent

En parallèle de la 2018 International Joint Conference on Artificial Intelligence (IJCAI) à Stockholm, le Future of Life Institute a présenté une lettre ouverte sous forme d’engagement signée à ce jour par plus de 2 685 chercheurs, ingénieurs, scientifiques ou encore entrepreneurs auxquels s’ajoutent plus de 200 entreprises et organisations. Parmi les signataires, on retrouve les fondateurs de DeepMind Demis Hassabis, Shane Legg et Mustafa Suleyman, Stuart Russell, Yoshua Bengio, Toby Walsh, Jeffrey Dean, la Fondation XPRIZE, Snips, DataValoris, Jaan Tallinn, Max Tegmark, Elon Musk, Jean-Paul Delahaye de l’Université de Lille, Joël Colloc de l’Université du Havre, Viviane Baladi, Robin Lamarche-Perrin et Mehdi Khamassi du CNRS, Jean-Philipe Vert de Mines ParisTech et ENS Paris, Engelbert Mephu Nguifo de l’Université de Clermont-Auvergne, Martin Cooper de l’Université de Toulouse, A. Marco Saitta, Lionel Tabourier, François Bouchet, Guillaume Morel et Nicolas Bredeche de Sorbonne Université, Arnaud Lallouet de l’Université de Caen-Normandie ou encore Elli Zavou d’Inria – INSA Lyon.

Au total, les signataires viennent de plus de 90 pays différents et s’engagent contre les armes létales autonomes.

“L’intelligence artificielle (IA) est appelée à jouer un rôle croissant dans les systèmes militaires. Il existe une opportunité et une nécessité urgentes pour les citoyens, les décideurs politiques et les dirigeants de faire la distinction entre les utilisations acceptables et inacceptables de l’IA.

Dans cette optique, nous, les soussignés, sommes d’accord que la décision de prendre une vie humaine ne devrait jamais être déléguée à une machine. Il y a une composante morale à cette position, à savoir que nous ne devrions pas permettre aux machines de prendre des décisions de vie pour lesquelles d’autres – ou personne – ne seront coupables.

Il existe également un argument pragmatique puissant : des armes autonomes létales, la sélection et l’engagement de cibles sans intervention humaine, seraient dangereusement déstabilisantes pour chaque pays et chaque individu. Des milliers de chercheurs en IA s’accordent à dire qu’en supprimant le risque, l’imputabilité et la difficulté de tuer, des armes autonomes létales pourraient devenir de puissants instruments de violence et d’oppression, surtout lorsqu’elles sont liées à la surveillance et aux systèmes de données.

De plus, les armes autonomes létales ont des caractéristiques très différentes des armes nucléaires, chimiques et biologiques, et les actions unilatérales d’un seul groupe pourraient trop facilement déclencher une course à l’armement que la communauté internationale ni les moyens techniques, ni les systèmes de gouvernance mondiale, de gérer. Stigmatiser et prévenir une telle course à l’armement devrait être une priorité pour la sécurité nationale et mondiale.

Nous, les soussignés, appelons les gouvernements et les leaders à créer un futur avec des normes internationales fortes, des lois et des règles strictes face aux armes autonomes létales. Comme elles sont pour le moment absentes, nous avons choisi de nous ranger derrière cette position : nous ne participerons ni ne soutiendrons le développement, la production, la commercialisation ou l’utilisation d’armes autonomes létales. Nous demandons aux entreprises technologiques et aux organisations, ainsi qu’aux dirigeants, dédideurs politiques, et tout autre personne, de se joindre à nous dans cet engagement »

Thierry Maubant

Partager l'article

Avec TextStyleBrush, Facebook permet de substituer des textes en respectant leur style en temps réel

Après avoir présenté une méthode de deep learning pour que les modèles d'IA puissent oublier certaines informations et ses travaux en matière de vision par...

Thalès intègre deux solutions dans Google Workspace pour protéger les données des utilisateurs

Grâce à un partenariat avec Google, Thalès annonce l'intégration de ses solutions CipherTrust Manager et SafeNet Trusted Access pour chiffrer des documents Google Workspace....

Devoteam annonce l’acquisition d’Integrity pour renforcer son offre en matière de cybersécurité

Devoteam, une société de conseil en stratégie digitale, plateformes technologiques et cybersécurité, vient d'annoncer l'acquisition d'Integrity, une plateforme de services basée sur le cloud,...

Astek et Craft AI présentent leur solution de machine learning dans le domaine de la cybersécurité

Dans le cadre de leur partenariat, Astek et Craft AI ont présenté leur première solution dans le domaine de la cybersécurité. L'entreprise spécialisée en...