Armes létales autonomes et intelligence artificielle à des fins militaires : plus de 200 entreprises et 2700 experts s’engagent

Armes létales autonomes et intelligence artificielle à des fins militaires : plus de 200 entreprises et 2700
Actu IA
NEUROn_P6230084

En parallèle de la 2018 International Joint Conference on Artificial Intelligence (IJCAI) à Stockholm, le Future of Life Institute a présenté une lettre ouverte sous forme d’engagement signée à ce jour par plus de 2 685 chercheurs, ingénieurs, scientifiques ou encore entrepreneurs auxquels s’ajoutent plus de 200 entreprises et organisations. Parmi les signataires, on retrouve les fondateurs de DeepMind Demis Hassabis, Shane Legg et Mustafa Suleyman, Stuart Russell, Yoshua Bengio, Toby Walsh, Jeffrey Dean, la Fondation XPRIZE, Snips, DataValoris, Jaan Tallinn, Max Tegmark, Elon Musk, Jean-Paul Delahaye de l’Université de Lille, Joël Colloc de l’Université du Havre, Viviane Baladi, Robin Lamarche-Perrin et Mehdi Khamassi du CNRS, Jean-Philipe Vert de Mines ParisTech et ENS Paris, Engelbert Mephu Nguifo de l’Université de Clermont-Auvergne, Martin Cooper de l’Université de Toulouse, A. Marco Saitta, Lionel Tabourier, François Bouchet, Guillaume Morel et Nicolas Bredeche de Sorbonne Université, Arnaud Lallouet de l’Université de Caen-Normandie ou encore Elli Zavou d’Inria – INSA Lyon.

Au total, les signataires viennent de plus de 90 pays différents et s’engagent contre les armes létales autonomes.

“L’intelligence artificielle (IA) est appelée à jouer un rôle croissant dans les systèmes militaires. Il existe une opportunité et une nécessité urgentes pour les citoyens, les décideurs politiques et les dirigeants de faire la distinction entre les utilisations acceptables et inacceptables de l’IA.

Dans cette optique, nous, les soussignés, sommes d’accord que la décision de prendre une vie humaine ne devrait jamais être déléguée à une machine. Il y a une composante morale à cette position, à savoir que nous ne devrions pas permettre aux machines de prendre des décisions de vie pour lesquelles d’autres – ou personne – ne seront coupables.

Il existe également un argument pragmatique puissant : des armes autonomes létales, la sélection et l’engagement de cibles sans intervention humaine, seraient dangereusement déstabilisantes pour chaque pays et chaque individu. Des milliers de chercheurs en IA s’accordent à dire qu’en supprimant le risque, l’imputabilité et la difficulté de tuer, des armes autonomes létales pourraient devenir de puissants instruments de violence et d’oppression, surtout lorsqu’elles sont liées à la surveillance et aux systèmes de données.

De plus, les armes autonomes létales ont des caractéristiques très différentes des armes nucléaires, chimiques et biologiques, et les actions unilatérales d’un seul groupe pourraient trop facilement déclencher une course à l’armement que la communauté internationale ni les moyens techniques, ni les systèmes de gouvernance mondiale, de gérer. Stigmatiser et prévenir une telle course à l’armement devrait être une priorité pour la sécurité nationale et mondiale.

Nous, les soussignés, appelons les gouvernements et les leaders à créer un futur avec des normes internationales fortes, des lois et des règles strictes face aux armes autonomes létales. Comme elles sont pour le moment absentes, nous avons choisi de nous ranger derrière cette position : nous ne participerons ni ne soutiendrons le développement, la production, la commercialisation ou l’utilisation d’armes autonomes létales. Nous demandons aux entreprises technologiques et aux organisations, ainsi qu’aux dirigeants, dédideurs politiques, et tout autre personne, de se joindre à nous dans cet engagement »