Actualité Les plus grands spécialistes de l'IA et de la robotique alertent les...

Pour approfondir le sujet

Armes létales autonomes et intelligence artificielle à des fins militaires : plus de 200 entreprises et 2700 experts s’engagent

En parallèle de la 2018 International Joint Conference on Artificial Intelligence (IJCAI) à Stockholm, le Future of Life Institute a présenté une lettre ouverte...

Le Vision Fund de Softbank annonce avoir levé 93 milliards de dollars pour investir dans les nouvelles technologies

L'opérateur de téléphonie mobile japonais SoftBank avait annoncé en octobre dernier la création de son Vision Fund en partenariat avec le gouvernement d'Arabie Saoudite....

SATT: La France ambitionne d’accélérer le transfert de technologie entre la recherche et l’industrie

L’avenir est dans les Deeptechs ! Huit mois après l’installation du Conseil de l’Innovation, Bpifrance a réaffirmé son ambition de développer les start-ups technologiques...

Prix Inria : le projet scikit-learn, Vincent Hayward et María Naya-Plasencia parmi les lauréats

Ce vendredi 17 janvier, Inria organise sa cérémonie de remise des prix. Créés en 2011 et soutenus par l’Académie des sciences et Dassault Systèmes,...

Les plus grands spécialistes de l’IA et de la robotique alertent les Nations Unies

Les spécialistes les plus influents de l’intelligence artificielle ont adressé le 21 août 2017 une lettre ouverte aux nations unies afin de les alerter sur les dangers des armes autonomes. Parmi les signataires, Elon Musk, pour qui la sensibilisation des Etats aux dangers de l’intelligence artificielle est devenue un réel combat. Mais également Gary Marcus dont nous évoquions le manifeste pour une évolution de l’écosystème de l’intelligence artificielle en début de semaine,  Demis Hassabis et Mustafa Suleyman de DeepMind, les français Jérome Monceaux fondateur d’Aldebaran Robotics, Raul Bravo fondateur de Dibotics, Raphael Cherrier, fondateur de Qucit, Charles Ollion, fondateur d’Heuritec, Anis Sahbani , fondateur d’Enova Robotics et Alexandre Valette, fondateur de SNIPS & Ants Open Innovation Labs. Et bien d’autres acteurs de l’industrie de part le monde.

Traduction de la lettre adressée le 21 août aux Nations unies :

En tant que sociétés concevant des technologies d’intelligence artificielle et de robotique qui seraient susceptibles d’être réutilisées pour développer des armes autonomes, nous nous sentons particulièrement responsables de tirer la sonnette d’alarme. Nous accueillons  chaleureusement la décision de la conférence de la convention sur certaines armes classiques (CCAC) des Nations Unies d’établir un groupe d’experts gouvernementaux sur les systèmes d’armes létales autonomes. Un grand nombre de nos chercheurs et ingénieurs sont désireux de vous proposer des conseils techniques dans le cadre de vos délibérations.

Nous tenons à féliciter Monsieur Amandeep Singh Gill  pour sa nomination en tant que président du groupement d’experts gouvernementaux (GEG). Nous demandons aux Hautes Parties contractantes qui participent au GEG de travailler dur pour trouver des moyens d’empêcher une course aux armements dans ces armes, de protéger les civils de leur mauvaise utilisation et d’éviter les effets déstabilisants de ces technologies. Nous regrettons que la première réunion du GEG, qui devait débuter aujourd’hui (21 août 2017), ait été annulée en raison d’un petit nombre d’États n’ayant pas payé leurs contributions financières à l’ONU. Nous demandons instamment aux Hautes Parties contractantes de redoubler d’efforts lors de la première réunion du GEG désormais prévue au mois de novembre.

Les armes autonomes létales menacent de devenir la troisième révolution dans la guerre. Une fois développées, elles risquent de permettre des conflits armés d’une violence encore jamais atteinte, et à des échelles de temps trop rapides pour que les humains ne puissent le comprendre. Ces armes peuvent être des armes de terreur, des armes que les despotes et les terroristes utiliseront contre des populations innocentes et des armes piratées pour se comporter de manière indésirable. Nous n’avons que très peu de temps pour agir. Lorsque cette boîte de Pandore sera ouverte, il sera difficile de la refermer. Nous demandons donc aux Hautes Parties contractantes de trouver un moyen de nous protéger contre ces dangers.

La version originale de cette lettre peut être trouvée ici.

Thierry Maubant

Partager l'article

Le corpus d’articles arXiv est désormais disponible sur Kaggle

Le corpus d'articles arXiv permet depuis plus de 30 ans à la communauté de chercheurs et au public d'avoir accès aux articles scientifiques dans...

Scikit-learn, SOFA, Coq, Pharo : Inria lance son Academy de formation continue dédiée aux logiciels libres

Inria a présenté fin juillet son nouveau dispositif de formation continue. Centré sur les logiciels libres cette structure permettra l’accès aux grands noms des...

Partenariat Life & Soft et CEA en bio-informatique, génomique, intelligence artificielle et technologies d’imagerie de pointe

Ce 4 août, Life & Soft et le CEA ont présenté officiellement leur accord de collaboration. Signé en avril 2020 pour une durée de...

Machine learning : L’Université d’Oxford et Atos installeront le plus grand super calculateur du Royaume-Uni

Atos et l'Université d'Oxford ont signé un contrat de quatre ans et d'une valeur de 5 millions de livres sterling pour un nouveau supercalculateur de...