Intelligence artificielle Projet Maven de Google avec l'armée américaine : plus de 3100 employés...

Pour approfondir le sujet

Sur le même thème :

Etats-Unis : les dernières nouvelles autour de l’IA du Pentagone et du Joint Artificial Intelligence Center

L'intelligence artificielle dans le secteur de la défense est un sujet qui fait son arrivée progressive en France : fin avril dernier, le comité...

Intégration de l’autonomie des systèmes d’armes létaux : Le Comité d’éthique de la défense remet son avis

Après la publication de ses travaux sur le soldat augmenté, le Comité d'éthique de la défense a remis à Florence Parly et au ministère...

Amazon continue de refuser que les forces de l’ordre utilisent ses outils de reconnaissance faciale

Dans une déclaration réalisée le 18 mai 2021, Amazon a annoncé prolonger son interdiction pour la police américaine d'exploiter son logiciel de reconnaissance faciale...

Chine : Une IA serait utilisée pour juger les émotions des ouïghours sous contrainte

Selon une information de la BBC, relayée par Le Point, un ingénieur logiciel a affirmé avoir installé des caméras dotées d'un système de détection...

Projet Maven de Google avec l’armée américaine : plus de 3100 employés protestent

Plus de 3100 employés de Google ont envoyé une lettre à Sundar Pichai, dévoilée par le New York Times, pour protester contre la participation du groupe américain à un programme du Pentagone. Des critiques contre “le business de la guerre” qui mettent de nouveau en avant les problèmes éthiques que pose le développement de l’intelligence artificielle mais aussi “le conflit culturel opposant Silicon Valley au gouvernement fédéral”.

Google avait reconnu en mars dans le magazine Gizmodo la mise à disposition d’un programme d’intelligence artificielle à l’armée américaine dans le cadre du projet Maven, lancé en avril 2017. Ces technologies étaient destinées selon le Pentagone à “rendre rapidement intelligible l’énorme volume de données accessibles au ministère de la défense”.

Ce projet découle de l’investissement de 7,4 milliards de dollars réalisé par  le Pentagone pour l’intelligence artificielle et le traitement des données. C’est à ce titre que le Ministère de la Défense a contacté des entreprises, experts, chercheurs et universitaires pour développer l’application de ces nouvelles technologies. Google avait indiqué dans son communiqué aider à analyser des images de drones en fournissant des accès à TensorFlow. Utilisé à des fins de renseignement sur des photos ou des vidéos, le logiciel permet de mieux identifier des individus, des véhicules ou des bâtiments et donc d’améliorer tant la surveillance que la reconnaissance de cibles potentielles.

Si Google avait indiqué que ces technologies mises à disposition dans le cadre du projet Maven avaient “un usage non-offensif” et que des précautions avaient été prises, notamment des “règles et garde-fous autour du développement et de l’usage de ses technologies de machine learning”, cela n’a pas suffi à rassurer de nombreux employés de la firme américaine.

“Nous estimons que Google ne devrait pas être impliqué dans le business de la guerre. Par conséquent, nous demandons que le projet Maven soit annulé et que Google rédige, publie et applique une politique claire stipulant que ni Google ni ses sous-traitants ne construiront de technologie de guerre”.

Les employés ayant rédigé et signé la lettre sont en désaccord avec la participation à ce projet. Pour eux :

“Construire cette technologie pour aider le gouvernement américain dans la surveillance militaire, avec donc des conséquences potentiellement mortelles, n’est pas acceptable”.

Une telle participation pourrait en effet avoir des répercutions pour la firme et les employés évoquaient notamment que cela :

“endommagera irrémédiablement la marque de Google et sa capacité à rivaliser pour attirer les talents dans l’entreprise (…)

L’argument selon lequel d’autres entreprises comme Microsoft et Amazon participent également ne rendent pas l’opération moins risquée pour Google
(…) Nous ne pouvons pas nous dédouaner de la responsabilité de nos technologies et la laisser peser sur les tiers.

Le lettre reprend également le slogan informel de Google “Do not Be Evil” (Ne soyez pas malveillants).

Ce n’est pas la première fois que des craintes et des protestations se font entendre quant à l’utilisation de l’intelligence artificielle à des fins militaires. Et, comme l’indique le New York Times, cela risque de “s’intensifier avec l’utilisation de plus en plus fréquente de l’intelligence artificielle à des fins militaires”. Il n’existe actuellement aucune loi internationale contraignante et on ne sait pas à quel degré les systèmes IA seront utilisés en cas de guerre. La course à l’armement a déjà bien commencé dans ce domaine. En France, la défense fait partie des quatre secteurs prioritaires en matière d’IA identifiés par le rapport de la mission Villani, avec la santé, l’environnement et les transport.


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
 
Thomas Calvi

Partager l'article

Bruxelles : Améliorer les services publics grâce à l’IA et FARI

FARI, institut bruxellois pour l'intelligence artificielle, mis en place l'an passé dans le cadre du plan de relance, a pour objectif de relier les...

L’IA axe majeur du nouveau plan de travail INPI-IPOS

Début janvier 2022, Pascal Faure, directeur général de l’INPI et Madame Rena Lee, son homologue de l’office de propriété intellectuelle à Singapour (IPOS) ont...

Robots tueurs : les Nations Unies peinent à poser un cadre juridique à l’emploi des armes létales autonomes

Dès 2013, les Systèmes d'Armes Létales Autonomes (SALA) ont fait l'objet de discussions lors de la Convention des Nations Unies portant sur les Armes...

XXII lance une charte éthique pour l’édition de logiciels d’IA

L'Intelligence Artificielle est en plein essor et les technologies qu'elle a permis de développer, en évolution constante. Les problèmes éthiques que peuvent poser leur...
Recevoir une notification en cas d'actualité importante    OK Non merci