Intelligence artificielle Projet Maven de Google avec l'armée américaine : plus de 3100 employés...

Pour approfondir le sujet

Sur le même thème :

Etats-Unis : les dernières nouvelles autour de l’IA du Pentagone et du Joint Artificial Intelligence Center

L'intelligence artificielle dans le secteur de la défense est un sujet qui fait son arrivée progressive en France : fin avril dernier, le comité...

Intégration de l’autonomie des systèmes d’armes létaux : Le Comité d’éthique de la défense remet son avis

Après la publication de ses travaux sur le soldat augmenté, le Comité d'éthique de la défense a remis à Florence Parly et au ministère...

Amazon continue de refuser que les forces de l’ordre utilisent ses outils de reconnaissance faciale

Dans une déclaration réalisée le 18 mai 2021, Amazon a annoncé prolonger son interdiction pour la police américaine d'exploiter son logiciel de reconnaissance faciale...

Chine : Une IA serait utilisée pour juger les émotions des ouïghours sous contrainte

Selon une information de la BBC, relayée par Le Point, un ingénieur logiciel a affirmé avoir installé des caméras dotées d'un système de détection...

Projet Maven de Google avec l’armée américaine : plus de 3100 employés protestent

Plus de 3100 employés de Google ont envoyé une lettre à Sundar Pichai, dévoilée par le New York Times, pour protester contre la participation du groupe américain à un programme du Pentagone. Des critiques contre “le business de la guerre” qui mettent de nouveau en avant les problèmes éthiques que pose le développement de l’intelligence artificielle mais aussi “le conflit culturel opposant Silicon Valley au gouvernement fédéral”.

Google avait reconnu en mars dans le magazine Gizmodo la mise à disposition d’un programme d’intelligence artificielle à l’armée américaine dans le cadre du projet Maven, lancé en avril 2017. Ces technologies étaient destinées selon le Pentagone à “rendre rapidement intelligible l’énorme volume de données accessibles au ministère de la défense”.

Ce projet découle de l’investissement de 7,4 milliards de dollars réalisé par  le Pentagone pour l’intelligence artificielle et le traitement des données. C’est à ce titre que le Ministère de la Défense a contacté des entreprises, experts, chercheurs et universitaires pour développer l’application de ces nouvelles technologies. Google avait indiqué dans son communiqué aider à analyser des images de drones en fournissant des accès à TensorFlow. Utilisé à des fins de renseignement sur des photos ou des vidéos, le logiciel permet de mieux identifier des individus, des véhicules ou des bâtiments et donc d’améliorer tant la surveillance que la reconnaissance de cibles potentielles.

Si Google avait indiqué que ces technologies mises à disposition dans le cadre du projet Maven avaient “un usage non-offensif” et que des précautions avaient été prises, notamment des “règles et garde-fous autour du développement et de l’usage de ses technologies de machine learning”, cela n’a pas suffi à rassurer de nombreux employés de la firme américaine.

“Nous estimons que Google ne devrait pas être impliqué dans le business de la guerre. Par conséquent, nous demandons que le projet Maven soit annulé et que Google rédige, publie et applique une politique claire stipulant que ni Google ni ses sous-traitants ne construiront de technologie de guerre”.

Les employés ayant rédigé et signé la lettre sont en désaccord avec la participation à ce projet. Pour eux :

“Construire cette technologie pour aider le gouvernement américain dans la surveillance militaire, avec donc des conséquences potentiellement mortelles, n’est pas acceptable”.

Une telle participation pourrait en effet avoir des répercutions pour la firme et les employés évoquaient notamment que cela :

“endommagera irrémédiablement la marque de Google et sa capacité à rivaliser pour attirer les talents dans l’entreprise (…)

L’argument selon lequel d’autres entreprises comme Microsoft et Amazon participent également ne rendent pas l’opération moins risquée pour Google
(…) Nous ne pouvons pas nous dédouaner de la responsabilité de nos technologies et la laisser peser sur les tiers.

Le lettre reprend également le slogan informel de Google “Do not Be Evil” (Ne soyez pas malveillants).

Ce n’est pas la première fois que des craintes et des protestations se font entendre quant à l’utilisation de l’intelligence artificielle à des fins militaires. Et, comme l’indique le New York Times, cela risque de “s’intensifier avec l’utilisation de plus en plus fréquente de l’intelligence artificielle à des fins militaires”. Il n’existe actuellement aucune loi internationale contraignante et on ne sait pas à quel degré les systèmes IA seront utilisés en cas de guerre. La course à l’armement a déjà bien commencé dans ce domaine. En France, la défense fait partie des quatre secteurs prioritaires en matière d’IA identifiés par le rapport de la mission Villani, avec la santé, l’environnement et les transport.

 
Thomas Calvi

Partager l'article

Enquête Premier emploi 2022 de Telecom Paris : des ingénieurs recherchés et bien rémunérés

Télécom Paris, école de l'Institut Mines-Télécom et membre fondateur de l'Institut Polytechnique de Paris, forme des ingénieurs généralistes du numérique. Elle a récemment publié...

Canada : l’utilisation de l’intelligence artificielle reste faible au sein des entreprises selon les RH

Les ressources humaines (RH) ont un rôle important au sein des entreprises. Au Canada, l’Ordre des conseillers en ressources humaines agréés (CHRA) a mené...

Focus sur le projet de recherche européen HosmartAI « Hospital Smart development based on AI »

Le projet de recherche européen HosmartAI a pour objectif de doter l'Europe d'un système de santé fort, efficient, durable et résilient, bénéficiant des capacités...

Prédire la mortalité et la durée du séjour en unité de soins intensifs grâce au machine learning

Les unités de soins intensifs (USI) assurent une continuité des soins et une surveillance continue aux patients atteints de maladies graves. Une équipe de...
Recevoir une notification en cas d'actualité importante    OK Non merci