Le 10 janvier dernier, OpenAI annonçait sur son site avoir “mis à jour ses politiques d’utilisation pour qu’elles soient plus lisibles et avoir ajouté des conseils spécifiques au service“. Un article de Sam Biddle dans le média en ligne indépendant The Intercept, a mis en lumière que la société avait supprimé l’interdiction des termes “armée” et “guerre” lors de cette dernière mise à jour.
Jusqu’au 9 janvier dernier, la page d’autorisation d’utilisation d’OpenAI interdisait les “activités présentant un risque élevé de dommages physiques“, “l’armée et la guerre” faisaient partie de la liste des activités mentionnées.
Aujourd’hui, on peut lire :
“N’utilisez pas notre service pour vous blesser ou blesser d’autres personnes – par exemple, n’utilisez pas nos services pour promouvoir le suicide ou l’automutilation, développer ou utiliser des armes, blesser d’autres personnes ou détruire des biens, ou vous engager dans des activités non autorisées qui violent la sécurité d’un service ou d’un système”.
Niko Felix, porte-parole d’OpenAI, a déclaré au média dans un mail qu’OpenAI avait “ cherché à créer un ensemble de principes universels qui soient à la fois faciles à retenir et à appliquer (…). Un principe comme « Ne faites pas de mal aux autres » est large mais facile à comprendre et pertinent dans de nombreux contextes. De plus, nous avons spécifiquement cité les armes et les blessures infligées à d’autres personnes comme exemples clairs”.
Cependant, le fait qu’OpenAI retire une interdiction explicite de l’utilisation de sa technologie à des fins militaires a fait réagir différents experts. Parmi eux, Heidy Khlaaf, directrice de l’ingénierie de la société de cybersécurité Trail of Bits et experte en ML et en sécurité des systèmes autonomes, qui a co-écrit en 2022 un article alertant sur le risque d’utilisation de l’IA à des fins militaires… avec des chercheurs d’OpenAI.
Elle a déclaré à The Intercept :
“OpenAI est bien conscient des risques et des préjudices qui peuvent survenir en raison de l’utilisation de sa technologie et de ses services dans des applications militaires. Il y a une nette différence entre les deux politiques, car la première indique clairement que le développement d’armes, l’armée et la guerre sont interdits, tandis que la seconde met l’accent sur la flexibilité et le respect de la loi.”
Précisant :
“Le développement d’armes et la réalisation d’activités liées à l’armée et à la guerre sont légaux à des degrés divers. Les implications potentielles pour la sécurité de l’IA sont importantes. Compte tenu des cas bien connus de biais et d’hallucination présents dans les grands modèles de langage (LLM), et de leur manque général de précision, leur utilisation dans la guerre militaire ne peut que conduire à des opérations imprécises et biaisées qui sont susceptibles d’exacerber les dommages et les pertes civiles”.
Certains experts ont souligné le partenariat qui lie OpenAI à son principal investisseur Microsoft, un important sous-traitant de la défense, partenaire de plusieurs programmes de la DARPA (Defense Advanced Research Projects Agency), une agence du département de la Défense des États-Unis chargée de la recherche et développement des nouvelles technologies destinées à un usage militaire. Un partenariat qui pourrait influencer la manière dont les technologies d’OpenAI sont utilisées dans le domaine militaire.
OpenAI, à la suite de l’article de Sam Biddle repris dans un premier temps par des médias comme TechCrunch, a tenu à tirer les choses au clair : si elle a retiré les mots “armée” et “guerre”, c’est bien pour s’adapter au marché militaire mais dans le cadre de projets que sa politique approuve.
Elle déclare ainsi :
“Notre politique ne permet pas que nos outils soient utilisés pour nuire à des personnes, développer des armes, pour surveiller les communications, ou pour blesser d’autres personnes ou détruire des biens. Il existe cependant des cas d’utilisation en matière de sécurité nationale qui correspondent à notre mission. Par exemple, nous travaillons déjà avec la DARPA pour stimuler la création de nouveaux outils de cybersécurité afin de sécuriser les logiciels open source dont dépendent les infrastructures critiques et l’industrie. Il n’était pas clair si ces cas d’utilisation bénéfique auraient été autorisés dans le cadre du terme « militaire » dans nos politiques précédentes. L’objectif de la mise à jour de notre politique est donc d’apporter de la clarté et de permettre d’avoir ces discussions”.