Actualité Comment Facebook compte lutter contre les deepfakes

Pour approfondir le sujet

La France et l’intelligence artificielle, une stratégie à définir selon le Premier Ministre

Au cours de son discours de politique générale, Édouard Philippe a évoqué un « grand plan d’investissement de 50 milliards d’euros dans les domaines...

Connexions, la première exposition interactive proposée par Facebook : IA, réalité virtuelle…

Facebook donne rendez-vous au grand public les 23 et 24 janvier à Station F pour un voyage ludique et interactif à travers les technologies...

L’Institute for ethics in artificial intelligence, le nouveau centre de recherche de Facebook et de l’Université technique de Munich

L'éthique est une problématique plus que jamais au centre des préoccupations liées au développement considérable de la recherche et des applications basées sur l'intelligence...

Facebook acquiert Scape Technologies et son système de géolocalisation via la vision par ordinateur

Scape Technologies, start-up britannique spécialisée en intelligence artificielle, aurait été rachetée par Facebook. La jeune pousse basée à Londres s'était fait connaître notamment grâce...

Comment Facebook compte lutter contre les deepfakes

Face aux nombreuses polémiques concernant les “vidéos altérées par une intelligence artificielle d’une manière qui induirait probablement quelqu’un en erreur”, Facebook a annoncé que ces deepfakes allaient désormais être interdites sur la plateforme. À l’approche des élections américaines, les attentes sont grandes concernant l’action du géant des réseaux sociaux.

C’est dans un article de blog que Monika Bickert, Vice President, Global Policy Management, s’est exprimée sur le sujet pour présenter la stratégie de Facebook face à celles et ceux qui “se livrent à des manipulations médiatiques afin d’induire en erreur.

Les manipulations peuvent se faire par le biais de technologies simples comme Photoshop ou par des outils sophistiqués qui utilisent l’intelligence artificielle ou des techniques de deep learning pour créer des vidéos qui déforment la réalité – généralement appelées deepfakes”.

Facebook souhaite donc s’attaquer à ces “deepfakes et à tous les types de médias manipulés”. Le réseau social explique que leur “approche comporte plusieurs volets, allant de l’enquête sur le contenu généré par l’IA et les comportements trompeurs comme les faux comptes, au partenariat avec le milieu universitaire, gouvernemental et industriel pour exposer les personnes qui se cachent derrière ces efforts”.

Ces partenariats ont été réalisés en parallèle de discussions avec des experts internationaux dans les domaines techniques, politiques, médiatiques, juridiques, civiques et universitaires afin de faire évoluer les politiques d’utilisation et d’améliorer les capacités de détection des deepfakes.

Facebook entend réaliser de meilleures vérifications des contenus et pourrait y compris supprimer certaines vidéos ou images manipulées. Plusieurs critères sont mis en avant pour un retrait des contenus deepfakes :

  • Il a été édité ou synthétisé – au-delà des ajustements pour la clarté ou la qualité – d’une manière qui n’est pas apparente pour une personne moyenne et qui pourrait probablement induire en erreur en faisant croire qu’un sujet de la vidéo a dit des mots qu’il n’a pas vraiment prononcés.
  • C’est le produit de l’intelligence artificielle ou du machine learning qui fusionne, remplace ou superpose le contenu d’une vidéo, le faisant paraître authentique.

Cette politique ne s’applique pas au contenu de type parodie ou une satire, ni aux vidéos montées uniquement pour omettre ou modifier l’ordre des mots.

“Conformément à nos politiques existantes, les fichiers audio, les photos ou les vidéos, qu’ils soient truqués ou non, seront retirés de Facebook s’ils enfreignent l’une de nos autres normes communautaires, notamment celles qui régissent la nudité, la violence graphique, la suppression des électeurs et les discours haineux”.

Le contenu restera vérifié par des vérificateurs indépendants qui étudieront un contenu partagé et/ou dénoncé par des utilisateurs. En cas de confirmation que le contenu en question est faux ou partiellement faux, Facebook réduit la diffusion du fil d’actualité et l’apparition des publicités pour cette page. Des messages d’avertissement seront également adressés aux personnes voyant la page, souhaitant la partager ou l’ayant déjà fait.

“Cette approche est essentielle à notre stratégie et nous l’avons entendue lors de nos conversations avec des experts. Si nous supprimions simplement toutes les vidéos manipulées signalées comme fausses par les vérificateurs de faits, les vidéos seraient toujours disponibles ailleurs sur Internet ou dans l’écosystème des médias sociaux. En les laissant et en les étiquetant comme fausses, nous fournissons aux gens des renseignements importants et un contexte”.

Dans sa stratégie de lutte contre les deepfakes, Facebook annonce avoir identifié et supprimé en décembre 2019 un “un réseau utilisant des photos générées par l’IA pour dissimuler leurs faux comptes. Nos équipes continuent à rechercher de manière proactive les faux comptes et autres comportements inauthentiques coordonnés”.

Concernant l’identification des contenus manipulés, dont les deepfakes sont les plus difficiles à détecter, le géant des réseaux sociaux a mis de nouveau en avant son Deep Fake Detection Challenge, lancé en septembre dernier. Il a incité des personnes du monde entier à produire davantage d’outils de recherche et d’open source pour détecter les deepfakes. Ce projet, soutenu par des subventions de 10 millions de dollars, comprend une coalition intersectorielle d’organisations dont le Partnership on AI, Cornell Tech, l’Université de Californie Berkeley, le MIT, WITNESS, Microsoft, la BBC et AWS, parmi plusieurs autres de la société civile et des communautés technologiques, médiatiques et universitaires.

Parallèlement, Facebook a annoncé un partenariat avec Reuters, le plus grand fournisseur de nouvelles multimédia au monde. L’objectif est de pouvoir aider les salles de rédaction du monde entier à identifier les deepfakes et les manipulation grâce à un cours de formation en ligne gratuit. Les organismes de presse s’appuient de plus en plus sur des tiers pour les gros volumes d’images et de vidéos, et l’identification des visuels manipulés est un défi important. Ce programme vise à soutenir les salles de rédaction qui tentent de faire ce travail.

En novembre 2020 se tiendront les élections américaines et les actions de Facebook, déjà pointé du doigt, seront particulièrement scrutées. L’entreprise de Mark Zuckerberg indique que sa politique face aux manipulations est en constante évolution et qu’elle s’engage à investir pour trouver une solution.

Pierre-yves Gerlat

Partager l'article

Santé : Medtronic acquiert Medicrea, pionnier en chirurgie de la colonne vertébrale grâce à l’IA

Medtronic et Medicrea ont annoncé dans un communiqué être en train de finaliser l'acquisition par l'entreprise américaine de la PME lyonnaise. Cette dernière est...

Qualité du code : Ponicode lève trois millions d’euros pour pour poursuivre le développement de son IA

Ponicode, startup créée en Juin 2019, a annoncé une levée de fonds en seed de trois millions d'euros. Ce spécialiste de l’intelligence artificielle et...

Atos IT Challenge 2020 sur l’Intelligence Artificielle Coopérative – découvrez les équipes gagnantes

L'Atos IT Challenge 2020 s'est tenu cette année sur la thématique ''Intelligence Artificielle Coopérative'. Des équipes de 27 pays se sont affrontés au cours...

Marchés et des usages du numérique : Cap Digital présente sa nouvelle cartographie des tendances

Cap Digital a publié sa cartographie des tendances 2020/2021. Un dossier de 72 pages réalisé grâce à l'expertise des 1 000 membres du collectif...