Des experts nous alertent : l’intelligence artificielle pourrait tomber entre de mauvaises mains : vraiment ? (Éditorial)

Des experts nous alertent : l’intelligence artificielle pourrait tomber entre de mauvaises mains : vraim
Actu IA
malicious use of AI

Si Actu IA est avant tout un site d’information qui se veut le plus objectif possible, l’actualité du jour nous pousse exceptionnellement à sortir de notre réserve le temps d’un petit éditorial.

Une revue de presse matinale du mardi 21/02 nous apprend qu’un rapport publié par de prestigieux experts révèle que l’intelligence artificielle pourrait être utilisée à des fins malicieuses et même éventuellement terroristes. Ces articles rédigés par des journaux tels que Le Monde ou 20 Minutes ont deux avantages.

Le premier est qu’ils permettent à ces journaux de faire du chiffre, le deuxième est qu’ils nous rappellent la raison pour laquelle nous avons décidé de lancer Actu IA.

Contrairement à ce qu’annoncent ces journaux, ce rapport, intitulé “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation” et consultable en version originale ici, ne nous annonce pas qu’une intelligence artificielle pourrait tomber entre de mauvaises mains. Il propose une piste de réflexion sur la prévision, la prévention et la réponse à apporter face à de tels risques.

La nuance vous semble subtile ? Et pourtant, lorsque ce rapport est présenté comme le font ces journaux, nous pourrions être amenés à penser que des experts se sont levés ce matin, en apprenant avec stupeur qu’un tel risque existe et que cette annonce reflète un risque imminent. Qui ne serait pas paniqué face à une telle révélation ?

Le risque existe-t-il ?

Oui, il s’agit même plus que d’un risque. C’est une quasi certitude, l’intelligence artificielle est et sera utilisée à des fins crapuleuses, illégales et même terroristes. Des affaires anecdotiques telles que celle des DeepFakes, nom donné à une technique permettant de permuter le visage de deux personnes nous montrent que le risque est omniprésent. Il est également très facile de générer automatiquement une vidéo d’une personne dont le mouvement des lèvres se synchronise automatiquement avec la bande son, tel que le montre cet exemple.

Cette technique permet, combinée avec un montage malicieux des propos précédents de la personne, ou même grâce à la génération de la parole reposant sur une technologie analogue à celle d’Adobe Voco, de créer de fausses vidéos ultra-réalistes pouvant mener à toutes les dérives.

Voici un autre exemple de la technologie Face2Face permettant de générer en temps réel une vidéo dont le personnage reproduit les expressions faciales d’un acteur :

L’un des plus grands défis qui s’annonce au grand public dans la vie de tous les jours risque d’être de réussir à distinguer le vrai du faux dans une jungle de fausses informations allant bien plus loin que ce à quoi nous sommes habitués. Les vidéos sont souvent considérées comme des preuves, mais il va être grand temps de revoir nos modes de raisonnement.

Bien sûr, des risques plus rares mais de gravité beaucoup plus sévère existent. L’utilisation d’une intelligence artificielle dans le cadre d’assassinats ou d’attentats est tout à fait plausible. Nous pouvons tout à fait imaginer que d’ici quelques années les pirates ne se content plus de pirater des sites mais se mettent à altérer le mode de fonctionnement de véhicules autonomes afin de fabriquer des “voitures folles” par exemple.

La presse tentant de faire dans le sensationnalisme a une terrible propension à relayer une peur des drones et armes de destruction massive. Mais ne l’oublions pas, les terroristes sont souvent beaucoup plus lucides et terre à terre que ne le sont nos projections.  Dans quelques années, quand la majorité des véhicules seront autonomes, sera-t-il plus facile, efficace et effrayant de s’emparer d’une arme puissante ultra-protégée ou bien de déclencher de façon aléatoire un comportement fou de nos véhicules ?

Depuis quand sait-on qu’un risque existe ?

Toute personne qui s’intéresse un tant soit peu à la philosophie le sait. Rabelais, qui a vécu au XVème et au XVIème siècle nous prévenait déjà : “Science sans conscience n’est que ruine de l’âme”. Pour les autres, pas d’excuse, il est difficile d’être passé à côté du film Terminator qui a été un réel succès populaire à la fin des années 1980 et dans lequel deux robots humanoïdes s’affrontent.

Avons-nous une solution ?

Non. Du moins pas de solution unique. Il convient tout d’abord de rappeler que l’intelligence artificielle n’est pas dangereuse en tant que telle. C’est l’utilisation qui en est faite qui peut, conjuguée à une arme existante (qu’il s’agisse d’une arme conventionnelle, d’une arme par destination telle qu’un véhicule ou d’une arme au sens figuré, telle que la propagande), présenter un danger. L’intelligence artificielle est plus qu’un outil. Elle va totalement chambouler nos sociétés. C’est un domaine qu’il va falloir sans conteste réguler. Au même titre que nos véhicules doivent passer des contrôles techniques, il sera très probablement obligatoire de passer une batterie de tests et bien plus. En ce qui concerne les fausses vidéos, et dans bien d’autres domaines l’intelligence artificielle, sera très probablement elle-même notre meilleur allié pour distinguer le vrai du faux. De nombreuses pistes sont à étudier. C’est justement ce que tente de proposer ce rapport de 100 pages. De nouveaux pans entiers de la société vont devoir s’impliquer. Cela nécessite un réel travail de réflexion.

Conclusion ?

Ce rapport n’est absolument pas le produit de quelques savants fous qui se rendent compte avec surprise que leur création risque de leur sauter à la figure comme pourraient le laisser croire d’autres articles publiés sur Internet. Il démontre au contraire qu’une réelle réflexion est engagée et que les risques sont pris au sérieux. En avançant dans l’intelligence artificielle, l’homme s’engage dans une évolution majeure de la société. Évolution face à laquelle il est aussi inutile qu’inefficace de s’opposer. Il est aussi sain que primordial de s’y préparer. Ce rapport ne devrait donc pas être présenté comme une source de crainte mais au contraire, un élément rassurant.