Des centaines d’experts invitent à considérer l’intelligence artificielle comme un risque d’extinction de l’humanité

En co-signant une déclaration lancée sur le Center fo AI Safety, plus de 350 experts signataires invitent à considérer la prévention du risque d’extinction de l’humanité par l’intelligence artificielle comme une priorité.

L’intelligence artificielle (IA) représente un “risque d’extinction” pour l’humanité, au même titre que le changement climatique et la guerre nucléaire, ont averti certains des principaux experts mondiaux en IA. Sam Altman, d’OpenAI, fait partie des signataires de cette lettre ouverte publiée par le Centre for AI Safety (CAIS), une organisation à but non lucratif. Les experts exhortent les législateurs à faire de la réduction des risques liés à l’IA une priorité mondiale.

Plus de 350 experts et initiés de premier plan, dont deux des “pères fondateurs de l’IA” – Geoffrey Hinton et Yoshua Bengio – ont signé cette lettre. Les signataires incluent également des dirigeants de Microsoft, Google et Anthropic, ainsi que des universitaires du monde entier. Le texte déclare :

“Atténuer le risque d’extinction lié à l’IA doit être une priorité mondiale, aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire”.

Les risques futurs de l’IA avancée ne sont pas encore clairs, mais une étude récente de Google DeepMind suggère qu’ils pourraient inclure des IA prenant le contrôle d’armes nucléaires, menant des cyberattaques ou aidant des personnes malveillantes à exécuter des attaques. En collaboration avec OpenAI et Anthropic, l’entreprise a créé un système d’alerte précoce permettant de déterminer si un nouvel outil d’IA présente un risque d’utilisation malveillante.

Selon les chercheurs de DeepMind, les développeurs d’IA responsables doivent non seulement s’attaquer aux risques actuels, mais également anticiper les risques futurs qui pourraient apparaître à mesure que les modèles deviennent plus autonomes. Une IA future qui ne serait pas correctement alignée sur les intérêts humains pourrait, par exemple, mener des opérations cybernétiques offensives, tromper habilement les humains lors de dialogues, manipuler les humains pour les inciter à commettre des actions néfastes, concevoir ou acquérir des armes, ou encore affiner et exploiter d’autres systèmes d’IA à haut risque sur des plates-formes informatiques en nuage.

Le point sur la situation

Les alertes se multiplient sur le sujet et le phénomène s’intensifie depuis la médiatisation de ChatGPT. L’intelligence artificielle est un champ technologique extrêmement puissant, qualifié en 2018 par Sundar Pichai de plus important que le feu ou l’électricité.

Les experts sont convaincus du potentiel de l’intelligence artificielle depuis des années, mais les récentes avancées inquiètent nombre d’entre eux. Ce ne sont pas tant les capacités de l’intelligence artificielle qui étonnent – nous sommes encore loins de l’intelligence artificielle dite générale, anticipée par tous – que l’accélération constatée, et semblant inarrêtable jusqu’au prochain point de friction. Une accélération qui défie toutes les projections à court terme et remettent en question les repères de ceux pour qui tout semblait sous contrôle.

Toutefois, des observateurs avisés dénoncent pour part un jeu de pompiers pyromanes : il est intéressant de constater qu’Elon Musk, dont la voix est l’une des plus retentissante en ce qui concerne les risques de l’IA, vient d’obtenir avec son entreprise Neuralink l’autorisation de la FDA de lancer des essais cliniques d’implantation de puce sur des humains, et d’autre part, un fin calcul stratégique : il n’est pas anodin qu’OpenAI, l’entreprise la plus en pointe en matière d’intelligence conversationnelle, appelle de manière frénétique à une pause dans les recherches.

Reste que Geoffrey Hinton, l’un des pères fondateurs de l’IA moderne, co-récipiendaire du prix Turing et figure respectée de l’intelligence artificielle dit regretter les travaux qu’il a réalisé, face à la menace actuelle.

Force est de constater que malgré les stratégies gouvernementales lancées ces dernières années, les enjeux que représentent l’intelligence artificielle sont encore assez sous-évalués, tant par les populations que par les gouvernements, y compris le gouvernement français.

Que faut-il en penser ?

En somme, l’intelligence artificielle est une discipline fondatrice, transversale et versatile débouchant sur des technologies et applications à fort impact. Impact qui ne cessera de croître au cours des années à venir.

Tout comme le feu, l’intelligence artificielle peut constituer une menace, mais est également une opportunité qui doit être saisie. C’est là tout le problème : ralentir la recherche en intelligence artificielle revient à laisser à d’autres personnes le loisir de prendre de l’avance.

Un problème épineux pour toute entreprise, mais encore plus pour la souveraineté d’un état. C’est en ce sens que l’intelligence artificielle doit être abordée comme l’énergie. Du panneau photovoltaïque inoffensif, au nucléaire, outil de production puissant, capable d’assurer la protection d’un état, mais devant être strictement encadré.

Cet appel ne doit pas être considéré comme une invitation à écarter l’intelligence artificielle mais à prendre conscience de ses enjeux.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.