Elon Musk, Yoshua Bengio et des centaines d’experts appellent à suspendre temporairement la formation de systèmes d’IA plus puissants que GPT-4

C’est sur le site de l’Institut Future of Life que la lettre ouverte « Pause Giant AI Experiments », appelant tous les laboratoires d’IA à suspendre immédiatement et pendant au moins 6 mois la formation de systèmes d’IA plus puissants que GPT-4, a été publiée ce mercredi 29 mars.

En fin d’après-midi, la pétition avait déjà recueilli 1279 signatures et le site annonçait :

« En raison de la forte demande, nous recueillons toujours des signatures, mais suspendons leur apparition sur la lettre afin que nos processus de vérification puissent rattraper leur retard. Notez également que les signatures en haut de la liste sont toutes vérifiées indépendamment et directement ».

Parmi les signataires des personnalités qui ont déjà publiquement exprimé leurs craintes envers des IA incontrôlables qui surpasseraient l’être humain, notamment Elon Musk et Yuval Noah Harari, l’auteur de « Sapiens », mais également le cofondateur d’Apple, Steve Wozniak, le cofondateur de Skype Jaan Tallinn, des chercheurs et des experts en IA  comme Yoshua Bengio, pionnier du deep learning, Directeur scientifique du Mila, l’informaticien Stuart Russell, Régis Sabbadin, chercheur en IA à l’Inrae, ou Malik Ghallab, Directeur de recherche émérite au CNRS qui avait signé en 2018 une lettre ouverte demandant à l’UE de fixer un cadre juridique sur le développement de l’intelligence artificielle et de la robotique.

Pause Giant AI Experiments

Selon cette lettre ouverte réclamant une pause non pas dans le développement de l’IA en général, mais simplement un recul de la course dangereuse vers des modèles de boîtes noires imprévisibles, toujours plus grands :« les systèmes d’IA dotés d’une intelligence concurrentielle humaine peuvent présenter des risques profonds pour la société et l’humanité ».

Elle fait référence à la déclaration du mois dernier de Sam Altman, le PDG d’OpenAI, concernant l’intelligence artificielle générale qui reconnaît que « à un moment donné, il peut être important d’obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d’accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles ».

Selon les signataires, « Ces derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des cerveaux numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable ».

Pour eux, « les systèmes d’IA puissants ne devraient être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables”.

Ils questionnent: « devrions-nous laisser les machines inonder nos canaux d’information de propagande et de mensonge ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont épanouissants ? Devrions-nous développer des esprits non-humains qui pourraient éventuellement nous surpasser en nombre, nous déjouer, nous rendre obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ? ». 

Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus, selon les signataires.

Ils ajoutent que « les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés de l’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants ».

« La recherche et le développement en IA devraient être recentrés sur la création de systèmes puissants et à la pointe de la technologie d’aujourd’hui plus précis, sûrs, interprétables, transparents, robustes, alignés, dignes de confiance et loyaux ».

La pause qu’ils réclament « devrait être publique et vérifiable, et inclure tous les acteurs clé. Si une telle pause ne peut être adoptée rapidement, les gouvernements devraient intervenir et instituer un moratoire ».

Il est fortement improbable qu’une telle pause soit respectée par l’ensemble des acteurs, mais cet appel a pour mérite d’alerter le public sur l’importance des enjeux liés à l’IA pour nos sociétés.

Cette alerte est loin d’être la première du genre, mais les dernières avancées laissent penser que nous sommes à l’aube d’importants bouleversements du marché du travail. Les mutations en cours doivent être anticipées, mais peut-on réellement arrêter l’innovation en marche ? 

 

 

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.

1ère Marketplace de l'IA et de la transformation numérique vous recommande :
Plateforme d'évaluation éthique ADEL par GOODALGO

Goodalgo met à votre disposition sa solution d’audit éthique adel, pour évaluer vos projets numériques & d’ia. la plateforme adel est une solution hé...

 
Partager l'article
Offre exclusive : 1 an d'abonnement au magazine ActuIA + Le guide pratique d'adoption de l'IA en entreprise pour seulement 27,60€ Boutique ActuIA Pour tout abonnement à ActuIA, recevez en cadeau le Guide Pratique d'Adoption de l'IA en Entreprise, d'une valeur de 23€ !
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.