Sam Altman plaide pour une réglementation de l’IA devant le Congrès américain

Après avoir été reçu à la Maison-Blanche, en compagnie de Sundar Pichai, PDG d’Alphabet, Satya Nadella, PDG de Microsoft et de Dario Amodei, PDG de la start-up Anthropic, qui leur demandait « d’atténuer les risques actuels et potentiels que l’IA pose aux individus, à la société et à la sécurité nationale », Sam Altman, le PDG d’Open AI, la start-up à l’origine de ChatGPT, a été auditionné par le Congrès américain ce 16 mai : pour lui, la régulation de l’IA est vitale.

Sam Altman a cofondé Open AI en 2015 avec Elon Musk en tant qu’association s’affranchissant des paramètres économiques pour se focaliser sur une IA bénéfique à l’humanité. Cependant, en mars 2019, elle annonçait la création d’une société privée à bénéfices plafonnés : OpenAI LP.

La société a fait la une des actualités avec ses outils d’IA que ce soit Copilot, Codex, DALL-E 2GPT-3 et plus récemment ChatGPT. Le succès de ce dernier a d’ailleurs amené Microsoft à investir 10 milliards de dollars dans la start-up.

Après avoir dévoilé GPT-4 en mars dernier, dont on ne connait d’ailleurs pas précisemment le nombre de paramètres et qui aurait coûté selon lui plus de 100 millions de dollars, Sam Altman  déclarait lors d’une intervention au MIT, le mois dernier :

« Je pense que nous sommes à la fin de l’ère où il y aura ces modèles géants », ajoutant : « Nous les améliorerons par d’autres moyens ». 

S’il n’a pas désiré signer la lettre ouverte ‘Pause Giant AI Experiments”, il partage avec Elon Musk, Yoshua Bengio et d’autres signataires, la conviction que “les systèmes d’IA dotés d’une intelligence concurrentielle humaine peuvent présenter des risques profonds pour la société et l’humanité”. 

En mars, il déclarait à Insider : :

« Ce serait fou de ne pas avoir un peu peur, et je sympathise avec les gens qui ont très peur. Les inquiétudes actuelles que j’ai sont qu’il va y avoir des problèmes de désinformation ou des chocs économiques, ou quelque chose d’autre à un niveau bien au-delà de tout ce à quoi nous sommes préparés. »

La règlementation lui apparaît nécessaire pour assurer la sécurité des modèles d’IA, il souhaite également que des systèmes comme ChatGPT soient audités de manière indépendante avant d’être publiés.

L’intervention de Salt Altman devant la sous-commission du Sénat sur la protection de la vie privée, la technologie et le droit

Sam Altman, Christina Montgomery, Vice-Présidente de la confiance et Cheffe de la confidentialité d’IBM ainsi que Gary Marcus, professeur émérite de l’Université de New York, sont venus témoigner sur la réglementation et la sécurité de l’IA.

Le PDG d’OpenAI, a rappelé que si OpenAI LP, qui a développé ChatGPT, est une société privée, elle est contrôlée par OpenAI, une organisation à but non lucratif, “qui impose d’œuvrer à la large distribution des bénéfices de l’IA et à maximiser la sécurité des systèmes basés sur l’IA”.

Pour lui, l’intervention des gouvernements pour réguler le développement et l’utilisation de l’intelligence artificielle (IA) va être cruciale pour limiter les risques. Il pense qu’« Il est essentiel que l’IA la plus puissante soit développée avec des valeurs démocratiques, ce qui signifie que le leadership des États-Unis est déterminant ».

Il a affirmé ses craintes :

« L’intelligence artificielle a le potentiel d’améliorer à peu près tous les aspects de nos vies, mais elle crée aussi des risques sérieux ».

« L’une de mes plus grandes peurs, c’est que nous, cette industrie, cette technologie, causions des dommages significatifs à la société ».

Poursuivant :

« Si cette technologie va dans le mauvais sens, elle peut aller assez loin. Et nous voulons travailler avec le gouvernement pour empêcher que cela ne se produise”.

Tout comme certains entrepreneurs européens craignant que l’AI ACT ne soit un handicap à leur compétitivité, Sam Altman a toutefois souligné que la régulation n’était elle-même pas sans risques, assurant :

« Si l’industrie américaine ralentit, la Chine ou quelqu’un d’autre peut progresser plus vite ».

Pour lui, les mesures qui seront prises ne doivent cependant pas étouffer la recherche indépendante mais plutôt se concentrer sur les entreprises dominantes comme la sienne.

Si « mettre en place des régulations serait plutôt sage. Il faudrait aussi des règles, des lignes de conduite à propos de ce qui est attendu en termes de confidentialité ».

A défaut d’un cadre de réglementation international, un idéal qu’il reconnait utopique, il pense que la solution pourrait être la création d’une agence fédérale, qui attribuerait des autorisations aux entreprises qui développent des systèmes d’IA d’un certain niveau, et les retirerait en cas de non-conformité aux standards de sécurité.

« Le gouvernement américain devrait envisager une combinaison d’exigences de licence ou d’enregistrement pour le développement et la publication de modèles d’IA au-dessus d’un seuil crucial de capacités, ainsi que des incitations pour une conformité totale à ces exigences »

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.