Le Frontier Model Forum se dote d’un directeur exécutif et d’un fonds de plus de 10 millions de dollars

En juillet dernier, quatre des principaux acteurs de l’IA générative, Microsoft, Anthropic, Google et OpenAI, lançaient le Frontier Model Forum, un organisme industriel dédié au développement sûr et responsable des modèles d’IA de pointe. Ils ont récemment annoncé la nomination de Chris Meserole qui en devient le directeur exécutif ainsi que le lancement d’un Fonds de sécurité de l’IA doté de plus de 10 millions de dollars.

Anthropic, Google, Microsoft et OpenAI font partie des sept grandes entreprises qui se sont officiellement engagées devant le gouvernement Biden à mettre en place de nouvelles normes de sûreté, de sécurité et de confiance lors d’une réunion à la Maison Blanche quelques jours avant le lancement du Frontier Model Forum.

Chris Meserole : un expert en politique technologique à la barre

Chris Meserole, le tout premier Directeur exécutif du Frontier Model Forum, apporte une solide expérience en gouvernance et sécurité des technologies émergentes, renforçant ainsi la crédibilité de cette nouvelle initiative. Avant de prendre ses nouvelles fonctions, il a occupé le poste de Directeur de l’Initiative sur l’intelligence artificielle et les technologies émergentes à la Brookings Institution. Il a notamment publié des rapports sur les implications géopolitiques, éthiques et sociétales de l’IA. Son rôle consistera à aider le Forum à accomplir sa mission, à savoir :

  • Faire avancer la recherche sur la sécurité de l’IA pour favoriser un développement responsable des modèles de pointe et minimiser les risques potentiels ;
  • Identifier les meilleures pratiques de sécurité pour les modèles de pointe ;
  • Partager les connaissances avec des décideurs, des universitaires, la société civile et d’autres acteurs pour promouvoir le développement responsable de l’IA ;
  • Soutenir les efforts visant à exploiter l’IA pour relever les plus grands défis de la société.

Il déclare :

“Les modèles d’IA les plus puissants sont extrêmement prometteurs pour la société, mais pour réaliser leur potentiel, nous devons mieux comprendre comment les développer et les évaluer en toute sécurité. Je suis ravi de relever ce défi avec le Frontier Model Forum”.

Le Fonds de sécurité de l’IA

Pour accompagner ces actions, le Frontier Model Forum a lancé un Fonds de sécurité de l’IA, doté de plus de 10 millions de dollars. Ce fonds provient des contributions initiales d’Anthropic, Google, Microsoft et OpenAI, ainsi que de partenaires philanthropiques tels que la Fondation Patrick J. McGovern, la Fondation David et Lucile Packard, Eric Schmidt et Jaan Tallinn. Il financera des projets de recherche indépendants sur la sécurité de l’IA, menés par des chercheurs affiliés à des institutions universitaires, des institutions de recherche ou des startups du monde entier.

L’un des objectifs majeurs du Fonds consiste à encourager la création de nouvelles méthodes d’évaluation pour les modèles d’IA et les systèmes de type “équipe rouge”. Ces derniers sont dédiés à la mise en évidence des vulnérabilités des modèles d’IA par le biais de simulations d’attaques malveillantes ou de scénarios inattendus. Il vise en outre à faciliter la détection et la notification par des tiers des éventuelles failles des systèmes d’IA.

Avancées techniques et engagement envers la transparence

Le Frontier Model Forum s’est également engagé à promouvoir la transparence dans le domaine de l’IA. Au cours des derniers mois, il a élaboré un ensemble commun de définitions, de termes, de concepts et de processus pour faciliter les discussions sur la sécurité et la gouvernance de l’IA. Il a aussi partagé les meilleures pratiques en matière de red teaming, ainsi que les résultats des évaluations effectuées sur les modèles d’IA existants.
Il développe actuellement un processus de divulgation responsable permettant aux laboratoires d’IA de pointe de partager des informations liées à la découverte de vulnérabilités ou de capacités potentiellement dangereuses. Cette transparence accrue permettra de garantir la sécurité des systèmes d’IA de pointe.

Quelles sont les prochaines étapes ?

Le Frontier Model Forum a prévu de mettre en place un conseil consultatif représentatif de divers points de vue pour orienter sa stratégie et ses priorités. Le Fonds pour la sécurité de l’IA, quant à lui, lancera son premier appel de propositions dans les mois à venir.

Le Frontier Model Forum se dit enthousiaste à l’idée de collaborer avec Chris Meserole et de renforcer ses engagements auprès de la communauté de la recherche, des ONG et des organisations gouvernementales pour favoriser un développement et une utilisation responsables de l’IA, tout en maximisant ses avantages pour la société.

Il espère ainsi contribuer à créer un environnement favorable à l’innovation et à la confiance dans l’IA et invite tous les acteurs intéressés à rejoindre ses efforts pour faire avancer la sécurité et le bien-être collectif grâce à l’IA.

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.