Intelligence artificielle Défendre l'Acte IA : un impératif européen

Pour approfondir le sujet

Sur le même thème :

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...

Défendre l’Acte IA : un impératif européen

Nous sommes à quelques jours de la finalisation de l’EU AI Act. Au cœur de cette régulation, trois luttes cruciales sont en train de se jouer concernant la régulation des modèles d’intelligence artificielle (IA) de fondation comme ChatGPT :

  • Une lutte économique, entre l’industrie européenne qui utilise ces modèles et une poignée de titans de la Tech comme OpenAI, Microsoft et Mistral qui développent ces modèles et veulent éviter d’être régulés.
  • Une lutte sociétale, entre la protection des citoyens des dangers de l’IA et le développement effréné de technologies que même les développeurs ne comprennent pas.
  • Une lutte technologique, entre l’IA de confiance dont les risques sont gérés et régulés et une IA débridée laissant le champ libre aux entreprises.

Lutte économique : des intérêts divergents entre les utilisateurs et les développeurs de l’IA

La première de ces luttes, qui vient d’être secouée ce lundi 4 décembre, est la lutte économique. L’European Digital SME Alliance, le plus grand réseau de PME d’Europe comportant plus de 45 000 PMEs, vient d’apposer sa signature à une lettre ouverte portée par SaferAI défendant la régulation de ces modèles proposée par le Parlement européen et la Commission européenne. Cette signature s’ajoute aux prises de position publiques de startups d’IA françaises comme Linagora ou ReciTAL de réguler. Cela s’oppose à la position du gouvernement français en faveur d’une autorégulation des modèles de fondation, position difficilement distinguable de celles de OpenAI, Microsoft et Mistral. Raja Chatila, professeur émérite à l’Université de la Sorbonne et signataire de la lettre ouverte, résume l’enjeu de cette lutte : «si les modèles de fondation développés par les gros comme Microsoft ou Google ne sont pas réglementés, les industries qui les utilisent pour développer et fournir des applications spécifiques comme une petite PME déployant une IA pour sa comptabilité seront les seules responsables de toute fiabilité défaillante du modèle. Cette situation est injuste. Elle rend ces industries vulnérables et dépendantes des fournisseurs de modèles de fondation. »

Lutte sociétale : la fracture entre protection des citoyens et politique industrielle

Au-delà de qui porte le poids de la régulation sur l’IA, c’est dans la sphère sociétale que les impacts de l’IA se font le plus ressentir. Dans la lutte sociétale, la société civile est unanime et claire : que cela soit notre lettre européenne signée par des mastodontes comme la Fondation Avaaz et l’ONG Defend Democracy ou les nombreuses autres lettres qui ont été publiées dans les derniers mois et semaines comme une lettre signée par les poids lourds du monde de l’éthique de l’IA, deux tribunes publiées dans Le Monde ou encore une lettre publiée en Allemagne, la position est claire : il faut faire porter la régulation sur les développeurs des modèles de fondation. Piétiner cette voix à l’unisson en faveur des demandes de non-régulation par les développeurs de modèle de fondation qui argumentent qu’une telle régulation les défavoriserait irait contre tout principe démocratique sur lequel l’Union européenne est bâtie. La régulation aujourd’hui proposée est le résultat de plusieurs années de consultation de tous les acteurs et d’un consensus du Parlement européen, auprès de tous les partis, à plus de 85% sur une approche régulatrice ambitieuse. Ne la laissons pas être piétinée par quelques-uns.

Lutte technologique : inciter à l’IA responsable ou se jeter dans une course irresponsable

Au-delà d’un choix sociétal, enfin, l’Acte IA européen détermine aussi les futurs développements technologiques à venir. Alors que la France supportait le développement d’une IA de confiance jusqu’en juin 2023, la position du gouvernement s’est récemment radicalisée jusqu’à devenir la plus anti-régulation de toutes les parties en présence. Que cela soit lié aux conflits d’intérêts au plus haut niveau que révèle Mediapart ou à des choix jugés stratégiques pour le développement d’un “champion français”, le résultat est le même : la France s’apprête à sacrifier une régulation européenne protectrice des citoyens incitant au développement d’IAs responsables au profit d’un développement débridé de l’IA à l’américaine bénéficiant à quelques entreprises non représentatives de l’intérêt général comme le souligne le Commissaire européen Thierry Breton. Sans parler de l’hubris de détruire une régulation au nom d’une entreprise qui n’a pas 6 mois et prétend rivaliser avec les GAFAM, cette approche permettrait aux acteurs américains de continuer d’utiliser les citoyens européens comme cobayes pour déployer des IAs non régulées.

L’approche par tiers : une protection minimale face à la dérégulation

La France tient une position anti-régulatrice, alors même que les parties en présence ont fait de leur mieux pour accommoder les inquiétudes et limiter les dommages économiques en favorisant une approche régulatrice par tiers. Ancrée dans des principes de management du risque, l’approche par tiers consiste à faire porter le poids de la régulation uniquement sur les modèles qui sont les plus risqués et sur les acteurs qui sont en mesure de corriger ce risque. Pour minimiser l’impact économique, les modèles d’ampleur minimale ont peu ou pas de contraintes imposées par la régulation. En l’occurrence, les propositions de régulation n’affecteraient que deux douzaines d’acteurs industriels disposant tous de centaines de millions d’euros de capital au moins.

Sans cette régulation qui pose un cadre minimum, tous les risques, que ce soient de manipulation, de deep fake, de déstabilisation électorale ou catastrophique resteront non-régulés, car non-régulables sans ceux qui développent ces modèles. De manière inquiétante, le deuxième scientifique en IA le plus cité, à la tête du “GIEC de l’IA”, le signataire et professeur Yoshua Bengio prévient que « les prochaines générations de modèles d’IA de pointe apporteront leurs propres risques avant même d’être déployés sur des applications spécifiques ».

Sauver l’acte européen n’est que la première étape

En reconnaissant les dilemmes économiques, sociétaux et technologiques, l’approche par tiers se positionne comme un compromis nécessaire pour un futur équilibré de l’IA en Europe. Pour ces raisons, l’organisation française SaferAI est présente auprès de la société civile pour s’assurer que les modèles de fondation soient bien régulés selon ce modèle. Sauver l’acte européen est nécessaire, pour l’Europe et pour le monde. C’est la première marche vers un développement d’IA qui bénéficie à l’humanité. Assurons-nous de ne pas la manquer.

Vous pouvez signer la lettre ici.

Contributeur expert

Siméon Campos

Siméon Campos est le PDG et fondateur de SaferAI, une organisation dédiée au développement de

Partager l'article

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...