Par Raphaël Didier, directeur de la transformation et de la stratégie innovation, Bpifrance ; Thomas Lampert, Chaire industrielle en Science des données et intelligence artificielle, Université de Strasbourg ; Marylou Le Roy, post-doctorante au sein de l’observatoire de l’intelligence artificielle de l’Université de Paris 1 Panthéon-Sorbonne et Yannick Meneceur, magistrat en disponibilité et maître de conférences associé à l’Université de Strasbourg.
Les auteurs sont Alumni du programme IVLP 2021-2022, sur la thématique de la régulation de l’intelligence artificielle.
Dans un contexte de profonde recomposition socio-technique résultant de la généralisation dans notre quotidien des outils numériques, s’approprier et comprendre l’impact de technologies avancées, telle que l’intelligence artificielle (IA), est un impératif. Pour les décideurs publics américains et européens, si l’on en croit notamment la déclaration conjointe du Conseil du commerce et de la technologie (TTC US-EU) de septembre 2021, la question n’est pas de savoir si l’on doit avoir recours ou non à de tels systèmes algorithmiques mais plutôt de chercher à encadrer la manière de les développer pour en maximiser les effets positifs, tant techniques qu’économiques, et limiter les conséquences négatives, notamment sur les droits fondamentaux.
Que l’on se situe d’un côté ou de l’autre de l’Atlantique, les opinions paraissent toutefois fortement diverger sur les moyens pour parvenir à cet équilibre, dans un contexte de concurrence exacerbée entre continents et d’emploi de la régulation comme un instrument d’influence géopolitique : là où les européens paraîtraient soucieux de fonder leurs démarches sur des mesures juridiques contraignantes holistiques et les droits fondamentaux, le continent américain miserait encore sur la responsabilisation des acteurs et la protection des libertés par des mesures sectorielles. Deux clés de compréhension permettent cependant de mieux comprendre l’exemple américain, qui est loin de pouvoir être résumé comme une absence totale de régulation.
La première clé de compréhension à mobiliser est celle des équilibres institutionnels propres aux États-Unis : l’État fédéral n’est qu’une composante de l’initiative de politiques publiques (notamment l’OSTP avec la Blueprint for an AI Bill of Rights), laissant une place considérable aux États eux-mêmes (rappelons que la Californie a adopté une législation très ambitieuse sur la protection des données), sans parler des rôles du Congrès et de diverses agences comme le NIST ou la FTC, dont le poids est variable mais souvent sous-estimé pour un observateur européen. En toute hypothèse, l’impulsion pour l’organisation du marché numérique n’est pas laissée à l’initiative d’un groupe restreint d’acteurs, comme au sein de l’Union européenne avec un rôle d’impulsion considérable laissé à la Commission. La régulation aux États-Unis se fonde plutôt sur une association d’initiatives, entre politiques d’incitation, standards et réflexions sur de nouveaux moyens pour créer de la confiance, dont la nature et l’effectivité font débat entre les différents acteurs impliqués dans la construction de politiques publiques. Les pouvoirs publics ambitionnent donc maintenant de passer des principes à la pratique, notamment au travers de standards techniques, bien connus du secteur industriel numérique, dont la portée s’étend déjà bien au-delà des frontières des Etats-Unis (nos ordinateurs et nos smartphones en témoignent déjà).
La seconde clé à mobiliser est celle de la compréhension de ce qui fait l’ADN de la compétitivité de l’industrie numérique américaine, avec une convergence tout à fait remarquable entre l’excellence universitaire, le capital-risque et une contre-culture ingénieuse héritée des hackers. Dans ce contexte, les politiques publiques et la régulation visent bien plus à « faire » qu’à « limiter », notamment en développant des écosystèmes originaux comme celui de la Silicon Valley. D’autres modèles universitaires comme le MIT ou Harvard (où il pourrait être cité le MIT-IBM Watson lab ou le Berkman Klein Center for Internet & Society) contribuent également à offrir aux meilleurs scientifiques mondiaux des espaces de recherche, de rencontres et d’application de l’IA inégalés. En définitive, et sans que cela ne paraisse contradictoire aux différentes parties prenantes, c’est dans ce creuset que se mêlent idéologies capitalistes et libertariennes, organisant ainsi un système hybride et original d’auto-contrôle. Rappelons-nous aussi du discours du fondateur de l’EFF, John Perry Barlow, qui avait pu trouver tribune au Forum économique mondial de Davos en 1996 pour contester une loi sur les télécoms signée par le Vice-président américain de l’époque.
Ce bilan posé, la question est maintenant de savoir si un minimum de convergence entre États-Unis et Europe reste possible dans les années à venir en ce qui concerne la régulation du secteur numérique et singulièrement des systèmes d’IA. L’observateur optimiste relèvera que les Américains et les Européens partagent bien un cœur commun de valeurs, afin de bannir par exemple des usages comme les systèmes de crédit social chinois. Cette alliance idéologique pourrait donc conduire à la construction d’une gouvernance socio-technique orientée vers les droits humains : reste à savoir si la proposition de règlement de la Commission européenne (« AI act ») ou encore de l’initiative d’un traité international au sein du Conseil de l’Europe en seront des composantes ou si cette construction a vocation à prospérer dans d’autres fora, comme l’OCDE ou le GPAI, ou encore dans le cadre d’un potentiel accord transatlantique sur l’IA.