欧州委員会のAI局は先週火曜日、汎用AIモデル(GPAI)のプロバイダーがAI法の要件、特に透明性、著作権、リスク管理に関する要件を遵守するのを支援するための良好実践コードの第3草案を発表しました。この新しいバージョンは、コードの策定を担当する独立した専門家によると、より合理化された構造と、より微妙なコミットメントと措置を提供しています。
AI法は2024年8月に施行されましたが、OpenAIのGPT-4やGoogle DeepMindのGeminiなどのGPAIに関する規則は、来年8月から適用されます。欧州委員会によって開始された良好実践コードは、AIの責任ある透明な利用を保証するための推奨事項とガイドラインを提供することを目的としています。
GPAIのプロバイダーだけでなく、市民社会組織、学者、専門家も、AI局が主催するオンライン全体会議のワーキンググループに参加できます。立ち上げ全体会議は昨年9月に開催され、その後2回のオンライン会議が行われ、コードの最初の2つの草案が作成されました。
昨年12月19日に公開された第2版に対するコメントを基にしたこの新しい草案は、各コミットメントを実行するためのより詳細な措置を示しています。2つの重要なコミットメントは、透明性と著作権に関するもので、オープンソースモデルに対する透明性の義務が免除される場合もあります。著作権に関するコードは、以前のバージョンで設定された原則を維持しつつ、より読みやすくしていますが、そのトーンは控えめです。苦情の提出に関する措置は、「権利者の苦情が明らかに根拠がない、または過剰である場合、特にその繰り返し性のために」、署名者が苦情に応じることを拒否できるようにしています。
他の16の措置は、システミックリスクに分類されるモデルのプロバイダーを対象としており、安全性とセキュリティに重点を置いています。措置は専用ウェブサイト(非公式)で確認できます。
この発表に対する初期の反応は非常に賛否両論です。複数のNGOおよびデジタル権利擁護者は、欧州委員会が大手技術企業の圧力に屈し、調整が当初想定された規制を弱体化させたと非難している一方で、これらの企業は、コードが依然として厳しすぎてイノベーションを阻害する恐れがあると考えています。
専門家は、この第3草案が「依然として期待される明確さと一貫性のレベルを含んでいない」ことを認めています。利害関係者からのコメントは3月30日までに期待されており、これを基に5月に予定されている最終版を完成させる予定です。