TLDR : AI法案,欧盟关于人工智能(AI)的法规,自2024年2月起生效,尽管某些企业反对。它对通用AI模型提出义务,包括详尽的技术文档、版权政策和训练数据摘要。不合规企业可能面临高达1500万欧元或全球营业额3%的罚款。
目录
AI法案的首批条款于2024年8月生效,涉及不可接受风险的AI系统,这些条款自今年2月起开始实施。尽管“停止时钟”暂停请求——由EU AI Champions Initiative的五十家公司提出——要求暂停该法规的推广,针对通用AI模型(GPAI)的义务自上周六起已生效。
欧盟在建立一个监管框架方面处于领先地位,该框架旨在根据AI可能造成的损害来进行监管。AI法案或RIA的目标是确保在欧盟内商业化的AI系统和模型以道德、安全和尊重欧盟基本权利的方式使用。
欧盟委员会于7月18日发布的指导方针明确了GPAI模型的监管适用范围。任何计算能力超过10²³ FLOPs(即训练期间使用的浮点运算量)的AI模型,若设计时没有特定用途(如天气预报、游戏等),但可在多种环境中重复使用,将被假定属于这一类别。
这些义务涵盖从预训练到发布后的整个模型生命周期,包括更新和市场后修改。其供应商须提供:
- 一份详尽的技术文档,供下游供应商将模型整合到他们的AI系统中,并在需要时提供给欧洲AI办公室(AI Office)或国家主管当局;
- 一份标准化的训练数据摘要,由AI办公室提供的模型格式;
- 制定一项版权遵循政策,与欧洲法律保持一致。
法规的基本原则保持不变:风险越高,要求越严格。对于被认为具有系统性风险的GPAI模型(累计超过10²⁵ FLOPs),这些义务将得到加强。这些模型需要进行更严格的风险管理程序,特别是在网络安全、重大事件报告或持续测试方面。被认为难以承受的监管负担…
然而,这一门槛并不固定:供应商可以要求重新评估实际风险。
供应商、修改和开源状态
任何在欧洲市场上推出模型的公司都被视为供应商,无论其最初的开发地点在哪里。然而,使用超过其初始计算能力三分之一的下游参与者对模型进行修改,也被视为供应商,需履行相应的义务。
以自由和开放许可证发布的模型享有部分豁免。只要符合某些标准(不进行货币化或不收集个人数据),这些模型不需要向下游供应商或主管当局提交文档。然而,一旦它们达到系统性风险门槛,就不再享有任何豁免。
良好实践准则
尽管这些规则于8月2日生效,但对于新模型,它们仅在2026年8月才适用,而对于现有模型,则在2027年8月适用。由AI办公室引导的这种渐进性,旨在让公司有时间适应。
为帮助供应商遵守规定,委员会在发布其指令的几天前发布了一项良好实践准则。选择加入的公司将减少行政负担,并比通过其他方式证明合规的公司获得更大的法律保障。Google、OpenAI、Mistral、Microsoft已经加入,而Meta则拒绝,理由是存在法律不确定性和法规框架不当扩展。
未履行这些义务的罚款可高达1500万欧元或企业全球营业额的3%。欧盟各成员国需通知委员会将监督企业的监管机构。目前尚未指定由法国负责的机构,但Cnil应发挥核心作用,Arcom或Anssi等行业机构也在考虑之列。