TLDR : AI Act, 유럽의 AI 규제, 2024년 2월부터 시행됨. 범용 AI 모델에 대한 문서화 및 저작권 등의 의무 부과. 위반 시 최대 1,500만 유로 벌금.
목록
2024년 8월에 발효된 AI Act의 첫 번째 조항은 지난 2월부터 적용되기 시작했습니다. EU AI Champions Initiative의 50개 기업이 규정의 추진을 중단하라고 요청했음에도 불구하고, 범용 AI 모델(GPAI)에 대한 의무는 지난 토요일부터 시행되었습니다.
EU는 잠재적 피해를 줄 수 있는 AI를 규제하기 위한 규제 프레임워크를 설정하는 데 선구적인 역할을 했습니다. AI Act 또는 RIA의 목표는 EU 내에서 상업화된 AI 시스템과 모델이 윤리적이고 안전하며 EU의 기본 권리를 존중하는 방식으로 사용되도록 보장하는 것입니다.
유럽 연합 집행위원회가 지난 7월 18일에 발표한 지침은 GPAI 모델에 대한 규제 적용 범위를 명확히 합니다. 10²³ FLOPs(훈련 시 사용되는 부동 소수점 연산량)를 초과하는 계산 능력을 표시하고 특정 목적 없이 설계된(기상 예측, 게임 등) 모델이지만 다양한 맥락에서 재사용될 수 있는 모든 AI 모델은 이 범주에 포함되는 것으로 간주됩니다.
의무사항은 모델의 수명 주기 전반에 걸쳐 적용됩니다. 즉, 사전 훈련에서 제공에 이르기까지, 출시 후 업데이트 및 수정에 이르기까지 모든 단계를 포함합니다. 공급업체는 다음을 제공해야 합니다:
- 해당 모델을 AI 시스템에 통합하는 하위 공급업체를 위한 포괄적인 기술 문서, 요청 시 AI 사무국(AI Office) 또는 국가 당국에 제공해야 합니다.
- AI 사무국이 제공하는 표준화된 모델에 따라 훈련 데이터 요약을 제공해야 합니다.
- 유럽 법률에 맞춘 저작권 준수 정책을 마련해야 합니다.
규정의 기본 원칙은 변경되지 않았습니다: 위험이 높을수록 요구사항이 더 까다롭습니다. 이러한 의무는 10²⁵ FLOPs를 초과하는 누적 모델과 같은 시스템적 위험으로 간주되는 GPAI에 대해 강화됩니다. 이러한 모델은 특히 사이버 보안, 심각한 사건 보고, 지속적인 테스트와 같은 강화된 위험 관리 절차의 대상으로 간주됩니다. 이는 규제 부담이 상당히 클 것으로 예상됩니다...
이 한계는 고정된 것이 아니며, 실제 위험에 대한 재평가가 공급업체에 의해 요청될 수 있습니다.
공급업체, 수정 및 오픈 소스 상태
유럽 시장에 모델을 출시하는 모든 기업은 초기 개발 장소와 관계없이 공급업체로 간주됩니다. 그러나 초기 계산 능력의 3분의 1 이상을 사용하여 모델을 수정한 하위 공급업체도 공급업체로 간주되며 의무를 따라야 합니다.
자유 및 개방 라이선스 하에 게시된 모델은 부분적인 면제를 받을 수 있습니다. 특정 기준(수익 창출이나 개인 데이터 수집의 부재)을 충족하는 경우, 이러한 모델은 하위 공급업체나 당국에 대한 문서화 의무를 면제받습니다. 그러나 시스템적 위험 한계를 초과하면 면제가 적용되지 않습니다.
모범 사례 코드
8월 2일에 발효된 규칙은 신규 모델의 경우 2026년 8월, 기존 모델의 경우 2027년 8월에 적용됩니다. 이 단계적 접근은 AI 사무국에 의해 주도되어 기업이 적응할 시간을 제공합니다.
공급업체가 이를 준수할 수 있도록 지원하기 위해, 위원회는 지침 발표 며칠 전에 모범 사례 코드를 발표했습니다. 이를 준수하기로 선택한 기업은 행정 부담이 줄어들고 법적 안전성이 증가합니다. Google, OpenAI, Mistral, Microsoft는 이미 이를 준수하기로 했으나, Meta는 법적 불확실성과 불필요한 규제 확장을 이유로 이를 거부했습니다.
이 의무를 준수하지 않을 경우 최대 1,500만 유로 또는 글로벌 매출의 3%에 달하는 벌금이 부과될 수 있습니다. EU의 각 회원국은 기업을 감독할 감독 기관을 위원회에 통보해야 합니다. 현재까지 프랑스에서 지정된 기관은 없지만, Cnil이 중심적인 역할을 할 것으로 예상되며, Arcom 및 Anssi와 같은 부문별 기관도 고려되고 있습니다.