TLDR : 유럽연합 집행위원회는 2026년 2월까지 고위험 인공지능 시스템을 규제하는 AI법의 지침을 발표할 예정입니다. 이를 위해 시스템 분류 및 개발과 배포에 참여하는 주체들의 책임을 명확히 하기 위한 공개 자문이 진행 중입니다.
2026년 2월 2일까지 유럽연합 집행위원회는 AI법의 제6조 시행에 대한 지침을 발표해야 합니다. 이 조항은 고위험 인공지능 시스템(SIA)의 분류를 규제합니다. 이를 위한 논의를 뒷받침하기 위해, 지난 6월 6일에 기준 명확화와 이들 시스템의 개발 및 배포에 참여하는 주체들의 의무와 책임을 명확히 하기 위한 공개 자문이 시작되었습니다.
AI법 또는 RIA의 적용은 2024년 8월 1일 발효되어 2027년 8월까지 단계적으로 진행될 예정입니다. 고위험 SIA와 관련된 요구사항은 2026년 8월에 완전히 발효될 예정입니다. AI법 제6조는 두 가지 유형의 고위험 SIA를 구분합니다:
- 제품의 안전 구성 요소로 사용되도록 설계된 SIA로서, AI법의 부속서 I에 언급된 통합법에 의해 규제되는 제품이거나 그 자체로 그러한 제품인 SIA (제6조 1항);
- 부속서 III에 명시된 SIA로서, 그 목적 때문에 건강, 안전 또는 기본권에 상당한 위험을 초래하는 SIA (제6조 2항).
고위험 시스템의 공급자 및 개발자를 비롯하여 공공 및 민간 사용자, 학계 기관, 연구센터, 시민 사회, 감독 기관 및 시민 모두가 이번 자문에 참여하도록 초대되었습니다. 이 자문은 내년 7월 18일까지 열려 있으며, 위원회가 실제 사용 사례를 수집하고 업계 관계자의 운영 요구를 식별할 수 있도록 할 것입니다.