TLDR : La Comisión Europea debe publicar directrices para la aplicación del AI Act, que regula los sistemas de IA de alto riesgo. Una consulta pública se ha abierto para clarificar la clasificación de estos sistemas y las responsabilidades de los actores involucrados en su desarrollo y despliegue.
Hasta el 2 de febrero de 2026, la Comisión Europea deberá publicar directrices sobre la implementación del artículo 6 del AI Act, que regula la clasificación de los sistemas de IA (SIA) de alto riesgo. Para nutrir esta reflexión, abrió el pasado 6 de junio una consulta pública para clarificar los criterios de clasificación, así como las obligaciones y responsabilidades de los actores involucrados en el desarrollo y despliegue de estos sistemas.
Aunque entró en vigor el 1 de agosto de 2024, la aplicación del AI Act o RIA se realizará de manera progresiva hasta agosto de 2027. Las exigencias relacionadas con los SIA de alto riesgo deberían ser plenamente efectivas en agosto de 2026. El artículo 6 del AI Act distingue dos tipos de SIA de alto riesgo:
- Los SIA destinados a ser utilizados como componente de seguridad de un producto cubierto por una legislación de armonización de la Unión mencionada en el anexo I del AI Act o los SIA que constituyen por sí mismos dicho producto (art. 6(1));
- Los SIA mencionados en el anexo III del reglamento que, debido a su finalidad, presentan un riesgo significativo para la salud, la seguridad o los derechos fundamentales (art. 6(2)).
Se invita a todas las partes interesadas, desde proveedores y desarrolladores de sistemas de alto riesgo hasta usuarios públicos y privados, pasando por instituciones académicas, centros de investigación, sociedad civil, autoridades de supervisión y ciudadanos, a contribuir a esta consulta que estará abierta hasta el próximo 18 de julio. Permitirá a la Comisión recopilar ejemplos de uso concretos e identificar las necesidades operativas de los actores del sector.