La ley de inteligencia artificial de la UE aparece como una de las iniciativas más ambiciosas para regular este tipo de tecnologías.
A medida que la inteligencia artificial va formando parte de la vida de los ciudadanos de forma cada vez más masiva, la ley europea de inteligencia artificial emerge como una medida preventiva al entender que “determinados sistemas de IA crean riesgos que debemos abordar”, según fuentes oficiales.
En el centro de esta normativa se halla la previsión frente a incógnitas como la caja negra de la inteligencia artificial o las preocupaciones sobre la protección de derechos fundamentales frente a este tipo de sistemas. Lo analizamos.
¿Qué es la ley de inteligencia artificial de la UE?
La AI Act es un reglamento europeo —aplicable directamente— que crea un marco horizontal para todos los sectores. Se publicó en el Diario Oficial el 12 de julio de 2024 y entró en vigor el 1 de agosto de 2024. A partir de ahí, sus obligaciones se aplican por etapas.
Fechas clave que debes anotar
- 2 de febrero de 2025: empiezan a aplicarse las prohibiciones (prácticas de “riesgo inaceptable”) y medidas de alfabetización en IA.
- 2 de agosto de 2025: entran en vigor las obligaciones para modelos de IA de propósito general (GPAI), se activa la gobernanza (AI Office, autoridades nacionales) y los régimenes sancionadores.
- 2 de agosto de 2026: empieza a aplicarse el resto del reglamento, incluidas obligaciones de alto riesgo (con excepciones temporales).
2 de agosto de 2027: se activa el artículo 6(1) (criterios finales de alto riesgo) y los GPAI puestos en el mercado antes del 2/08/2025 deben haber completado su adaptación.
Sistemas de IA de alto riesgo y prácticas prohibidas
Este marco regulador plantea cuatro niveles de riesgo en lo que se refiere a los sistemas de IA: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo. Una clasificación que permite determinar las medidas a aplicar para cada nivel y en la que destacan:
- Sistemas de riesgo inaceptable: quedan prohibidos los modelos considerados como amenaza para la seguridad, los medios de subsistencia y los derechos de las personas. Son ejemplos los sistemas de identificación biométrica remota en espacios públicos o los juguetes con asistente de voz que podrían fomentar comportamientos peligrosos.
- Sistemas de alto riesgo: se refieren a tecnología de IA orientada a usos específicos, como la dedicada a infraestructuras críticas, educación, componentes de seguridad, empleo, control fronterizo, administración de justicia… En estos casos, se proponen una serie de limitaciones y obligaciones de cumplimiento, incluyendo la implantación de sistemas para mitigar riesgos, requisitos estrictos sobre los conjuntos de datos con que se entrena al sistema, o las garantías en la trazabilidad de resultados, entre otras.
¿Cómo pueden aplicarlo las organizaciones?
Para las organizaciones cuyos sistemas sean categorizados como de alto riesgo, la implementación de la ley de inteligencia artificial de la UE pasa por llevar a cabo evaluaciones de conformidad antes de poner un producto en el mercado.
Estas evaluaciones deberán confirmar que la tecnología cumple los requisitos establecidos por la ley para su categoría, y documentar el proceso de modo que quede disponible para los órganos reguladores.
En el caso de sistemas considerados de riesgo mínimo, no existen obligaciones específicas, pero se anima a las organizaciones a que establezcan códigos de buenas prácticas y conducta.
A su vez, aparece el requisito de transparencia para algunos sistemas basados en IA, que deberán informar a los usuarios de que este tipo de tecnología está involucrada en una interacción (por ejemplo, los chatbots) o en un contenido (por ejemplo, los deepfakes).
Las multas por no cumplir estos requisitos pueden variar y ascender al 7% de los ingresos anuales en caso de las infracciones más graves.
Protección de los derechos fundamentales
La ley de inteligencia artificial de la UE pone los derechos humanos y el respeto al Estado de Derecho en el contexto de este tipo de tecnología en vistas a prever posibles incompatibilidades y proteger a los ciudadanos.
En el centro de esta normativa se hallan por tanto derechos fundamentales como el derecho a la no discriminación, a la privacidad o a la protección de la propiedad intelectual, además del respecto a las instituciones democráticas, además de principios como la igualdad o el acceso a la justicia y la separación de poderes, entre otros.
Sanciones
El AI Act prevé multas de hasta 35 M€ o el 7% del volumen de negocio global (la cifra mayor) para las infracciones más graves (usar sistemas prohibidos). Otras infracciones: hasta 15 M€ o el 3%; información engañosa: hasta 7,5 M€ o el 1%. Los Estados deben fijar sus regímenes sancionadores nacionales desde agosto de 2025.
Diferencia con las leyes de inteligencia artificial de otros países
La ley de inteligencia artificial de la UE se alza como una iniciativa extremadamente adelantada a nivel global, en la medida en que ofrece un marco exhaustivo para la regulación de sistemas vinculados a la IA.
En comparación con otros territorios, la ley europea de inteligencia artificial puede describirse por su enfoque basado en riesgos y en las obligaciones de cumplimiento de acuerdo con esos riesgos.
Por otra parte, el avance de normativas vinculadas a la IA en otros contextos legislativos está siendo heterogéneo: territorios como el Reino Unido no cuentan con una legislación que regule de forma centralizada estos sistemas; los Estados Unidos no cuentan con medidas a nivel nacional, pero sí en algunos estados; mientras que China está avanzando para desarrollar un reglamento exhaustivo en el que se prevén normas sobre asuntos como el copyright, los deepfakes y restricciones para la tecnología de reconocimiento facial.
¿Buscas acompañamiento en la implantación de la IA en tu negocio? En Beedigital queremos democratizar el acceso al potencial de la IA para negocios de todos los tamaños, siempre cumpliendo con la regulación aplicable y los más altos estándares. ¡Descubre nuestras soluciones de IA como servicio!
