Ley de IA
Ley de IA

Ley de Inteligencia Artificial

La primera ley integral del mundo sobre la inteligencia artificial: porque alguien tenía que dar el primer paso

La Ley de IA es el primer marco jurídico integral del mundo dedicado a la inteligencia artificial. Adopta un enfoque basado en el riesgo: cuanto mayor sea el riesgo que plantee un sistema de IA, más estrictas serán las normas. Desde prácticas prohibidas (como la puntuación social) hasta requisitos mínimos para los chatbots de bajo riesgo, esta normativa abarca todo el espectro de aplicaciones de la IA.

Ámbito de aplicación

Cualquier sistema de inteligencia artificial que se comercialice en la UE o cuyos resultados se utilicen en la UE, independientemente del lugar en el que esté establecido el proveedor. Si tu sistema de inteligencia artificial afecta a ciudadanos de la UE, la Ley de IA te afecta a ti.

Alcance geográfico

En toda la UE, con alcance extraterritorial para los proveedores no pertenecientes a la UE cuyos sistemas de inteligencia artificial se utilicen dentro de la UE.

En vigor desde

1 de agosto de 2024 (aplicación gradual: prohibiciones a partir de febrero de 2025, obligaciones de alto riesgo a partir de agosto de 2026, aplicación plena a más tardar en agosto de 2027)

Objetivo

Para garantizar que los sistemas de inteligencia artificial en la UE sean seguros, transparentes y respeten los derechos fundamentales. También para ofrecer seguridad jurídica a los desarrolladores de inteligencia artificial y fomentar la confianza de la ciudadanía. Porque ya no bastaba con decir: «Confíen en nosotros, el algoritmo funciona bien».

Ir a tu función:

Proveedor de IA

Si desarrollas o encargas un sistema de inteligencia artificial y lo comercializas o lo pones en servicio bajo tu propio nombre, eres tú quien lo ha creado —o, al menos, quien figura como responsable en la caja—. Si has entrenado el modelo, has diseñado el sistema o le has puesto tu marca, eres el proveedor.

Tus obligaciones

  • Clasifique el nivel de riesgo de su sistema de IA: inaceptable, alto, limitado o mínimo (art. 6, anexo III)
  • En el caso de la IA de alto riesgo: implantar un sistema de gestión de la calidad que abarque todo el ciclo de vida (art. 17)
  • Realizar una evaluación de la conformidad antes de comercializar el sistema (art. 43)
  • Inscribir los sistemas de IA de alto riesgo en la base de datos de la UE (art. 49)
  • Proporcionar información transparente a los usuarios, incluyendo las capacidades, las limitaciones y la finalidad prevista (art. 13)
  • Aplicar la gestión de riesgos a lo largo de todo el ciclo de vida del sistema de inteligencia artificial (art. 9)
  • Garantizar la gobernanza de los datos de entrenamiento: pertinencia, representatividad y ausencia de sesgos (art. 10)
  • Garantizar la supervisión humana del funcionamiento del sistema de inteligencia artificial (art. 14)
  • Llevar la documentación técnica y los registros (artículos 11 y 12)
  • Notificar los incidentes graves a las autoridades (art. 62)

Artículos destacados

Art. 6 — Normas de clasificaciónArt. 9 — Gestión de riesgosArt. 10 — Gobernanza de datosArt. 13 — TransparenciaArt. 14 — Supervisión humanaArt. 17 — Gestión de la calidadArt. 43 — Evaluación de la conformidadArt. 49 — Inscripción en la base de datos de la UEAnexo III — Sistemas de IA de alto riesgo
Consejo de experto

No esperes hasta agosto de 2026 para clasificar tus sistemas de IA. Empieza ya: la clasificación determina todo lo demás que tienes que hacer. Una hoja de cálculo hoy te ahorrará un susto más adelante.

Implementador de IA

Utilizas un sistema de IA bajo tu responsabilidad, con fines profesionales y no como consumidor final. Si has comprado o adquirido una licencia de una herramienta de IA y la has implementado en el flujo de trabajo de tu organización, eres un implementador. No has creado el modelo, pero has decidido utilizarlo, y eso conlleva ciertas responsabilidades.

Tus obligaciones

  • Utilice el sistema de IA siguiendo las instrucciones del proveedor (art. 26.1); el manual existe por una razón
  • Garantizar la supervisión humana por parte de personal competente (art. 26.2)
  • Supervisar el funcionamiento del sistema de IA y comunicar cualquier fallo al proveedor (art. 26.5)
  • Realizar una evaluación del impacto sobre los derechos fundamentales (FRIA) para la IA de alto riesgo en determinados sectores (art. 27)
  • Informar a las personas de que son objeto de decisiones tomadas por la IA (art. 26.7), especialmente en lo que respecta al reconocimiento de emociones o a la clasificación biométrica
  • Conserve los registros generados por el sistema de IA de alto riesgo durante al menos seis meses (art. 26.6)
  • Colaborar con las autoridades nacionales cuando así se solicite (art. 26.8)

Artículos destacados

Art. 26 — Obligaciones del operadorArt. 27 — Evaluación del impacto sobre los derechos fundamentalesArt. 86 — Derecho a una explicación
Consejo de experto

Cuando evalúes a los proveedores de IA, pregúntales directamente: «¿En qué nivel de riesgo se clasifica este sistema según la Ley de IA? ¿Pueden facilitar la documentación de conformidad?». Si parecen desconcertados, eso ya te da una pista.

Importador de IA

Usted introduce en el mercado de la UE sistemas de inteligencia artificial procedentes de fuera de la UE. Usted es la puerta de entrada: si un proveedor no perteneciente a la UE desea vender inteligencia artificial en Europa, a menudo es usted quien lo hace posible. Esto conlleva la responsabilidad de verificar que lo que importa cumple efectivamente con los requisitos de la UE.

Tus obligaciones

  • Compruebe que el proveedor haya llevado a cabo la evaluación de la conformidad (art. 23.1)
  • Asegúrese de que el sistema de IA lleve el marcado CE y vaya acompañado de la documentación necesaria (art. 23.1)
  • Compruebe que el proveedor haya designado a un representante autorizado en la UE (art. 23.2)
  • No comercialice un sistema si tiene motivos para creer que no cumple con los requisitos (art. 23.3)
  • Asegúrese de que las condiciones de almacenamiento y transporte no pongan en peligro el cumplimiento de la normativa (art. 23.4)
  • Conserve una copia de la declaración de conformidad de la UE durante 10 años (art. 23.5)

Artículos destacados

Art. 23 — Obligaciones del importadorArt. 43 — Evaluación de la conformidadArt. 47 — Declaración de conformidad de la UEArt. 48 — Marcado CE
Consejo de experto

Incorpora controles de cumplimiento en tu proceso de importación desde el primer día. Contar con una lista de verificación sale más barato que tener que retirar un sistema de IA del mercado.

Distribuidor de IA

Pones a disposición del mercado sistemas de IA sin ser el proveedor ni el importador. Piensa, por ejemplo, en un distribuidor, un mercado digital o un socio de integración. Formas parte de la cadena de suministro, y la Ley de IA pretende que todos los integrantes de la cadena cumplan con su parte.

Tus obligaciones

  • Compruebe que el sistema de IA lleve el marcado CE y cuente con la documentación necesaria (art. 24.1)
  • No ponga a disposición un sistema si tiene motivos para creer que no cumple con los requisitos (art. 24.2)
  • Asegúrese de que las condiciones de almacenamiento y transporte no pongan en peligro el cumplimiento de la normativa (art. 24.3)
  • Informe al proveedor o al importador si considera que el sistema presenta un riesgo (art. 24.4)
  • Colaborar con las autoridades competentes y facilitar información cuando así se solicite (art. 24.5)

Artículos destacados

Art. 24 — Obligaciones del distribuidorArt. 25 — Responsabilidades a lo largo de la cadena de valor de la IA
Consejo de experto

Lleva un registro de tu cadena de suministro de IA. Saber exactamente quién suministró qué, cuándo y con qué documentación te ahorrará muchos quebraderos de cabeza cuando (no «si») las autoridades reguladoras te lo pidan.

Cómo puede ayudarte Euregas

Herramientas disponibles

  • Registro de sistemas de IA: cataloga todos los sistemas de IA de tu organización con metadatos y niveles de riesgo
  • Clasificación de riesgos (4 niveles): evaluación estructurada acorde con las categorías del anexo III
  • Plantilla FRIA: Evaluación del impacto sobre los derechos fundamentales (12 preguntas)
  • Hoja de ruta de cumplimiento por nivel de riesgo: guía paso a paso adaptada al resultado de su clasificación

Funciones asistidas por IA

  • Clasificación de riesgos basada en la inteligencia artificial: comparación automatizada con el anexo III mediante el método RAG, con puntuaciones de confianza y factores contribuyentes
  • Asistente de consulta (ai_act_classification): clasificación guiada en cinco pasos con análisis de IA en cada uno de ellos
  • Búsqueda semántica en los artículos y considerandos de la Ley de Inteligencia Artificial
Nota

El módulo de la Ley de IA cuenta con la integración de IA más sólida de Euregas para cualquier normativa concreta. La clasificación de riesgos utiliza un análisis basado en RAG para comparar su sistema de IA con las categorías del anexo III.

Todos los ejemplos son ficticios y tienen únicamente fines ilustrativos.