
La primera ley integral del mundo sobre la inteligencia artificial: porque alguien tenía que dar el primer paso
La Ley de IA es el primer marco jurídico integral del mundo dedicado a la inteligencia artificial. Adopta un enfoque basado en el riesgo: cuanto mayor sea el riesgo que plantee un sistema de IA, más estrictas serán las normas. Desde prácticas prohibidas (como la puntuación social) hasta requisitos mínimos para los chatbots de bajo riesgo, esta normativa abarca todo el espectro de aplicaciones de la IA.
Cualquier sistema de inteligencia artificial que se comercialice en la UE o cuyos resultados se utilicen en la UE, independientemente del lugar en el que esté establecido el proveedor. Si tu sistema de inteligencia artificial afecta a ciudadanos de la UE, la Ley de IA te afecta a ti.
En toda la UE, con alcance extraterritorial para los proveedores no pertenecientes a la UE cuyos sistemas de inteligencia artificial se utilicen dentro de la UE.
1 de agosto de 2024 (aplicación gradual: prohibiciones a partir de febrero de 2025, obligaciones de alto riesgo a partir de agosto de 2026, aplicación plena a más tardar en agosto de 2027)
Para garantizar que los sistemas de inteligencia artificial en la UE sean seguros, transparentes y respeten los derechos fundamentales. También para ofrecer seguridad jurídica a los desarrolladores de inteligencia artificial y fomentar la confianza de la ciudadanía. Porque ya no bastaba con decir: «Confíen en nosotros, el algoritmo funciona bien».
Si desarrollas o encargas un sistema de inteligencia artificial y lo comercializas o lo pones en servicio bajo tu propio nombre, eres tú quien lo ha creado —o, al menos, quien figura como responsable en la caja—. Si has entrenado el modelo, has diseñado el sistema o le has puesto tu marca, eres el proveedor.
No esperes hasta agosto de 2026 para clasificar tus sistemas de IA. Empieza ya: la clasificación determina todo lo demás que tienes que hacer. Una hoja de cálculo hoy te ahorrará un susto más adelante.
Utilizas un sistema de IA bajo tu responsabilidad, con fines profesionales y no como consumidor final. Si has comprado o adquirido una licencia de una herramienta de IA y la has implementado en el flujo de trabajo de tu organización, eres un implementador. No has creado el modelo, pero has decidido utilizarlo, y eso conlleva ciertas responsabilidades.
Cuando evalúes a los proveedores de IA, pregúntales directamente: «¿En qué nivel de riesgo se clasifica este sistema según la Ley de IA? ¿Pueden facilitar la documentación de conformidad?». Si parecen desconcertados, eso ya te da una pista.
Usted introduce en el mercado de la UE sistemas de inteligencia artificial procedentes de fuera de la UE. Usted es la puerta de entrada: si un proveedor no perteneciente a la UE desea vender inteligencia artificial en Europa, a menudo es usted quien lo hace posible. Esto conlleva la responsabilidad de verificar que lo que importa cumple efectivamente con los requisitos de la UE.
Incorpora controles de cumplimiento en tu proceso de importación desde el primer día. Contar con una lista de verificación sale más barato que tener que retirar un sistema de IA del mercado.
Pones a disposición del mercado sistemas de IA sin ser el proveedor ni el importador. Piensa, por ejemplo, en un distribuidor, un mercado digital o un socio de integración. Formas parte de la cadena de suministro, y la Ley de IA pretende que todos los integrantes de la cadena cumplan con su parte.
Lleva un registro de tu cadena de suministro de IA. Saber exactamente quién suministró qué, cuándo y con qué documentación te ahorrará muchos quebraderos de cabeza cuando (no «si») las autoridades reguladoras te lo pidan.
El módulo de la Ley de IA cuenta con la integración de IA más sólida de Euregas para cualquier normativa concreta. La clasificación de riesgos utiliza un análisis basado en RAG para comparar su sistema de IA con las categorías del anexo III.
Todos los ejemplos son ficticios y tienen únicamente fines ilustrativos.