Ley de IA de la UE: primera normativa sobre inteligencia artificial

El uso de la inteligencia artificial en la UE está regulado por la Ley de Inteligencia Artificial, la primera ley integral sobre IA del mundo. Aquí más información sobre cómo funciona.

Como parte de su estrategia digital, la UE quiso regular la inteligencia artificial (IA) para garantizar mejores condiciones de desarrollo y uso de esta tecnología innovadora. La IA puede aportar muchos beneficios, como lo son una mejor asistencia sanitaria, un transporte más seguro y limpio, una fabricación más eficiente y una energía más barata y sostenible.

Reglamento de Inteligencia Artificial en Europa: la primera norma jurídica

En abril de 2021, la Comisión propuso la primera ley de inteligencia artificial de la UE, que clasifica los sistemas de inteligencia artificial en función del riesgo que pueden generar. Propone que los sistemas de IA que puedan utilizarse en distintas aplicaciones se analicen y clasifiquen según el riesgo que supongan para los usuarios. Los distintos niveles de peligro implican más o menos requisitos de cumplimiento de la normativa sobre IA.

Más información sobre qué es y cómo se utiliza la inteligencia artificial.

Prioridades del el Parlamento en la legislación sobre IA

La prioridad del Parlamento era garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados perjudiciales.

El Parlamento también quiso establecer una definición uniforme y tecnológicamente neutra de la IA que pueda aplicarse a futuros sistemas de IA.

Más información sobre la visión del futuro de la IA que tiene el Parlamento.

Ley de IA: normas diferentes para niveles diferentes de riesgo

La nueva normativa establece obligaciones para proveedores y usuarios en función del nivel de clasificación del riesgo de IA. Aunque muchos sistemas de IA plantean un riesgo mínimo, es necesario evaluarlos todos.

Riesgo inaceptable

Los sistemas de IA de riesgo inaceptable que están prohibidos en la UE incluyen:

  • manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños
  • puntuación social: clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales
  • sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial en espacios públicos

Existen algunas excepciones a esta calificación. Por ejemplo, los sistemas de identificación biométrica a distancia "a posteriori", en los que la identificación se produce tras un retraso significativo, se permitirán para perseguir delitos graves y sólo cuando haya previa aprobación judicial.

Alto riesgo

Los sistemas de IA que afecten negativamente a la seguridad o a los derechos fundamentales se considerarán de alto riesgo y se dividirán en dos categorías.

  1. Los sistemas de IA que se utilicen en productos sujetos a la legislación de la UE sobre seguridad de los productos. Esto incluye juguetes, aviación, automóviles, dispositivos médicos y ascensores.
  2.  Los sistemas de IA pertenecientes a ocho ámbitos específicos que deberán registrarse en una base de datos de la UE:
  • identificación biométrica y categorización de personas físicas
  • gestión y explotación de infraestructuras críticas
  • educación y formación profesional
  • empleo, gestión de trabajadores y acceso al autoempleo
  • acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas
  • aplicación de la ley
  • gestión de la migración, el asilo y el control de fronteras
  • asistencia en la interpretación jurídica y aplicación de la ley.

Todos los sistemas de IA de alto riesgo serán evaluados antes de su comercialización y a lo largo de su ciclo de vida. Los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones sobre los sistemas de IA a autoridades nacionales específicas.

Requisitos de transparencia

La IA generativa, como ChatGPT, no se considerá de alto riesgo, pero tendrá que cumplir requisitos de transparencia y con la legislación de la UE en materia de derechos de autor:

  • revelar que el contenido ha sido generado por IA
  • diseñar el modelo para evitar que genere contenidos ilegales
  • publicar resúmenes de los datos protegidos por derechos de autorg utilizados para el entrenamiento

Los modelos de IA de uso general que cuenten con un alto impacto y que pudieran plantear un riesgo sistémico, como el modelo de IA más avanzado GPT-4, tendrán que someterse a evaluaciones exhaustivas e informar a la Comisión de cualquier incidente grave.

El contenido que haya sido generado o modificado con la ayuda de la IA, como imágenes, audio o vídeos (por ejemplo, las «ultrafalsificaciones»), tendrá que etiquetarse claramente como tal.


Fomento de la innovación de la IA y apoyo a las start-ups en Europa

La legislación apoya la innovación y la creación de empresas de IA en Europa, permitiendo a las empresas desarrollar y probar modelos de IA de uso general antes de su lanzamiento público.
Exige que las autoridades nacionales proporcionen a las empresas un entorno de pruebas para la IA que simule condiciones cercanas al mundo real. Esto ayudará a las pequeñas y medianas empresas (pymes) a competir en el creciente mercado de la inteligencia artificial de la UE.

Aplicación

El Parlamento creó un grupo de trabajo para supervisar la aplicación y el cumplimiento de la Ley de IA. Los eurodiputados quieren asegurarse de que las normas sobre IA adoptadas contribuyan al desarrollo del sector digital en Europa.
El grupo coopera con la oficina de IA de la UE de la Comisión Europea, creada para aclarar las disposiciones clave de la ley.

Calendario de aplicación de la Ley de IA de la UE

La UE adoptó en junio de 2024 la primera norma jurídica de IA del mundo. El Reglamento de Inteligencia Artificial de la UE será plenamente aplicable 24 meses después de su entrada en vigor, pero algunas partes lo serán antes:

  •  la prohibición de sistemas de IA que planteen riesgos inaceptables se comenzó a aplicar el 2 de febrero de 2025
  • los códigos de buenas prácticas se aplicarán nueve meses después de la entrada en vigor
  • las normas sobre sistemas de IA de uso general que deban cumplir requisitos de transparencia se aplicarán 12 meses después de la entrada en vigor.
  • Los sistemas de alto riesgo dispondrán de más tiempo para cumplir los requisitos, ya que las obligaciones que les conciernen serán aplicables 36 meses después de la entrada en vigor

Más sobre la acción digital de la UE: