Procedimiento : 2020/2014(INL)
Ciclo de vida en sesión
Ciclo relativo al documento : A9-0178/2020

Textos presentados :

A9-0178/2020

Debates :

PV 19/10/2020 - 15
PV 19/10/2020 - 18
CRE 19/10/2020 - 15
CRE 19/10/2020 - 18

Votaciones :

PV 20/10/2020 - 21

Textos aprobados :

P9_TA(2020)0276

<Date>{05/10/2020}5.10.2020</Date>
<NoDocSe>A9-0178/2020</NoDocSe>
PDF 318kWORD 124k

<TitreType>INFORME</TitreType>

<Titre>con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial</Titre>

<DocRef>(2020/2014(INL))</DocRef>


<Commission>{JURI}Comisión de Asuntos Jurídicos</Commission>

Ponente: <Depute>Axel Voss</Depute>

(Iniciativa – artículo 47 del Reglamento interno)

PROPUESTA DE RESOLUCIÓN DEL PARLAMENTO EUROPEO
 ANEXO A LA PROPUESTA DE RESOLUCIÓN: RECOMENDACIONES PARA LA ELABORACIÓN DE UN REGLAMENTO DEL PARLAMENTO EUROPEO Y DEL CONSEJO RELATIVO A LA RESPONSABILIDAD CIVIL POR EL FUNCIONAMIENTO DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL
 EXPOSICIÓN DE MOTIVOS
 OPINIÓN DE LA COMISIÓN DE MERCADO INTERIOR Y PROTECCIÓN DEL CONSUMIDOR
 OPINIÓN DE LA COMISIÓN DE TRANSPORTES Y TURISMO
 INFORMACIÓN SOBRE LA APROBACIÓN EN LA COMISIÓN COMPETENTE PARA EL FONDO
 VOTACIÓN FINAL NOMINAL EN LA COMISIÓN COMPETENTE PARA EL FONDO

PROPUESTA DE RESOLUCIÓN DEL PARLAMENTO EUROPEO

con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de inteligencia artificial

(2020/2014(INL))

El Parlamento Europeo,

 Visto el artículo 225 del Tratado de Funcionamiento de la Unión Europea,

 Vistos los artículos 114 y 169 del Tratado de Funcionamiento de la Unión Europea,

 Vista la Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos,

 Vista la Directiva 2005/29/CE del Parlamento Europeo y del Consejo, de 11 de mayo de 2005, relativa a las prácticas comerciales desleales de las empresas en sus relaciones con los consumidores en el mercado interior («Directiva sobre las prácticas comerciales desleales»)[1] y la Directiva 2011/83/CE del Parlamento Europeo y del Consejo, de 25 de octubre de 2011, sobre los derechos de los consumidores[2], así como otras normas de protección del consumidor,

 Visto el Reglamento (UE) 2017/745 del Parlamento Europeo y del Consejo, de 5 de abril de 2017, sobre los productos sanitarios[3],

 Visto el Reglamento (UE) 2018/1488 del Consejo, de 28 de septiembre de 2018, por el que se crea la Empresa Común de Informática de Alto Rendimiento Europea[4],

 Vista la Directiva (UE) 2019/770 del Parlamento Europeo y del Consejo, de 20 de mayo de 2019, relativa a determinados aspectos de los contratos de suministro de contenidos y servicios digitales[5],

 Vistos el Acuerdo interinstitucional, de 13 de abril de 2016, sobre la mejora de la legislación y las directrices para la mejora de la legislación[6],

 Vista la propuesta de Reglamento del Parlamento Europeo y del Consejo, de 6 de junio de 2018, por el que se establece el programa Europa Digital para el período 2021-2027 (COM(2018)0434),

 Vista la Comunicación de la Comisión, de 25 de abril de 2018, titulada «Inteligencia artificial para Europa» (COM(2018)0237),

 Vista la Comunicación de la Comisión, de 7 de diciembre de 2018, titulada «Plan coordinado sobre la inteligencia artificial» (COM(2018)0795),

 Vista la Comunicación de la Comisión, de 8 de abril de 2019, titulada «Generar confianza en la inteligencia artificial centrada en el ser humano» (COM(2019)0168),

 Visto el Informe de la Comisión al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo, de 19 de febrero de 2020, sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica (COM(2020)0064),

 Visto el Libro Blanco de la Comisión, de 19 de febrero de 2020, sobre la inteligencia artificial - un enfoque europeo orientado a la excelencia y la confianza (COM(2020)0065),

 Vista su Resolución, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica[7],

 Vista su Resolución, de 1 de junio de 2017, sobre la digitalización de la industria europea[8],

 Vista su Resolución, de 12 de septiembre de 2018, sobre los sistemas armamentísticos autónomos[9],

 Vista su Resolución, de 12 de febrero de 2019, sobre una política industrial global europea en materia de inteligencia artificial y robótica[10],

 Vista su Resolución, de 12 de febrero de 2020, sobre los procesos automatizados de toma de decisiones: garantizar la protección de los consumidores y la libre circulación de bienes y servicios[11],

 Visto el informe, de 8 de abril de 2019, del Grupo de expertos de alto nivel sobre inteligencia artificial titulado «Directrices éticas para una IA fiable»,

 Visto el informe, de 8 de abril de 2019, del Grupo de expertos de alto nivel sobre inteligencia artificial titulado «Una definición de la inteligencia artificial: principales capacidades y disciplinas científicas»,

 Visto el informe, de 26 de junio de 2019, del Grupo de expertos de alto nivel sobre inteligencia artificial titulado «Recomendaciones estratégicas y de inversión para una IA fiable»,

 Visto el informe, de 21 de noviembre de 2019, del Grupo de expertos sobre responsabilidad y nuevas tecnologías - Formación sobre nuevas tecnologías, titulado «Liability for artificial intelligence and other emerging digital technologies» (Responsabilidad civil sobre inteligencia artificial y otras tecnologías digitales emergentes),

 Vista el documento informativo de STOA del Servicio de Estudios del Parlamento Europeo, de junio de 2016, sobre reflexiones éticas y jurídicas en materia de robótica,

 Visto el estudio de la Dirección General de Políticas Interiores del Parlamento Europeo, de octubre de 2016, para la Comisión de Asuntos Jurídicos, sobre normas de Derecho civil europeo en materia de robótica,

 Vistos los artículos 47 y 54 de su Reglamento interno,

 Vistas las opiniones de la Comisión de Mercado Interior y Protección del Consumidor y de la Comisión de Transportes y Turismo,

 Visto el informe de la Comisión de Asuntos Jurídicos (A9-0178/2020),

A. Considerando que el concepto de «responsabilidad civil» desempeña un importante doble papel en nuestra vida cotidiana: por una parte, garantiza que una persona que haya sufrido un daño o perjuicio tenga derecho a reclamar y recibir una indemnización a quien se haya demostrado que es responsable de dicho daño o perjuicio y, por otra parte, proporciona incentivos económicos para que las personas físicas o jurídicas eviten en primer lugar causar daños o perjuicios o consideren en su comportamiento el riesgo de tener que pagar una indemnización;

B. Considerando que cualquier marco jurídico en materia de responsabilidad civil orientado al futuro debe infundir confianza en la seguridad, fiabilidad y coherencia de los productos y servicios, incluidas las tecnologías digitales, a fin de lograr un equilibrio entre la protección eficaz y equitativa de las potenciales víctimas de daños o perjuicios y, al mismo tiempo, ofrecer un margen de maniobra suficiente para posibilitar a las empresas, y en particular a las pequeñas y medianas empresas, el desarrollo de nuevas tecnologías, productos o servicios; que esto ayudará a generar confianza y a crear estabilidad para la inversión; que, en última instancia, el objetivo de cualquier marco de responsabilidad civil debe ser ofrecer seguridad jurídica a todas las partes, ya sea el productor, el operador, la persona afectada o cualquier otro tercero;

C. Considerando que el ordenamiento jurídico de un Estado miembro puede modular sus normas sobre responsabilidad civil para determinados agentes o hacerlas más estrictas para determinadas actividades; que la responsabilidad objetiva significa que una parte puede ser considerada responsable pese a la ausencia de culpa; que, en muchas legislaciones nacionales en materia de responsabilidad civil, la parte demandada es considerada objetivamente responsable si un riesgo que dicha parte haya creado para el público, por ejemplo, en forma de automóviles o de actividades peligrosas, o un riesgo que no pueda controlar, como los animales, resulta en un daño o perjuicio;

D. Considerando que cualquier legislación futura de la Unión que tenga por objeto la asignación explícita de responsabilidad en lo que se refiere a sistemas de inteligencia artificial (IA) debe ir precedida de un análisis y una consulta con los Estados miembros sobre el cumplimiento de condiciones económicas, jurídicas y sociales por parte del acto legislativo propuesto;

E. Considerando que la cuestión de un régimen de responsabilidad civil en materia de IA debe someterse a un amplio debate público que tenga en cuenta todos los intereses en juego, en particular los aspectos éticos, jurídicos, económicos y sociales, a fin de evitar las confusiones y los temores injustificados que esa tecnología pueda causar entre los ciudadanos; que el estudio cuidadoso de las consecuencias de cualquier nuevo marco normativo para todos los agentes en una evaluación de impacto debe ser un requisito previo para adoptar nuevas medidas legislativas;

F. Considerando que el concepto de sistemas de IA comprende un amplio grupo de tecnologías distintas, incluidos la estadística simple, el aprendizaje automático y el aprendizaje profundo;

G. Considerando que la utilización del término «toma de decisiones automatizada» podría evitar la posible ambigüedad del término IA; que la «toma de decisiones automatizada» implica que un usuario delegue inicialmente una decisión, en su totalidad o en parte, en una entidad mediante la utilización de un programa informático o de un servicio; que dicha entidad, a su vez, utiliza modelos de toma de decisiones ejecutados automáticamente para llevar a cabo una acción en nombre de un usuario o para informar las decisiones del usuario a la hora de realizar una acción;

H. Considerando que ciertos sistemas de IA presentan importantes retos jurídicos para el actual marco de responsabilidad civil y podrían dar lugar a situaciones en las que su opacidad podría hacer extremadamente costoso, o incluso imposible, determinar quién controlaba el riesgo asociado al sistema de IA o qué código, entrada o datos han provocado en última instancia el funcionamiento lesivo; que este factor podría dificultar la identificación de la relación entre el daño o perjuicio y el comportamiento que lo causa, con el resultado de que las víctimas podrían no recibir una indemnización adecuada;

I. Considerando que los retos jurídicos se derivan también de la conectividad entre un sistema de IA y otros sistemas ya sean o no de IA, su dependencia de los datos externos, su vulnerabilidad frente a las violaciones de la ciberseguridad y el diseño de sistemas de IA cada vez más autónomos que usan, entre otras, técnicas de aprendizaje automático y de aprendizaje profundo;

J. Considerando que unas normas éticas firmes para los sistemas de IA combinadas con procedimientos de indemnización sólidos y justos pueden ayudar a abordar estos retos jurídicos y eliminar el riesgo de que los usuarios se muestren reticentes a aceptar la tecnología emergente; que un procedimiento de indemnización justo supone que cada persona que sufra un daño causado por sistemas de IA o que sufra un menoscabo al patrimonio causado por sistemas de IA debe tener el mismo nivel de protección que en aquellos casos en que no haya implicación de un sistema de IA; que el usuario necesita estar seguro de que el posible perjuicio causado por sistemas que utilicen IA está cubierto por un seguro adecuado y de que existe una vía jurídica definida para la reparación;

K. Considerando que la seguridad jurídica es también una condición esencial para el desarrollo dinámico y la innovación de la tecnología basada en la IA, en particular para las empresas emergentes, las microempresas y las pequeñas y medianas empresas, así como para su aplicación práctica en la vida cotidiana; que el papel fundamental de las empresas emergentes, las microempresas y las pequeñas y medianas empresas, en especial en la economía europea, justifica un enfoque estrictamente proporcionado que les permita desarrollarse e innovar;

L. Considerando que la diversidad de los sistemas de IA y la amplia gama de riesgos que la tecnología plantea dificultan los esfuerzos para hallar una solución única adecuada para todo el espectro de riesgos; que, a este respecto, debe adoptarse un enfoque en el que se utilicen experimentos, proyectos piloto y espacios limitados regulatorios para elaborar soluciones proporcionadas y con base empírica que aborden situaciones y sectores específicos cuando sea necesario;

Introducción

1. Considera que el reto relacionado con la introducción de sistemas de IA en la sociedad, el lugar de trabajo y la economía es una de las cuestiones más importantes de la agenda política actual; que las tecnologías basadas en la IA podrían y deberían procurar mejorar nuestras vidas en casi todos los sectores, desde la esfera personal (por ejemplo, sector de los transportes, educación personalizada, asistencia a personas vulnerables, programas de preparación física y concesión de créditos) al entorno de trabajo (por ejemplo, reducción de tareas tediosas y repetitivas) y a los retos mundiales (por ejemplo, la emergencia climática, la asistencia sanitaria, la nutrición y la logística);

2. Cree firmemente que, para aprovechar eficazmente las ventajas e impedir posibles malos usos de los sistemas de IA, así como para evitar la fragmentación normativa en la Unión, es fundamental una legislación uniforme, basada en principios y preparada para el futuro en toda la Unión para todos los sistemas de IA; opina que, si bien son preferibles reglamentaciones sectoriales específicas para la amplia gama de posibles aplicaciones, parece necesario contar con un marco jurídico horizontal y armonizado basado en principios comunes con el fin de garantizar la seguridad jurídica, establecer una igualdad de normas en toda la Unión y proteger eficazmente nuestros valores europeos y los derechos de los ciudadanos;

3. Afirma que el mercado único digital necesita una armonización plena puesto que el ámbito digital se caracteriza por una rápida dinámica transfronteriza y flujos de datos internacionales; considera que la Unión solo alcanzará los objetivos de mantener su soberanía digital y de impulsar la innovación digital en Europa con normas coherentes y comunes en consonancia con una cultura de innovación;

4. Observa que la carrera mundial de la IA ya está en marcha y que la Unión debe asumir el liderazgo en ella explotando su potencial científico y tecnológico; hace especial hincapié en que el desarrollo de tecnología no debe llevarse a cabo a expensas de la protección de los usuarios contra el perjuicio que puedan causar dispositivos y sistemas que utilicen IA; alienta la promoción de las normas de la Unión en materia de responsabilidad civil a escala internacional;

5. Cree firmemente que las nuevas normas comunes para los sistemas de IA solo deben adoptar la forma de un reglamento; considera que la cuestión de la responsabilidad civil en caso de daño o perjuicio causado por un sistema de IA es uno de los aspectos clave que deben abordarse en este contexto;

Responsabilidad civil e inteligencia artificial

6.  Cree que no es necesaria una revisión completa de los regímenes de responsabilidad civil, que funcionan bien, pero que, no obstante, la complejidad, la conectividad, la opacidad, la vulnerabilidad, la capacidad de ser modificados mediante actualizaciones, la capacidad de autoaprendizaje y la autonomía potencial de los sistemas de IA, así como la multitud de agentes relacionados con ella representan un reto importante para la eficacia de las disposiciones del marco de responsabilidad civil nacional y de la Unión; considera que es necesario realizar ajustes específicos y coordinados de los regímenes de responsabilidad civil para evitar situaciones en las que personas que sufran un daño o un menoscabo a su patrimonio acaben sin indemnización;

7.  Observa que todas las actividades, dispositivos o procesos físicos o virtuales gobernados por sistemas de IA pueden ser técnicamente la causa directa o indirecta de un daño o un perjuicio, pero casi siempre son el resultado de que alguien ha construido o implementado los sistemas o intervenido en ellos; observa, a este respecto, que no es necesario conceder personalidad jurídica a los sistemas de IA; opina que la opacidad, la conectividad y la autonomía de los sistemas de IA podrían dificultar o incluso imposibilitar en la práctica la trazabilidad de acciones perjudiciales específicas de los sistemas de IA hasta una intervención humana específica o decisiones de diseño; recuerda que, de conformidad con conceptos de responsabilidad civil ampliamente aceptados, se puede eludir, no obstante, este obstáculo haciendo responsables a las diferentes personas de toda la cadena de valor que crean, mantienen o controlan el riesgo asociado al sistema de IA;

8.  Considera que la Directiva sobre responsabilidad por los daños causados por productos defectuosos ha demostrado ser durante más de treinta años un medio eficaz para obtener una indemnización por un daño causado por un producto defectuoso, pero que, no obstante, debe revisarse para adaptarla al mundo digital y abordar los retos que plantean las tecnologías digitales emergentes, para así garantizar un elevado nivel de protección efectiva de los consumidores y de seguridad jurídica para los consumidores y las empresas, a la vez que se evitan elevados costes y riesgos para las pymes y las empresas emergentes; insta a la Comisión a que evalúe si la Directiva sobre responsabilidad por los daños causados por productos defectuosos debe transformarse en un reglamento, a que aclare la definición de «productos», determinando para ello si el contenido digital y los servicios digitales entran dentro de su ámbito de aplicación, y a que considere la posibilidad de adaptar conceptos como «daño», «defecto» y «productor»; opina que, en aras de la seguridad jurídica en toda la Unión, tras la revisión de la Directiva, el concepto de «productor» debe incluir a fabricantes, desarrolladores, programadores, proveedores de servicios y operadores finales; pide a la Comisión que considere la posibilidad de revertir las normas que rigen la carga de la prueba para los daños ocasionados por las tecnologías digitales emergentes en casos claramente definidos y tras una adecuada evaluación; señala la importancia de garantizar que el acto de la Unión actualizado se limite a problemas claramente identificados para los que ya existen soluciones viables y, al mismo tiempo, permita la inclusión de futuros avances tecnológicos, incluidos los avances basados en programas informáticos libres y de código abierto; señala que la Directiva sobre responsabilidad por los daños causados por productos defectuosos debe seguir utilizándose en relación con las reclamaciones por responsabilidad civil contra el productor de un sistema de IA defectuoso, cuando el sistema de IA cumpla los requisitos para ser considerado un producto con arreglo a dicha Directiva; subraya que cualquier actualización del marco de responsabilidad por los productos debe ir de la mano de la actualización de la Directiva 2001/95/CE del Parlamento Europeo y del Consejo, de 3 de diciembre de 2001, relativa a la seguridad general de los productos[12], a fin de garantizar que los sistemas de IA incorporen los principios de seguridad y protección desde el diseño;

9.  Considera que la legislación vigente de los Estados miembros en materia de responsabilidad subjetiva ofrece, en la mayoría de los casos, un nivel de protección suficiente a las personas que sufren perjuicios causados por un tercero interviniente como un pirata informático o a las personas que sufren menoscabo al patrimonio por ese tercero, ya que esta intervención por regla general constituye una acción de responsabilidad civil subjetiva; observa que solo en casos específicos, incluidos aquellos en los que el tercero no sea rastreable o sea insolvente, parece necesario añadir normas en materia de responsabilidad civil para complementar la legislación nacional en materia de responsabilidad civil existente;

10. Considera, por consiguiente, que el presente informe debe centrarse en las reclamaciones por responsabilidad civil contra el operador de un sistema de IA; afirma que la responsabilidad civil del operador se justifica por el hecho de que controla un riesgo asociado al sistema de IA, comparable al del propietario de un automóvil; considera que, debido a la complejidad y conectividad de un sistema de IA, el operador será, en muchos casos, el primer punto de contacto visible para la persona afectada;

Responsabilidad civil del operador

11.  Opina que las normas en materia de responsabilidad civil que afecten al operador deben abarcar todas las operaciones de los sistemas de IA, independientemente de dónde se lleve a cabo la operación y de que esta sea física o virtual; observa que las operaciones en espacios públicos que exponen a muchas personas a un riesgo constituyen, sin embargo, casos que requieren una consideración más profunda; considera que a menudo las víctimas potenciales de daños o perjuicios no son conscientes de la operación y no suelen disponer de la posibilidad de reclamaciones por responsabilidad civil contractuales contra el operador; señala que, si se produce un daño o perjuicio, esas personas solo tendrían derecho a presentar una reclamación por responsabilidad subjetiva y podrían tener dificultades para demostrar la culpa del operador del sistema de IA, por lo que podrían fracasar las correspondientes reclamaciones por responsabilidad civil;

12.  Considera adecuado que por «operador» se entienda tanto al operador inicial como al operador final, siempre que este último no esté cubierto por la Directiva sobre responsabilidad por los daños causados por productos defectuosos; señala que por «operador inicial» debe entenderse la persona física o jurídica que ejerce un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA y se beneficia de su funcionamiento; afirma que por «operador final» debe entenderse la persona física o jurídica que define, de forma continuada, las características de la tecnología, proporciona datos y un servicio de apoyo final de base esencial y, por tanto, ejerce también un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA; considera que por «ejercicio del control» se entiende cualquier acción del operador que influya en el funcionamiento del sistema de IA y, por consiguiente, en la medida en que expone a terceros a sus potenciales riesgos; considera que esas acciones podrían afectar al funcionamiento de un sistema de IA desde el inicio al fin, al determinar la entrada, la salida o los resultados, o podrían cambiar las funciones o procesos específicos dentro del sistema de IA;

13. Señala que podrían darse situaciones en las que haya más de un operador, por ejemplo, un operador inicial y un operador final; considera que, en ese caso, todos los operadores deben ser responsables civiles solidarios, aunque teniendo al mismo tiempo derecho a recurrir unos contra otros de forma proporcional; opina que los porcentajes de responsabilidad deben venir determinados por los respectivos niveles de control que tengan los operadores sobre el riesgo relacionado con la operación y el funcionamiento del sistema de IA; considera que debe mejorarse la trazabilidad de los productos con el fin de identificar mejor a los que intervienen en las distintas fases;

Normas en materia de responsabilidad civil diferentes para riesgos diferentes

14.  Reconoce que el tipo de sistema de IA sobre el que el operador ejerce control es un factor determinante en lo que respecta a la responsabilidad; observa que un sistema de IA que conlleve un alto riesgo inherente y actúe de manera autónoma potencialmente pone en peligro en mucha mayor medida al público en general; considera que, habida cuenta de los retos jurídicos que plantean los sistemas de IA para los regímenes de responsabilidad civil existentes, parece razonable establecer un régimen común de responsabilidad objetiva para los sistemas de IA autónomos de alto riesgo; subraya que este enfoque basado en el riesgo, que puede incluir varios niveles de riesgo, debe fundamentarse en criterios claros y una definición adecuada de riesgo elevado, así como ofrecer seguridad jurídica;

15.  Cree que un sistema de IA presenta un alto riesgo cuando su funcionamiento autónomo conlleva un potencial significativo de causar daño a una o más personas, de forma aleatoria y yendo más allá de lo que cabe esperar razonablemente; considera que, a la hora de determinar si un sistema de IA es de alto riesgo, también debe tenerse en cuenta el sector en el que cabe esperar que surjan riesgos importantes y la naturaleza de las actividades realizadas; considera que la magnitud del potencial depende de la relación entre la gravedad del posible daño, la probabilidad de que el riesgo cause un daño o un perjuicio y el modo en que se utiliza el sistema de IA;

16.  Recomienda que todos los sistemas de IA de alto riesgo se enumeren de forma exhaustiva en un anexo del Reglamento propuesto; reconoce que, dado el rápido desarrollo tecnológico y los conocimientos técnicos necesarios, la Comisión debe revisar dicho anexo sin demoras injustificadas y, a más tardar, cada seis meses y, en caso necesario, modificarlo mediante un acto delegado; cree que la Comisión debe cooperar estrechamente con un comité permanente de nueva creación similar al Comité Permanente sobre Precursores o al Comité Técnico sobre Vehículos de Motor ya existentes, que incluyen a expertos nacionales de los Estados miembros y a las partes interesadas; considera que la composición equilibrada del Grupo de expertos de alto nivel sobre la inteligencia artificial podría servir de ejemplo para la formación del grupo de partes interesadas, con la suma de expertos en ética, antropólogos, sociólogos y especialistas en salud mental; opina también que el Parlamento Europeo debe nombrar expertos consultivos para asesorar al comité permanente de nueva creación;

17. Señala que el desarrollo de tecnologías basadas en la IA es muy dinámico y está en continua aceleración; subraya que, a fin de garantizar una protección adecuada a los usuarios, se necesita un enfoque acelerado para analizar los potenciales riesgos de nuevos dispositivos y sistemas que utilicen los sistemas de IA que surjan en el mercado europeo; recomienda una simplificación en la mayor medida posible de todos los procedimientos en este sentido; propone, además, que la evaluación por parte de la Comisión de si un sistema de IA presenta un riesgo elevado debe comenzar al mismo tiempo que la evaluación de la seguridad de los productos a fin de evitar una situación en la que un sistema de IA de alto riesgo ya esté aprobado para su comercialización pero aún no esté clasificado como de alto riesgo y, por tanto, funcione sin cobertura de seguro obligatoria;

18. Señala que la Comisión debe evaluar de qué manera la autoridad investigadora podría acceder a los datos recogidos, registrados o almacenados en sistemas de IA de alto riesgo y hacer uso de ellos a efectos de recabar pruebas en caso de daño o perjuicio causado por dicho sistema, y cómo podría mejorarse la trazabilidad y auditabilidad de dichos datos, teniendo en cuenta al mismo tiempo los derechos fundamentales y el derecho a la intimidad;

19.  Afirma que, en consonancia con los sistemas de responsabilidad objetiva de los Estados miembros, la propuesta de Reglamento debe cubrir las violaciones de derechos importantes jurídicamente protegidos a la vida, la salud, la integridad física y la propiedad, y establecer los importes y el alcance de la indemnización, así como el plazo de prescripción; opina que el Reglamento propuesto debe incluir también los daños inmateriales significativos que den lugar a una pérdida económica verificable por encima de un umbral, armonizado en el Derecho de la Unión en materia de responsabilidad civil, que equilibre el acceso a la justicia de las personas afectadas y los intereses de otras personas interesadas; insta a la Comisión a que revalúe y ajuste en el Derecho de la Unión los umbrales relativos a los perjuicios; considera que la Comisión debe analizar en profundidad las tradiciones jurídicas de todos los Estados miembros y sus legislaciones nacionales vigentes que conceden una indemnización por daños inmateriales, a fin de evaluar si la inclusión de los daños inmateriales en actos legislativos específicos sobre IA es necesaria y si contradice el marco jurídico vigente de la Unión o socava el Derecho nacional de los Estados miembros;

20. Precisa que todas las actividades, dispositivos o procesos gobernados por sistemas de IA que ocasionen un daño o perjuicio pero no estén incluidos en el anexo del Reglamento propuesto deben seguir estando sujetos a la responsabilidad subjetiva; cree, no obstante, que la persona afectada debe poder acogerse a una presunción de culpa del operador, quien debe poder exculparse demostrando que ha observado el deber de diligencia;

21. Considera que un sistema de IA que aún no haya sido evaluado por la Comisión y el comité permanente de nueva creación y que, por lo tanto, todavía no esté clasificado como de alto riesgo ni incluido en la lista que figura en el anexo del Reglamento propuesto, debe, no obstante, quedar sujeto, como excepción al sistema previsto en el apartado 20, a una responsabilidad objetiva si ha causado incidentes reiterados que den lugar a un daño o un perjuicio grave; señala que, de ser ese el caso, la Comisión también debe evaluar, sin demora indebida, la necesidad de revisar dicho anexo para añadir el sistema de IA en cuestión a la lista; opina que, si, a raíz de dicha evaluación, la Comisión decide incluir dicho sistema de IA en la lista, dicha inclusión debe tener efecto retroactivo desde el momento del primer incidente probado causado por dicho sistema que haya ocasionado un daño o un perjuicio grave;

22. Pide a la Comisión que evalúe la necesidad de disposiciones jurídicas a escala de la Unión sobre los contratos para evitar la inclusión de cláusulas contractuales de no responsabilidad, también en las relaciones entre empresas y entre empresas y la administración;

Seguros y sistemas de IA

23. Considera que la cobertura de la responsabilidad civil es uno de los factores clave que define el éxito de las nuevas tecnologías, productos y servicios; observa que una cobertura de la responsabilidad civil adecuada es también esencial para garantizar que el público pueda confiar en la nueva tecnología, a pesar de las posibilidades de sufrir un daño o de hacer frente a acciones legales por parte de las personas afectadas; observa, al mismo tiempo, que este sistema regulador se centra en la necesidad de explotar y potenciar las ventajas de los sistemas de IA, a la vez que se establecen sólidas salvaguardias;

24. Opina que, sobre la base del potencial significativo para causar un daño o un perjuicio y teniendo en cuenta la Directiva 2009/103/CE del Parlamento Europeo y del Consejo, de 16 de septiembre de 2009, relativa al seguro de la responsabilidad civil que resulta de la circulación de vehículos automóviles, así como al control de la obligación de asegurar esta responsabilidad[13], todos los operadores de sistemas de IA de alto riesgo enumerados en el anexo del Reglamento propuesto deben ser titulares de un seguro de responsabilidad civil; considera que ese régimen de seguro obligatorio para los sistemas de IA de alto riesgo debe cubrir los importes y el alcance de la indemnización establecidos por el Reglamento propuesto; es consciente de que actualmente dicha tecnología es todavía muy inusual, ya que presupone un alto grado de toma de decisiones autónoma, y de que, por consiguiente, los debates actuales están orientados sobre todo al futuro; cree, no obstante, que la incertidumbre relacionada con los riesgos no debe hacer que las primas de seguro sean prohibitivamente elevadas y convertirse así en un obstáculo para la investigación y la innovación;

25.  Cree que un mecanismo de indemnización a escala de la Unión, financiado con fondos públicos, no es la manera adecuada de colmar posibles lagunas en materia de seguros; considera que la falta de datos sobre los riesgos asociados a los sistemas de IA unida a la incertidumbre sobre su evolución en el futuro dificulta al sector de los seguros elaborar productos nuevos o adaptados de seguro; considera que es probable que dejar el desarrollo de un seguro obligatorio plenamente al mercado resulte en un enfoque de «talla única» con primas desproporcionadamente elevadas y los incentivos equivocados, alentando a los operadores a optar por el seguro más barato en lugar de por la mejor cobertura, lo que podría convertirse en un obstáculo para la investigación y la innovación; considera que la Comisión debe colaborar estrechamente con el sector de los seguros para estudiar la forma de poder utilizar datos y modelos innovadores para crear pólizas de seguro que ofrezcan una cobertura adecuada a un precio asequible;

Aspectos finales

26. Pide a la Comisión que le someta, sobre la base del artículo 225 del Tratado de Funcionamiento de la Unión Europea, una propuesta de Reglamento sobre la responsabilidad civil por el funcionamiento de los sistemas de inteligencia artificial, siguiendo las recomendaciones que se recogen en el anexo;

27. Considera que la propuesta solicitada carece de repercusiones financieras;

28. Encarga a su presidente que transmita la presente Resolución y las recomendaciones que se recogen en el anexo a la Comisión y al Consejo.

 

 


ANEXO A LA PROPUESTA DE RESOLUCIÓN: RECOMENDACIONES PARA LA ELABORACIÓN DE UN REGLAMENTO DEL PARLAMENTO EUROPEO Y DEL CONSEJO RELATIVO A LA RESPONSABILIDAD CIVIL POR EL FUNCIONAMIENTO DE LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL

A. PRINCIPIOS Y OBJETIVOS DE LA PROPUESTA SOLICITADA

El presente informe aborda un aspecto importante de la digitalización que viene configurado por las actividades transfronterizas, la competencia mundial y consideraciones sociales básicas. Los siguientes principios deben servir de orientación:

Un mercado único digital genuino requiere una armonización total mediante un reglamento.  Los nuevos retos jurídicos que plantea el desarrollo de sistemas de inteligencia artificial (IA) deben abordarse estableciendo la máxima seguridad jurídica a lo largo de la cadena de responsabilidad, en particular para el productor, el operador, la persona afectada y cualquier otro tercero. No debe haber una sobrerregulación y debe evitarse la carga burocrática, ya que, de lo contrario, se obstaculizaría la innovación europea en materia de IA, especialmente en caso de que la tecnología, los productos o los servicios sean desarrollados por pymes o empresas emergentes. Las normas de responsabilidad civil para la IA deben tratar de lograr un equilibrio entre la protección del público, por una parte, y los incentivos empresariales para invertir en innovación, especialmente en sistemas de IA, por otra.  En lugar de sustituir los regímenes de responsabilidad civil existentes, que funcionan correctamente, deben realizar algunos ajustes necesarios mediante la introducción de ideas nuevas y orientadas al futuro. La futura propuesta de Reglamento y la Directiva sobre responsabilidad por los daños causados por productos defectuosos constituyen los dos pilares de un marco común de responsabilidad civil para los sistemas de IA y requieren una estrecha coordinación y concertación entre todos los agentes políticos, a nivel nacional y de la Unión. Los ciudadanos deben tener derecho al mismo nivel de protección y de derechos, independientemente de si el daño es causado por un sistema de IA o no, o de si tiene lugar física o virtualmente, de tal forma que aumente su confianza en la nueva tecnología.

 En la futura propuesta de Reglamento deben tenerse en cuenta tanto el daño material como el daño inmaterial. Sobre la base, entre otros documentos, de su Informe de 19 de febrero de 2020 sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica, se pide a la Comisión Europea que analice en profundidad las tradiciones jurídicas de todos los Estados miembros, así como las disposiciones legislativas vigentes que conceden una indemnización por daños inmateriales, a fin de evaluar si la inclusión de los daños inmateriales en la futura propuesta de Reglamento es jurídicamente sólida y necesaria desde el punto de vista de la persona afectada. De acuerdo con la información actualmente disponible, el Parlamento considera que debe incluirse el daño inmaterial significativo si la persona afectada ha sufrido una pérdida económica apreciable, es decir, una pérdida económica verificable.


B. TEXTO DE LA PROPUESTA SOLICITADA

 

Propuesta de

REGLAMENTO DEL PARLAMENTO EUROPEO Y DEL CONSEJO

relativo a la responsabilidad civil por el funcionamiento de los sistemas de inteligencia artificial

 

Visto el Tratado de Funcionamiento de la Unión Europea, en particular, su artículo 114,

Vista la propuesta de la Comisión Europea,

Previa transmisión del proyecto de acto legislativo a los Parlamentos nacionales,

Visto el dictamen del Comité Económico y Social Europeo[14],

De conformidad con el procedimiento legislativo ordinario[15],

Considerando lo siguiente:

 

(1) El concepto de «responsabilidad civil» desempeña un importante doble papel en nuestra vida cotidiana: por una parte, garantiza que una persona que haya sufrido un daño o perjuicio tenga derecho a reclamar una indemnización a quien se haya considerado responsable de dicho daño o perjuicio y, por otra parte, proporciona incentivos económicos para que las personas eviten en primer lugar causar daños o perjuicios. Cualquier marco en materia de responsabilidad civil debe aspirar a infundir confianza en la seguridad, fiabilidad y coherencia de los productos y servicios, incluidas las tecnologías digitales emergentes, como la inteligencia artificial (IA), el internet de las cosas o la robótica, a fin de lograr un equilibrio entre la protección eficaz de las potenciales víctimas de un daño o un perjuicio y, al mismo tiempo, ofrecer un margen de maniobra suficiente para posibilitar el desarrollo de nuevas tecnologías, productos o servicios.

 

(2) En particular al principio del ciclo de vida de los nuevos productos y servicios, tras haber sido probados previamente, existe cierto nivel de riesgo para el usuario, así como para terceras personas, de que algo no funcione correctamente. Este proceso de prueba y error también es, al mismo tiempo, un factor clave para el progreso técnico, sin el cual la mayor parte de nuestras tecnologías no existirían. Hasta ahora, los riesgos asociados a nuevos productos y servicios se han visto atenuados adecuadamente por la sólida legislación en materia de seguridad de los productos y las normas sobre responsabilidad civil.

(3)  El auge de la IA plantea, sin embargo, un reto importante para los actuales marcos de responsabilidad civil. La utilización de sistemas de IA en nuestra vida cotidiana lleva a situaciones en las que su opacidad (el elemento «caja negra») y el gran número de agentes que intervienen en su ciclo de vida podrían hacer extremadamente costoso, o incluso imposible, determinar quién controlaba el riesgo asociado al uso del sistema de IA en cuestión o qué código o entrada ha provocado en última instancia el funcionamiento lesivo. Esta dificultad se ve agravada por la conectividad entre un sistema de IA y otros sistemas ya sean o no de IA, por su dependencia de los datos externos, por su vulnerabilidad frente a las violaciones de la ciberseguridad y por la creciente autonomía de los sistemas de IA debido a las capacidades de aprendizaje automático y de aprendizaje profundo. Además de estas características complejas y las posibles vulnerabilidades, los sistemas de IA también podrían utilizarse para causar daños graves, por ejemplo, poniendo en peligro la dignidad humana y los valores y libertades europeos mediante el seguimiento de las personas contra su voluntad, la introducción de sistemas de crédito social o la toma de decisiones sesgadas en materia de seguro de enfermedad, concesión de crédito, autos judiciales, contratación o empleo o mediante la construcción de sistemas armamentísticos autónomos letales.

(4)  Es importante señalar que las ventajas de la implementación de sistemas de IA compensarán con creces sus desventajas. Ayudarán a luchar contra el cambio climático de manera más eficaz, a mejorar los exámenes médicos y las condiciones de trabajo, a integrar mejor a las personas con discapacidad y las personas mayores en la sociedad y a ofrecer cursos de educación a medida para todo tipo de estudiantes. Para aprovechar las distintas oportunidades tecnológicas e impulsar la confianza de los ciudadanos en el uso de los sistemas de IA, al mismo tiempo que se evitan situaciones perjudiciales, la mejor manera de avanzar son unas normas éticas firmes combinadas con un procedimiento de indemnización justo y sólido.

(5) También es necesario un régimen de responsabilidad civil adecuado para contrarrestar la infracción de las normas de seguridad. No obstante, el régimen de responsabilidad civil establecido en el presente Reglamento debe tener en cuenta todos los intereses en juego. El estudio cuidadoso de las consecuencias de cualquier nuevo marco normativo para las pequeñas y medianas empresas (pymes) y las empresas emergentes es un requisito previo a la adopción de cualquier nueva medida legislativa. El papel fundamental que esas empresas desempeñan en la economía europea justifica un enfoque estrictamente proporcionado para permitirles desarrollarse e innovar. Por otra parte, las víctimas de daños o perjuicios causados por sistemas de IA deben tener derecho a la reparación y a la plena indemnización de los daños o perjuicios que hayan sufrido.

(6) Cualquier cambio necesario del marco jurídico vigente debe comenzar con la aclaración de que los sistemas de IA no tienen personalidad jurídica ni conciencia humana, y que su única tarea es servir a la humanidad. Muchos sistemas de IA tampoco son tan diferentes de otras tecnologías basadas, a veces, en programas informáticos aún más complejos. En última instancia, la gran mayoría de los sistemas de IA se utiliza para efectuar tareas triviales, sin riesgo o con riesgos mínimos para la sociedad. La utilización del término «toma de decisiones automatizada» podría evitar la posible ambigüedad del término IA. Ese término describe una situación en la que un usuario delega inicialmente una decisión, en su totalidad o en parte, en una entidad mediante un programa informático o un servicio. Esa entidad, a su vez, utiliza modelos de toma de decisiones ejecutados automáticamente para llevar a cabo una acción en nombre de un usuario o para informar la decisión del usuario a la hora de realizar una acción;

(7) Sin embargo, existen también sistemas de IA que se desarrollan e implementan de manera crítica y se basan en tecnologías como redes neuronales y procesos de aprendizaje profundo. Su opacidad y autonomía podrían dificultar la trazabilidad de acciones específicas hasta decisiones humanas específicas en su diseño o en su funcionamiento. Un operador de un sistema de IA de este tipo podría, por ejemplo, argumentar que la actividad, el dispositivo o el proceso físico o virtual que causa el daño o perjuicio se encontraba fuera de su control debido a que fue causado por un funcionamiento autónomo de su sistema de IA. Además, el mero funcionamiento de un sistema de IA autónomo no debe constituir un motivo suficiente para admitir una reclamación por responsabilidad civil. Por consiguiente, puede haber casos de responsabilidad civil en los que la atribución de la responsabilidad puede ser injusta o ineficiente, o en los que una persona que sufra un daño o perjuicio causado por un sistema de IA no pueda demostrar la culpa del productor, de un tercero interviniente o del operador y acabe sin indemnización alguna.

(8) No obstante, debe quedar siempre claro que la persona que cree el sistema de IA, lo mantenga, lo controle o intervenga en él debe ser responsable del daño o perjuicio que cause la actividad, el dispositivo o el proceso. Esto se desprende de conceptos de justicia en materia de responsabilidad civil ampliamente aceptados y de carácter general en virtud de los cuales la persona que crea o mantiene un riesgo para el público es responsable si dicho riesgo causa un daño o un perjuicio y, por lo tanto, debe minimizar ex ante o indemnizar ex post dicho riesgo. Por consiguiente, el auge de los sistemas de IA no implica la necesidad de revisar completamente las normas en materia de responsabilidad civil en toda la Unión. Unos ajustes concretos de la legislación vigente y la introducción de nuevas disposiciones bien ponderadas y orientadas serían suficientes para hacer frente a los retos que plantea la IA, a fin de evitar la fragmentación normativa y garantizar la armonización de la legislación en materia de responsabilidad civil en toda la Unión en relación con la IA.

(9) La Directiva 85/374/CEE del Consejo sobre responsabilidad por los daños causados por productos defectuosos[16] ha demostrado ser durante más de treinta años un medio eficaz para obtener una indemnización por los perjuicios causados por un producto defectuoso. Por lo tanto, también debe utilizarse en relación con las reclamaciones por responsabilidad civil presentadas contra el productor de un sistema de IA defectuoso por una parte que sufra un daño o perjuicio. En consonancia con los principios de mejora de la legislación de la Unión, todo ajuste legislativo necesario debe debatirse durante la revisión necesaria de dicha Directiva. La legislación vigente de los Estados miembros en materia de responsabilidad subjetiva también ofrece, en la mayoría de los casos, un nivel de protección suficiente a las personas que sufren un daño o un perjuicio causado por un tercero interviniente, ya que esta intervención por regla general constituye una acción de responsabilidad subjetiva en la que el tercero utiliza el sistema de IA para causar daños. Por consiguiente, el presente Reglamento debe centrarse en las reclamaciones contra el operador de un sistema de IA.

(10) En el marco del presente Reglamento, la responsabilidad civil del operador se basa en el hecho de que ejerce un grado de control sobre un riesgo asociado al funcionamiento y la operación de un sistema de IA, comparable al del propietario de un vehículo. Cuanto mayor sea el grado de sofisticación y de autonomía de un sistema, mayor será el impacto de la definición y la alteración de los algoritmos, por ejemplo a través de actualizaciones constantes. Dado que a menudo podría considerarse, de manera significativa, que hay más de una persona «operando» el sistema de IA, con arreglo al presente Reglamento el término «operador» se entenderá que cubre tanto al operador inicial como al final. Aunque en general el operador inicial parece ser la persona que decide «principalmente» el uso del sistema de IA, el operador final podrá, de hecho, tener un grado de control más elevado sobre los riesgos operativos. Si el operador final también se puede definir como «productor» en el sentido del artículo 3 de la Directiva sobre responsabilidad por los daños causados por productos defectuosos, deberá aplicársele dicha Directiva. Si solo hay un operador y dicho operador es también el productor del sistema de IA, el presente Reglamento prevalecerá sobre la Directiva sobre responsabilidad por los daños causados por productos defectuosos.

(11) Si un usuario, es decir, la persona que utiliza el sistema de IA, participa en el incidente que causa el daño, solo debe ser considerado responsable en virtud del presente Reglamento si el usuario también se puede definir como operador. En caso contrario, el grado de contribución manifiestamente negligente o intencional del usuario al riesgo podría conducir a la responsabilidad subjetiva del usuario ante el demandante. Los derechos del consumidor aplicables del usuario no deben verse afectados.

(12) El presente Reglamento permitirá a la persona afectada interponer demandas de responsabilidad civil a lo largo de la cadena de responsabilidad y de todo el ciclo de vida de un sistema de IA. También debe abarcar todos los sistemas de IA, independientemente del lugar de operación y de si esta es de carácter físico o virtual. Sin embargo, la mayoría de las demandas de responsabilidad civil en virtud del presente Reglamento deben abordar casos de responsabilidad ante terceros en los que un sistema de IA funciona en un espacio público y expone a numerosas personas a un riesgo. En este tipo de situaciones, las personas afectadas a menudo no estarán al tanto del sistema de IA que se utiliza ni tendrán una relación contractual o jurídica con el operador. Por consiguiente, la utilización del sistema de IA los coloca en una situación en la que, en caso de daño o perjuicio, solo pueden emprender a demandas de responsabilidad subjetiva contra el operador del sistema de IA, al tiempo que se enfrentan a graves dificultades para demostrar la culpa del operador.

(13) El tipo de sistema de IA sobre el que el operador ejerce el control es un factor determinante. Un sistema de IA que implique un alto riesgo puede poner en peligro al usuario o al público en un grado mucho más elevado y de manera aleatoria y yendo más allá de lo que cabe esperar razonablemente. Esto significa que, al inicio del funcionamiento autónomo del sistema de IA, la mayoría de las personas potencialmente afectadas no son ni conocidas ni identificables (por ejemplo, las personas que se encuentren en una plaza pública o en una casa vecina), a diferencia de lo que ocurre en el caso del funcionamiento de un sistema de IA en el que participan personas concretas, que han dado regularmente su consentimiento para su implementación (por ejemplo, una intervención quirúrgica en un hospital o una demostración comercial en una tienda pequeña). La definición de la importancia del potencial de un sistema de IA de alto riesgo de causar daños o perjuicios depende de la interacción entre la finalidad de uso para la que se comercializa el sistema de IA, la forma en que se usa el sistema de IA, la gravedad del daño o perjuicio potencial, el grado de autonomía de la toma de decisiones que puede resultar en daños y de la probabilidad de que el riesgo se materialice. El grado de gravedad debe determinarse sobre la base de factores relevantes como la magnitud del daño potencial resultante del funcionamiento en las personas afectadas, incluido, en particular, el efecto sobre los derechos fundamentales, el número de personas afectadas, el valor total del posible perjuicio y el daño a la sociedad en su conjunto. La probabilidad del daño o perjuicio debe determinarse sobre la base de factores relevantes como el papel de los cálculos algorítmicos en el proceso de toma de decisiones, la complejidad de la decisión y la reversibilidad de los efectos. En última instancia, la forma de uso debe depender de factores relevantes como el contexto y el sector en el que opera el sistema de IA, si puede tener efectos jurídicos o reales sobre derechos importantes de la persona afectada protegidos desde el punto de vista jurídico y de si los efectos pueden evitarse razonablemente.

(14) En un anexo al Reglamento presente se enumerarán exhaustivamente todos los sistemas de IA de alto riesgo. Habida cuenta de la rápida evolución técnica y del mercado a escala mundial, así como de los conocimientos técnicos que se necesitan para una revisión adecuada de los sistemas de IA, deben delegarse en la Comisión poderes para adoptar actos delegados con arreglo al artículo 290 del Tratado de Funcionamiento de la Unión Europea con el fin de modificar el presente Reglamento en lo que se refiere a los tipos de sistemas de IA que entrañan un alto riesgo y los sectores críticos en los que se usan. Sobre la base de las definiciones y disposiciones recogidas en el presente Reglamento, la Comisión debe revisar el anexo en el plazo más breve posible y, en todo caso cada seis meses y, si procede, modificarlo mediante actos delegados. La evaluación por parte de la Comisión de si un sistema de IA presenta un riesgo elevado debe comenzar al mismo tiempo que la evaluación de la seguridad de los productos a fin de evitar una situación en la que un sistema de IA de alto riesgo ya esté aprobado para su comercialización pero aún no esté clasificado como de alto riesgo y, por tanto, funcione sin cobertura de seguro obligatoria. Para que las empresas y los organismos de investigación dispongan de seguridad suficiente en términos de planificación e inversión, los cambios en los sectores críticos solo deben realizarse cada doce meses. Deberá instarse a los operadores a que informen a la Comisión si están trabajando en una nueva tecnología, productos o servicios que se inscriben en uno de los sectores críticos existentes previstos en el anexo y que posteriormente podrían clasificarse como sistema de IA de alto riesgo.

(15) Reviste especial importancia que la Comisión lleve a cabo consultas periódicas adecuadas con todas las partes interesadas pertinentes durante la fase preparatoria, en particular con expertos, y que esas consultas se realicen de conformidad con los principios establecidos en el Acuerdo interinstitucional, de 13 de abril de 2016, sobre la mejora de la legislación[17]. La Comisión debe ser apoyada en su revisión periódica por un comité permanente denominado «Comité técnico — sistemas de IA de alto riesgo» (TCRAI, por sus siglas en inglés), de conformidad con el presente Reglamento. Este comité permanente debe incluir representantes de los Estados miembros, así como una selección equilibrada de las partes interesadas, incluidas asociaciones de consumidores, asociaciones que representan a las personas afectadas, representantes de empresas de distintos sectores y tamaños, así como investigadores y científicos. En particular, a fin de garantizar una participación equilibrada en la elaboración de los actos delegados, el Parlamento Europeo y el Consejo recibirán toda la documentación al mismo tiempo que los expertos de los Estados miembro y sus expertos tendrán acceso sistemáticamente a las reuniones de los grupos de expertos de la Comisión y del Comité mencionado anteriormente cuando aborden la elaboración de actos delegados.

(16) El presente Reglamento debe cubrir los daños o perjuicios a la vida, la salud, la integridad física, la propiedad y los daños morales significativos que den lugar a una pérdida económica verificable por encima de un umbral, armonizado en el Derecho de la Unión en materia de responsabilidad civil, que equilibre el acceso a la justicia de las personas afectadas con los intereses de otras personas implicadas. La Comisión debe revaluar y ajustar en el Derecho de la Unión los umbrales relativos a los perjuicios. Por daño moral significativo debe entenderse un daño como consecuencia del cual la persona afectada sufre un perjuicio considerable, un menoscabo objetivo y demostrable de sus intereses personales y una pérdida económica calculada teniendo en cuenta, por ejemplo, las cifras medias anuales de ingresos anteriores y otras circunstancias pertinentes. El presente Reglamento también debe determinar el importe y el alcance de la indemnización, así como el plazo de prescripción para presentar demandas en materia de responsabilidad civil. El presente Reglamento debe establecer un límite máximo de indemnización significativamente inferior que el recogido en la Directiva sobre responsabilidad por los daños causados por productos defectuosos, ya que el Reglamento solo se refiere al daño o perjuicio de una sola persona resultante de una única utilización de un sistema de IA, mientras que dicha Directiva se refiere a una serie de productos o, incluso, a una línea de productos con el mismo defecto.

(17) Todas las actividades, dispositivos o procesos físicos o virtuales gobernados por los sistemas de IA que no se califiquen en el anexo del presente Reglamento como sistemas de IA de alto riesgo deben seguir estando sujetos a la responsabilidad subjetiva, a menos que estén en vigor leyes nacionales o legislación en materia de protección de los consumidores más estrictas. Deben seguir aplicándose las legislaciones nacionales de los Estados miembros, incluida cualquier jurisprudencia pertinente, en relación con el importe y el alcance de la indemnización, así como el plazo de prescripción. No obstante, una persona que sufra un daño o perjuicio causado por un sistema de IA y que no se califique como sistema de IA de alto riesgo debe beneficiarse de la presunción de culpa por parte del operador.

(18) La diligencia debida que cabe esperar de un operador debe ser acorde con i) la naturaleza del sistema de IA; ii) el derecho protegido jurídicamente potencialmente afectado; iii) el daño o perjuicio potencial que podría causar el sistema de IA; y iv) la probabilidad de dicho perjuicio. Por consiguiente, debe tenerse en cuenta que el operador podría tener un conocimiento limitado de los algoritmos y datos utilizados en el sistema de IA. Cabe suponer que el operador ha prestado la debida atención que cabe esperar razonablemente de él al seleccionar un sistema de IA adecuado si ha seleccionado un sistema de IA que ha sido certificado con arreglo a un sistema similar al sistema de etiquetado voluntario previsto por la Comisión[18]. Cabe suponer que el operador ha prestado la debida atención que cabe esperar razonablemente de él durante el funcionamiento del sistema de IA, si el operador puede demostrar que ha supervisado real y periódicamente el sistema de IA durante su funcionamiento y si ha informado al fabricante sobre posibles irregularidades durante el mismo. Cabe suponer que el operador ha prestado la debida atención que cabe esperar razonablemente de él en lo que se refiere al mantenimiento de la fiabilidad operativa si ha instalado todas las actualizaciones disponibles proporcionadas por el productor del sistema de IA. Dado que el grado de sofisticación de los operadores puede variar en función de si son meros consumidores o profesionales, los deberes de diligencia deben adaptarse en consecuencia.

(19) Para que el operador pueda demostrar que no es responsable o para permitir que la persona afectada pueda demostrar la existencia de culpa, los productores han de tener el deber de colaborar con las dos partes interesadas, también mediante la facilitación de información bien documentada. Tanto los productores establecidos en la Unión como fuera de ella deben tener, además, la obligación de designar a un representante en materia de responsabilidad civil de la IA en la Unión como punto de contacto para responder a todas las solicitudes de los operadores, de modo similar a los delegados de protección de datos de conformidad con el artículo 37 del Reglamento (UE) n.º 2016/679 del Parlamento Europeo y del Consejo[19], a los representantes del fabricante definidos en el artículo 3, punto 41, del Reglamento (UE) 2018/858 del Parlamento Europeo y del Consejo[20], o al representante autorizado mencionado en el artículo 4, apartado 2, y en el artículo 5, del Reglamento (UE) 2019/1020 del Parlamento Europeo y del Consejo[21].

(20) El legislador debe tener en cuenta los riesgos en materia de responsabilidad civil relacionados con los sistemas de IA durante todo su ciclo de vida, desde el desarrollo, pasando por su uso hasta el fin de su vida útil, incluida la gestión de residuos y del reciclado. La inclusión de sistemas de IA en un producto o servicio representa un riesgo financiero para las empresas y, por consiguiente, tendrá un fuerte impacto en la capacidad y las opciones de las pymes, así como de las empresas emergentes, en materia de seguros y de financiación de sus proyectos de investigación y desarrollo basados en nuevas tecnologías. El objetivo de la responsabilidad civil, por lo tanto, no es solo salvaguardar importantes derechos de las personas que están protegidos jurídicamente sino también determinar si las empresas, en particular las pymes y las empresas emergentes, son capaces de reunir capital, innovar, investigar y, en última instancia, ofrecer nuevos productos y servicios, así como si los clientes confían en esos productos y servicios y están dispuestos a usarlos a pesar de los riesgos potenciales y de las demandas de carácter jurídico que se presenten en relación con dichos productos o servicios.

(21) El seguro puede garantizar que las víctimas perciban una indemnización real y mutualizar los riesgos de todas las personas aseguradas. Uno de los factores en los que las compañías de seguros basan su oferta de productos y servicios de seguros es la evaluación de riesgos basada en el acceso a datos históricos suficientes en relación con las demandas. Un acceso deficiente a datos de calidad elevada o una cantidad insuficiente de este tipo de datos podría ser una de las razones por las que en un principio resulta difícil crear productos de seguro para las tecnologías nuevas y emergentes. Sin embargo, un mayor acceso y la optimización del uso de los datos generados por las nuevas tecnologías, combinados con la obligación de facilitar información bien documentada, aumentaría la capacidad de las aseguradoras para modelar el riesgo emergente y fomentar el desarrollo de una cobertura más innovadora.

(22) Debido a la ausencia de datos históricos sobre las demandas, debe investigarse cómo y en qué condiciones es asegurable la responsabilidad, con vistas a establecer un vínculo entre el seguro y el producto y no con la persona responsable. Ya existen productos de seguro que se desarrollan por ámbito y cobertura a medida que se desarrolla la tecnología. Numerosas empresas de seguros se especializan en determinados segmentos del mercado (por ejemplo, las pymes) o en brindar cobertura a determinados tipos de productos (por ejemplo, los aparatos eléctricos), lo que significa que, por lo general, el asegurado tendrá a su disposición un producto de seguro. Sin embargo, es difícil concebir una solución de «talla única» y el mercado de los seguros necesitará tiempo para adaptarse. La Comisión debe colaborar estrechamente con el mercado de los seguros para desarrollar productos de seguro innovadores que podrían colmar esa laguna en la materia. En casos excepcionales, como en el caso de que se produzcan daños colectivos, en los que la indemnización exceda de modo significativo los importes máximos establecidos en el presente Reglamento, debe alentarse a los Estados miembros a crear un fondo especial de indemnización para un período de tiempo limitado que responda a las necesidades específicas de esos casos. También podrían crearse fondos especiales de indemnización para cubrir aquellos casos excepcionales en los que un sistema de IA, que aún no esté clasificado como sistema de IA de alto riesgo y que, por tanto, todavía no está asegurado, cause daños o perjuicios. A fin de garantizar la seguridad jurídica y cumplir la obligación de informar a todas las personas potencialmente afectadas, la existencia del fondo especial de indemnización, así como las condiciones para beneficiarse de él, deben hacerse públicas de manera clara y exhaustiva.

(23) Reviste gran importancia que los posibles cambios al presente Reglamento que se introduzcan en el futuro vayan acompañados de la necesaria revisión de la Directiva sobre responsabilidad por los daños causados por productos defectuosos a fin de revisarla de manera integral y coherente y garantizar los derechos y obligaciones de todas las partes interesadas a lo largo de la cadena de responsabilidad civil. La introducción de un nuevo régimen de responsabilidad civil en relación con el operador de sistemas de la IA requiere que las disposiciones del presente Reglamento y la revisión de la Directiva sobre responsabilidad por los daños causados por productos defectuosos se coordinen estrechamente, tanto en términos de fondo como de enfoque, de modo que, juntas, constituyan un marco de responsabilidad civil coherente para los sistemas de IA, que equilibre los intereses del productor, del operador, del consumidor y de la persona afectada en lo que respecta al riesgo de responsabilidad civil y los regímenes de indemnización relevantes. Por lo tanto, adaptar y racionalizar las definiciones de sistemas de IA, operador inicial y final, productor, defecto, producto y servicio en todas las disposiciones legislativas parece necesario y debe contemplarse al mismo tiempo.

(24) Los objetivos que persigue el presente Reglamento, a saber, la adopción de un enfoque orientado hacia el futuro y unificado a escala de la Unión que establezca normas europeas comunes para los ciudadanos y empresas europeos y que garantice la coherencia de los derechos y la seguridad jurídica en el conjunto de la Unión, a fin de evitar la fragmentación del mercado único digital, lo que obstaculizaría el objetivo de mantener la soberanía digital, de fomentar la innovación digital en Europa y de garantizar un nivel elevado de protección de los derechos de los ciudadanos y los consumidores, exigen una armonización plena de los regímenes de responsabilidad civil aplicables a los sistemas de IA. Esto no pueden lograrlo en la medida adecuada los Estados miembros, debido a la velocidad de los cambios de carácter tecnológico, al desarrollo transfronterizo así como al uso de los sistemas de IA y, en última instancia, a los enfoques legislativos contradictorios en el conjunto de la Unión, pero puede lograrse, debido a la dimensión o a los efectos de la demanda, a escala de la Unión. La Unión puede adoptar medidas, de conformidad con el principio de subsidiariedad establecido en el artículo 5 del Tratado de la Unión Europea. De conformidad con el principio de proporcionalidad establecido en el mismo artículo, el presente Reglamento no excede de lo necesario para alcanzar dichos objetivos,


HAN ADOPTADO EL PRESENTE REGLAMENTO:

Capítulo I

Disposiciones generales

Artículo 1

Objeto

El presente Reglamento establece normas en relación con las reclamaciones por responsabilidad civil de las personas físicas y jurídicas contra los operadores de sistemas de IA.

 

Artículo 2

Ámbito de aplicación

 

1. El presente Reglamento se aplicará en el territorio de la Unión a aquellos casos en que una actividad física o virtual, un dispositivo o un proceso gobernado por un sistema de IA haya causado daños o perjuicios a la vida, la salud, la integridad física de una persona física y los bienes de una persona física o jurídica, o bien haya causado daños morales considerables que den lugar a una pérdida económica verificable.

2. Todo acuerdo celebrado entre un operador de un sistema de IA y una persona física o jurídica que sufra un daño o perjuicio como consecuencia de un sistema de IA, que eluda o limite los derechos y obligaciones establecidos en el presente Reglamento, celebrado bien antes o después de haberse causado el daño o perjuicio, será considerado nulo por lo que respecta a los derechos y obligaciones estipulados en virtud del presente Reglamento.

3. El presente Reglamento se entiende sin perjuicio de cualquier otra demanda en materia de responsabilidad civil derivada de las relaciones contractuales, así como de la normativa sobre responsabilidad por los daños causados por productos defectuosos, la protección de los consumidores, la lucha contra la discriminación y la protección laboral y del medio ambiente, entre el operador y la persona física o jurídica que haya sufrido un daño o perjuicio a causa del sistema de IA y de que se pueda presentar contra el operador de conformidad con el Derecho de la Unión o nacional

 

Artículo 3

Definiciones

A efectos del presente Reglamento, se entenderá por:

a) «sistema de inteligencia artificial»: todo sistema basado en programas informáticos o incorporado en dispositivos físicos que muestra un comportamiento que simula la inteligencia, entre otras cosas, mediante la recopilación y el tratamiento de datos, el análisis y la interpretación de su entorno y la adopción de medidas, con cierto grado de autonomía, para lograr objetivos específicos;

b) «autónomo»: todo sistema de inteligencia artificial que funciona interpretando determinados datos de entrada y utilizando un conjunto de instrucciones predeterminadas, sin limitarse a ellas, a pesar de que el comportamiento del sistema esté limitado y orientado a cumplir el objetivo que se le haya asignado y otras decisiones pertinentes de diseño tomadas por su desarrollador;

c) «alto riesgo»: potencial significativo en un sistema de IA que funciona de forma autónoma para causar daños o perjuicios a una o más personas de manera aleatoria y que excede lo que cabe esperar razonablemente; la magnitud del potencial depende de la relación entre la gravedad del posible daño o perjuicio, el grado de autonomía de la toma de decisiones, la probabilidad de que el riesgo se materialice y el modo y el contexto en que se utiliza el sistema de IA;

d) «operador»: tanto el operador inicial como el final, siempre que la responsabilidad civil de este último no esté ya cubierta por la Directiva 85/374/CEE;

e) «operador inicial»: toda persona física o jurídica que ejerce un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA y se beneficia de su funcionamiento;

f) «operador final»: toda persona física o jurídica que define, de forma continuada, las características de la tecnología y proporciona datos y un servicio de apoyo final de base esencial y, por tanto, ejerce también grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA;

g) «control»: cualquier acción de un operador que influya en el funcionamiento de un sistema de IA y, por consiguiente, en la medida en que el operador expone a terceros a los potenciales riesgos asociados a la operación y al funcionamiento del sistema de IA; estas medidas pueden afectar al funcionamiento en cualquier fase al fin al determinar la entrada, la salida o resultados o pueden cambiar funciones o procesos específicos en el seno del sistema de IA; el grado en que estos aspectos del funcionamiento del sistema de IA están determinados por la acción depende del nivel de influencia del operador sobre el riesgo relacionado con la operación y el funcionamiento del sistema de IA;

h) «persona afectada»: toda persona que sufre daños o perjuicios por una actividad física o virtual, un dispositivo o un proceso gobernado por un sistema de IA, y que no sea su operador;

i) «daño o perjuicio»: impacto adverso que afecta a la vida, la salud, la integridad física de una persona física, los bienes de una persona física o jurídica o bien que produce daños morales significativos que resultan en una pérdida económica verificable;

j) «Productor»: el productor tal como se define en el artículo 3 de la Directiva 85/374/CEE del Consejo[22].

 

Capítulo II

Sistemas de IA de alto riesgo

Artículo 4

Responsabilidad objetiva de los sistemas de IA de alto riesgo

1. El operador de un sistema de IA de alto riesgo será objetivamente responsable de cualquier daño o perjuicio causado por una actividad física o virtual, un dispositivo o un proceso gobernado por dicho sistema de IA.

2. En el anexo al presente Reglamento se enumerarán todos los sistemas de IA de alto riesgo y los sectores críticos en los que se utilizan. La Comisión estará facultada para adoptar actos delegados con arreglo al artículo 13 bis para modificar la lista exhaustiva:

a) mediante la inclusión de nuevos tipos de sistemas de IA de alto riesgo y de los sectores críticos en los que se han implementado;

b) suprimiendo los tipos de sistemas de IA que ya no se considera que presentan un alto riesgo; o

c) modificando los sectores críticos des sistemas de IA de alto riesgo existentes.

Todo acto delegado por el que se modifique el anexo entrará en vigor seis meses después de su adopción. Al adoptar la decisión sobre la inclusión en el anexo de nuevos sistemas de IA de alto riesgo o sectores críticos mediante actos delegados, la Comisión tendrá plenamente en cuenta los criterios establecidos en el presente Reglamento, en particular los recogidos en el artículo 3, letra c).

3. Los operadores de un sistema de IA de alto riesgo no podrán eludir su responsabilidad civil alegando que actuaron con la diligencia debida o que el daño o perjuicio fue causado por una actividad, un dispositivo o un proceso autónomos gobernados por su sistema de IA. Los operadores no serán responsables si el daño o perjuicio ha sido provocado por un caso de fuerza mayor.

4. El operador inicial de un sistema de IA de alto riesgo velará por que las operaciones de dicho sistema de IA estén cubiertas por un seguro de responsabilidad civil adecuado en relación con los importes y el alcance de la indemnización previstos en los artículos 5 y 6 del presente Reglamento. El operador final velará por que sus servicios estén cubiertos por un seguro de responsabilidad empresarial o de responsabilidad civil de productos adecuado en relación con los importes y el alcance de la indemnización previstos en los artículos 5 y 6 del presente Reglamento. Si se considera que los regímenes de seguro obligatorio del operador inicial o final ya vigentes con arreglo a otra legislación de la Unión o nacional o los fondos voluntarios existentes de seguros de empresas cubren el funcionamiento del sistema de IA o el servicio prestado, la obligación de suscribir un seguro en relación con el sistema de IA o el servicio prestado con arreglo al presente Reglamento se considerará cumplida siempre que el pertinente seguro obligatorio existente o los fondos voluntarios existentes de seguros de empresas cubran los importes y el alcance de la indemnización previstos en los artículos 5 y 6 del presente Reglamento.

5. El presente Reglamento prevalecerá sobre los regímenes nacionales de responsabilidad civil en caso de clasificación divergente de la responsabilidad objetiva de los sistemas de IA.

 

Artículo 5

Importe de la indemnización

 

1. Un operador de un sistema de IA de alto riesgo que haya sido considerado responsable de un daño o perjuicio con arreglo al presente Reglamento indemnizará:

a)  hasta un importe máximo de dos millones de euros en caso de fallecimiento o de daños causados a la salud o a la integridad física de una persona afectada como resultado de una única utilización de un único sistema de IA de alto riesgo;

b)  hasta un importe máximo de un millón de euros en caso de daños morales significativos que resulten en una pérdida económica verificable o en daños a la propiedad, también cuando distintos bienes propiedad de una persona afectada resulten dañados como resultado de una única utilización de un único sistema de IA de alto riesgo; cuando la persona afectada también haya presentado una demanda de responsabilidad contractual contra el operador no se abonará ninguna indemnización en virtud del presente Reglamento si el importe total de los perjuicios materiales o el daño moral es de un valor inferior a [500 euros][23].

2. Cuando la indemnización combinada que deba abonarse a varias personas que sufran daños o perjuicios causados por la misma utilización de un mismo sistema de IA de alto riesgo supere los importes totales máximos previstos en el apartado 1, los importes que deban abonarse a cada persona se reducirán proporcionalmente de forma que la indemnización combinada no supere los importes máximos establecidos en el apartado 1.

 

Artículo 6

Alcance de la indemnización

 

1. Dentro de los límites para el importe establecidos en el artículo 5, apartado 1, letra a), la indemnización que abonará el operador considerado responsable en caso de daños físicos seguidos de la muerte de la persona afectada se calculará sobre la base de los costes del tratamiento médico que haya seguido la persona afectada antes de su muerte, así como del perjuicio económico sufrido antes del fallecimiento como consecuencia de la interrupción o la reducción de la capacidad de generar ingresos o el aumento de sus necesidades mientras durase el daño antes del fallecimiento. El operador será además responsable de reembolsar los gastos funerarios de la persona afectada fallecida a la parte responsable de sufragar dichos gastos.

Si en el momento del incidente que causó el daño que condujo a su muerte, la persona afectada mantenía una relación con un tercero y tenía la obligación legal de apoyar a ese tercero, el operador responsable indemnizará al tercero mediante el pago de una pensión alimenticia proporcional a la que la persona afectada se habría visto obligada a pagar, durante un período equivalente a la esperanza de vida media de una persona de su edad y teniendo en cuenta su estado general. El operador también indemnizará al tercero si, en el momento del incidente que provocó la muerte, el tercero había sido concebido, pero todavía no había nacido.

2. Dentro de los límites para el importe establecidos en el artículo 5, apartado 1, letra b), la indemnización que pagará el operador considerado responsable en caso de daño para la salud o para la integridad física de la persona afectada incluirá el reembolso de los gastos del tratamiento médico correspondiente, así como el pago del perjuicio económico sufrido por la persona afectada como consecuencia de la suspensión temporal, la reducción o la interrupción definitiva de su capacidad de generar ingresos o del aumento consiguiente de sus necesidades acreditado mediante certificado médico.

 

Artículo 7

Plazo de prescripción

1. Las demandas de responsabilidad civil emprendidas de conformidad con lo dispuesto en el artículo 4, apartado 1, relativas a daños a la vida, la salud o la integridad física estarán sujetas a un plazo de prescripción especial de treinta años a partir de la fecha en que se produjo el daño.

2. Las demandas de responsabilidad civil emprendidas de conformidad con lo dispuesto en el artículo 4, apartado 1, relativas a perjuicios materiales o daños morales considerables que resulten en una pérdida económica verificables estarán sujetas a un plazo de prescripción especial de:

a)  diez años a partir de la fecha en que se produjo el menoscabo al patrimonio o la pérdida económica verificable resultante del daño moral significativo, respectivamente, o

b)  treinta años a partir de la fecha en que tuvo lugar la operación del sistema de IA de alto riesgo que causó posteriormente el menoscabo al patrimonio o el daño moral.

De los plazos contemplados en el párrafo primero, será aplicable aquel que antes venza.

3. El presente artículo se entenderá sin perjuicio de la legislación nacional que regule la suspensión o la interrupción de los plazos de prescripción.

 

Capítulo III

Otros sistemas de IA

Artículo 8

Responsabilidad subjetiva para otros sistemas de IA

1. El operador de un sistema de IA que no constituya un sistema de IA de alto riesgo, tal y como se define en el artículo 3, letra c), y en el artículo 4, apartado 2, y que, en consecuencia, no figure en el anexo del presente Reglamento, estará sujeto a responsabilidad subjetiva respecto de todo daño o perjuicio causado por una actividad física o virtual, un dispositivo o un proceso gobernados por el sistema de IA.

2. El operador no será responsable si puede demostrar que no tuvo culpa en el daño o perjuicio causado, basándose en uno de los siguientes motivos:

a) el sistema de IA se activó sin su conocimiento, al tiempo que se tomaron todas las medidas razonables y necesarias para evitar dicha activación fuera del control del operador, o

b)  se observó la diligencia debida a través de la realización de las siguientes acciones: la selección de un sistema de IA apropiado para las tareas y las capacidades adecuadas, la correcta puesta en funcionamiento del sistema de IA, el control de las actividades y el mantenimiento de la fiabilidad operativa mediante la instalación periódica de todas las actualizaciones disponibles.

El operador no podrá eludir su responsabilidad civil alegando que el daño o perjuicio fue causado por una actividad, un dispositivo o un proceso autónomos gobernados por su sistema de IA. El operador no será responsable si el daño o perjuicio ha sido provocado por un caso de fuerza mayor.

3. Cuando el daño o perjuicio haya sido causado por un tercero que haya intervenido en el sistema de IA por medio de una modificación de su funcionamiento o sus efectos, el operador será, no obstante, responsable del pago de una indemnización en caso de que dicho tercero esté ilocalizable o sea insolvente.

4. A petición del operador o de la persona afectada, el productor de un sistema de IA tendrá la obligación de cooperar con ellos y de facilitarles información en la medida que lo justifique la relevancia de la demanda, a fin de permitir que se determinen las responsabilidades.

 

Artículo 9

Disposiciones nacionales sobre indemnización y plazo de prescripción

 

Las demandas de responsabilidad civil emprendidas de conformidad con el artículo 8, apartado 1, estarán sujetas, en relación con los plazos de prescripción, así como con los importes y el alcance de la indemnización, a la legislación del Estado miembro en el que se haya producido el daño o perjuicio.

Capítulo IV

Imputación de la responsabilidad civil

Artículo 10

Negligencia concurrente

1. Si el daño o perjuicio es causado por una actividad física o virtual, un dispositivo o un proceso gobernados por un sistema de IA o por la actuación de una persona afectada o de una persona de la que la persona afectada sea responsable, el alcance de la responsabilidad civil del operador con arreglo al presente Reglamento se reducirá en consecuencia. El operador no será responsable si la persona afectada o la persona de la que esta es responsable es la única a la que se le puede achacar el daño o perjuicio causado.

2. Un operador podrá utilizar los datos generados por el sistema de IA para demostrar la negligencia concurrente de la persona afectada, de conformidad con el Reglamento (UE) 2016/679 y otras leyes en materia de protección de datos relevantes. La persona afectada también podrá usar esos datos con fines probatorios o aclaratorios en la demanda de responsabilidad civil.

 

Artículo 11

Responsabilidad conjunta y solidaria

En caso de que haya más de un operador de un sistema de IA, estos serán responsables conjuntos y solidarios. Si un operador inicial es también el productor del sistema de IA, el presente Reglamento prevalecerá sobre la Directiva sobre responsabilidad por los daños causados por productos defectuosos. Si el operador final también se puede definir como «productor» en el sentido del artículo 3 de la Directiva sobre responsabilidad por los daños causados por productos defectuosos, deberá aplicársele dicha Directiva. Si solo hay un operado y dicho operador es también el productor del sistema de IA, el presente Reglamento prevalecerá sobre la Directiva sobre responsabilidad por los daños causados por productos defectuosos.

 

Artículo 12

Recurso de indemnización

1. El operador no estará facultado para ejercer una acción de recurso a menos que a la persona afectada se le haya abonado la totalidad de la indemnización a la que esa persona tenga derecho a recibir en virtud del presente Reglamento.

2. El operador que sea considerado responsable conjunto y solidario con otros operadores en relación con una persona afectada y haya indemnizado íntegramente a esa persona afectada, de conformidad con el artículo 4, apartado 1, o el artículo 8, apartado 1, podrá recuperar parte de la indemnización de otros operadores, en proporción a su responsabilidad civil.

Los porcentajes de responsabilidad se basarán en los respectivos niveles de control por parte de los operadores sobre el riesgo relacionado con la operación y el funcionamiento del sistema de IA. Si no puede obtenerse de un operador responsable conjunto o solidario su contribución atribuible, el déficit será asumido por los demás operadores. En la medida en que un operador solidariamente responsable indemnice a la persona afectada y solicite un ajuste de los anticipos a los demás operadores responsables, se subrogará al operador en relación con la demanda de la persona afectada contra los demás operadores. No se invocará la subrogación de créditos en perjuicio de la demanda inicial.

3. En caso de que el operador de un sistema de IA defectuoso indemnice íntegramente a la persona afectada por daños o perjuicios con arreglo a lo dispuesto en el artículo 4, apartado 1, o en el artículo 8, apartado 1, podrá iniciar acciones de reclamación contra el productor del sistema de IA defectuoso de conformidad con la Directiva 85/374/CEE y las disposiciones nacionales en materia de responsabilidad por los daños causados por productos defectuosos.

 

4. En caso de que el asegurador del operador indemnice a la persona afectada por daños o perjuicios con arreglo a lo dispuesto en el artículo 4, apartado 1, o en el artículo 8, apartado 1, cualquier reclamación por responsabilidad civil de la persona afectada contra otra persona por el mismo daño se subrogará al asegurador del operador hasta el importe con el que el asegurador del operador haya indemnizado a la persona afectada.

 

Capítulo V

Disposiciones finales

Artículo 13

Ejercicio de la delegación

1. Se otorgan a la Comisión los poderes para adoptar actos delegados en las condiciones establecidas en el presente artículo.

2. Los poderes para adoptar actos delegados mencionados en el artículo 4, apartado 2, se otorgan a la Comisión por un período de cinco años a partir de [fecha de aplicación del presente Reglamento].

3. La delegación de poderes mencionada en el artículo 4, apartado 2, podrá ser revocada en cualquier momento por el Parlamento Europeo o por el Consejo. La decisión de revocación pondrá término a la delegación de los poderes que en ella se especifiquen. La decisión surtirá efecto el día siguiente al de su publicación en el Diario Oficial de la Unión Europea o en una fecha posterior indicada en ella. No afectará a la validez de los actos delegados que ya estén en vigor.

4. Antes de la adopción de un acto delegado, la Comisión consultará al Comité técnico permanente — sistemas de IA de alto riesgo (Comité TCRAI), de conformidad con los principios establecidos en el Acuerdo interinstitucional de 13 de abril de 2016 sobre la mejora de la legislación.

5. Tan pronto como la Comisión adopte un acto delegado lo notificará simultáneamente al Parlamento Europeo y al Consejo.

6. Los actos delegados adoptados en virtud del artículo 4, apartado 2, entrarán en vigor únicamente si, en un plazo de dos meses a partir de su notificación al Parlamento Europeo y al Consejo, ninguna de estas instituciones formula objeciones o si, antes del vencimiento de dicho plazo, ambas informan a la Comisión de que no las formularán. El plazo se prorrogará dos meses a iniciativa del Parlamento Europeo o del Consejo.

 

Artículo 14

Revisión

A más tardar el 1 de enero de 202X [tres años después de la fecha de aplicación del presente Reglamento], y posteriormente cada tres años, la Comisión presentará al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo un informe detallado en el que se revise el presente Reglamento a la luz del desarrollo ulterior de la inteligencia artificial.

Al elaborar el informe a que se refiere el párrafo primero, la Comisión solicitará la información pertinente a los Estados miembros sobre la jurisprudencia, las transacciones judiciales y las estadísticas sobre accidentes, tales como el número de accidentes, los daños sufridos, las aplicaciones de IA involucradas o las indemnizaciones abonadas por las compañías de seguros, así como una evaluación de la cantidad de demandas presentadas por las personas afectadas, ya sea de forma individual o colectiva, y de los plazos dentro de los cuales se atendieron estas demandas en los tribunales.

El informe de la Comisión irá acompañado, en su caso, de propuestas legislativas destinadas a abordar las lagunas identificadas en el informe.

Artículo 15

Entrada en vigor

El presente Reglamento entrará en vigor a los veinte días de su publicación en el Diario Oficial de la Unión Europea.

Será aplicable a partir del 1 de enero de 202X.

 

 

El presente Reglamento será obligatorio en todos sus elementos y directamente aplicable en cada Estado miembro.


ANEXO

 

 


 

EXPOSICIÓN DE MOTIVOS

 

El concepto de «responsabilidad civil» desempeña un importante doble papel en nuestra vida cotidiana: por una parte, garantiza que una persona que haya sufrido un daño tenga derecho a reclamar una indemnización a la persona que se haya demostrado es responsable de dicho daño y, por otra parte, proporciona los incentivos económicos para que las personas eviten en primer lugar causar daños. Por consiguiente, cualquier marco en materia de responsabilidad civil orientado al futuro debe aspirar a lograr un equilibrio entre la protección eficaz de las potenciales víctimas de daños y, al mismo tiempo, ofrecer un margen de maniobra suficiente para posibilitar el desarrollo de nuevas tecnologías, productos o servicios.

 

En particular al principio del ciclo de vida de los nuevos productos y servicios existe cierto nivel de riesgo para el usuario, así como para terceras personas, de que algo no funcione correctamente. Este proceso de prueba y error también es, no obstante, un factor clave para el progreso técnico, sin el cual la mayor parte de nuestras tecnologías actuales no existirían. Hasta ahora, las estrictas normas europeas en materia de seguridad de los productos y de responsabilidad civil eran más que capaces de gestionar los riesgos potencialmente más elevados de las nuevas tecnologías. En opinión de muchas personas, esta certeza se ve cuestionada por el auge de la inteligencia artificial (IA). Lo que hace que esta tecnología sea única es su «opacidad» o, en otras palabras, su carácter de «caja negra». Unida a su conectividad, dependencia de datos externos, vulnerabilidad frente a las violaciones de la ciberseguridad y una autonomía singular, la participación de sistemas de IA podría hacer extremadamente costoso, incluso imposible, determinar quién lo controlaba o qué código o entrada ha provocado en última instancia el funcionamiento lesivo. Como consecuencia, el perjudicado podría tener dificultades para obtener una indemnización.

 

A pesar de que los sistemas de IA plantean ciertamente nuevos desafíos jurídicos a nuestro vigente régimen de responsabilidad civil, en muchos casos no son tan diferentes en lo material respecto a otras tecnologías, que a veces se basan en programas informáticos aún más sofisticados. Los modernos sistemas de IA tienen por lo general un funcionamiento más bien trivial y distan de los robots conscientes que conocemos a través de las películas de ciencia ficción. Por lo tanto, cualquier debate sobre dotar a los sistemas de IA de personalidad jurídica está obsoleto. La elección de un enfoque sensato para abordar los desafíos jurídicos planteados por los nuevos sistemas de IA conlleva que nos abstengamos de cambios importantes en nuestro marco de responsabilidad civil. Si una persona sufre un daño causado por un sistema de IA defectuoso, la Directiva sobre responsabilidad por los daños causados por productos defectuosos debe seguir siendo el medio legal mediante el que se solicite una indemnización al productor. Si el daño fue causado por un tercer interviniente, el sistema actual de responsabilidad subjetiva en los Estados miembros ofrece (en la mayoría de los casos) un nivel de protección suficiente. En consonancia con los principios de mejora de la legislación de la Unión, todo ajuste legislativo que se precise con respecto a los productores o a terceros intervinientes debe debatirse en estos marcos jurídicos respectivos.

 

El presente informe hace, no obstante, una excepción crucial respecto de su fe en los regímenes de responsabilidad civil existentes: observa un vacío jurídico en lo que se refiere a la responsabilidad civil de los implementadores de sistemas de IA. Aunque son los implementadores quienes deciden acerca del uso de sistemas de IA, son ellos los que ejercen en mayor medida el control sobre los riesgos asociados y se benefician de sus operaciones, si bien muchas de las demandas contra ellos serían estériles, a menos que las personas afectadas pudieran demostrar la existencia de culpa por parte del implementador. En particular en los casos en los que los daños fueran provocados por el funcionamiento de un sistema de IA en un espacio público, el grupo potencialmente enorme de personas afectadas no mantendría por lo general ninguna relación contractual con el implementador, lo que prácticamente no des dejaría ninguna posibilidad de ser indemnizados por esos daños. El ponente propone dos enfoques diferentes para solucionar este vacío jurídico, dependiendo del nivel de riesgo que el sistema de IA comporte:

 

1) Sistemas de IA de alto riesgo: El implementador de un sistema de este tipo se encuentra en una posición muy similar a la del propietario de un vehículo o un animal de compañía: ejerce el control sobre un bien que supone un peligro significativo para el público de una manera que es aleatoria e imposible de predecir. Por consiguiente, el implementador —al igual que el propietario de un vehículo o un animal de compañía— debe estar sujeto a un régimen de responsabilidad objetiva e indemnizar a la víctima en cierta medida y hasta un determinado importe por todo perjuicio respecto de sus derechos importantes protegidos jurídicamente (vida, salud, integridad física, propiedades). El presente informe define criterios claros con arreglo a los cuales los sistemas de IA pueden considerarse de alto riesgo y los enumera de forma exhaustiva en un ANEXO. Dada la rápida evolución de la técnica y del mercado y a la vista de los conocimientos técnicos necesarios para una revisión adecuada de un sistema de IA, la Comisión Europea debe tener la posibilidad de modificar el ANEXO mediante actos delegados. Un comité permanente de nueva formación en el que participen expertos nacionales y partes interesadas debe apoyar a la Comisión en su revisión de los sistemas de IA de alto riesgo potencial.

 

2) Todos los demás sistemas de IA: La persona que haya sufrido un daño provocado por un sistema de IA que no figure en el anexo debe, sin embargo, poder acogerse a una presunción de culpa del implementador. La legislación nacional que regula el importe y el alcance de la indemnización, así como el plazo de prescripción en caso de daños causados por el sistema de IA, sigue siendo aplicable.

 

Cualquier propuesta de nueva legislación debe analizar en profundidad la legislación existente al objeto de evitar duplicaciones o disposiciones contradictorias. Sobre la base de este principio, el informe solo incluye los daños a la vida, la salud, la integridad física y la propiedad. Si bien los sistemas de IA pueden, ciertamente, causar un daño considerable a los derechos personales y a otros intereses importantes protegidos jurídicamente, estas infracciones se contemplan mucho mejor en las disposiciones jurídicas específicas ya existentes en esos ámbitos (por ejemplo, la legislación contra la discriminación o la legislación en materia de protección de los consumidores). Por este mismo motivo, el ponente no ha incorporado el uso de datos biométricos o de técnicas de reconocimiento facial por sistemas de IA; todo uso no autorizado en este ámbito ya está contemplado en legislaciones de protección de datos específicas, como el Reglamento General de Protección de Datos. Con respecto a los regímenes nacionales de responsabilidad civil contradictorios en lo que se refiere a la cuestión de si un sistema de IA está sujeto a una responsabilidad objetiva o al efecto restrictivo de los acuerdos contractuales, el presente informe sostiene que sus disposiciones prevalecen siempre. Más aún, aspira a lograr que la persona afectada sea indemnizada íntegramente por el implementador, antes de que personas distintas de la afectada presenten demandas contra el productor. En aras de la seguridad jurídica en toda la Unión, el operador final, que no está amparado por el presente Reglamento, debe estar sujeto a las mismas normas de responsabilidad civil que el productor, el fabricante y el desarrollador.

 

Dado que la Unión Europea y sus Estados miembros no requieren cambios radicales en sus marcos de responsabilidad civil, los sistemas de IA tampoco deberían alejarnos de nuestros sistemas de seguros tradicionales. Los mecanismos de indemnización financiados con fondos públicos no son una respuesta adecuada al auge de la inteligencia artificial. Estos regímenes de indemnización solo impondrían una carga financiera innecesaria a los contribuyentes. A pesar de la falta de acceso a datos históricos y de calidad sobre las demandas que involucran a sistemas de IA, los aseguradores europeos ya están desarrollando nuevos productos específicos de cada ámbito y cada cobertura a medida que la tecnología evoluciona. Si se precisa una nueva cobertura, el mercado de los seguros presentará una solución adecuada. Sería un error responder a escenarios hipotéticos, utilizados para presionar en favor de sistemas públicos adicionales. Si un día se produce un incidente que provoca daños masivos, como un gran atentado terrorista, los Estados miembros podrían crear fondos de compensación especiales durante un período limitado, como ya ha sucedido anteriormente. Por tanto, el presente informe solo exige a los implementadores de sistemas de IA de alto riesgo que tengan un seguro de responsabilidad civil adecuado (comparable a la obligación establecida por la Directiva sobre el seguro de vehículos automóviles), que cubra los importes y el alcance de la indemnización establecidos en el presente Reglamento. El ponente cree firmemente que el mercado de seguros adaptará las coberturas de seguro existentes o presentará diversos nuevos productos que contemplen por separado los diferentes tipos de sistemas de IA en distintos sectores.

 

Con un enfoque restringido pero claro en materia de normas de responsabilidad civil para el implementador de sistemas de IA, el ponente está convencido de lograr un equilibrio entre la protección eficaz de la sociedad y la posibilidad de permitir que esta fascinante tecnología siga innovando. Con demasiada frecuencia se señalan los riesgos de la inteligencia artificial. Sí, los sistemas de IA podrían utilizarse para hacer el mal. Pero ¿queremos permitir que las manifestaciones negativas, que aparecen con todas las tecnologías, desde los teléfonos móviles a la energía nuclear, restrinjan su uso general? ¿Queremos prescindir de la ayuda de los sistemas de IA en nuestra lucha contra el cambio climático, en la mejora de nuestro sistema de asistencia sanitaria o en los avances en la integración de las personas con discapacidad? El presente informe recomienda encarecidamente que se preste especial atención al aprovechamiento de los efectos positivos de los sistemas de IA, al tiempo que se refuerzan unas salvaguardias sólidas.

Así pues, toda nueva legislación en materia de la inteligencia artificial debe redactarse en forma de reglamentos. Dado que el ámbito digital se caracteriza por una rápida dinámica transfronteriza, nuestro mercado único digital debe armonizarse plenamente, al objeto de ponerse al día respecto de la competencia digital mundial.

Es fundamental subrayar que el debate político sobre el presente Reglamento debe ir acompañado de la necesaria revisión de la Directiva sobre responsabilidad por los daños causados por productos defectuosos. La introducción de un nuevo régimen de responsabilidad civil para el implementador de sistemas de la IA requiere que las negociaciones sobre el presente informe y la revisión de la Directiva sobre responsabilidad por los daños causados por productos defectuosos se coordinen estrechamente tanto en términos de fondo como de enfoque, de modo que juntas constituyan un marco de responsabilidad civil coherente para los sistemas de IA, que equilibre los intereses del productor, el implementador y la persona afectada, en lo que respecta al riesgo de responsabilidad civil. Por lo tanto, parece necesario adaptar y racionalizar las definiciones de sistemas de IA, implementador, productor, desarrollador, defecto, producto y servicio en todas las iniciativas legislativas.

Por último, pero no por ello menos importante, los agentes políticos deben darse cuenta de que el progreso tecnológico no se detiene durante sus negociaciones legislativas. Si somos serios en cuanto a nuestros objetivos de mantener el ritmo de la digitalización, preservar nuestra soberanía digital y desempeñar un papel importante en la era digital, las instituciones europeas deben enviar un mensaje político claro a nuestra exitosa industria y a nuestros brillantes investigadores que trabajan en nuevos sistemas de IA. Hasta que la respuesta legislativa al auge de la inteligencia artificial se convierta en ley, la industria y los investigadores deben poder innovar con arreglo a las normas actuales y beneficiarse de un período de transición de cinco años. Si no les otorgamos esta seguridad en la planificación, Europa perderá numerosas nuevas tecnologías, productos y servicios fascinantes.

 


 

 

 

OPINIÓN DE LA COMISIÓN DE MERCADO INTERIOR Y PROTECCIÓN DEL CONSUMIDOR (7.7.2020)

<CommissionInt>para la Comisión de Asuntos Jurídicos</CommissionInt>


<Titre>sobre el régimen de responsabilidad civil en materia de inteligencia artificial</Titre>

<DocRef>(2020/2014(INL))</DocRef>

Ponente de opinión: <Depute>Svenja Hahn</Depute>

(Iniciativa – artículo 47 del Reglamento interno)

 

SUGERENCIAS

La Comisión de Mercado Interior y Protección del Consumidor pide a la Comisión de Asuntos Jurídicos, competente para el fondo:

 que incorpore las siguientes sugerencias en la propuesta de Resolución que apruebe:

A. Considerando que las tecnologías digitales emergentes, tales como la inteligencia artificial (IA), el internet de las cosas y el internet de los servicios (IdC/IdS) o la robótica seguirán desempeñando un papel cada vez más importante en nuestra vida cotidiana;

B. Considerando que estas tecnologías emergentes tienen potencial para contribuir al desarrollo de innovaciones en muchos sectores y ofrecer beneficios a los consumidores a través de productos y servicios innovadores, a las empresas —en particular las empresas emergentes, las pymes y las microempresas— a través de un rendimiento optimizado y a la administración pública a través de servicios públicos mejorados, más integradores y personalizados;

C. Considerando que el uso, el despliegue y el desarrollo de la IA y de otras tecnologías digitales emergentes podrían también plantear riesgos y desafíos al marco de responsabilidad existente en materia de productos, que no está necesariamente adaptado a estas nuevas aplicaciones, socavando así la confianza y la protección de los consumidores;

D. Considerando que la seguridad de los productos y la responsabilidad por los productos son dos mecanismos complementarios que persiguen el mismo objetivo estratégico, a saber, un mercado de bienes y servicios único y operativo, y que la presente opinión contiene sugerencias para posibles ajustes del marco de responsabilidad civil de la Unión a la luz de la creciente importancia de las tecnologías digitales emergentes;

E. Considerando que unos sólidos mecanismos de responsabilidad por daños y perjuicios contribuyen a una mejor protección de los ciudadanos y los consumidores frente a los daños y perjuicios y a la creación de confianza en las tecnologías digitales emergentes, garantizando al mismo tiempo la seguridad jurídica para las empresas, en particular las emergentes, las pymes y las microempresas, permitiéndoles de este modo innovar;

F. Considerando que, para lograr dicha aceptación, los beneficios teóricos de la IA también deben contribuir eficazmente a la prosperidad y al desarrollo;

G. Considerando que el informe de la Comisión al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo sobre las repercusiones en materia de seguridad y responsabilidad civil de la inteligencia artificial, el internet de las cosas y la robótica[24] y el Libro Blanco sobre la inteligencia artificial - un enfoque europeo orientado a la excelencia y la confianza[25] deben considerarse la base de la futura legislación europea;

1. Acoge con satisfacción el objetivo de la Comisión de adaptar el marco jurídico de la Unión a los nuevos avances, implementaciones y usos tecnológicos y a otras tecnologías digitales emergentes, garantizando así un elevado nivel de protección de los consumidores frente a los daños y perjuicios causados por las nuevas tecnologías basadas en la IA, la robótica y las tecnologías conexas, y manteniendo al mismo tiempo un equilibrio con el objetivo de la digitalización de los productos industriales y de consumo y apoyando la innovación tecnológica;

2. Pide a la Comisión que actualice el marco de responsabilidad existente y, en particular, la Directiva 85/374/CEE[26] (Directiva sobre responsabilidad por productos defectuosos), a fin de adaptarlos al mundo digital;

3. Pide a la Comisión que revise dicha Directiva abordando los retos que plantean las tecnologías digitales emergentes, tales como la inteligencia artificial, el internet de las cosas (IdC) o la robótica, garantizando de este modo un alto nivel de protección eficaz de los consumidores y los ciudadanos frente a los daños, así como la seguridad jurídica para los consumidores y las empresas, y evitando al mismo tiempo los altos costes y los riesgos para las pymes y las empresas emergentes;

4. Destaca que cualquier actualización del marco de responsabilidad por los productos debe ir de la mano de la actualización de la Directiva 2001/95/CE del Parlamento Europeo y del Consejo[27] (Directiva sobre seguridad de los productos), a fin de garantizar que los sistemas de IA incorporen la seguridad y la protección desde el diseño;

5. Hace hincapié en que cualquier revisión del marco de responsabilidad existente debe aspirar a una mayor armonización de las normas en materia de responsabilidad y protección de los consumidores a fin de garantizar unas condiciones de competencia equitativas y evitar desigualdades en la protección de los consumidores y la fragmentación del mercado único;

6. Pide a la Comisión que evalúe si un Reglamento sobre responsabilidad general por productos defectuosos podría contribuir a este objetivo; destaca, no obstante, la importancia de garantizar que la normativa de la Unión se limite a problemas claramente identificados para los que existen soluciones viables y deje margen para los nuevos avances tecnológicos, incluidos los avances basados en programas informáticos libres y de código abierto; destaca que ello debe hacerse respetando dentro del pleno respeto de la legislación aplicable, incluida la Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo[28];

7. Pide a la Comisión que actualice el marco de responsabilidad por los productos teniendo en cuenta los retos específicos que la digitalización plantea a la legislación en materia de responsabilidad civil; considera que pueden surgir desafíos en relación con los productos, por ejemplo a causa de su interconexión, su dependencia de los datos o su vulnerabilidad frente a los riesgos relacionados con la ciberseguridad;

8. Subraya, en particular, la necesidad de tener en cuenta los procesos de las aplicaciones de IA que puedan no estar bien documentados o darse de forma autónoma después de la comercialización del producto en el mercado;

9. Insta a la Comisión a que aclare la definición de «productos» en el marco de la Directiva sobre responsabilidad por productos defectuosos, determinando para ello si el contenido digital y los servicios digitales entran dentro de su ámbito de aplicación, y a que considere la posibilidad de adaptar conceptos como «productor», «daño» y «defecto»; destaca la necesidad de tener en cuenta el acervo en materia de consumo a la hora de hacerlo, y en particular las vigentes Directiva (UE) 2019/770 del Parlamento Europeo y el Consejo[29] (Directiva sobre contenidos digitales) y Directiva (UE) 2019/771 del Parlamento Europeo y el Consejo [30] (Directiva sobre compraventa de bienes);

10. Recomienda que no se conceda a la IA su propia personalidad jurídica; pide a la Comisión que examine también si es necesario revisar el marco de responsabilidad por productos con el fin de proteger e indemnizar eficientemente a las partes perjudicadas en lo que respecta a los productos que se compran como un paquete con servicios conexos, y a considerar las reglas de protección de la intimidad desde el diseño y de seguridad desde el diseño como una expectativa razonable de los consumidores respecto de sus productos digitales;

11. Destaca el hecho de que los mercados en línea que operan como importadores o proveedores de los productos vendidos en línea en la cadena de suministro están incluidos en la Directiva sobre responsabilidad por productos defectuosos y, por lo tanto, son responsables de los daños causados por un defecto en los productos que hayan vendido, salvo cuando actúen como proveedor y el productor esté identificado, de conformidad con las disposiciones pertinentes de la citada Directiva;

12. Pide a la Comisión que valore, estableciendo una estrecha coordinación con los posibles ajustes que corresponda hacer en el marco de seguridad de la Unión, si el concepto de «momento en que el producto se puso en circulación» es el adecuado en el caso de las tecnologías digitales emergentes, y si la responsabilidad del productor podría ir más allá de este concepto, habida cuenta de que los productos de IA pueden ser objeto de cambios o alteraciones bajo el control del productor después de su comercialización, lo que puede ocasionar defectos y daños derivados de los mismos;

13. Destaca la importancia que reviste garantizar una asignación justa y eficiente de responsabilidad en la cadena de transacciones comerciales para atribuir la responsabilidad de la forma más adecuada; hace hincapié en que, debido a la complejidad, la conectividad y la opacidad de los productos basados en la IA y las nuevas tecnologías, podría resultar difícil para los consumidores demostrar qué defecto de un producto ha causado daños, ya que no se puede dar por supuesto que los consumidores disponen de toda la información o los conocimientos técnicos específicos necesarios;

14. Subraya, por ende, la relevancia que reviste posibilitar que los consumidores perjudicados o cuya propiedad se haya visto dañada demuestren que un defecto de un producto ha causado daños, aunque se trate de software de terceros o la causa del defecto sea difícil de rastrear, como por ejemplo cuando los productos forman parte de un entorno complejo interconectado de la internet de las cosas;

15. Pide a la Comisión que considere la posibilidad de revertir las normas reguladoras de la carga de la prueba para los daños ocasionados por las tecnologías digitales emergentes en casos claramente definidos y tras una adecuada evaluación, a fin de capacitar a los consumidores perjudicados o cuya propiedad se haya visto dañada en la defensa de sus derechos, evitando al mismo tiempo los abusos y aportando claridad jurídica a las empresas, y de garantizar la equidad y reducir las asimetrías en materia de información que menoscaban la situación de las partes perjudicadas;

16. Pide a la Comisión que estudie la posibilidad de introducir una obligación para los productores de tecnologías digitales emergentes de equipar sus productos con medios para registrar información sobre el funcionamiento de la tecnología de que se trate, de conformidad con las disposiciones aplicables en materia de protección de datos y con las normas relativas a la protección de los secretos comerciales, teniendo en cuenta, entre otros elementos, la probabilidad de que un riesgo de la tecnología en cuestión se haga efectivo, si dicha obligación es adecuada y proporcionada, así como su viabilidad técnica y sus costes; sugiere que el incumplimiento de esa obligación o la denegación de un acceso razonable del consumidor en cuestión a dicha información generaría una presunción de responsabilidad refutable del productor;

17. Destaca la necesidad de un enfoque de IA basado en riesgos dentro del marco de responsabilidad existente que tenga en cuenta los diferentes niveles de riesgo para los consumidores en sectores y usos específicos de la IA; subraya que este enfoque, que puede incluir varios niveles de riesgo, debe basarse en criterios claros y una definición adecuada de riesgo elevado, así como ofrecer seguridad jurídica;

18. Estima además que las personas que intervienen en las diferentes fases de desarrollo, despliegue y utilización de sistemas basados en la IA deben ser tenidas en cuenta proporcionalmente a su responsabilidad en su relación interna; subraya, no obstante, que debe garantizarse la responsabilidad solidaria de estos distintos actores frente a la parte perjudicada o cuya propiedad se haya visto dañada; propone que se mejore la rastreabilidad de los productos, por ejemplo mediante el uso de tecnologías de registro descentralizado, como la cadena de bloques, a fin de identificar mejor a los implicados en las distintas fases;

19. Subraya que la explicabilidad, la interpretabilidad y la trazabilidad de los sistemas de IA son fundamentales para garantizar que los mecanismos de responsabilidad prevean una asignación de responsabilidades adecuada, eficiente y justa;

20. Pide a la Comisión que valore cuidadosamente la introducción de un régimen de responsabilidad objetiva separado pero complementario para los sistemas de inteligencia artificial con un alto riesgo de causar perjuicio o daño a una o más personas o a sus propiedades de un modo aleatorio e imposible de predecir con antelación, teniendo en cuenta, entre otras cosas, su probable impacto en la protección de los ciudadanos y consumidores frente a los daños, la capacidad de innovación de las empresas, en particular las pymes, la coherencia del marco de seguridad y responsabilidad de la Unión y los principios de subsidiariedad y proporcionalidad. considera que este régimen debe garantizar que se indemnice efectivamente a las víctimas por los daños causados por sistemas dirigidos por IA;

21. Pide a la Comisión que proponga medidas concretas (por ejemplo, un registro de casos de responsabilidad de los productos) para aumentar el nivel de transparencia y controlar los productos defectuosos que circulen dentro de la Unión; destaca que es esencial garantizar la existencia de un elevado nivel de protección del consumidor en relación con los productos que se puedan adquirir, así como un alto grado de información sobre los mismos.


INFORMACIÓN SOBRE LA APROBACIÓN
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

Fecha de aprobación

7.7.2020

 

 

 

Resultado de la votación final

+:

–:

0:

39

0

5

Miembros presentes en la votación final

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Suplentes presentes en la votación final

Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin

 

 


 

VOTACIÓN FINAL NOMINAL
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

39

+

EPP

S&D

Renew

ID

Verts/ALE

ECR

GUE/NGL

NI

Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, Maria‑Manuel Leitão‑Marques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

Andrus Ansip, Vlad‑Marius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie Yon‑Courtin

Alessandra Basso

David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kim Van Sparrentak

Adam Bielan, Carlo Fidanza, Beata Mazurek

Kateřina Konečná, Anne‑Sophie Pelletier

Marco Zullo

 

0

-

 

 

 

5

0

ID

ECR

Hynek Blaško, Markus Buchheit, Virginie Joron, Jean‑Lin Lacapelle

Eugen Jurzyca

 

Explicación de los signos utilizados

+ : a favor

- : en contra

0 : abstenciones

 

 

 


 

 

OPINIÓN DE LA COMISIÓN DE TRANSPORTES Y TURISMO (15.7.2020)

<CommissionInt>para la Comisión de Asuntos Jurídicos</CommissionInt>


<Titre>con recomendaciones destinadas a la Comisión sobre el régimen de responsabilidad civil en materia de inteligencia artificial</Titre>

<DocRef>(2020/2014(INL))</DocRef>

Ponente de opinión: <Depute>Cláudia Monteiro de Aguiar</Depute>

(Iniciativa – artículo 47 del Reglamento interno)

 

 

SUGERENCIAS

La Comisión de Transportes y Turismo pide a la Comisión de Asuntos Jurídicos, competente para el fondo, que incorpore las siguientes sugerencias en la propuesta de Resolución que apruebe:

 Visto el artículo 225 del Tratado de Funcionamiento de la Unión Europea,

 Vista la Directiva 85/374/CEE[31],

 Visto el artículo 56 de su Reglamento interno,

A. Considerando que la inteligencia artificial (IA) y otras tecnologías digitales emergentes cuentan con el potencial necesario para transformar para mejor nuestras sociedades y economías; que, no obstante, es imposible excluir completamente la posibilidad de que se produzcan daños, lesiones o pérdidas de vidas como consecuencia de la utilización de dichas tecnologías;

B. Considerando que en varios sectores de la industria del transporte se han aplicado distintos grados de automatización y de IA; que, además, la IA implica el uso de muchos tipos de tecnologías, como los vehículos autónomos, los sistemas de aeronaves no tripuladas y las soluciones inteligentes de gestión del tráfico;

C. Considerando que el marco de responsabilidad civil de la Unión se complementa con los regímenes nacionales de responsabilidad, y que ambos deben reflejar la complejidad de las tecnologías emergentes con el fin de garantizar el máximo nivel de protección al tiempo que se apoya la innovación tecnológica; que la Unión carece de un régimen armonizado de responsabilidad civil para los productos de IA; que la promoción del despliegue y de la adopción de la IA en Europa debería ser un elemento absolutamente prioritario para la Unión y un objetivo subyacente al desarrollo del marco de responsabilidad para los productos de IA; que los datos demuestran que hasta un 90 % de los accidentes de tráfico se deben al menos en parte a errores humanos; que los vehículos autónomos deben estar sujetos a un marco ético; que, si bien la introducción de este marco puede evitar errores en la toma de decisiones y los algoritmos de las máquinas, es necesario un régimen de responsabilidad armonizado para garantizar que todos los daños causados por los sistemas de IA se vean plenamente compensados;

D. Considerando que la legislación de la Unión y la legislación nacional deben garantizar una elevada seguridad de los productos y los servicios y un sistema de gestión sólido, tanto ex ante como a lo largo de todo el ciclo de vida del producto, al tiempo que se facilita la indemnización ex post a las víctimas; que el desarrollo tecnológico de la IA debe seguir centrándose en el ser humano, y que los productos y aplicaciones que se sirven de la IA deben conducir al desarrollo humano y a una buena calidad de vida;

1. Subraya que la IA puede aplicarse en diferentes niveles en los vehículos, la infraestructura de transporte y entre los modos de transporte y tiene un impacto importante en el grado de autonomía del sistema, que abarca desde el control completo por parte del conductor hasta la plena autonomía, por lo que hay una transferencia gradual de la responsabilidad civil del conductor a terceros a medida que aumenta el grado de autonomía de los sistemas de conducción automatizada; pide definiciones claras de la Unión para todos los tipos de modos e infraestructuras de transporte y el programa informático de gestión de la IA, así como la correspondiente clasificación del riesgo para apoyar un mecanismo de responsabilidad que aclare cuestiones de responsabilidad a fin de garantizar las normas más estrictas en materia de seguridad y protección, haciendo hincapié en que la seguridad reviste una importancia fundamental en el sector del transporte y que podría describirse como una cara de la moneda, de la que la responsabilidad constituye la otra;

2. Recuerda que hace décadas que se empezaron a integrar en el sector del transporte las tecnologías de IA, concretamente con la introducción de la operación automática de trenes, por ejemplo en las zonas urbanas en las que con las operaciones completamente automatizadas y sin conductor se han incrementado la disponibilidad de los sistemas, la capacidad de las redes y la eficiencia operativa;

3. Subraya que las funciones automatizadas pueden aportar mejoras significativas en materia de seguridad a medio y largo plazo, así como conllevar consecuencias inesperadas, por ejemplo respecto de la ciberseguridad y la confidencialidad de los datos; señala que, si bien la coexistencia de varios niveles de automatización representa un reto, la IA también podría utilizarse para planificar y guiar las cadenas logísticas, así como para aumentar la eficiencia, la resiliencia, la fiabilidad, la sostenibilidad, la interoperabilidad y la flexibilidad, y que tiene un enorme potencial para las personas con discapacidad y movilidad reducida; subraya la necesidad de un mayor control con arreglo al régimen de responsabilidad civil para los productos de IA de la Unión, con el fin de garantizar la seguridad de las personas con discapacidad y movilidad reducida;

4. Destaca la importancia de establecer una clara división de responsabilidades entre los desarrolladores de programas, los fabricantes de diversos componentes, los proveedores de servicios y datos, los operadores y los usuarios finales, con el fin de garantizar la mayor seguridad posible del producto y el respeto de los derechos de los consumidores; señala la necesidad de establecer la asignación adecuada de los riesgos que surjan de las nuevas interacciones digitales entre la infraestructura y los vehículos y de aplicar un régimen de responsabilidad justa a los fallos de los programas operativos, los fallos de red y los riesgos relacionados con las opciones de programación que actualmente no están adecuadamente cubiertas;

5. Subraya que, en el caso de las aplicaciones relacionadas con la IA en el sector del transporte que tienen un perfil de alto riesgo específico, es necesario un enfoque basado en el riesgo en función del nivel de automatización y de autoaprendizaje del sistema; señala la necesidad de requisitos jurídicos para las aplicaciones de IA con un perfil de alto riesgo; observa, no obstante, que dicho enfoque no debe basarse en la determinación previa de ciertos sectores, por ejemplo el del transporte, como sectores en los que se utiliza IA de alto riesgo, sino en evaluaciones de campos específicos que sean neutras desde el punto de vista tecnológico; destaca la necesidad de armonizar dichos requisitos en toda la Unión para garantizar el nivel más elevado de seguridad de los productos y el nivel mínimo de riesgo para los usuarios durante el funcionamiento de los sistemas de IA, así como el papel fundamental que el principio de cautela, consagrado en el artículo 191 del TFUE, tiene para el análisis de riesgos y la gestión de riesgos; pide una respuesta pertinente a la necesidad de un enfoque adecuado de la protección de datos y de los riesgos relacionados con la piratería informática y la ciberdelincuencia;

6. Observa que, de conformidad con la reglamentación en vigor sobre la seguridad de los productos, el productor sigue siendo responsable salvo que se demuestre lo contrario, y que la carga de la prueba recae en los productores o los desarrolladores; subraya que este principio se debería extender a todos los productos de IA; recomienda que, en los casos en que se demuestre que el productor o el desarrollador no son responsables, el operador que tenga un mayor grado de control que el propietario o el usuario de un producto o servicio real equipado con una IA debe ser considerado el mejor preparado para gestionar los riesgos y, por tanto, la carga de la prueba debe recaer sobre el operador; señala que cada obligación debe recaer sobre el actor que está mejor situado para afrontar el riesgo; subraya que el consentimiento del consumidor es un principio fundamental para el desarrollo de los servicios de transporte de la IA; insta a la Comisión a que establezca medios para certificar estos servicios; observa que la protección de los ciudadanos y las empresas de la Unión que utilizan tecnologías de IA requiere una división clara de responsabilidades entre las diferentes partes implicadas, independientemente de que tengan su sede en la Unión o no (efecto extraterritorial);

7. Hace hincapié en la necesidad de garantizar al menos el mismo nivel de seguridad de los productos que el actual, teniendo también en cuenta el objetivo de la Unión de «visión cero», a fin de facilitar a las víctimas de accidentes la obtención de reparación, evitar el aumento de los costes procesales actuales y evitar la inseguridad jurídica, especialmente para las empresas que comercializan sus productos en la Unión y a nivel mundial; destaca en este sentido la necesidad de proporcionar una indemnización rápida a las víctimas independientemente de la cadena de responsabilidad;

8. Opina que, pese al nivel de automatización y de integración de la IA en los sistemas de transporte y los vehículos, la responsabilidad última debe recaer siempre en personas físicas y jurídicas, a fin de garantizar la seguridad jurídica y promover al mismo tiempo la inversión y la correcta adopción de la tecnología;

9. Subraya la importancia de garantizar que los conductores reciban la formación adecuada y sean siempre plenamente conscientes del nivel de automatización y de su nivel de responsabilidad, y de que se les informe sobre los sistemas de IA de sus vehículos y las limitaciones de tales sistemas, como la activación, la desactivación o los fallos; considera, además, que los dispositivos integrados en el vehículo deben recordar periódicamente al conductor que tiene la responsabilidad de controlar el estado del vehículo y advertirle claramente de los límites del sistema de IA; señala que no se puede considerar responsable al conductor si se determina que ha utilizado legítimamente dichos sistemas;

10. Señala la necesidad de instalar una tecnología de registro de incidentes, para su utilización en caso de accidentes graves, respetando plenamente la legislación en materia de protección de datos y privacidad, y que permita encontrar a una persona física o jurídica responsable; destaca el papel fundamental que el almacenamiento de datos, el uso compartido y la gestión tendrán para el despliegue de la IA en la movilidad, y destaca que los registradores no deben utilizarse en ninguna circunstancia como sistemas de localización permanente; pide más investigación y desarrollo a través de medios tanto públicos como privados, así como más ensayos, para mejorar la seguridad de los productos y, en consecuencia, la seguridad del tráfico, o, al menos, para proporcionar datos concretos que contribuyan a un mayor desarrollo; observa que para limitar al mínimo los incidentes es necesario disponer de una infraestructura subyacente de vanguardia, un sistema inteligente de transporte que funcione con datos actualizados, claros e interpretables;

11. Pide que se siga analizando la necesidad de adaptar la Directiva 2006/126/CE del Parlamento Europeo y del Consejo[32] y la Directiva 2009/103/CE del Parlamento Europeo y del Consejo[33] debido a las funcionalidades automatizadas de los vehículos; insta a la Comisión a que realice una evaluación periódica del marco regulador del transporte europeo para garantizar que puede responder a los desafíos de seguridad y responsabilidad relacionados con la integración de las tecnologías de IA; pide asimismo a la Comisión que estudie la posibilidad de incluir en la legislación de la Unión sobre la seguridad de los productos requisitos para afrontar los riesgos en materia de seguridad que se deriven de datos imperfectos;

12. Subraya que, para cada nivel de automatización y de integración de IA, los regímenes de responsabilidad en caso de accidente o de infracción de la normativa sobre tráfico se deben diseñar cuidadosamente, y que se ha de informar claramente al respecto a los usuarios, a fin de garantizar una transición fluida de la plena responsabilidad del conductor a la plena responsabilidad del fabricante y del operador;

13. Señala que el grado en que los sistemas no tripulados en las redes de transporte, como los vehículos automatizados y los sistemas de aeronaves no tripuladas, pueden integrarse en la infraestructura terrestre y el espacio aéreo depende de numerosas señales y condiciones variables y de los riesgos u obstáculos que pudieran encontrarse; señala que este mayor uso, en particular en las zonas urbanas, pondrá a prueba continuamente el régimen vigente de responsabilidad civil, y pide, por consiguiente, una actualización periódica de los mapas digitales, los sistemas de gestión del tráfico y las normas de intercambio de datos que proporcionen un conjunto mínimo y adecuado de información e instrucciones para el uso de productos equipados con IA y sobre la red de carreteras, así como para el correcto desarrollo y despliegue del espacio en U; opina que un enfoque centrado en el ser humano debe constituir la base de toda actualización y desarrollo del marco regulatorio relativo a la automatización y la integración de la IA en el transporte;

14. Pide a la Comisión que presente directrices para evitar enfoques normativos fragmentados a nivel nacional, tomando en consideración la Directiva 85/374/CEE y los regímenes de responsabilidad nacionales existentes; destaca la necesidad de un marco de responsabilidad civil de la Unión y hace hincapié en que la fragmentación sería sumamente perjudicial para el desarrollo de estas tecnologías, para la competitividad de las empresas de la Unión, especialmente para las pymes, y que socavaría la seguridad jurídica y la seguridad y obstaculizaría la rápida indemnización de las víctimas; señala que la responsabilidad debe recaer sobre el actor que está mejor situado para afrontar el riesgo, tras el correspondiente proceso judicial.


INFORMACIÓN SOBRE LA APROBACIÓN
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

Fecha de aprobación

14.7.2020

 

 

 

Resultado de la votación final

+:

–:

0:

49

0

0

Miembros presentes en la votación final

Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, István Ujhelyi, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski

Suplentes presentes en la votación final

Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti

 


 

VOTACIÓN FINAL NOMINAL
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

49

+

ECR

Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski

GUE/NGL

Leila Chaibi, Kateřina Konečná, Elena Kountoura

ID

Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo

NI

Mario Furore, Dorien Rookmaker

PPE

Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian-Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Elżbieta Katarzyna Łukacijewska

Renew

José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan-Christoph Oetjen, Dominique Riquet

S&D

Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi

Verts/ALE

Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay-Grunenberg, Tilly Metz

 

0

-

 

 

 

0

0

 

 

 

Explicación de los signos utilizados

+ : a favor

- : en contra

0 : abstenciones

 

 

 


INFORMACIÓN SOBRE LA APROBACIÓN EN LA COMISIÓN COMPETENTE PARA EL FONDO

Fecha de aprobación

1.10.2020

 

 

 

Resultado de la votación final

+:

–:

0:

23

0

1

Miembros presentes en la votación final

Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos

Suplentes presentes en la votación final

Patrick Breyer, Evelyne Gebhardt, Kosma Złotowski

 


VOTACIÓN FINAL NOMINAL EN LA COMISIÓN COMPETENTE PARA EL FONDO

23

+

PPE

Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos

S&D

Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken

Renew

Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara

ID

Gunnar Beck, Jean‑Paul Garraud, Gilles Lebreton

Verts/ALE

Patrick Breyer, Marie Toussaint

ECR

Angel Dzhambazki, Kosma Złotowski

NI

Mislav Kolakušić

 

0

-

 

 

 

1

0

GUE/NGL

Manon Aubry

 

Explicación de los signos utilizados

+ : a favor

- : en contra

0 : abstenciones

 

 

[1] DO L 149 de 11.6.2005, p. 22.

[2] DO L 304 de 22.11.2011, p. 64.

[3] DO L 117 de 5.5.2017, p. 1.

[4] DO L 252 de 8.10.2018, p. 1.

[5] DO L 136 de 22.5.2019, p. 1.

[6] DO L 123 de 12.5.2016, p. 1.

[7] DO C 252 de 18.7.2018, p. 239.

[8] DO C 307 de 30.8.2018, p. 163.

[9] DO C 433 de 23.12.2019, p. 86.

[10] Textos Aprobados, P8_TA(2019)0081.

[11] Textos Aprobados, P9_TA(2020)0032.

[12] DO L 011 de 15.1.2002, p. 4.

[13] DO L 263 de 7.10.2009, p. 11.

[14] DO ...

[15] DO ...

[16] Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (DO L 210 de 7.8.1985, p. 29).

[17] DO L 123 de 12.5.2016, p. 1.

[18] Véase la página 24 del Libro Blanco de la Comisión, de 19 de febrero de 2020, titulado «Inteligencia artificial - Un enfoque europeo orientado a la excelencia y la confianza» (COM(2020)0065).

[19]  Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos) (DO L 119 de 4.5.2016, p. 1).

[20] Reglamento (UE) 2018/858 del Parlamento Europeo y del Consejo, de 30 de mayo de 2018, sobre la homologación y la vigilancia del mercado de los vehículos de motor y sus remolques y de los sistemas, los componentes y las unidades técnicas independientes destinados a dichos vehículos, por el que se modifican los Reglamentos (CE) n.º 715/2007 y (CE) n.º 595/2009 y por el que se deroga la Directiva 2007/46/CE (DO L 151 de 14.6.2018, p. 1).

[21] Reglamento (UE) 2019/1020 del Parlamento Europeo y del Consejo, de 20 de junio de 2019, relativo a la vigilancia del mercado y la conformidad de los productos y por el que se modifican la Directiva 2004/42/CE y los Reglamentos (CE) n.º 765/2008 y (UE) n.º 305/2011 (DO L 169 de 25.6.2019, p. 1).

[22] Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (DO L 210 de 7.8.1985, p. 29).

[23] Pendiente de revisión por parte de la Comisión Europea tal y como se establece en el apartado 16 de la propuesta de resolución.

[26] Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (DO L 210 de 7.8.1985, p. 29).

[27] Directiva 2001/95/CE del Parlamento Europeo y del Consejo, de 3 de diciembre de 2001, relativa a la seguridad general de los productos (DO L 11 de 15.1.2002, p. 4):

[28] Directiva (UE) 2019/790 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, sobre los derechos de autor y derechos afines en el mercado único digital (DO L 130 de 17.5.2019, p. 92).

[29] Directiva (UE) 2019/770 del Parlamento Europeo y del Consejo, de 20 de mayo de 2019, relativa a determinados aspectos de los contratos de suministro de contenidos y servicios digitales (DO L 136 de 22.5.2019, p. 1).

[30] Directiva (UE) 2019/771 del Parlamento Europeo y del Consejo, de 20 de mayo de 2019, relativa a determinados aspectos de los contratos de compraventa de bienes, por la que se modifican el Reglamento (UE) 2017/2394 y la Directiva 2009/22/CE y se deroga la Directiva 1999/44/CE (DO L 136 de 22.5.2019, p. 28).

[31] Directiva 85/374/CEE del Consejo, de 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos (DO L 210 de 7.8.1985, p. 29).

[32]  Directiva 2006/126/CE del Parlamento Europeo y del Consejo, de 20 de diciembre de 2006, sobre el permiso de conducción (DO L 403 de 30.12.2006, p. 18).

[33]  Directiva 2009/103/CE del Parlamento Europeo y del Consejo, de 16 de septiembre de 2009, relativa al seguro de la responsabilidad civil que resulta de la circulación de vehículos automóviles, así como al control de la obligación de asegurar esta responsabilidad (DO L 263 de 7.10.2009, p. 11).

Última actualización: 19 de octubre de 2020Aviso jurídico - Política de privacidad