Procedimiento : 2020/2012(INL)
Ciclo de vida en sesión
Ciclo relativo al documento : A9-0186/2020

Textos presentados :

A9-0186/2020

Debates :

PV 19/10/2020 - 15
PV 19/10/2020 - 18
CRE 19/10/2020 - 15
CRE 19/10/2020 - 18

Votaciones :

Textos aprobados :

P9_TA(2020)0275

<Date>{08/10/2020}8.10.2020</Date>
<NoDocSe>A9-0186/2020</NoDocSe>
PDF 585kWORD 222k

<TitreType>INFORME</TitreType>

<Titre>con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas</Titre>

<DocRef>(2020/2012(INL))</DocRef>


<Commission>{JURI}Comisión de Asuntos Jurídicos</Commission>

Ponente: <Depute>Ibán García del Blanco</Depute>

Ponentes de opinión (*):

Urmas Paet, Comisión de Asuntos Exteriores

Alexandra Geese, Comisión de Mercado Interior y Protección del Consumidor

Valter Flego, Comisión de Transportes y Turismo

Assita Kanko, Comisión de Libertades Civiles, Justicia y Asuntos de Interior

(*) Comisiones asociadas – artículo 57 del Reglamento interno

(Iniciativa - artículo 47 del Reglamento interno)

ENMIENDAS
PROPUESTA DE RESOLUCIÓN DEL PARLAMENTO EUROPEO
 ANEXO A LA PROPUESTA DE RESOLUCIÓN RECOMENDACIONES DETALLADAS RESPECTO AL CONTENIDO DE LA PROPUESTA SOLICITADA
 A. PRINCIPIOS Y OBJETIVOS DE LA PROPUESTA SOLICITADA
 B. TEXTO DE LA PROPUESTA LEGISLATIVA SOLICITADA
 EXPOSICIÓN DE MOTIVOS
 OPINIÓN DE LA COMISIÓN DE ASUNTOS EXTERIORES
 OPINIÓN DE LA COMISIÓN DE MERCADO INTERIOR Y PROTECCIÓN DEL CONSUMIDOR
 OPINIÓN DE LA COMISIÓN DE TRANSPORTES Y TURISMO
 OPINIÓN DE LA COMISIÓN DE LIBERTADES CIVILES, JUSTICIA Y ASUNTOS DE INTERIOR
 OPINIÓN DE LA COMISIÓN DE EMPLEO Y ASUNTOS SOCIALES
 OPINIÓN DE LA COMISIÓN DE MEDIO AMBIENTE, SALUD PÚBLICA Y SEGURIDAD ALIMENTARIA
 OPINIÓN DE LA COMISIÓN DE CULTURA Y EDUCACIÓN
 INFORMACIÓN SOBRE LA APROBACIÓN EN LA COMISIÓN COMPETENTE PARA EL FONDO
 VOTACIÓN FINAL NOMINAL EN LA COMISIÓN COMPETENTE PARA EL FONDO

PROPUESTA DE RESOLUCIÓN DEL PARLAMENTO EUROPEO

con recomendaciones destinadas a la Comisión sobre el marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas

(2020/2012(INL))

El Parlamento Europeo,

 Visto el artículo 225 del Tratado de Funcionamiento de la Unión Europea,

 Visto el artículo 114 del Tratado de Funcionamiento de la Unión Europea,

 Vista la Carta de los Derechos Fundamentales de la Unión Europea,

 Visto el Reglamento (UE) 2018/1488 del Consejo, de 28 de septiembre de 2018, por el que se crea la Empresa Común de Informática de Alto Rendimiento Europea[1],

 Vista la Directiva 2000/43/CE del Consejo, de 29 de junio de 2000, relativa a la aplicación del principio de igualdad de trato de las personas independientemente de su origen racial o étnico[2] (Directiva sobre igualdad racial),

 Vista la Directiva 2000/78/CE del Consejo, de 27 de noviembre de 2000, relativa al establecimiento de un marco general para la igualdad de trato en el empleo y la ocupación[3] (Directiva sobre la igualdad de trato en el empleo),

 Vistos el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos)[4] (RGPD), y la Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por parte de las autoridades competentes para fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o de ejecución de sanciones penales, y a la libre circulación de dichos datos y por la que se deroga la Decisión Marco 2008/977/JAI del Consejo[5],

 Visto el Acuerdo interinstitucional, de 13 de abril de 2016, sobre la mejora de la legislación[6],

 Vista la propuesta de Reglamento del Parlamento Europeo y del Consejo, de 6 de junio de 2018, por el que se establece el programa Europa Digital para el período 2021-2027 (COM(2018)0434),

 Vista la Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, de 11 de diciembre de 2019, titulada «El Pacto Verde Europeo»(COM(2019)0640),

 Vista la Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, de 19 de febrero de 2020, titulada «Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza» (COM(2020)0065),

 Vista la Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, de 19 de febrero de 2020, titulada «Una Estrategia Europea de Datos» (COM(2020)0066),

 Vista la Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, de 19 de febrero de 2020, titulada «Configurar el futuro digital de Europa» (COM(2020)0067),

 Vistas las Conclusiones del Consejo de la Unión Europea sobre el diseño del futuro digital de Europa, de junio de 2020,

 Vista su Resolución, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica[7],

 Vista su Resolución, de 1 de junio de 2017, sobre la digitalización de la industria europea[8],

 Vista su Resolución, de 12 de septiembre de 2018, sobre los sistemas armamentísticos autónomos[9],

 Vista su Resolución, de 11 de septiembre de 2018, sobre la igualdad lingüística en la era digital,[10]

 Vista su Resolución, de 12 de febrero de 2019, sobre una política industrial global europea en materia de inteligencia artificial y robótica[11],

 Visto el informe, de 8 de abril de 2019, del Grupo de expertos de alto nivel sobre inteligencia artificial creado por la Comisión, titulado «Directrices éticas para una IA fiable»,

 Vistos las comunicaciones y los estudios elaborados a petición del Grupo de Expertos sobre el Futuro de la Ciencia y la Tecnología (STOA), dirigido por la Unidad de Prospectiva Científica del Servicio de Estudios del Parlamento Europeo, titulados «What if algorithms could abide by ethical principles?» (¿Y si los algoritmos obedeciesen a principios éticos?), «Artificial Intelligence ante portas: Legal & ethical reflections» (Inteligencia artificial ante portas: reflexiones legales y éticas), «A governance framework for algorithmic accountability and transparency» (Un marco de gobernanza para la rendición de cuentas y la transparencia de los algoritmos), «Should we fear artificial intelligence?» (¿Debemos temer a la inteligencia artificial?) y «The ethics of artificial intelligence: Issues and initiatives» (La ética de la inteligencia artificial: problemas e iniciativas),

 Vistos el Convenio Marco del Consejo de Europa para la Protección de las Minorías Nacionales, el Protocolo n.º 12 del Convenio para la Protección de los Derechos Humanos y de las Libertades fundamentales y la Carta Europea de las Lenguas Regionales o Minoritarias,

 Vista la Recomendación del Consejo de la OCDE sobre la inteligencia artificial, aprobada el 22 de mayo de 2019,

 Vistos los artículos 47 y 54 de su Reglamento interno,

 Vistas las opiniones de la Comisión de Asuntos Exteriores, de la Comisión de Mercado Interior y Protección del Consumidor, de la Comisión de Transportes y Turismo, de la Comisión de Libertades Civiles, Justicia y Asuntos de Interior, de la Comisión de Empleo y Asuntos Sociales, de la Comisión de Medio Ambiente, Salud Pública y Seguridad Alimentaria y de la Comisión de Cultura y Educación,

 Visto el informe de la Comisión de Asuntos Jurídicos (A9-0186/2020),

Introducción

A. Considerando que los seres humanos son quienes desarrollan, implementan y utilizan la inteligencia artificial, la robótica y las tecnologías conexas, y que sus elecciones determinan el potencial de dichas tecnologías para beneficiar a la sociedad;

B. Considerando que la inteligencia artificial, la robótica y las tecnologías conexas que tienen potencial para generar oportunidades para las empresas y beneficios para los ciudadanos y que pueden tener un impacto directo en todos los aspectos de nuestras sociedades, incluidos los derechos fundamentales y los valores y principios sociales y económicos, así como tener una influencia duradera en todos los ámbitos de actividad, se están fomentando y desarrollando con gran rapidez;

C. Considerando que la inteligencia artificial, la robótica y las tecnologías conexas conducirán a cambios sustanciales en el mercado laboral y en el lugar de trabajo; que pueden llegar a sustituir a trabajadores que realizan actividades repetitivas, facilitar sistemas de trabajo colaborativo entre las personas y las máquinas, aumentar la competitividad y la prosperidad y crear nuevas oportunidades de empleo para los trabajadores cualificados, al tiempo que plantean serias dificultades en lo relativo a la reorganización de la mano de obra;

D. Considerando que el desarrollo de la inteligencia artificial, la robótica y las tecnologías conexas puede contribuir asimismo a alcanzar los objetivos de sostenibilidad del Pacto Verde Europeo en gran diversidad de sectores; que las tecnologías digitales pueden potenciar el impacto de las políticas en la protección medioambiental; que también pueden contribuir a reducir la congestión del tráfico y las emisiones de gases de efecto invernadero y de contaminantes atmosféricos;

E. Considerando que, para sectores como el transporte público, los sistemas de transporte inteligentes basados en la inteligencia artificial pueden utilizarse para reducir al máximo las colas, optimizar las rutas, permitir que las personas con discapacidad tengan una mayor independencia y aumentar la eficiencia energética, reforzando así los esfuerzos de descarbonización y reduciendo la huella ambiental;

F. Considerando que estas tecnologías, si se utilizan en mayor medida, abren nuevas oportunidades de negocio que pueden contribuir a la recuperación de la industria de la Unión tras la crisis sanitaria y económica actual, por ejemplo en el sector del transporte; que tales oportunidades pueden crear nuevos puestos de trabajo, ya que la adopción de estas tecnologías puede aumentar los niveles de productividad de las empresas y contribuir a mejorar la eficiencia; que los programas de innovación en este ámbito pueden permitir que prosperen las agrupaciones regionales;

G. Considerando que la Unión y sus Estados miembros tienen una responsabilidad particular a la hora de aprovechar, promover y aumentar el valor añadido de la inteligencia artificial y de garantizar que las tecnologías de inteligencia artificial en la Unión sean seguras y contribuyan al bienestar y al interés general de sus ciudadanos, ya que pueden ayudar enormemente a la consecución del objetivo común de mejorar las vidas de los ciudadanos e impulsar la prosperidad dentro de la Unión contribuyendo al desarrollo de mejores estrategias e innovación en diversos ámbitos y sectores; que, para aprovechar plenamente las posibilidades que ofrece la inteligencia artificial y hacer que los usuarios sean conscientes de las ventajas y los retos que entraña esta tecnología, es necesario incluir la inteligencia artificial o la alfabetización digital en la educación y la formación, también en lo que respecta al fomento de la inclusión digital, así como llevar a cabo campañas de información a escala de la Unión en las que se presenten con exactitud todos los aspectos del desarrollo de la inteligencia artificial;

H. Considerando que un marco regulador común de la Unión para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas (en adelante denominado «marco regulador para la inteligencia artificial») debe permitir a los ciudadanos compartir las ventajas derivadas del potencial que encierran, protegiendo al mismo tiempo a los ciudadanos de los posibles riesgos de tales tecnologías y fomentando la fiabilidad de dichas tecnologías en la Unión y fuera de ella; que dicho marco debe estar basado en la legislación y los valores de la Unión y regirse por los principios de transparencia y explicabilidad, equidad, rendición de cuentas y responsabilidad;

I. Considerando que tal marco regulador reviste una importancia fundamental a la hora de evitar la fragmentación del mercado interior resultante de las divergencias entre legislaciones nacionales y contribuirá a fomentar las tan necesarias inversiones, a desarrollar infraestructuras de datos y a apoyar la investigación; que debe consistir en obligaciones legales comunes y principios éticos, como se establece en la propuesta de Reglamento solicitada en el anexo a la presente Resolución; que se debe crear de conformidad con las directrices para la mejora de la legislación;

J. Considerando que la Unión dispone de un estricto marco jurídico para garantizar, entre otras cuestiones, la protección de los datos personales y la intimidad y la no discriminación y para promover la paridad de género, la protección del medio ambiente y los derechos de los consumidores; que ese marco jurídico, constituido por un corpus de legislación horizontal y sectorial de gran extensión, que incluye la normativa vigente en materia de seguridad de los productos y responsabilidad, seguirá siendo de aplicación en relación con la inteligencia artificial, la robótica y las tecnologías conexas, si bien puede resultar necesario adaptar hasta cierto punto algunos instrumentos jurídicos concretos al objeto de reflejar la transformación digital y dar respuesta a los nuevos retos que plantea el uso de la inteligencia artificial;

K. Considerando que hay inquietud en cuanto a que el actual marco jurídico de la Unión, en particular la legislación relativa a los consumidores y el acervo en materia de empleo y social, la legislación en materia de protección de datos, la legislación relativa a la seguridad de los productos y a la vigilancia del mercado, así como la legislación en materia de lucha contra la discriminación, pueda ya no ser adecuado para hacer frente de manera eficaz a los riesgos que plantean la inteligencia artificial, la robótica y las tecnologías conexas;

L. Considerando que, además de las adaptaciones de la legislación vigente, las cuestiones de carácter ético y jurídico relacionadas con la inteligencia artificial deben abordarse a través de un marco regulador del Derecho de la Unión efectivo, global y con visión de futuro que refleje los principios y valores de la Unión consagrados en los Tratados y en la Carta de los Derechos Fundamentales, que evite el exceso de regulación, se limite a cubrir las lagunas jurídicas existentes y aumente la seguridad jurídica para las empresas y para los ciudadanos, incluyendo en particular medidas de carácter obligatorio al objeto de evitar prácticas que irían sin duda alguna en menoscabo de los derechos fundamentales;

M. Considerando que cualquier nuevo marco regulador debe tener en cuenta todos los intereses en juego; que un atento examen, mediante una evaluación de impacto, de las consecuencias que cualquier nuevo marco regulador entrañaría para todos los agentes ha de ser una condición previa para la adopción de nuevas medidas legislativas; que el papel fundamental que desempeñan las pymes y las empresas emergentes, especialmente en la economía de la Unión, justifica la adopción de un enfoque estrictamente proporcional para que puedan desarrollarse e innovar;

 

N. Considerando que la inteligencia artificial, la robótica y las tecnologías conexas pueden tener graves consecuencias para la integridad material e inmaterial de las personas, los grupos y la sociedad en su conjunto, y que los posibles daños individuales y colectivos deben ser abordados con respuestas legislativas;

O. Considerando que, para respetar el marco regulador de la Unión para la inteligencia artificial, puede ser necesario adoptar normas específicas para el sector del transporte de la Unión;

P. Considerando que las tecnologías de inteligencia artificial revisten una importancia estratégica para el sector del transporte, en particular debido al aumento de la seguridad y la accesibilidad de todos los modos de transporte y a la creación de nuevas oportunidades de empleo y modelos de negocio más sostenibles; que un enfoque de la Unión respecto al desarrollo de la inteligencia artificial, la robótica y las tecnologías conexas en el transporte podría incrementar la competitividad mundial y la autonomía estratégica de la economía de la Unión;

Q. Considerando que el error humano aún está presente en alrededor del 95 % del total de los accidentes de tráfico en la Unión; que la Unión Europea tenía el objetivo de reducir las muertes en accidentes de carretera en la Unión en un 50 % para 2020 con respecto a 2010, pero, habida cuenta del estancamiento de los progresos, ha renovado sus esfuerzos en su Marco de la política de seguridad vial 2021-2030 - Próximos pasos hacia el objetivo «visión cero»; que, en este sentido, la inteligencia artificial, la automatización y otras nuevas tecnologías tienen un gran potencial y una importancia crucial de cara al aumento de la seguridad vial, al reducir las posibilidades de error humano;

R. Considerando que el marco regulador de la Unión para la inteligencia artificial debe reflejar también la necesidad de garantizar el respeto de los derechos de los trabajadores; que se debe tener en cuenta el Acuerdo Marco de los interlocutores sociales europeos sobre la digitalización, de junio de 2020;

S. Considerando que el ámbito del marco regulador de la Unión para la inteligencia artificial ha de ser adecuado y proporcional y debe ser objeto de una minuciosa evaluación; que, si bien debe abarcar una amplia gama de tecnologías y componentes de estas, incluidos los algoritmos, los programas informáticos y los datos utilizados o producidos por dichas tecnologías, es necesario un enfoque específico basado en el riesgo para evitar que se obstaculicen las innovaciones en el futuro y se creen cargas innecesarias, especialmente para las pymes; Considerando que la variedad de aplicaciones que se basan en la inteligencia artificial, la robótica y las tecnologías conexas hace difícil alcanzar una solución única que resulte adecuada para toda la gama de riesgos;

T. Considerando que el análisis de datos y la inteligencia artificial tienen cada vez más repercusión en la información que se facilita a los ciudadanos; que dichas tecnologías, si se utilizan indebidamente, pueden poner en peligro los derechos fundamentales a la libertad de expresión y de información, así como la libertad y el pluralismo de los medios de comunicación;

U. Considerando que el ámbito geográfico del marco regulador de la Unión para la inteligencia artificial debe abarcar todos los componentes de la inteligencia artificial, la robótica y las tecnologías conexas desarrolladas, implementadas o utilizadas en la Unión, incluso en los casos en que una parte de las tecnologías esté situada fuera de la Unión o no tenga una ubicación específica;

V. Considerando que el marco regulador de la Unión para la inteligencia artificial debe abarcar todas las fases pertinentes, a saber, el desarrollo, la implementación y el uso de las tecnologías pertinentes y de sus componentes, teniendo debidamente en cuenta las obligaciones legales comunes y los principios éticos, y debe establecer las condiciones para garantizar que los desarrolladores, los implementadores y los usuarios respeten plenamente tales obligaciones y principios;

W. Considerando que un enfoque armonizado de los principios éticos relacionados con la inteligencia artificial, la robótica y las tecnologías conexas requiere una interpretación común en la Unión de los conceptos que conforman la base de las tecnologías, como algoritmos, programas informáticos, datos o reconocimiento biométrico;

X. Considerando que las acciones a nivel de la Unión están justificadas por la necesidad de evitar la fragmentación de la normativa o una serie de disposiciones reguladoras nacionales sin denominador común y de garantizar la aplicación homogénea de principios éticos comunes consagrados al desarrollar, implementar y utilizar la inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo; que son necesarias normas claras cuando los riesgos son significativos;

Y. Considerando que los principios éticos comunes solo son eficaces cuando están también consagrados en la legislación y se establece quiénes son los responsables de garantizar, evaluar y supervisar la conformidad;

Z. Considerando que las orientaciones éticas, como los principios adoptados por el Grupo de expertos de alto nivel sobre inteligencia artificial, constituyen un buen punto de partida, pero no pueden garantizar que los desarrolladores, los implementadores y los usuarios actúen de manera justa y aseguren la protección eficaz de las personas; que esas orientaciones son más pertinentes aún en lo que respecta la inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo;

AA. Considerando que cada Estado miembro debe designar una autoridad nacional de control responsable de garantizar, evaluar y supervisar la conformidad del desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas con el marco regulador de la Unión para la inteligencia artificial, así como de posibilitar el debate y el intercambio de puntos de vista en estrecha cooperación con las partes interesadas y la sociedad civil; que las autoridades nacionales de control deben cooperar entre sí;

AB. Considerando que, a fin de garantizar un enfoque armonizado en toda la Unión y un funcionamiento óptimo del mercado único digital, la coordinación a escala de la Unión llevada a cabo por la Comisión o cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse en este contexto debe ser evaluada en lo que respecta a las oportunidades y retos nuevos, en particular los de naturaleza transfronteriza, derivados de la evolución tecnológica en curso; que, a tal fin, la Comisión debe ser la encargada de encontrar una solución adecuada para estructurar dicha coordinación a escala de la Unión;

Inteligencia artificial antropocéntrica y antropogénica

1. Opina que, sin perjuicio de la legislación sectorial, es necesario contar con un marco regulador efectivo y armonizado basado en el Derecho de la Unión, la Carta de los Derechos Fundamentales de la Unión Europea y el Derecho internacional en materia de derechos humanos y aplicable, en particular, a las tecnologías de alto riesgo, con el fin de establecer normas iguales en toda la Unión y proteger eficazmente los valores de la Unión;

2. Opina que cualquier nuevo marco regulador para la inteligencia artificial que prevea obligaciones legales y principios éticos para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas debe respetar plenamente la Carta de los Derechos Fundamentales y, por tanto, perseguir el respeto de la dignidad humana, la autonomía y la autodeterminación de la persona, la prevención de daños, la promoción de la equidad, la inclusión y la transparencia, la eliminación de los sesgos y la discriminación, también en lo que respecta a los grupos minoritarios, así como respetar los principios de limitación de las externalidades negativas de la tecnología empleada, de explicabilidad de las tecnologías y de garantía de que las tecnologías sirvan a las personas y no las reemplacen ni decidan por ellas, con el objetivo último de elevar el bienestar de todos los seres humanos;

3. Destaca la asimetría entre quienes emplean tecnologías de inteligencia artificial y quienes interactúan con ellas y se encuentran sujetos a estas; subraya, en este contexto, que la confianza de los ciudadanos en la inteligencia artificial solo puede basarse en un marco regulador ético por defecto y ético desde el diseño que garantice que toda inteligencia artificial puesta en funcionamiento respete plenamente los Tratados, la Carta de los Derechos Fundamentales y el Derecho derivado de la Unión; considera que tal enfoque debe estar en consonancia con el principio de precaución que guía la legislación de la Unión y debe ocupar un lugar central en cualquier marco regulador para la inteligencia artificial; pide, en este sentido, un modelo de gobernanza claro y coherente que permita a las empresas y los innovadores avanzar en el desarrollo de la inteligencia artificial, la robótica y las tecnologías conexas;

4. Considera que toda medida legislativa relativa a la inteligencia artificial, la robótica y las tecnologías conexas debe respetar los principios de necesidad y de proporcionalidad;

5.  Estima que un enfoque de este tipo permitirá a las empresas introducir productos innovadores en el mercado y crear nuevas oportunidades, al tiempo que se garantiza la protección de los valores de la Unión, conduciendo al desarrollo de sistemas de inteligencia artificial que incorporen los principios éticos de la Unión desde el diseño; considera que un marco regulador de este tipo basado en valores representaría un valor añadido al aportar a la Unión una ventaja competitiva única y contribuiría de forma significativa al bienestar y la prosperidad de los ciudadanos y las empresas de la Unión impulsando el mercado interior; subraya que tal marco regulador para la inteligencia artificial representará también un valor añadido en lo que respecta a la promoción de la innovación en el mercado interior; opina que, por ejemplo, en el sector del transporte, este enfoque brinda a las empresas de la Unión la oportunidad de convertirse en líderes mundiales en este ámbito;

6. Señala que el marco jurídico de la Unión debe aplicarse a la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías;

7. Señala que las oportunidades basadas en la inteligencia artificial, la robótica y las tecnologías conexas dependen de los macrodatos y que se necesita una masa crítica de datos para entrenar los algoritmos y refinar los resultados; acoge con satisfacción, a este respecto, la propuesta de la Comisión de crear un espacio común de datos en la Unión para reforzar el intercambio de datos y apoyar la investigación respetando plenamente la normativa europea de protección de datos;

8. Considera que el actual marco jurídico de la Unión, en particular en materia de protección de la intimidad y los datos personales, deberá aplicarse plenamente a la inteligencia artificial, la robótica y las tecnologías conexas, y ser objeto de revisión y análisis de forma periódica, así como de actualización cuando sea necesario, a fin de abordar eficazmente los riesgos que plantean estas tecnologías, y, en este sentido, podría ser beneficioso completarlo con sólidos principios éticos rectores; señala que, en los casos en que resulte prematuro adoptar actos jurídicos, debe recurrirse a un marco de Derecho indicativo;

9. Espera que la Comisión integre un enfoque ético sólido en la propuesta legislativa solicitada en el anexo a la presente Resolución como seguimiento del Libro Blanco sobre la inteligencia artificial, también en lo que atañe a la seguridad, la responsabilidad y los derechos fundamentales, que maximice las oportunidades y minimice los riesgos de las tecnologías de inteligencia artificial; espera que la propuesta legislativa solicitada incluya soluciones políticas a los importantes riesgos reconocidos de la inteligencia artificial, incluidos, entre otros, los que atañen a la recopilación y el uso éticos de los macrodatos, la cuestión de la transparencia algorítmica y el sesgo algorítmico; pide a la Comisión que elabore criterios e indicadores para clasificar las tecnologías de inteligencia artificial con el fin de estimular la transparencia, la explicabilidad y la rendición de cuentas e incitar a los desarrolladores a que tomen precauciones adicionales; destaca la necesidad de invertir en la integración de disciplinas no técnicas en el estudio y la investigación sobre la inteligencia artificial, teniendo en cuenta el contexto social;

10. Considera que la inteligencia artificial, la robótica y las tecnologías conexas deben adaptarse a las necesidades humanas, en consonancia con el principio según el cual su desarrollo, implementación y uso deben estar siempre al servicio del ser humano y nunca al revés y deben tener por objeto aumentar el bienestar y la libertad individual, así como preservar la paz, prevenir los conflictos y reforzar la seguridad internacional, maximizando al mismo tiempo los beneficios ofrecidos y evitando y reduciendo los riesgos;

11. Declara que el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo, en particular —pero no solo— por parte de los seres humanos, deben regirse siempre por principios éticos y estar concebidos para respetar y permitir la intervención humana y el control democrático, así como permitir la recuperación del control humano cuando sea necesario aplicando medidas de control adecuadas;

Evaluación de riesgos

12. Hace hincapié en que toda futura reglamentación ha de seguir un enfoque basado en el riesgo y orientado al futuro para regular la inteligencia artificial, la robótica y las tecnologías conexas, con normas tecnológicamente aplicables a todos los sectores y con normas sectoriales cuando proceda; señala que, a fin de garantizar la aplicación uniforme del sistema de evaluación de riesgos y el respeto de las obligaciones legales conexas para asegurar la igualdad de condiciones entre los Estados miembros y prevenir la fragmentación del mercado interior, es necesaria una lista exhaustiva y acumulativa de sectores de alto riesgo y de usos o fines de alto riesgo; subraya que tal lista debe someterse a una reevaluación periódica, y señala que, habida cuenta del carácter evolutivo de estas tecnologías, puede ser necesario reevaluar en el futuro el modo en que se realiza su evaluación de riesgos;

13. Considera que, para determinar si la inteligencia artificial, la robótica y las tecnologías conexas deben considerarse de alto riesgo y, por lo tanto, estar sujetas al obligado cumplimiento de las obligaciones legales y los principios éticos, como se establece en el marco regulador para la inteligencia artificial, es necesario basarse siempre en una evaluación ex ante imparcial, regulada y externa apoyada en criterios concretos y definidos;

14. Considera que, a este respecto, la inteligencia artificial, la robótica y las tecnologías conexas deben considerarse de alto riesgo cuando su desarrollo, implementación y uso entrañen un riesgo significativo de causar lesiones o daños a particulares o a la sociedad, vulnerando los derechos fundamentales y las normas de seguridad establecidas en el Derecho de la Unión; considera que, a efectos de evaluar si las tecnologías de inteligencia artificial entrañan un riesgo de ese tipo, deben tenerse en cuenta el sector en el que se desarrollan, implementan o utilizan, su uso o finalidad específicos y la gravedad de la lesión o daño que cabe esperar que se produzca; opina que los criterios primero y segundo, es decir el sector y el uso o finalidad específicos, deben considerarse de forma acumulativa;

15. Subraya que la evaluación de riesgos de estas tecnologías debe efectuarse sobre la base de una lista exhaustiva y acumulativa de sectores de alto riesgo y de usos o fines de alto riesgo; se muestra firmemente convencido de que debe haber coherencia dentro de la Unión en lo que respecta a la evaluación de riesgos de estas tecnologías, especialmente cuando se evalúan a la luz de su conformidad con el marco regulador para la inteligencia artificial y de conformidad con cualquier otra legislación sectorial aplicable;

16. Opina que este enfoque basado en el riesgo ha de estar concebido de tal manera que limite todo lo posible la carga administrativa para las empresas, en particular las pymes, utilizando instrumentos ya existentes; señala que dichos instrumentos incluyen, entre otros, la lista de la evaluación de impacto relativa a la protección de datos prevista en el Reglamento (UE) 2016/679;

Características de seguridad, transparencia y rendición de cuentas

17. Recuerda que el derecho a la información de los consumidores constituye un principio fundamental en virtud del Derecho de la Unión, y subraya que, en consecuencia, debe respetarse plenamente en relación con la inteligencia artificial, la robótica y las tecnologías conexas; opina que ello ha de incluir en particular la transparencia en lo que respecta a la interacción con los sistemas de inteligencia artificial, incluidos los procesos de automatización, y en cuanto a su modo de funcionamiento, sus capacidades, por ejemplo la manera en que se filtra y presenta la información, su exactitud y sus limitaciones; considera que dicha información debe ser facilitada a las autoridades nacionales de control y a las autoridades nacionales de protección de los consumidores;

18. Subraya que la confianza de los consumidores es esencial para el desarrollo y la implementación de estas tecnologías, que pueden conllevar riesgos inherentes cuando se basan en algoritmos opacos y conjuntos de datos sesgados; estima que los consumidores deben tener derecho a ser debidamente informados de manera comprensible, oportuna, normalizada, exacta y accesible de la existencia, el razonamiento, el posible resultado y las repercusiones de los sistemas algorítmicos para los consumidores, así como de la manera de contactar con un ser humano con poder de decisión y de cómo se pueden verificar, impugnar de manera útil y corregir las decisiones del sistema; subraya, a este respecto, la necesidad de tener en cuenta y respetar los principios de la información y la divulgación en los que se ha basado el acervo en materia de protección de los consumidores; estima necesario que se informe de manera detallada a los usuarios finales sobre el funcionamiento de los sistemas de transporte y los vehículos basados en la inteligencia artificial;

19. Señala que es fundamental que los algoritmos y los conjuntos de datos utilizados o producidos mediante inteligencia artificial, robótica y tecnologías conexas sean explicables y que, cuando sea estrictamente necesario y se respete plenamente la legislación de la Unión en materia de protección de datos, derecho a la intimidad y derechos de propiedad intelectual y secretos comerciales, sean accesibles a las autoridades públicas, como las autoridades nacionales de control y las autoridades de vigilancia del mercado; señala asimismo que, de acuerdo con las normas del sector aplicables más estrictas posible, dicha documentación debe ser almacenada por quienes participan en las diferentes fases del desarrollo de las tecnologías de alto riesgo; toma nota de la posibilidad de que las autoridades de vigilancia del mercado puedan tener más prerrogativas en este sentido; subraya a este respecto el papel de la ingeniería inversa legal; considera que podría ser necesario examinar la legislación actual en materia de vigilancia del mercado para garantizar que esta responda desde el punto de vista ético al surgimiento de la inteligencia artificial, la robótica y las tecnologías conexas;

20. Pide que, cuando una evaluación de riesgos así lo indique, los desarrolladores y los implementadores de tecnologías de alto riesgo deben facilitar a las autoridades públicas la documentación pertinente sobre el uso y el diseño, así como las instrucciones de seguridad, incluidos —cuando sea estrictamente necesario y respetando plenamente el Derecho de la Unión en materia de protección de datos, derecho a la intimidad y derechos de propiedad intelectual y secretos comerciales— el código fuente, las herramientas de desarrollo y los datos utilizados por el sistema; señala que dicha obligación permitiría evaluar su conformidad con el Derecho de la Unión y con los principios éticos, y toma nota, a este respecto, del ejemplo del depósito legal de las publicaciones de una biblioteca nacional; observa la importante distinción entre la transparencia de los algoritmos y la transparencia en el uso de los algoritmos;

21. Observa asimismo que, para respetar la dignidad, la autonomía y la seguridad humanas, deben tenerse debidamente en cuenta los dispositivos médicos vitales y avanzados y la necesidad de que autoridades independientes de confianza conserven los medios necesarios para proporcionar servicios a las personas que lleven estos dispositivos cuando el desarrollador o el implementador original deje de prestarlos; señala que estos servicios incluirían, por ejemplo, el mantenimiento, la reparación y la mejora, en particular las actualizaciones de programas informáticos para corregir el mal funcionamiento y las vulnerabilidades;

22. Sostiene que la inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, independientemente del ámbito en el que se desarrollen, implementen y utilicen, deben ser desarrollados desde el diseño de manera segura, rastreable, técnicamente sólida, fiable, ética y jurídicamente vinculante y ser objeto de un control y una supervisión independientes; considera en particular que todos los agentes a lo largo de las cadenas de desarrollo y suministro de productos y servicios de inteligencia artificial deben ser jurídicamente responsables, y destaca la necesidad de mecanismos que garanticen la responsabilidad y la rendición de cuentas;

23. Subraya que la reglamentación y las directrices en materia de explicabilidad, auditabilidad, trazabilidad y transparencia, así como, cuando una evaluación de riesgos así lo requiera, sea estrictamente necesario y respete plenamente el Derecho de la Unión, en particular, en materia de protección de datos, derecho a la intimidad y derechos de propiedad intelectual y secretos comerciales, son fundamentales para garantizar la confianza de los ciudadanos en estas tecnologías, aunque el grado de explicabilidad esté relacionado con la complejidad de las tecnologías; señala que no siempre es posible explicar por qué un modelo ha dado lugar a un resultado o una decisión en concreto, como por ejemplo en el caso de los algoritmos de «caja negra»; estima, por consiguiente, que el respeto de estos principios es condición necesaria para poder asegurar la rendición de cuentas;

24. Considera que los ciudadanos, incluidos los consumidores, deben ser informados al interactuar con un sistema que utiliza inteligencia artificial, en concreto para personalizar un producto o un servicio para sus usuarios, de la posibilidad y del modo de desactivar o restringir la personalización;

25. Señala en este sentido que, para ser fiables, la inteligencia artificial, la robótica y las tecnologías conexas deben ser técnicamente sólidas y precisas;

26. Subraya la importancia de la protección de las redes de inteligencia artificial y robótica interconectadas, por lo que deben adoptarse medidas sólidas para evitar las vulneraciones de la seguridad, las fugas y la intoxicación de datos, los ciberataques y los usos indebidos de los datos personales, lo que exigirá que las instituciones, órganos y organismos pertinentes, tanto a escala de la Unión como nacional, trabajen juntos y en cooperación con los usuarios finales de estas tecnologías; pide a la Comisión y a los Estados miembros que velen por la observancia permanente de los valores de la Unión y el respeto de los derechos fundamentales a la hora de desarrollar e implantar tecnologías de inteligencia artificial, a fin de garantizar la seguridad y la resiliencia de la infraestructura digital de la Unión;

Sin sesgo y sin discriminación

27. Recuerda que la inteligencia artificial, dependiendo de su desarrollo y de su uso, puede crear y reforzar sesgos, también a través de sesgos inherentes a los conjuntos de datos subyacentes, y, por lo tanto, crear diversas formas de discriminación automatizada, incluida la discriminación indirecta, en particular en relación con grupos de personas con características similares; pide a la Comisión y a los Estados miembros que adopten todas las medidas posibles para evitar tales sesgos y para garantizar la plena protección de los derechos fundamentales;

28. Manifiesta su preocupación por el peligro de sesgos y discriminación en el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías; recuerda que, en todas las circunstancias, deben respetar el Derecho de la Unión, así como los derechos y la dignidad humanos, la autonomía y la autodeterminación de la persona, y garantizar la igualdad de trato y la no discriminación para todos;

29. Destaca que las tecnologías de inteligencia artificial deben estar diseñadas para respetar y proteger los valores morales y la integridad física y mental, y estar a su servicio, defender la diversidad cultural y lingüística de la Unión y contribuir a satisfacer las necesidades esenciales; subraya la necesidad de evitar cualquier uso que pueda conllevar una coerción directa o indirecta inadmisible, que amenace con socavar la autonomía psicológica y la salud mental o bien que dé lugar a una vigilancia injustificada, a un engaño o a una manipulación inadmisible;

30. Cree firmemente que los derechos humanos fundamentales consagrados en la Carta de los Derechos Fundamentales deben respetarse estrictamente para garantizar que estas tecnologías emergentes no generen vacíos en términos de protección;

31. Afirma que la posibilidad de sesgo y discriminación de los programas informáticos, los algoritmos y los datos puede provocar un evidente perjuicio a las personas y la sociedad, por lo que deben abordarse alentando el establecimiento y el intercambio de estrategias para combatirlos, como la eliminación de sesgos en los conjuntos de datos en investigación y desarrollo, y elaborando normas sobre el tratamiento de datos; estima que con este enfoque se pueden convertir los programas, los algoritmos y los datos en instrumentos en la lucha contra el sesgo y la discriminación en determinadas situaciones, así como en una fuerza para la igualdad de derechos y el cambio social positivo;

32. Sostiene que los valores éticos de la equidad, la exactitud, la confidencialidad y la transparencia deben ser la base de estas tecnologías, lo que en este contexto implica que sus operaciones deben concebirse de tal manera que no generen resultados sesgados;

33. Subraya la importancia que reviste la calidad de los conjuntos de datos empleados para los sistemas de inteligencia artificial, robótica y tecnologías conexas, según su contexto, en particular en lo que respecta a la representatividad de los datos de formación, así como sobre la eliminación de sesgos en los conjuntos de datos, sobre los algoritmos utilizados y sobre las normas en cuanto a datos y agregación; destaca que estos conjuntos de datos deben ser auditados por las autoridades nacionales de control siempre que se les solicite para asegurarse de su conformidad con los principios citados anteriormente;

34. Destaca que, en el contexto de la extensa guerra de desinformación, impulsada especialmente por agentes no europeos, las tecnologías de inteligencia artificial podrían tener efectos adversos desde el punto de vista ético debido a la explotación de sesgos en los datos y los algoritmos o a la alteración deliberada de los datos de aprendizaje por un tercer país, y podrían verse expuestas también a otros tipos de manipulación malintencionada y peligrosa, de manera imprevisible y con consecuencias incalculables; considera que existe, por tanto, una necesidad cada vez mayor de que la Unión siga invirtiendo en investigación, análisis, innovación y transferencia de conocimientos transfronteriza e intersectorial, con el fin de desarrollar tecnologías de inteligencia artificial en las que no haya ninguna clase de elaboración de perfiles, sesgo o discriminación, y que puedan contribuir eficazmente a luchar contra las noticias falsas y la desinformación, respetando al mismo tiempo la privacidad de los datos y el marco jurídico de la Unión;

35. Recuerda la importancia de garantizar a las personas recursos efectivos, y pide a los Estados miembros que velen por que se disponga de procedimientos y mecanismos de revisión accesibles, asequibles, independientes y eficaces al objeto de garantizar la revisión imparcial, efectuada por seres humanos, de todas las denuncias de vulneraciones de los derechos de los ciudadanos, como los derechos civiles o los de los consumidores, mediante el recurso a sistemas algorítmicos, independientemente de si tienen su origen en agentes del sector público o del privado; destaca la importancia del proyecto de Directiva del Parlamento Europeo y del Consejo relativa a las acciones de representación para la protección de los intereses colectivos de los consumidores y por la que se deroga la Directiva 2009/22/CE, sobre el que se alcanzó un acuerdo el 22 de junio de 2020, en lo que respecta a casos futuros para impugnar la introducción o el uso continuo de un sistema de inteligencia artificial susceptible de vulnerar los derechos de los consumidores o subsanar una violación de derechos; pide a la Comisión y a los Estados miembros que velen por que las organizaciones de consumidores nacionales y de la Unión dispongan de financiación suficiente para ayudar a los consumidores a ejercer su derecho a la tutela judicial en los casos en que se hayan vulnerado sus derechos;

36. Considera, por lo tanto, que toda persona física o jurídica debe poder recurrir contra cualquier decisión tomada en detrimento suyo por un sistema de inteligencia artificial, robótica o tecnologías conexas vulnerando el Derecho nacional o de la Unión;

37. Considera que, como primer punto de contacto en caso de sospecha de vulneración del marco regulador de la Unión en este contexto, los consumidores podrían igualmente dirigir a las autoridades nacionales de control solicitudes de reparación, con vistas a garantizar el cumplimiento efectivo de dicho marco;

Responsabilidad social y paridad de género

38. Hace hincapié en que la inteligencia artificial, la robótica y las tecnologías conexas socialmente responsables tienen un papel que desempeñar en la búsqueda de soluciones que salvaguarden y promuevan los valores fundamentales de nuestra sociedad, como la democracia, el Estado de Derecho, la pluralidad e independencia de los medios de comunicación y una información objetiva y de libre acceso, la salud y la prosperidad económica, la igualdad de oportunidades, los derechos sociales y laborales de los trabajadores, una educación de calidad, la protección de la infancia, la diversidad cultural y lingüística, la paridad de género, la alfabetización digital, la innovación y la creatividad; recuerda la necesidad de velar por que los intereses de todos los ciudadanos, incluidos los que están marginados o en situación de vulnerabilidad, como las personas con discapacidad, sean tenidos en cuenta y estén representados debidamente;

39. Subraya la importancia que reviste conseguir un alto nivel de alfabetización digital general y formar profesionales altamente cualificados en este ámbito, así como garantizar el reconocimiento recíproco de estas formaciones en toda la Unión; hace hincapié en la necesidad de contar con diversos equipos de desarrolladores e ingenieros que trabajen conjuntamente con los principales agentes de la sociedad, a fin de evitar que los sesgos culturales y de género se incluyan involuntariamente en los algoritmos, sistemas y aplicaciones de la inteligencia artificial; apoya la creación de programas educativos y actividades de sensibilización pública en torno al impacto social, jurídico y ético de la inteligencia artificial;

40. Hace hincapié en la importancia fundamental de garantizar la libertad de conciencia y expresión, velando así por que estas tecnologías no inciten al discurso de odio ni a la violencia; considera, por tanto, que obstaculizar o limitar la libertad de expresión ejercida por medios digitales es ilegal con arreglo a los principios fundamentales de la Unión, excepto cuando el ejercicio de este derecho fundamental implica actos ilegales;

41. Subraya que la inteligencia artificial, la robótica y las tecnologías conexas pueden contribuir a reducir las desigualdades sociales y afirma que el modelo europeo para su desarrollo debe basarse en la confianza de los ciudadanos y en una mayor cohesión social;

42. Subraya que la implementación de cualquier sistema de inteligencia artificial no debe limitar indebidamente el acceso de los usuarios a servicios públicos como la seguridad social; pide tanto a la Comisión que examine el modo en que puede alcanzarse este objetivo;

43. Subraya la importancia que revisten una investigación y un desarrollo responsables que tengan por objeto maximizar todo el potencial de la inteligencia artificial, la robótica y las tecnologías conexas para la ciudadanía y el bien público; pide una movilización de recursos por parte de la Unión y sus Estados miembros al objeto de fomentar y respaldar la innovación responsable;

44. Destaca que los conocimientos tecnológicos serán cada vez más importantes y, por tanto, será necesario actualizar continuamente los cursos de formación, en particular para las futuras generaciones, y promover el reciclaje profesional de personas que ya estén en el mercado de trabajo; sostiene, a este respecto, que es necesario fomentar la innovación y la formación no solo en el sector privado, sino también en el sector público;

45. Insiste en que el desarrollo, la implementación y el uso de estas tecnologías no deben causar lesiones o daños de ningún tipo a las personas, a la sociedad o al medio ambiente y que, por consiguiente, los desarrolladores, los implementadores y los usuarios de estas tecnologías deben ser considerados responsables de tales lesiones o daños de conformidad con las normas de la Unión y nacionales pertinentes en materia de responsabilidad;

46. Pide a los Estados miembros que evalúen si las pérdidas de puestos de trabajo derivadas de la implementación de estas tecnologías deben conducir a adoptar políticas públicas adecuadas, como la reducción del tiempo de trabajo;

47. Sostiene que un enfoque del diseño basado en los valores de la Unión y en principios éticos es absolutamente necesario para crear las condiciones para una amplia aceptación social de la inteligencia artificial, la robótica y las tecnologías conexas; considera que este enfoque, cuyo fin es desarrollar una inteligencia artificial fiable, éticamente responsable y técnicamente sólida es un importante factor de apoyo a una movilidad sostenible e inteligente que sea segura y accesible;

48. Pone de relieve el gran valor añadido de los vehículos autónomos para las personas con movilidad reducida, puesto que este tipo de vehículos permiten a dichas personas participar más eficazmente en el transporte individual por carretera y, de ese modo, hacen más fácil su vida cotidiana; destaca la importancia de la accesibilidad, especialmente al diseñar sistemas de movilidad como servicio (MaaS);

49. Pide a la Comisión que siga apoyando el desarrollo de sistemas de inteligencia artificial fiables para que el transporte sea más seguro, eficiente, accesible, asequible e inclusivo, también para las personas con movilidad reducida, en particular las personas con discapacidad, teniendo en cuenta la Directiva (UE) 2019/882 del Parlamento Europeo y del Consejo y la legislación de la Unión sobre derechos de los pasajeros;

50. Considera que la inteligencia artificial puede ayudar a utilizar mejor las capacidades y competencias de las personas con discapacidad y que la aplicación de la inteligencia artificial en el lugar de trabajo puede contribuir a unos mercados laborales inclusivos y a unas tasas de empleo más elevadas para las personas con discapacidad;

Medio ambiente y sostenibilidad

51. Afirma que los gobiernos y las empresas deben utilizar la inteligencia artificial, la robótica y las tecnologías conexas para beneficiar a las personas y al planeta y contribuir a la consecución del desarrollo sostenible, la conservación del medio ambiente, la neutralidad climática y los objetivos de la economía circular; considera que el desarrollo, la implementación y el uso de estas tecnologías deben contribuir a la transición verde, proteger el medio ambiente y minimizar y reparar los daños causados al medio ambiente durante su ciclo de vida y a lo largo de toda la cadena de suministro, en consonancia con el Derecho de la Unión;

52. Considera que, habida cuenta del importante impacto medioambiental del desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas, a efectos del apartado anterior, dicho impacto podría ser evaluado, cuando sea pertinente y adecuado, a lo largo de su vida útil por las autoridades sectoriales pertinentes; opina que tal evaluación podría incluir una estimación del impacto de la extracción de los materiales necesarios, del consumo de energía y de las emisiones de gases de efecto invernadero que se derivan de su desarrollo, implementación y uso;

53. Propone que, en aras de obtener sistemas responsables de inteligencia artificial de vanguardia, el potencial de la inteligencia artificial, la robótica y las tecnologías conexas se explore, estimule y maximice a través de una investigación y un desarrollo responsables, lo que requiere la movilización de recursos por parte de la Unión y sus Estados miembros;

54. Destaca que el desarrollo, la implementación y el uso de estas tecnologías ofrecen oportunidades para impulsar los Objetivos de Desarrollo Sostenible de las Naciones Unidas, la transición energética mundial y la descarbonización;

55. Considera que los objetivos de responsabilidad social, paridad de género, protección ambiental y sostenibilidad no han de ir en detrimento de las obligaciones generales y sectoriales existentes en estos ámbitos; estima que se deben establecer directrices de aplicación no vinculantes dirigidas a los desarrolladores, implementadores y usuarios, especialmente de las tecnologías de alto riesgo, relativas a la metodología que ha de aplicarse para evaluar su conformidad con el presente Reglamento y la realización de los objetivos;

56. Pide a la Unión que impulse y financie el desarrollo de una inteligencia artificial, de una robótica y de tecnologías conexas antropocéntricas, que aborden los retos medioambientales y climáticos y garanticen el respeto de los derechos fundamentales mediante el recurso a incentivos fiscales, de contratación pública o de otro tipo;

57. Subraya que, a pesar de la elevada huella de carbono asociada actualmente al desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas, incluidas las decisiones automatizadas y el aprendizaje automático, estas tecnologías pueden contribuir a reducir la actual huella medioambiental del sector de las TIC; subraya que estas y otras tecnologías conexas debidamente reguladas deben ser factores fundamentales para alcanzar los objetivos del Pacto Verde, los Objetivos de Desarrollo Sostenible de las Naciones Unidas y los objetivos del Acuerdo de París en muchos y diferentes sectores, y deben potenciar el impacto de las políticas de protección del medio ambiente, por ejemplo las políticas relativas a la reducción de residuos y la degradación ambiental;

58. Pide a la Comisión que lleve a cabo un estudio sobre el impacto de la huella de carbono de la tecnología de la inteligencia artificial y sobre los efectos positivos y negativos de la transición hacia el uso de dicha tecnología por los consumidores;

59. Señala que, dado el creciente desarrollo de aplicaciones de inteligencia artificial, que requieren recursos informáticos, de almacenamiento y energéticos, el impacto ambiental de los sistemas de inteligencia artificial debe considerarse durante todo su ciclo de vida;

60. Considera que, en áreas como la salud, la responsabilidad debe recaer en última instancia en una persona física o jurídica; hace hincapié en la necesidad de datos de la formación trazables y públicamente disponibles para la formulación de algoritmos;

61. Apoya firmemente la creación de un Espacio Europeo de Datos de Salud[12] propuesto por la Comisión que aspira a promover el intercambio de datos sobre salud y a apoyar la investigación respetando plenamente la protección de datos, incluido el tratamiento de datos con la tecnología de la inteligencia artificial, y que potencia y extiende la utilización y la reutilización de los datos de salud; alienta la ampliación del intercambio transfronterizo de datos de salud, la vinculación y el uso de dichos datos a través de repositorios federados seguros, de determinados tipos de información sanitaria, como los registros sanitarios europeos (RSE), la información genómica y las imágenes de salud digitales con el fin de facilitar los registros y bases de datos interoperables en toda la Unión en áreas como la investigación, la ciencia y los sectores sanitarios;

62. Pone de relieve los beneficios de la inteligencia artificial para la prevención, el tratamiento y el control de las enfermedades, como demuestra el hecho de que la inteligencia artificial pronosticó la epidemia de COVID-19 antes que la OMS; insta a la Comisión a dotar adecuadamente al ECDC del marco regulador y de los recursos que le permitan recopilar en tiempo real los datos de salud globales anonimizados necesarios de manera independiente y en colaboración con los Estados miembros, para, por ejemplo, abordar las cuestiones reveladas por la pandemia de COVID-19;

Protección de la intimidad y reconocimiento biométrico

63. Observa que la producción y el uso de datos, incluidos los datos personales, como los datos biométricos resultantes del desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas, están aumentando con rapidez, lo que pone de relieve la necesidad de respetar y hacer cumplir el derecho de los ciudadanos a la intimidad y a la protección de los datos personales, de conformidad con el Derecho de la Unión;

64. Señala que la posibilidad que ofrecen estas tecnologías de utilizar datos personales y no personales para categorizar y microsegmentar a las personas, detectar vulnerabilidades de estas o explorar conocimientos predictivos exactos debe ser compensada con una aplicación efectiva de los principios en materia de protección de datos e intimidad, como la minimización de los datos, el derecho a oponerse a la elaboración de perfiles y a controlar el uso de los datos sobre uno mismo, el derecho a obtener una explicación de una decisión basada en el tratamiento automatizado y la protección de la intimidad desde el diseño, así como de los principios de proporcionalidad, necesidad y limitación basada en finalidades claramente definidas, de conformidad con el RGPD;

65. Hace hincapié en que, cuando las autoridades públicas utilizan, para fines de interés público esencial, las tecnologías de reconocimiento remoto, como el reconocimiento de las características biométricas, en particular el reconocimiento facial, su uso debe siempre hacerse público, ser proporcionado, específico y limitado a objetivos específicos, restringido en el tiempo, de conformidad con el Derecho de la Unión, y debe tener debidamente en cuenta la dignidad y la autonomía humanas y los derechos fundamentales establecidos en la Carta de los Derechos Fundamentales; subraya que los criterios y límites de dicho uso deben estar sujetos a control judicial y a control democrático y deben tener en cuenta su impacto psicosocial y sociocultural en la sociedad civil;

66. Señala que, si bien implementar la inteligencia artificial, la robótica y las tecnologías conexas en el marco de las decisiones del poder público tiene beneficios, también puede dar origen a abusos graves, como la vigilancia masiva, la actuación policial predictiva y las violaciones de derechos procesales;

67. Considera que las tecnologías que pueden generar decisiones automatizadas, sustituyendo así las decisiones adoptadas por las autoridades públicas, deben tratarse con la máxima precaución, especialmente en el ámbito de la justicia y la aplicación de la ley;

68. Considera que los Estados miembros solo deben recurrir a dichas tecnologías si existen pruebas fehacientes de su fiabilidad y si la intervención y la revisión humanas significativas son posibles o sistemáticas en casos en que estén en juego libertades fundamentales; subraya la importancia de que las autoridades nacionales lleven a cabo una evaluación de impacto rigurosa sobre los derechos fundamentales para los sistemas de inteligencia artificial implementados en estos casos, especialmente tras la evaluación de riesgos de esas tecnologías como de alto riesgo;

69. Considera que toda decisión adoptada por la inteligencia artificial, la robótica o tecnologías conexas dentro del marco de prerrogativas del poder público debe estar sujeta a una intervención humana significativa y a un proceso debido, especialmente si las tecnologías se consideran de alto riesgo;

70. Cree que el avance tecnológico no debe permitir el uso de la inteligencia artificial, la robótica y las tecnologías conexas para adoptar decisiones de forma autónoma del sector público que tengan un impacto directo y significativo en los derechos y las obligaciones de los ciudadanos;

71. Señala que, en el ámbito de la aplicación de la ley y del control de las fronteras, la inteligencia artificial, la robótica y las tecnologías conexas pueden reforzar la seguridad pública, pero también deben estar sometidas a un control público amplio y riguroso, así como al máximo nivel de transparencia posible, tanto en lo que se refiere a la evaluación de riesgos de las diversas aplicaciones como a una visión general del uso de la inteligencia artificial, la robótica y las tecnologías conexas en el ámbito de la aplicación de la ley y del control de las fronteras; considera que estas tecnologías entrañan importantes riesgos éticos que deben abordarse adecuadamente, teniendo en cuenta los posibles efectos adversos para las personas por lo que respecta, en particular, a su derecho a la intimidad, a la protección de datos y a la no discriminación; subraya que su uso indebido puede suponer una amenaza directa para la democracia y que su implementación y su uso deben respetar los principios de proporcionalidad y necesidad, la Carta de los Derechos Fundamentales y el Derecho derivado pertinente de la Unión, como las normas de protección de datos; hace hincapié en que la inteligencia artificial nunca debe sustituir a los seres humanos en la emisión de sentencias; considera que decisiones como las relativas a la obtención de libertad bajo fianza o libertad condicional, que son pronunciadas ante un tribunal, o decisiones basadas únicamente en el tratamiento automatizado que produzcan efectos jurídicos en las personas o que les afecten de forma significativa, siempre deben comportar la evaluación significativa y el criterio de un ser humano;

Buena gobernanza

72. Hace hincapié en que una gobernanza adecuada del desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas, especialmente las tecnologías de alto riesgo, también mediante la adopción de medidas centradas en la rendición de cuentas y el tratamiento de los posibles riesgos de sesgo y discriminación, puede hacer que aumente la seguridad y la confianza de los ciudadanos en dichas tecnologías;

73. Considera que un marco común para la gobernanza de estas tecnologías, coordinado por la Comisión u otra institución, órgano u organismo pertinente de la Unión que pueda ser designado para este cometido en este contexto y aplicado por las autoridades nacionales de control en cada Estado miembro garantizaría un enfoque europeo coherente y evitaría la fragmentación del mercado único;

74. Observa que en el desarrollo de la inteligencia artificial, la robótica y las tecnologías conexas se utilizan grandes volúmenes de datos, y que el tratamiento, el intercambio y el uso de dichos datos, así como su acceso a ellos, deben regirse de conformidad con la legislación y con los requisitos de calidad, integridad, interoperabilidad, transparencia, seguridad, intimidad y control establecidos en ella;

75. Recuerda que el acceso a los datos es un componente esencial para el crecimiento de la economía digital; señala, a este respecto, que la interoperabilidad de los datos, al limitar los efectos de «saturación», desempeña un papel fundamental a la hora de garantizar unas condiciones de mercado justas y promover la igualdad de condiciones en el mercado único digital;

76. Subraya la necesidad de garantizar la protección adecuada de los datos personales, especialmente los datos relativos a grupos vulnerables o procedentes de estos grupos, como las personas con discapacidad, los pacientes, los niños, los ancianos, las minorías, los migrantes y otros grupos en riesgo de exclusión;

77. Señala que el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas por las autoridades públicas a menudo se subcontratan a partes privadas; considera que ello no debe hacer peligrar en modo alguno la protección de los valores públicos y los derechos fundamentales; considera que las condiciones de la contratación pública deben reflejar las normas éticas impuestas a las autoridades públicas, cuando proceda;

Consumidores y mercado interior

78. Subraya la importancia de que haya un marco regulador para la inteligencia artificial que se aplique en aquellos casos en que los consumidores, dentro de la Unión, sean usuarios de un sistema algorítmico, estén sujetos a tal sistema, sean los destinatarios de tal sistema o estén orientados a él, independientemente del lugar en que estén establecidas las entidades que desarrollen, comercialicen o utilicen dicho sistema; estima además que, en aras de la seguridad jurídica, las normas establecidas en dicho marco deben aplicarse a todos los desarrolladores y a toda la cadena de valor, a saber, el desarrollo, la implantación y el uso de las tecnologías pertinentes y sus componentes, y deben garantizar un alto nivel de protección de los consumidores;

79. Señala la relación intrínseca entre la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, por una parte, y ámbitos tales como la internet de las cosas, el aprendizaje automático, los sistemas basados en reglas o los procesos de toma de decisiones automatizados y asistidos, por otra; señala asimismo que podrían desarrollarse iconos normalizados para ayudar a explicar dichos sistemas a los consumidores cuando los sistemas se caractericen por su complejidad o estén habilitados para adoptar decisiones que repercutan de forma significativa en la vida de los consumidores;

80. Recuerda que la Comisión debe examinar el marco jurídico vigente y su aplicación, incluidos el acervo en materia de protección de los consumidores, la legislación en materia de responsabilidad por los productos, la legislación en materia de seguridad de los productos y la legislación en materia de vigilancia del mercado, con el fin de identificar las lagunas jurídicas, así como las obligaciones reglamentarias existentes; considera que esto es necesario para determinar si dicho marco puede responder a los nuevos retos que plantea la aparición de la inteligencia artificial, la robótica y las tecnologías conexas y si es capaz de garantizar un elevado nivel de protección de los consumidores;

81. Hace hincapié en la necesidad de abordar de manera eficaz los retos creados por la inteligencia artificial, la robótica y las tecnologías conexas y de garantizar que los consumidores están capacitados y adecuadamente protegidos; subraya la necesidad de mirar más allá de los principios tradicionales de la información y la divulgación sobre los que se ha basado el acervo en materia de protección de los consumidores, ya que serán necesarios unos derechos de los consumidores más reforzados y unas limitaciones claras en relación con el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas para garantizar que dicha tecnología contribuya a mejorar la vida de los consumidores y evolucione de modo que respete los derechos fundamentales, los derechos de los consumidores y los valores de la Unión;

82. Señala que el marco legislativo establecido por la Decisión n.º 768/2008/CE establece una lista armonizada de obligaciones para los productores, importadores y distribuidores, fomenta el uso de normas y prevé varios niveles de control en función de la peligrosidad del producto; considera que dicho marco también debe aplicarse a los productos integrados de la inteligencia artificial;

83. Señala que, a efectos de analizar los efectos de la inteligencia artificial, la robótica y las tecnologías conexas en los consumidores, el acceso a los datos podría ampliarse a las autoridades nacionales competentes cuando se respete plenamente el Derecho de la Unión, como el relativo a la protección de datos, la privacidad y los secretos comerciales; recuerda lo importante que resulta que se eduque a los consumidores para que estén más informados y capacitados cuando interactúen con la inteligencia artificial, la robótica y las tecnologías conexas, al objeto de protegerlos de posibles riesgos y defender sus derechos; 

84. Pide a la Comisión que proponga medidas de trazabilidad de los datos, teniendo en cuenta tanto la legalidad de la adquisición de los datos como la protección de los derechos de los consumidores y los derechos fundamentales, respetando plenamente el Derecho de la Unión, como el relativo a la protección de datos, la privacidad, los derechos de propiedad intelectual y los secretos comerciales;

85. Señala que estas tecnologías deben centrarse en el usuario y estar diseñadas de manera que permitan a todo el mundo utilizar productos o servicios de inteligencia artificial, independientemente de su edad, género, habilidades o características; señala que su accesibilidad para las personas con discapacidad reviste especial importancia; observa que no debe haber un enfoque único y debe atenderse a principios de diseño universal dirigidos al abanico más amplio posible de usuarios, siguiendo las normas de accesibilidad pertinentes; hace hincapié en que esto permitirá a las personas tener un acceso equitativo y participar activamente en las actividades humanas existentes y emergentes mediadas por ordenador y en las tecnologías asistenciales.

86. Subraya que, cuando los fondos procedentes de fuentes públicas contribuyan significativamente al desarrollo, la implementación o el uso de la inteligencia artificial, la robótica y las tecnologías conexas, junto con las normas abiertas de adquisición y contratación, puede estudiarse la posibilidad de que sean públicos por defecto, previo acuerdo con el desarrollador, el código, los datos generados (en tanto en cuanto no sean personales) y el modelo formado, a fin de garantizar la transparencia, mejorar la ciberseguridad y posibilitar su reutilización, para fomentar la innovación; destaca que, de esta manera, se puede liberar todo el potencial del mercado único evitando la fragmentación del mercado;

87.  Considera que la inteligencia artificial, la robótica y las tecnologías conexas tienen un enorme potencial para ofrecer a los consumidores oportunidades para acceder a varios servicios en numerosos aspectos de sus vidas junto con mejores productos y servicios, así como para beneficiarse de una mejor vigilancia del mercado, siempre que se sigan aplicando todos los principios, condiciones (incluidas la transparencia y la auditabilidad) y reglamentos aplicables;

Seguridad y defensa

88. Destaca que las políticas de seguridad y defensa de la Unión Europea y de sus Estados miembros se rigen por los principios consagrados en la Carta de los Derechos Fundamentales de la Unión Europea y la Carta de las Naciones Unidas y por un entendimiento común de los valores universales del respeto de los derechos inviolables e inalienables de la persona, la dignidad humana, la libertad, la democracia, la igualdad y el Estado de Derecho; destaca que todos los esfuerzos relacionados con la defensa dentro del marco de la Unión deben respetar estos valores universales, fomentando al mismo tiempo la paz, la seguridad y el progreso en Europa y en el mundo;

89. Acoge favorablemente el respaldo, por parte de la Reunión de las Altas Partes Contratantes en la Convención sobre ciertas armas convencionales (CAC) de las Naciones Unidas de 2019, de once principios rectores para el desarrollo y el uso de sistemas armamentísticos autónomos; lamenta, no obstante, que no se llegue a un acuerdo sobre un instrumento jurídicamente vinculante que regule las armas autónomas letales y cuente con un mecanismo de conformidad eficaz; acoge favorablemente y respalda las directrices éticas para una inteligencia artificial fiable del Grupo de expertos de alto nivel sobre inteligencia artificial de la Comisión, publicadas el 9 de abril de 2019, y su posición con respecto a los sistemas de armas autónomos letales (SAAL); insta a los Estados miembros a que elaboren estrategias nacionales para la definición y el estatuto de las armas letales autónomas en favor de una estrategia global a escala de la Unión y que promuevan, junto con el alto representante de la Unión / vicepresidente de la Comisión (VP/AR) y el Consejo, el debate sobre los SAAL en el marco de la CAC de las Naciones Unidas y otros foros pertinentes, así como el establecimiento de normas internacionales en relación con los parámetros éticos y jurídicos del desarrollo y el uso de sistemas armamentísticos totalmente autónomos, semiautónomos y controlados a distancia; recuerda, en este sentido, su Resolución de 12 de septiembre de 2018 sobre los sistemas armamentísticos autónomos letales, y pide, una vez más, la elaboración y la adopción urgentes de una posición común al respecto, la prohibición internacional del desarrollo, la producción y el uso de SAAL que permiten llevar a cabo ataques sin un control humano significativo y sin respetar el principio de participación humana, en consonancia con las declaraciones de los investigadores más destacados del mundo en materia de inteligencia artificial plasmadas en su carta abierta de 2015; acoge favorablemente el acuerdo del Consejo y el Parlamento de excluir de las acciones financiadas en el marco del Fondo Europeo de Defensa las armas autónomas letales «que no permitan un control humano significativo sobre las decisiones de selección e intervención cuando lleven a cabo ataques»; considera que no deben pasarse por alto los aspectos éticos de otras aplicaciones de la inteligencia artificial en el ámbito de la defensa, como las operaciones de inteligencia, vigilancia y reconocimiento (ISR) o las ciberoperaciones, y que debe prestarse una atención especial al desarrollo y el despliegue de drones en operaciones militares;

90 Subraya que las tecnologías emergentes de los sectores de la defensa y la seguridad no reguladas por el Derecho internacional deben estar sujetas al principio del respeto de la humanidad y a los dictados de la conciencia pública;

91. Recomienda que cualquier marco de la Unión que regule el uso de sistemas (basados en la inteligencia artificial) en el ámbito de la defensa, en situaciones tanto de combate como de no combate, respete todos los regímenes jurídicos aplicables, en particular el Derecho internacional humanitario y el Derecho internacional de los derechos humanos, y sea conforme a la legislación, los principios y los valores de la Unión, teniendo en cuenta las disparidades en términos de infraestructuras técnicas y de seguridad en toda la Unión;

92. Reconoce que, a diferencia de las bases industriales de defensa, las innovaciones críticas en materia de inteligencia artificial podrían venir de Estados miembros pequeños, por lo que un enfoque normalizado de la PCSD debería garantizar que no se excluya a los Estados miembros más pequeños ni a las pymes; destaca que un conjunto de capacidades comunes de inteligencia artificial de la Unión que se corresponda con los conceptos operativos de los Estados miembros puede colmar las lagunas técnicas que podrían dejar atrás a aquellos Estados que no dispongan de la tecnología, los conocimientos especializados industriales o la capacidad pertinentes para implementar sistemas de inteligencia artificial en sus ministerios de Defensa;

93. Considera que las actividades actuales y futuras relacionadas con la seguridad y la defensa dentro del marco de la Unión se basarán en la inteligencia artificial, en la robótica y la autonomía y en las tecnologías conexas, y que una inteligencia artificial fiable, sólida y de confianza podría contribuir a una fuerza militar moderna y eficaz; opina por ello que la Unión debe asumir un papel de liderazgo en la investigación y el desarrollo de sistemas de inteligencia artificial en el ámbito de la seguridad y la defensa; considera que el uso de aplicaciones basadas en la inteligencia artificial en el ámbito de la seguridad y la defensa podría conllevar una serie de ventajas directas para el mando de las operaciones, como unos datos recopilados de mayor calidad, un mayor conocimiento de la situación, una mayor rapidez en la toma de decisiones, un riesgo reducido de daños colaterales gracias a un mejor cableado, y la protección de las fuerzas sobre el terreno, así como una mayor fiabilidad de los equipos militares y, por ende, un menor riesgo para las personas y un menor número de víctimas humanas; destaca que el desarrollo de una inteligencia artificial fiable en el ámbito de la defensa resulta esencial para garantizar la autonomía estratégica europea con respecto a las capacidades y operaciones; recuerda que los sistemas de inteligencia artificial también se están convirtiendo en elementos clave a la hora de contrarrestar las nuevas amenazas a la seguridad, como la guerra cibernética y la guerra híbrida, tanto en el entorno en línea como fuera de este; subraya, al mismo tiempo, todos los riesgos y los desafíos de un uso no regulado de la inteligencia artificial; señala que la inteligencia artificial podría ser objeto de manipulación y verse expuesta a errores e imprecisiones;

94. Subraya que las tecnologías de inteligencia artificial presentan, en su esencia, un doble uso, y que el desarrollo de la inteligencia artificial en actividades relacionadas con la defensa se beneficia de intercambios entre tecnologías militares y civiles; destaca que, en las actividades relacionadas con la defensa, la inteligencia artificial es una tecnología disruptiva transversal cuyo desarrollo puede brindar oportunidades para la competitividad y la autonomía estratégica de la Unión;

95. Reconoce que, en el actual contexto de guerra híbrida y avanzada, el volumen y la velocidad de la información durante las fases tempranas de una crisis pueden resultar abrumadores para los analistas humanos, y que un sistema de inteligencia artificial podría tratar la información para garantizar que los humanos responsables de la toma de decisiones rastreen todo el espectro de información dentro de un plazo adecuado para ofrecer una respuesta rápida;

96. Subraya la importancia de invertir en el desarrollo de capital humano para la inteligencia artificial, fomentando las competencias y la educación necesarias en materia de tecnologías de inteligencia artificial en el ámbito de la defensa y la seguridad, con especial atención a la ética de los sistemas operativos semiautónomos y autónomos fundados en la rendición de cuentas humana en un mundo basado en la inteligencia artificial; destaca, en particular, la importancia de garantizar que los expertos en ética en este ámbito posean las competencias adecuadas y reciban una formación apropiada; pide a la Comisión que presente cuanto antes su «apoyo a la Agenda de Capacidades» anunciado en el Libro Blanco sobre la inteligencia artificial de 19 de febrero de 2020;

97. Subraya que la computación cuántica podría representar el cambio más revolucionario en el campo de los conflictos desde el advenimiento del armamento nuclear, por lo que insta a la Unión y a los Estados miembros a que den prioridad a un mayor desarrollo de las tecnologías de computación cuántica; reconoce que los actos de agresión, incluidos los ataques a infraestructuras críticas, asistidos por computación cuántica crearán un entorno de conflicto en que el tiempo disponible para adoptar decisiones se reducirá drásticamente de días y horas a minutos y segundos, lo que forzará a los Estados miembros a desarrollar capacidades que los protejan y a formar tanto a los responsables de la toma de decisiones como al personal militar para responder de forma eficaz dentro de esos lapsos de tiempo;

98. Aboga por el aumento de la inversión en inteligencia artificial europea para defensa y en la infraestructura crítica que la sustenta;

99. Recuerda que la mayoría de las actuales potencias militares a escala mundial ya se han implicado en esfuerzos significativos de I+D relacionados con la dimensión militar de la inteligencia artificial; considera que la Unión debe velar por no quedarse a la zaga en este ámbito;

100. Pide a la Comisión que incorpore el desarrollo de capacidades de ciberseguridad en su política industrial con el fin de garantizar el desarrollo y la implementación de sistemas robóticos y basados en la inteligencia artificial seguros, resilientes y sólidos; pide a la Comisión que estudie el uso de protocolos y aplicaciones de ciberseguridad basados en cadenas de bloques para mejorar la resiliencia, la fiabilidad y la solidez de las infraestructuras de inteligencia artificial a través de modelos de cifrado de datos sin intermediación; anima a las partes interesadas europeas a que investiguen y diseñen funciones avanzadas que faciliten la detección de sistemas robóticos y basados en la inteligencia artificial corruptos y maliciosos que podrían socavar la seguridad de la Unión y de los ciudadanos;

101. Subraya que todos los sistemas de inteligencia artificial en materia de defensa deben tener un marco de misión concreto y bien definido por el que las personas conserven la capacidad de detectar y desconectar o desactivar los sistemas implementados en caso de que se aparten del marco de misión definido y asignado por el controlador humano o en caso de que emprendan cualquier acción no deseada o en escalada; considera que los sistemas, los productos y la tecnología basados en la inteligencia artificial y destinados a un uso militar deberían estar equipados con una «caja negra» para registrar todas las transacciones de datos realizadas por la máquina;

102. Subraya que la responsabilidad y rendición de cuentas por la decisión de diseñar, desarrollar, implementar y utilizar sistemas de inteligencia artificial tienen que recaer íntegramente en los operadores humanos, dado que debe haber una supervisión y un control humanos significativos sobre cualquier sistema armamentístico, y una intencionalidad humana en la decisión de recurrir al uso de la fuerza, a la hora de ejecutar cualquier decisión de sistemas de armas basados en la inteligencia artificial que pueda tener consecuencias letales; subraya que el control humano debe ejercerse de forma efectiva sobre el mando y control de los sistemas basados en la inteligencia artificial, con arreglo a los principios de participación, supervisión y control humanos, en el marco de la dirección de las operaciones militares; destaca que los sistemas basados en la inteligencia artificial deben permitir que los mandos militares al frente de ejércitos asuman su plena responsabilidad y rendición de cuentas por el uso de fuerza letal y ejerzan la capacidad necesaria de discernimiento, de la que no puede dotarse a las máquinas ya que se debe basar en la distinción, la proporcionalidad y la precaución, a la hora de adoptar medidas de efectos letales o destructivas a gran escala por medio de tales sistemas; destaca la necesidad de establecer marcos de autorización y de rendición de cuentas claros y rastreables para la implementación de armas inteligentes y otros sistemas basados en la inteligencia artificial, utilizando características de usuario únicas, como especificaciones biométricas, para permitir exclusivamente la implementación por parte de personal autorizado;

Transporte

103. Destaca el potencial que presenta la utilización de la inteligencia artificial, la robótica y las tecnologías conexas para todos los medios autónomos de transporte por carretera, por ferrocarril, por vías navegables y vía aérea, así como para impulsar el cambio modal y la intermodalidad, dado que estas tecnologías pueden contribuir a hallar la combinación óptima de modos de transporte para el transporte de mercancías y pasajeros; destaca, además, su potencial para reforzar la eficiencia del transporte, la logística y los flujos de tráfico y para lograr que todos los modos de transporte sean más seguros, más inteligentes y más respetuosos con el medio ambiente; señala que un enfoque ético respecto de la inteligencia artificial también puede considerarse un sistema de alerta temprana, en particular en lo que se refiere a la seguridad y la eficiencia del transporte;

104 Subraya que la competencia mundial entre empresas y regiones económicas requiere que la Unión promueva las inversiones y fortalezca la competitividad internacional de las empresas que operan en el sector del transporte, creando un entorno favorable para el desarrollo y la aplicación de soluciones y otras innovaciones de inteligencia artificial, en el que las empresas con sede en la Unión puedan convertirse en líderes mundiales del desarrollo de tecnologías de inteligencia artificial;

105. Insiste en que en el sector del transporte de la Unión se impone una actualización del marco regulador relativo a estas tecnologías emergentes y su uso en el sector del transporte, así como un marco ético claro para lograr una inteligencia artificial fiable, que incluya los aspectos de seguridad, protección, respeto de la autonomía humana, supervisión y responsabilidad, lo que incrementará los beneficios compartidos por todos y será fundamental para impulsar las inversiones en investigación e innovación, el desarrollo de capacidades y la adopción de la inteligencia artificial por parte de los servicios públicos, las pymes, las empresas emergentes y las demás empresas, velando al mismo tiempo por la protección de datos y la interoperabilidad, sin imponer una carga administrativa innecesaria a las empresas y los consumidores;

106. Señala que el desarrollo y la implementación de la inteligencia artificial en el sector del transporte resultará imposible sin una infraestructura moderna, que constituye un elemento fundamental de los sistemas de transporte inteligentes; hace hincapié en que, como consecuencia de las disparidades existentes en cuanto a nivel de desarrollo entre los distintos Estados miembros, existe el riesgo de que las regiones menos desarrolladas y sus habitantes queden privados de las ventajas derivadas del desarrollo de la movilidad autónoma; solicita que el proceso de modernización de la infraestructura de transporte de la Unión, incluida su integración con la red 5G, cuente con financiación suficiente;

107. Recomienda el desarrollo de normas fiables en materia de inteligencia artificial a escala de la Unión para todos los modos de transporte, incluida la industria del automóvil, y para la realización de pruebas con los vehículos dotados de inteligencia artificial y los productos y servicios conexos;

108. Señala que los sistemas de inteligencia artificial podrían contribuir a reducir de forma significativa el número de víctimas mortales de accidentes de carretera, por ejemplo, con la mejora de los tiempos de reacción y una mejor observancia de las normas; considera, no obstante, que el uso de vehículos autónomos no permitirá eliminar todos los accidentes, y subraya que, en consecuencia, la explicabilidad de las decisiones de la inteligencia artificial es cada vez más importante para justificar las deficiencias y las consecuencias no deseadas de las decisiones de la inteligencia artificial;

Empleo, derechos de los trabajadores, competencias digitales y lugar de trabajo

109. Observa que la aplicación de la inteligencia artificial, la robótica y las tecnologías conexas en el lugar de trabajo puede contribuir a unos mercados laborales inclusivos y repercutir en la salud y seguridad en el trabajo, mientras que también puede utilizarse para supervisar, evaluar, predecir y orientar el rendimiento de los trabajadores, con consecuencias directas e indirectas para sus carreras profesionales; que la inteligencia artificial debe tener un impacto positivo en las condiciones de trabajo y guiarse por el respeto de los derechos humanos, así como de los derechos fundamentales y los valores de la Unión; que la inteligencia artificial debe estar centrada en el ser humano, mejorar el bienestar de las personas y de la sociedad y contribuir a una transición equitativa y justa; que tales tecnologías deben tener, por tanto, un impacto positivo en las condiciones de trabajo, guiándose por el respeto de los derechos humanos y de los derechos fundamentales y los valores de la Unión;

110. Subraya la necesidad de desarrollar competencias a través de la formación y la educación de los trabajadores y sus representantes en relación con la inteligencia artificial en el lugar de trabajo, a fin de comprender mejor las repercusiones de las soluciones de inteligencia artificial; destaca que los candidatos y los trabajadores deben ser debidamente informados por escrito cuando se utilice la inteligencia artificial durante un proceso de selección de personal y en el marco de otras decisiones de recursos humanos, y que debe indicárseles la manera de solicitar en este caso una revisión humana a fin de revocar una decisión automatizada;

111. Hace hincapié en la necesidad de garantizar que los aumentos de productividad debidos al desarrollo y el uso de la inteligencia artificial y la robótica no solo beneficien a los propietarios y accionistas de las empresas, sino también a las empresas y a la mano de obra, gracias a unas mejores condiciones de trabajo y empleo, incluidos el salario, el crecimiento económico y el desarrollo, así como a la sociedad en su conjunto, especialmente cuando estas ganancias se produzcan a expensas de los puestos de trabajo; pide a los Estados miembros que estudien detenidamente el posible impacto de la inteligencia artificial en el mercado laboral y los sistemas de seguridad social, y que desarrollen estrategias para garantizar la estabilidad a largo plazo mediante la reforma de los impuestos y las cotizaciones, así como con otras medidas en caso de menores ingresos públicos;

112. Subraya la importancia de la inversión empresarial en la formación formal e informal y en el aprendizaje permanente, a fin de apoyar una transición justa hacia la economía digital; destaca, en este contexto, que las empresas que implementan inteligencia artificial tienen la responsabilidad de garantizar un reciclaje profesional y una mejora de las capacidades adecuados a todos los empleados afectados, a fin de que aprendan a utilizar herramientas digitales y a trabajar con robots colaborativos y otras nuevas tecnologías, adaptándose así a las necesidades cambiantes del mercado laboral y conservando el empleo;

113. Considera que deben tenerse en cuenta particularmente las nuevas formas de trabajo, como el trabajo en plataformas digitales o esporádico, resultantes de la aplicación de las nuevas tecnologías en este contexto;  subraya que la regulación de las condiciones de teletrabajo en toda la Unión y la garantía de unas condiciones de trabajo y empleo dignas en la economía digital también deben tener en cuenta el impacto de la inteligencia artificial; pide a la Comisión que consulte a los interlocutores sociales, los desarrolladores de inteligencia artificial, los investigadores y otras partes interesadas a este respecto;

114. Subraya que la inteligencia artificial, la robótica y las tecnologías conexas no deben afectar en modo alguno al ejercicio de los derechos fundamentales reconocidos en los Estados miembros y a escala de la Unión, incluido el derecho o la libertad de huelga o de emprender otras acciones contempladas por los sistemas de relaciones laborales específicos de los Estados miembros, de conformidad con la legislación o las prácticas nacionales, ni afectar al derecho a negociar, celebrar y aplicar convenios colectivos, o a emprender acciones colectivas de acuerdo con la legislación o las prácticas nacionales;

115. Reitera la importancia de la educación y el aprendizaje continuo para desarrollar las cualificaciones necesarias en la era digital y luchar contra la exclusión digital; pide a los Estados miembros que inviertan en sistemas de educación, formación profesional y aprendizaje permanente de alta calidad, adaptables e inclusivos, así como en políticas de reciclaje profesional y de mejora de las capacidades para los trabajadores de sectores que puedan verse gravemente afectados por la inteligencia artificial; destaca la necesidad de dotar a la mano de obra actual y futura de las capacidades necesarias en lectura, escritura, cálculo y competencias digitales, así como de competencias en ciencias, tecnología, ingeniería y matemáticas (CTIM) y de competencias interpersonales transversales, como el pensamiento crítico, la creatividad y el emprendimiento; subraya que, en este contexto, debe prestarse especial atención a la inclusión de los grupos desfavorecidos;

116. Recuerda que las tecnologías basadas en la inteligencia artificial, la robótica y las tecnologías conexas empleadas en el lugar de trabajo deben ser accesibles para todos, sobre la base del principio de «diseño para todos»;

Educación y cultura

117. Hace hincapié en la necesidad de elaborar criterios para el desarrollo, la implementación y el uso de la inteligencia artificial teniendo en cuenta su impacto en los sectores educativo, de los medios de comunicación, la juventud, la investigación, los deportes y cultural y creativo, mediante el establecimiento de índices de referencia y la definición de principios para usos éticamente responsables y aceptados de las tecnologías de inteligencia artificial que pueden aplicarse adecuadamente en esos ámbitos, incluido un régimen de responsabilidad claro para los productos resultantes del uso de inteligencia artificial;

118. Señala que todos los niños tienen derecho a una educación pública de calidad a todos los niveles; pide, por tanto, que se desarrollen, implementen y usen sistemas de inteligencia artificial de calidad que faciliten y ofrezcan herramientas educativas de calidad para todos a todos los niveles, y subraya que la implementación de nuevos sistemas de inteligencia artificial en las escuelas no debe agrandar la brecha digital existente en la sociedad; reconoce la enorme contribución que la inteligencia artificial y la robótica pueden aportar a la educación; señala que los sistemas de aprendizaje personalizado de inteligencia artificial no deben sustituir a las relaciones educativas que impliquen a profesores, y que no se debe prescindir de las formas tradicionales de educación, al tiempo que subraya que debe proporcionarse apoyo financiero, tecnológico y educativo, incluida formación especializada en tecnologías de la información y la comunicación, a los profesores que deseen adquirir las capacidades adecuadas para adaptarse a los cambios tecnológicos y no solo aprovechar el potencial de la inteligencia artificial, sino también comprender sus limitaciones; pide que se desarrolle una estrategia a escala de la Unión para contribuir a transformar y actualizar nuestros sistemas educativos, preparar nuestras instituciones educativas a todos los niveles y dotar a los profesores y los alumnos de las capacidades y competencias necesarias;

119. Hace hincapié en que las instituciones educativas deben aspirar a utilizar sistemas de inteligencia artificial con fines educativos que hayan recibido un certificado europeo de conformidad ética;

120. Hace hincapié en que las oportunidades que ofrecen la digitalización y las nuevas tecnologías no deben conducir a una pérdida global de puestos de trabajo en los sectores cultural y creativo, ni a descuidar la conservación de los originales o a restar importancia al acceso tradicional al patrimonio cultural, que también debe fomentarse; observa que los sistemas de inteligencia artificial desarrollados, implementados y utilizados en la Unión deben reflejar su diversidad cultural y su multilingüismo;

121. Reconoce el creciente potencial de la inteligencia artificial en los ámbitos de la información, los medios de comunicación y las plataformas en línea, también como herramienta para luchar contra la desinformación en consonancia con el Derecho de la Unión; subraya que, si no se regula, la inteligencia artificial también podría tener efectos adversos desde el punto de vista ético mediante la explotación de sesgos en los datos y los algoritmos que podrían dar lugar a la divulgación de desinformación y a la creación de burbujas de información; hace hincapié en la importancia de la transparencia y la rendición de cuentas por lo que respecta a los algoritmos utilizados por las plataformas de intercambio de vídeos y de emisión en directo, a fin de garantizar el acceso a contenidos diversos desde el punto de vista cultural y lingüístico;

Autoridades nacionales de control

122. Señala el valor añadido de contar, en cada Estado miembro, con autoridades nacionales de control designadas responsables de garantizar, evaluar y supervisar la conformidad con los principios éticos para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo, contribuyendo así a la conformidad ética y jurídica de estas tecnologías;

123. Considera que estas autoridades deben tener la obligación de cooperar, sin duplicar sus tareas, con las autoridades responsables de la aplicación de la legislación sectorial para determinar las tecnologías que presentan un elevado riesgo desde el punto de vista ético y supervisar la aplicación de las medidas necesarias y apropiadas en caso de que se determinen dichas tecnologías;

124. Indica que esas autoridades no solo deben colaborar entre sí, sino también con la Comisión Europea y con otras instituciones, órganos y organismos pertinentes de la Unión, a fin de garantizar una acción transfronteriza coherente;

125. Propone que, en el marco de esta cooperación, se elaboren criterios comunes y un procedimiento de solicitud para la concesión de un certificado europeo de conformidad ética, también a raíz de una solicitud de cualquier desarrollador, implementador o usuario de tecnologías no consideradas de alto riesgo que desee certificar la evaluación positiva de la conformidad que haya llevado a cabo la autoridad nacional de control correspondiente;

126. Pide que dichas autoridades se encarguen de favorecer intercambios regulares con la sociedad civil y promover la innovación en la Unión, prestando asistencia a los investigadores, desarrolladores y demás partes interesadas pertinentes, así como a empresas menos maduras en términos digitales, en particular a las pymes y a las empresas emergentes, especialmente por cuanto se refiere a la sensibilización y el apoyo al desarrollo, la implementación, la formación y la adquisición de talento, a fin de garantizar una transferencia de tecnología eficiente y el acceso a las tecnologías, los proyectos, los resultados y las redes;

127. Pide una financiación suficiente, por cada Estado miembro, de sus autoridades nacionales de supervisión designadas, y destaca la necesidad de reforzar las autoridades nacionales de vigilancia del mercado en términos de capacidad, cualificaciones y competencias, así como de conocimientos sobre los riesgos específicos de la inteligencia artificial, la robótica y las tecnologías conexas;

Coordinación a escala de la Unión

128. Subraya la importancia de la coordinación a escala de la Unión llevada a cabo por la Comisión o cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse en este contexto, a fin de evitar la fragmentación, y de garantizar un enfoque armonizado en toda la Unión; considera que la coordinación debe centrarse en los mandatos y acciones de las autoridades nacionales de supervisión de cada Estado miembro mencionadas, así como en el intercambio de mejores prácticas entre dichas autoridades y en la contribución a la cooperación en materia de investigación y desarrollo en este campo en toda la Unión; pide a la Comisión que evalúe y encuentre la solución más adecuada para estructurar dicha coordinación; considera que algunos ejemplos de instituciones, órganos y organismos pertinentes de la Unión son actualmente la ENISA, el SEPD y el Defensor del Pueblo Europeo;

129. Considera que tal coordinación, así como la certificación europea de conformidad ética, contribuiría no solo a favorecer el desarrollo de la industria y la innovación de la Unión en este contexto, sino también a aumentar la sensibilización de nuestros ciudadanos en cuanto a las oportunidades y los riesgos inherentes a estas tecnologías;

130. Sugiere la creación de un centro de conocimiento especializado que reúna a expertos del ámbito académico, de la investigación, de la empresa y de otros ámbitos a título individual a escala de la Unión, con el fin de fomentar el intercambio de conocimientos y competencias técnicas y de facilitar la colaboración en toda la Unión y fuera de ella; pide, además, que este centro de conocimiento especializado cuente con la participación de las organizaciones de partes interesadas –como organizaciones de protección de los consumidores–, con el fin de garantizar una representación más amplia de los consumidores; considera que, habida cuenta del posible impacto desproporcionado de los sistemas algorítmicos en las mujeres y las minorías, los niveles decisorios de dicha estructura deben ser diversos y garantizar la igualdad de género; hace hincapié en que los Estados miembros deben elaborar estrategias armonizadas de gestión de riesgos para la inteligencia artificial en el contexto de sus estrategias nacionales de vigilancia del mercado;

131.  Propone que la Comisión o cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse en este contexto preste toda la asistencia necesaria a las autoridades nacionales de supervisión en lo que respecta a su papel como primeros puntos de contacto en caso de presunto incumplimiento de las obligaciones legales y los principios éticos establecidos en el marco regulador de la Unión para la inteligencia artificial, incluido el principio de no discriminación; considera que también debe proporcionar toda la asistencia necesaria a las autoridades nacionales de supervisión en los casos en que estas lleven a cabo evaluaciones de la conformidad con el fin de respaldar el derecho de los ciudadanos de impugnación y obtención de reparación, concretamente apoyando, cuando proceda, la consulta de otras autoridades competentes de la Unión, en particular la Red de Cooperación para la Protección de los Consumidores y los organismos nacionales de protección de los consumidores, las organizaciones de la sociedad civil y los interlocutores sociales ubicados en otros Estados miembros;

132. Reconoce los valiosos resultados del Grupo de expertos de alto nivel sobre inteligencia artificial, compuesto por representantes del mundo académico, la sociedad civil y la industria, así como de la Alianza Europea de la Inteligencia Artificial, en particular las «Directrices éticas para una inteligencia artificial fiable», y sugiere que podría proporcionar conocimientos especializados a la Comisión o a cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse en este contexto;

133. Señala la inclusión de proyectos relacionados con la inteligencia artificial en el marco del Programa Europeo de Desarrollo Industrial en materia de Defensa (PEDID); considera que el futuro Fondo Europeo de Defensa (FED) y la Cooperación Estructurada Permanente (CEP) también pueden ofrecer unos marcos bien adaptados para futuros proyectos relacionados con la inteligencia artificial que podrían contribuir a integrar mejor los esfuerzos de la Unión en este ámbito y promoverían al mismo tiempo el objetivo de la Unión de reforzar los derechos humanos, el Derecho internacional y las soluciones multilaterales; destaca que los proyectos relacionados con la inteligencia artificial deberían sincronizarse con los programas civiles más amplios de la Unión dedicados a la inteligencia artificial; observa que, de conformidad con el Libro Blanco de la Comisión sobre la inteligencia artificial, de 19 de febrero de 2020, deberían establecerse centros de excelencia y de pruebas que se concentren en la investigación y el desarrollo de la inteligencia artificial en el ámbito de la seguridad y la defensa con especificaciones rigurosas que sustenten la participación y la inversión de partes interesadas privadas;

134. Toma nota del Libro Blanco de la Comisión sobre la inteligencia artificial, de 19 de febrero de 2020, y lamenta que no se tuvieran en cuenta los aspectos militares; pide a la Comisión y al VP/AR que presenten, también como parte de un enfoque global, una estrategia sectorial de inteligencia artificial para las actividades relacionadas con la defensa dentro del marco de la Unión, que garantice el respeto tanto de los derechos de los ciudadanos como de los intereses estratégicos de la Unión, y esté basada en un enfoque coherente que abarque desde la creación de los sistemas basados en la inteligencia artificial hasta sus aplicaciones militares, y que creen un grupo de trabajo sobre seguridad y defensa en el seno del Grupo de expertos de alto nivel sobre inteligencia artificial, que se encargue específicamente de las cuestiones políticas y relacionadas con la inversión, así como de los aspectos éticos de la inteligencia artificial en el ámbito de la seguridad y la defensa; pide al Consejo, a la Comisión y al VP/AR que entablen un diálogo estructurado con el Parlamento a tal fin;

Certificación europea de conformidad ética

135. Propone que, en el marco de la coordinación al nivel de la Unión, se elaboren criterios comunes y un procedimiento de solicitud para la concesión de un certificado europeo de conformidad ética, también a raíz de una solicitud de cualquier desarrollador, implementador o usuario de tecnologías no consideradas de alto riesgo que desee certificar la evaluación positiva de la conformidad que haya llevado a cabo la autoridad nacional de control correspondiente;

136. Considera que este certificado europeo de conformidad ética fomentaría la ética por diseño a lo largo de toda la cadena de suministro de los ecosistemas de inteligencia artificial; sugiere, por tanto, que esta certificación pueda ser, en el caso de las tecnologías de alto riesgo, un requisito previo obligatorio para la admisibilidad en los procedimientos de contratación pública sobre inteligencia artificial, robótica y tecnologías conexas;

Cooperación internacional

137. Opina que una cooperación transfronteriza y unas normas éticas eficaces solo serán posibles si todas las partes interesadas se comprometen a garantizar la intervención y la supervisión humanas, la solidez y la seguridad técnicas, la transparencia y la rendición de cuentas, la diversidad, la no discriminación y la equidad, el bienestar social y medioambiental y el respeto de los principios establecidos de privacidad y gobernanza y protección de datos, específicamente aquellos consagrados en el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo;

138. Destaca que las obligaciones legales y los principios éticos de la Unión para el desarrollo, la implementación y el uso de estas tecnologías podrían convertir a Europa en líder mundial del sector de la inteligencia artificial, por lo que deben promoverse en todo el mundo a través de la cooperación con socios internacionales, mientras prosigue el diálogo crítico y de base ética con terceros países que cuenten con modelos alternativos de regulación, desarrollo e implementación de la inteligencia artificial;

139. Recuerda que las oportunidades y los riesgos inherentes a estas tecnologías tienen una dimensión mundial, ya que los programas informáticos y los datos que utilizan a menudo se importan y exportan desde la Unión y, por tanto, se necesita un enfoque de cooperación coherente a escala internacional; pide a la Comisión que tome la iniciativa de valorar qué tratados y acuerdos bilaterales y multilaterales deben adaptarse para garantizar un enfoque coherente y promover el modelo europeo de conformidad ética a escala mundial;

140. Destaca el valor añadido de la coordinación al nivel de la Unión mencionada anteriormente también en este contexto;

141. Pide que se creen sinergias y redes entre los distintos centros de investigación europeos en materia de inteligencia artificial, así como con otros foros multilaterales, como el Consejo de Europa, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco), la Organización para la Cooperación y el Desarrollo Económico (OCDE), la Organización Mundial del Comercio y la Unión Internacional de Telecomunicaciones (UIT), con el fin de armonizar sus esfuerzos y coordinar mejor los avances en la inteligencia artificial, la robótica y las tecnologías conexas;

142. Subraya que la Unión debe estar a la vanguardia del apoyo a los esfuerzos multilaterales para debatir, en el marco del Grupo de Expertos Gubernamentales de la CAC de las Naciones Unidas y de otros foros pertinentes, un marco regulador internacional eficaz que garantice un control humano significativo de los sistemas armamentísticos autónomos con el fin de dominar estas tecnologías mediante el establecimiento de procesos bien definidos basados en parámetros de referencia y la adopción de legislación para su uso ético, en consulta con las partes interesadas militares, industriales, policiales, académicas y de la sociedad civil, para comprender los aspectos éticos conexos y para mitigar los riesgos inherentes a estas tecnologías e impedir su uso con fines malintencionados; 

143. Reconoce el papel de la OTAN en la promoción de la seguridad euroatlántica y pide cooperación dentro de esta Alianza en pro del establecimiento de normas comunes y la interoperabilidad de los sistemas de inteligencia artificial en el ámbito de la defensa; destaca la importancia de la relación transatlántica para preservar los valores compartidos y contrarrestar amenazas futuras e incipientes;

144. Destaca la importancia de crear un código ético de conducta en que basar la implementación en operaciones militares de sistemas armamentísticos basados en la inteligencia artificial, similar al marco regulador existente por el que se prohíbe el despliegue de armas químicas y biológicas; opina que la Comisión debe empezar a elaborar normas sobre el uso en la guerra de sistemas armamentísticos basados en la inteligencia artificial, de conformidad con el Derecho internacional humanitario, y que la Unión debe perseguir la adopción internacional de dichas normas; considera que la Unión debe participar en una labor diplomática sobre la inteligencia artificial en foros internacionales con socios afines, como el G7, el G20 y la OCDE;

Aspectos finales

145. Concluye, tras las mencionadas reflexiones sobre los aspectos relacionados con la dimensión ética de la inteligencia artificial, la robótica y las tecnologías conexas, que las dimensiones jurídica y ética deben consagrarse en un marco regulador efectivo, exhaustivo y con visión de futuro a escala de la Unión, respaldado por las autoridades nacionales competentes, coordinado y reforzado por la Comisión o cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse en este contexto, apoyado regularmente por el posible centro de conocimiento especializado antes mencionado y debidamente respetado y certificado en el mercado interior;

146. Pide a la Comisión, de conformidad con el procedimiento establecido en el artículo 225 del Tratado de Funcionamiento de la Unión Europea, que presente una propuesta de Reglamento sobre principios éticos para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas, sobre la base del artículo 114 del Tratado de Funcionamiento de la Unión Europea y partiendo de las recomendaciones detalladas que figuran en el anexo; señala que la propuesta no debe socavar la legislación sectorial, sino únicamente cubrir las lagunas detectadas;

147. Recomienda que la Comisión Europea, tras consultar a todas las partes interesadas pertinentes, proceda, en caso necesario, a la revisión de la legislación vigente de la Unión aplicable a la inteligencia artificial, la robótica y las tecnologías conexas con el fin de responder a su rápida evolución, de conformidad con las recomendaciones que figuran en el anexo y evitando la sobrerregulación, también para pymes;

148. Cree que una evaluación y revisión periódicas, cuando sea necesario, del marco regulador de la Unión por cuanto se refiere a la inteligencia artificial, la robótica y las tecnologías conexas será esencial para garantizar que la legislación aplicable se actualice al rápido ritmo de los avances tecnológicos;

149. Considera que la propuesta legislativa solicitada tendría implicaciones financieras en caso de que se encomendaran a cualquier organismo europeo las funciones de coordinación mencionadas para garantizar la provisión de los medios técnicos y humanos necesarios para el desempeño de sus nuevas tareas;

150. Encarga a su presidente que transmita la presente propuesta y las recomendaciones que se detallan en el anexo a la Comisión y al Consejo.

 


 

ANEXO A LA PROPUESTA DE RESOLUCIÓN RECOMENDACIONES DETALLADAS RESPECTO AL CONTENIDO DE LA PROPUESTA SOLICITADA
A. PRINCIPIOS Y OBJETIVOS DE LA PROPUESTA SOLICITADA

I. Los principales principios y objetivos de la presente propuesta son los siguientes:

˗  generar confianza a todos los niveles para las partes interesadas implicadas y la sociedad en la inteligencia artificial, la robótica y las tecnologías conexas, especialmente las consideradas de alto riesgo;

˗  apoyar el desarrollo de la inteligencia artificial, la robótica y las tecnologías conexas en la Unión, ayudando también a las empresas, incluidas las emergentes y las pymes, a evaluar y abordar con seguridad los actuales y futuros requisitos regulatorios y riesgos durante el proceso de innovación y desarrollo empresarial, así como durante la fase subsiguiente de uso por profesionales y particulares, reduciendo al mínimo las cargas y la burocracia;

˗  apoyar la implementación de la inteligencia artificial, la robótica y las tecnologías conexas en la Unión, proporcionando el marco regulador adecuado y proporcionado, que debe aplicarse sin perjuicio de la legislación sectorial en vigor o futura, con el objetivo de fomentar la seguridad jurídica y la innovación, al tiempo que se garantizan los derechos fundamentales y la protección de los consumidores;

˗  apoyar el uso de la inteligencia artificial, la robótica y las tecnologías conexas en la Unión garantizando que sean desarrollas, implementadas y utilizadas de manera que se respeten los principios éticos;

˗  exigir transparencia y un mejor flujo de información entre los ciudadanos y las organizaciones que desarrollan, implementan o utilizan la inteligencia artificial, la robótica y las tecnologías conexas como medio para garantizar que estas tecnologías respeten el Derecho de la Unión y los derechos y valores fundamentales y los principios éticos de la propuesta de Reglamento solicitada.

II. La propuesta consta de los siguientes elementos:

˗  un «Reglamento sobre principios éticos para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas»; el papel de coordinación a escala de la Unión por parte de la Comisión o cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse en este contexto y una certificación europea de conformidad ética;

˗  el papel de apoyo de la Comisión Europea;

˗  el papel de la «autoridad de control» en cada Estado miembro para garantizar la aplicación de los principios éticos a la inteligencia artificial, la robótica y las tecnologías conexas;

 

˗  la participación y la consulta de los proyectos pertinentes de investigación y desarrollo y las partes interesadas afectadas, en particular las empresas, incluidas las emergentes y las pymes, los interlocutores sociales y otros representantes de la sociedad civil, así como la prestación de apoyo a tales proyectos y partes interesadas;

˗  un anexo que establezca una lista exhaustiva y acumulativa de sectores de alto riesgo y usos y fines de alto riesgo;

III. El «Reglamento sobre principios éticos para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas» se basa en los siguientes principios:

˗  una inteligencia artificial, una robótica y unas tecnologías conexas antropocéntricas, antropogénicas y controladas por seres humanos;

˗  evaluación de la conformidad obligatoria de la inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo;

˗  seguridad, transparencia y rendición de cuentas;

˗  salvaguardias y vías de recurso contra el sesgo y la discriminación;

˗  derecho de reparación;

˗  responsabilidad social e igualdad de género en la inteligencia artificial, la robótica y las tecnologías conexas;

˗  una inteligencia artificial, una robótica y unas tecnologías conexas ambientalmente sostenibles;

˗  respeto de la intimidad y restricciones al uso del reconocimiento biométrico;

˗  buena gobernanza relativa a la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los datos utilizados o producidos por dichas tecnologías.

IV. A efectos de coordinación a escala de la Unión, la Comisión o cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse en este contexto debe llevar a cabo las siguientes tareas principales:

˗  cooperar en el seguimiento de la aplicación de la propuesta de Reglamento solicitada y del Derecho sectorial de la Unión pertinente;

˗  cooperar en relación con la publicación de orientaciones relativas a la aplicación coherente de la propuesta de Reglamento solicitada, a saber, la aplicación de los criterios para que la inteligencia artificial, la robótica y las tecnologías conexas se consideren de alto riesgo y la lista de sectores de alto riesgo y usos y fines de alto riesgo que se establece en el anexo del Reglamento;

˗  cooperar con la «autoridad de control» de cada Estado miembro en lo que respecta a la elaboración de un certificado europeo de conformidad con los principios éticos y las obligaciones legales según lo establecido en la propuesta de Reglamento solicitada y la legislación pertinente de la Unión, así como el desarrollo de un proceso de solicitud para cualquier desarrollador, implementador o usuario de tecnologías no consideradas de alto riesgo que pretenda certificar su conformidad con la propuesta de Reglamento solicitada;

˗  cooperar con respecto al apoyo a la cooperación intersectorial y transfronteriza mediante intercambios periódicos con las partes interesadas afectadas y la sociedad civil, en la Unión Europea y en el mundo, especialmente con las empresas, los interlocutores sociales, los investigadores y las autoridades competentes, también en lo que se refiere al desarrollo de normas técnicas a nivel internacional;

˗  cooperar con la «autoridad de control» de cada Estado miembro en lo que respecta al establecimiento de directrices vinculantes sobre la metodología que debe seguirse para la evaluación de la conformidad que debe llevar a cabo cada «autoridad de control»;

˗  cooperar por lo que respecta a las relaciones con la «autoridad de control» de cada Estado miembro y la coordinación de sus mandatos y cometidos;

˗  cooperar en la sensibilización, la prestación de información y los intercambios con desarrolladores, implementadores y usuarios en toda la Unión;

˗  cooperar en la sensibilización, la provisión de información y la promoción de la alfabetización, la formación y las competencias digitales y la realización de intercambios con diseñadores, desarrolladores, implementadores, ciudadanos, usuarios y organismos institucionales en toda la Unión y a escala internacional;

˗  cooperar con respecto a la coordinación de un marco común para la gobernanza del desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas que debe aplicar la «autoridad de control» de cada Estado miembro;

˗  cooperar para servir de centro de conocimientos especializados promoviendo el intercambio de información y apoyando el desarrollo de un entendimiento común en el mercado único;

˗  cooperar en relación con la organización de un grupo de trabajo sobre seguridad y defensa.

V. Además, la Comisión debe llevar a cabo las siguientes tareas:

˗  elaborar y actualizar posteriormente, mediante actos delegados, una lista común de tecnologías de alto riesgo identificadas en la Unión en cooperación con la «autoridad de control» de cada Estado miembro;

˗  actualizar, mediante actos delegados, la lista prevista en el anexo del Reglamento.

VI. La «autoridad de control» de cada Estado miembro debe llevar a cabo las siguientes tareas principales:

˗  contribuir a la aplicación coherente del marco regulador establecido en la propuesta de Reglamento solicitada en cooperación con la «autoridad de control» de los demás Estados miembros, así como con otras autoridades responsables de la aplicación de la legislación sectorial, la Comisión o cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse en este contexto, particularmente en lo que se refiere a la aplicación de los criterios de evaluación de riesgos que prevé la propuesta de Reglamento solicitada y de la lista de sectores de alto riesgo y usos o fines de alto riesgo establecida en su anexo, y la subsiguiente supervisión de la implantación de las medidas necesarias y apropiadas en caso de que se identifiquen tecnologías de alto riesgo como resultado de dicha aplicación;

˗  valorar si la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, desarrolladas, implementadas y utilizadas en la Unión deben considerarse tecnologías de alto riesgo de conformidad con los criterios de evaluación de riesgos establecidos en la propuesta de Reglamento solicitada y en la lista establecida en su anexo;

˗  emitir un certificado europeo de conformidad con los principios éticos y las obligaciones legales según lo establecido en la propuesta de Reglamento solicitada y la legislación pertinente de la Unión, también como resultado de un proceso de solicitud para cualquier desarrollador, implementador o usuario de tecnologías no consideradas de alto riesgo que pretenda certificar su conformidad con la propuesta de Reglamento solicitada, según lo desarrollado por la Comisión o cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse en este contexto;

˗  evaluar y supervisar su conformidad con los principios éticos y las obligaciones legales establecidos en la propuesta de Reglamento solicitada y la legislación pertinente de la Unión;

˗  ser responsable del establecimiento y la aplicación de normas para la gobernanza de la inteligencia artificial, la robótica y las tecnologías conexas, también mediante las relaciones y un diálogo regular con el conjunto de las partes interesadas pertinentes y de los representantes de la sociedad civil; cooperar a tal fin con la Comisión y cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse en este contexto por cuanto respecta a la coordinación de un marco común a escala de la Unión;

˗  sensibilizar, suministrar información al público sobre inteligencia artificial, robótica y tecnologías conexas, y apoyar la formación de las profesiones pertinentes, también en el poder judicial, capacitando así a los ciudadanos y a los trabajadores con la alfabetización, las competencias y las herramientas digitales necesarias para una transición justa;

˗  servir de primer punto de contacto en caso de sospecha de incumplimiento de las obligaciones legales y los principios éticos establecidos en la propuesta de Reglamento solicitada y llevar a cabo una evaluación de la conformidad en tales casos; en el marco de esta evaluación de la conformidad, podrá consultar o informar a otras autoridades competentes de la Unión, en particular la Red de Cooperación para la Protección de los Consumidores, los organismos nacionales de protección de los consumidores, las organizaciones de la sociedad civil y los interlocutores sociales.

VII. El papel clave de las partes interesadas debe consistir en colaborar con la Comisión o cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse en este contexto y con la «autoridad de control» de cada Estado miembro.


B. TEXTO DE LA PROPUESTA LEGISLATIVA SOLICITADA

Propuesta de

REGLAMENTO DEL PARLAMENTO EUROPEO Y DEL CONSEJO

sobre los principios éticos para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas

Visto el Tratado de Funcionamiento de la Unión Europea, en particular, su artículo 114,

Vista la propuesta de la Comisión Europea,

Previa transmisión del proyecto de acto legislativo a los Parlamentos nacionales,

Visto el dictamen del Comité Económico y Social Europeo,

De conformidad con el procedimiento legislativo ordinario,

Considerando lo siguiente:

(1) El desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, deben basarse en el deseo de servir a la sociedad. Tales tecnologías pueden conllevar tanto oportunidades como riesgos, que deben abordarse y regularse mediante un marco regulador exhaustivo a escala de la Unión que refleje los principios éticos que deben cumplirse desde el momento del desarrollo y la implementación de dichas tecnologías hasta su uso.

(2) La conformidad con tal marco regulador en relación con el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas en la Unión, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, debe ser de un nivel equivalente en todos los Estados miembros para aprovechar las oportunidades de forma eficaz y abordar los riesgos de estas tecnologías de forma coherente, y para evitar la fragmentación de la normativa. Debe garantizarse la aplicación homogénea en toda la Unión de las normas establecidas en el presente Reglamento.

(3) En este contexto, la diversidad actual de las normas y prácticas seguidas en toda la Unión plantea un riesgo significativo de fragmentación del mercado único y para la protección del bienestar y la prosperidad de las personas y de la sociedad por igual, así como para la exploración coherente del pleno potencial de la inteligencia artificial, la robótica y las tecnologías conexas en la promoción de la innovación y la preservación del bienestar y la prosperidad. Las diferencias respecto al grado de consideración por desarrolladores, implementadores y usuarios de la dimensión ética inherente a estas tecnologías pueden impedir que estas se desarrollen, se implementen o se utilicen libremente en la Unión, y tales diferencias pueden constituir un obstáculo a las condiciones de competencia equitativas y a la realización de progresos tecnológicos y actividades económicas a nivel de la Unión, distorsionar la competencia e impedir que las autoridades cumplan sus obligaciones derivadas del Derecho de la Unión. Además, la falta de un marco regulador común que refleje los principios éticos para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas provoca inseguridad jurídica en todas las partes implicadas, en particular los desarrolladores, los implementadores y los usuarios.

(4) No obstante, en paralelo a la contribución a un enfoque coherente al nivel de la Unión y dentro de los límites que establece, el presente Reglamento debe ofrecer un margen de aplicación para los Estados miembros, en particular por lo que se refiere a la manera en que su respectiva autoridad nacional de control debe ejercer el mandato, habida cuenta del objetivo que debe perseguir de conformidad con lo que en él se dispone.

(5) El presente Reglamento se entiende sin perjuicio de la legislación sectorial en vigor o futura. Debe ser proporcionado en relación con su objetivo, a fin de no obstaculizar indebidamente la innovación en la Unión y ajustarse a un enfoque basado en el riesgo.

(6) El ámbito geográfico de aplicación de dicho marco debe abarcar todos los componentes de la inteligencia artificial, la robótica y las tecnologías conexas a través de su desarrollo, implementación o uso en la Unión, incluso en los casos en que una parte de las tecnologías esté situada fuera de la Unión o no tenga una ubicación específica o única, como es el caso de los servicios de computación en la nube.

(7) Para permitir que exista un enfoque regulador unificado y, por tanto, seguridad jurídica, tanto para los ciudadanos como para las empresas, es necesaria una interpretación común en la Unión de conceptos tales como inteligencia artificial, robótica, tecnologías conexas y reconocimiento biométrico. Deben ser tecnológicamente neutras y estar sujetas a revisión siempre que sea necesario.

(8) Además, debe tenerse en cuenta que existen tecnologías relacionadas con la inteligencia artificial y la robótica que permiten que los programas informáticos controlen procesos físicos o virtuales, con diverso grado de autonomía[13]. Para la conducción automatizada de vehículos, por ejemplo, la norma SAE J3016 ha propuesto seis niveles de automatización de la conducción.

(9) El desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, deben complementar las capacidades humanas, sin sustituirlas, y garantizar que su ejecución no es contraria al interés superior de los ciudadanos y que respeta el Derecho de la Unión, los derechos fundamentales establecidos en la Carta de los Derechos Fundamentales de la Unión Europea (en lo sucesivo, «la Carta»), la jurisprudencia reiterada del Tribunal de Justicia de la Unión Europea y otros instrumentos europeos e internacionales que se apliquen en la Unión.

(10) Las decisiones adoptadas por la inteligencia artificial, la robótica y las tecnologías conexas o basadas en ellas deben seguir siendo objeto de revisión, evaluación, intervención y control humanos significativos. La complejidad técnica y operativa de estas tecnologías no debe impedir nunca que el implementador o el usuario pueda, como mínimo, proceder a su desconexión segura, alterar o desactivar su funcionamiento o volver a un estado anterior que restaure las funcionalidades seguras en los casos en que esté en peligro la conformidad con el Derecho de la Unión y los principios éticos y obligaciones legales establecidos en el presente Reglamento.

(11) La inteligencia artificial, la robótica y las tecnologías conexas cuyo desarrollo, implementación y uso entrañen un riesgo significativo de causar lesiones o daños a particulares o a la sociedad, vulnerando los derechos fundamentales y las normas de seguridad establecidas en el Derecho de la Unión, deben considerarse tecnologías de alto riesgo. A efectos de su evaluación como tales, deben tenerse en cuenta el sector en el que se desarrollan, implementan o utilizan, su uso o finalidad específica y la gravedad de la lesión o daño que cabe esperar que se produzca. El grado de gravedad debe determinarse sobre la base de la magnitud de la lesión o daño potencial, el número de personas afectadas, el valor total del perjuicio ocasionado y el daño a la sociedad en su conjunto. Los tipos graves de lesiones y daños son, por ejemplo, las violaciones de los derechos de los niños, los consumidores o los trabajadores que, debido a su alcance, el número de niños, consumidores o trabajadores afectados o su impacto en la sociedad en su conjunto, entrañan un riesgo significativo de vulneración de los derechos fundamentales y las normas de seguridad establecidas en el Derecho de la Unión. El presente Reglamento debe proporcionar una lista exhaustiva y acumulativa de sectores de alto riesgo y usos y fines de alto riesgo.

(12) Las obligaciones establecidas en el presente Reglamento, en particular las relativas a las tecnologías de alto riesgo, solo deben aplicarse a la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, desarrolladas, implementadas o utilizadas en la Unión que, tras la evaluación de riesgos prevista en el presente Reglamento, se consideren de alto riesgo. Dichas obligaciones deben cumplirse sin perjuicio de la obligación general de que toda inteligencia artificial, robótica y tecnología conexa, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, se desarrolle, implemente y utilice en la Unión de manera antropocéntrica y sobre la base de los principios de autonomía humana y seguridad humana, de conformidad con el Derecho de la Unión y respetando plenamente derechos fundamentales tales como la dignidad humana, el derecho a la libertad y a la seguridad y el derecho a la integridad de la persona.

(13) Las tecnologías de alto riesgo deben respetar los principios de seguridad, transparencia, rendición de cuentas, ausencia de sesgo y de discriminación, responsabilidad social e igualdad de género, derecho de reparación, sostenibilidad medioambiental, privacidad y buena gobernanza, tras una evaluación de riesgos imparcial, objetiva y externa realizada por la autoridad nacional de control de conformidad con los criterios establecidos en el presente Reglamento y en la lista que figura en su anexo. Dicha evaluación debe tener en cuenta las opiniones del desarrollador o del implementador, así como cualquier autoevaluación realizada por ellos.

(14) La Comisión o cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse a tal fin debe elaborar directrices de aplicación no vinculantes destinadas a los desarrolladores, implementadores y usuarios sobre la metodología que corresponda seguir para conformarse al presente Reglamento. Para ello deben consultar a las partes interesadas pertinentes.

(15) Debe haber coherencia dentro de la Unión en lo que respecta a la evaluación de riesgos de estas tecnologías, especialmente en caso de que se evalúen a la luz del presente Reglamento y de conformidad con cualquier legislación sectorial específica aplicable. En consecuencia, cuando, tras la evaluación de riesgos prevista en el presente Reglamento, estas tecnologías se consideren de alto riesgo, las autoridades nacionales de control deben informar a las demás autoridades que lleven a cabo evaluaciones de riesgos de conformidad con cualquier legislación sectorial específica.

(16) Para ser fiables, la inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, deben desarrollarse, implementarse y utilizarse de manera segura, transparente y responsable, con arreglo a características de seguridad tales como la solidez, la resiliencia, la seguridad, la exactitud y la detección de errores, la explicabilidad, la interpretabilidad, la auditabilidad, la transparencia y la identificabilidad, y de tal manera que sea posible desactivar las funcionalidades en cuestión o volver a un estado anterior que restaure unas funcionalidades seguras, en caso de que no se respeten dichas características. Debe garantizarse la transparencia permitiendo el acceso de las autoridades públicas, cuando sea estrictamente necesario, a la tecnología, los datos y los sistemas informáticos en que se basan dichas tecnologías.

(17) Los desarrolladores, los implementadores y los usuarios de la inteligencia artificial, la robótica y las tecnologías conexas, en particular las tecnologías de alto riesgo, son responsables en distintos grados del cumplimiento de los principios de seguridad, transparencia y rendición de cuentas en la medida que corresponda a su participación en las tecnologías en cuestión, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías. Los desarrolladores deben garantizar que las tecnologías en cuestión estén diseñadas y construidas de conformidad con las características de seguridad establecidas en el presente Reglamento, mientras que los implementadores y los usuarios deben implementar y utilizar las tecnologías en cuestión respetando plenamente dichas características. Con este fin, los desarrolladores de tecnologías de alto riesgo deben evaluar y anticipar los riesgos de uso indebido que puedan preverse razonablemente respecto de las tecnologías que desarrollen. Asimismo, deben garantizar que los sistemas que desarrollan indiquen, en la medida de lo posible y a través de medios adecuados, como un mensaje de exención de responsabilidad, la probabilidad de que se produzcan errores o inexactitudes.

(18) Los desarrolladores y los implementadores deben poner a disposición de los usuarios todas las actualizaciones posteriores de las tecnologías en cuestión, en particular por lo que se refiere a los programas informáticos, de conformidad con lo estipulado en el contrato o con lo establecido en el Derecho nacional o de la Unión. Además, cuando una evaluación de riesgos así lo indique, los desarrolladores y los implementadores deben facilitar a las autoridades públicas la documentación pertinente sobre el uso de las tecnologías de que se trate y las instrucciones de seguridad al respecto, incluidos —cuando sea estrictamente necesario y respetando plenamente el Derecho de la Unión en materia de protección de datos, privacidad y derechos de propiedad intelectual y secretos comerciales— el código fuente, las herramientas de desarrollo y los datos utilizados por el sistema.

 (19) Los ciudadanos tienen derecho a esperar que la tecnología que utilizan funcione de manera razonable y respete su confianza. La confianza de la ciudadanía en la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, depende del conocimiento y la comprensión de los procesos técnicos. El grado de explicabilidad de esos procesos técnicos debe depender del contexto en el que se enmarquen y de la gravedad de las consecuencias de un resultado erróneo o impreciso, y debe ser suficiente para poder impugnarlos y solicitar reparación. La auditabilidad, la trazabilidad y la transparencia deben tratar cualquier posible ininteligibilidad de estas tecnologías.

(20) La confianza de la sociedad en la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, depende del grado de evaluación, auditabilidad y trazabilidad que permitan las tecnologías en cuestión. En la medida en que su participación así lo requiera, los desarrolladores deben garantizar que tales tecnologías estén diseñadas y construidas de una manera que permita dicha evaluación, auditoría y trazabilidad. Dentro de los límites de lo técnicamente posible, los desarrolladores, los implementadores y los usuarios deben garantizar que la inteligencia artificial, la robótica y las tecnologías conexas se implementen y utilicen respetando plenamente los requisitos de transparencia y permitiendo la auditoría y la trazabilidad.

(21) Para garantizar la transparencia y la rendición de cuentas, se debe informar a los ciudadanos siempre que un sistema utilice inteligencia artificial, siempre que los sistemas de inteligencia artificial personalicen un producto o un servicio para sus usuarios, así como de si pueden desactivar o limitar la personalización, y siempre que se enfrenten a una tecnología de toma de decisiones automatizada. Además, las medidas de transparencia deben ir acompañadas, siempre que sea técnicamente posible, de explicaciones claras y comprensibles sobre los datos utilizados y el algoritmo, así como sobre su finalidad, sus resultados y sus riesgos potenciales.

(22) El sesgo y la discriminación de los programas informáticos, los algoritmos y los datos son ilícitos y deben abordarse regulando los procesos mediante los cuales se diseñan e implementan. El sesgo puede originarse tanto en las decisiones basadas en un sistema automatizado o adoptadas por tal sistema como en los conjuntos de datos en los que se basan dichas tomas de decisiones o con los que se entrena al sistema.

(23) Los programas informáticos, los algoritmos y los datos utilizados o producidos por la inteligencia artificial, la robótica y las tecnologías conexas deben considerarse sesgados cuando, por ejemplo, no arrojen resultados óptimos en relación con cualquier persona o grupo de personas, sobre la base de una percepción personal o social prejuiciosa y del posterior tratamiento de los datos relativos a sus características.

(24) En consonancia con el Derecho de la Unión, los programas informáticos, los algoritmos y los datos utilizados o producidos por la inteligencia artificial, la robótica y las tecnologías conexas deben considerarse discriminatorios cuando produzcan resultados con unos efectos negativos desproporcionados que den lugar a un tratamiento diferente de una persona o grupo de personas, que las ponga incluso en una situación de desventaja en comparación con otras personas, sobre la base de motivos tales como sus características personales, sin una justificación objetiva o razonable e independientemente de cualquier reivindicación de neutralidad de las tecnologías en cuestión.

(25) En consonancia con el Derecho de la Unión, son objetivos legítimos que, en virtud del presente Reglamento, pueden justificar objetivamente cualquier diferencia de trato entre personas o grupos de personas la protección de la seguridad y la salud públicas, la prevención de infracciones penales, la protección de los derechos y las libertades fundamentales, la representación equitativa y los requisitos objetivos para ejercer una profesión.

(26) La inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, deben contribuir a un progreso sostenible. Estas tecnologías no deben ser contrarias a la causa de la conservación del medio ambiente o de la transición ecológica. Pueden desempeñar un importante papel en la consecución de los Objetivos de Desarrollo Sostenible de las Naciones Unidas, con miras a la prosperidad de las generaciones futuras. Estas tecnologías pueden contribuir al seguimiento de los progresos adecuados sobre la base de indicadores de sostenibilidad y de cohesión social y gracias al uso de instrumentos de investigación e innovación responsables que requieran la movilización de recursos por parte de la Unión y de sus Estados miembros para apoyar e invertir en proyectos centrados en estos objetivos.

(27) El desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, no deben en ningún caso causar intencionadamente lesiones o daños de ningún tipo a las personas o a la sociedad, ni aceptarlos desde el diseño. Por consiguiente, las tecnologías de alto riesgo, en particular, deben desarrollarse, implementarse y utilizarse de manera responsable desde el punto de vista social.

(28) Por lo tanto, los desarrolladores, los implementadores y los usuarios deben ser considerados responsables de cualquier lesión o daño causado a las personas o a la sociedad, en la medida que corresponda a su participación en la inteligencia artificial, la robótica y las tecnologías conexas en cuestión, y de conformidad con las normas nacionales y de la Unión en materia de responsabilidad.

(29) En particular, los desarrolladores que toman decisiones que determinan y controlan el curso o la forma del desarrollo de la inteligencia artificial, la robótica y las tecnologías conexas, así como los implementadores que intervienen en su implementación con una función de control o gestión, tomando decisiones relativas a dicha implementación y ejerciendo un control sobre los riesgos asociados o beneficiándose de dicha implementación, deben, en general, ser considerados responsables de evitar que se produzcan tales lesiones o daños, introduciendo medidas adecuadas durante el proceso de desarrollo y respetando escrupulosamente dichas medidas durante la fase de implementación, respectivamente.

(30) La inteligencia artificial, la robótica y las tecnologías conexas socialmente responsables, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, pueden definirse como tecnologías que contribuyen a encontrar soluciones que protegen y promueven distintos objetivos de la sociedad, en particular la democracia, la salud y la prosperidad económica, la igualdad de oportunidades, los derechos de los trabajadores y los derechos sociales, unos medios de comunicación plurales e independientes y una información objetiva y gratuita, haciendo así posibles el debate público, una educación de calidad, la diversidad cultural y lingüística, la paridad de género, la alfabetización digital, la innovación y la creatividad. También se incluyen en esta categoría las tecnologías que se desarrollan, se implementan y se utilizan teniendo debidamente en cuenta su impacto final sobre el bienestar físico y mental de los ciudadanos y que no incitan al discurso de odio ni a la violencia. Dichos objetivos deben alcanzarse, en particular, mediante tecnologías de alto riesgo.

(31) La inteligencia artificial, la robótica y las tecnologías conexas también deben desarrollarse, implementarse y utilizarse para apoyar la inclusión social, la democracia, la pluralidad, la solidaridad, la equidad, la igualdad y la cooperación, y su potencial en este contexto debe maximizarse y explorarse a través de proyectos de investigación e innovación. Por consiguiente, la Unión y sus Estados miembros deben movilizar sus recursos financieros, administrativos y de comunicación con el fin de apoyar dichos proyectos e invertir en ellos.

(32) Los proyectos relacionados con el potencial de la inteligencia artificial, la robótica y las tecnologías conexas para abordar la cuestión del bienestar social deben llevarse a cabo sobre la base de instrumentos de investigación e innovación responsables, a fin de garantizar desde el principio la conformidad de dichos proyectos con los principios éticos.

(33) El desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, deben tener en cuenta su huella ambiental. En consonancia con las obligaciones establecidas en el Derecho de la Unión aplicable, dichas tecnologías no deben causar daños al medio ambiente durante su ciclo de vida ni a lo largo de toda su cadena de suministro, y deben desarrollarse, implementarse y utilizarse de manera que se preserve el medio ambiente, se atenúe y repare su huella ambiental, se contribuya a la transición ecológica y se apoye la consecución de los objetivos de neutralidad climática y economía circular.

(34) A efectos del presente Reglamento, los desarrolladores, los implementadores y los usuarios deben ser considerados responsables, en la medida que corresponda a su participación en el desarrollo, la implementación o el uso de la inteligencia artificial, la robótica y las tecnologías conexas consideradas de alto riesgo, de todo daño causado al medio ambiente, de conformidad con las normas aplicables en materia de responsabilidad medioambiental.

(35) Estas tecnologías también deben desarrollarse, implementarse y utilizarse para apoyar la consecución de objetivos medioambientales en consonancia con las obligaciones establecidas en el Derecho aplicable de la Unión, como la reducción de la producción de residuos, la disminución de la huella de carbono, la lucha contra el cambio climático y la conservación del medio ambiente, y su potencial en este contexto debe maximizarse y explorarse a través de proyectos de investigación e innovación. Por consiguiente, la Unión y sus Estados miembros deben movilizar sus recursos financieros, administrativos y de comunicación con el fin de apoyar dichos proyectos e invertir en ellos.

(36) Los proyectos relacionados con el potencial de la inteligencia artificial, la robótica y las tecnologías conexas para abordar los problemas medioambientales deben llevarse a cabo sobre la base de instrumentos de investigación e innovación responsables, a fin de garantizar desde el principio la conformidad de dichos proyectos con los principios éticos.

(37) La inteligencia artificial, la robótica y las tecnologías conexas —incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías— desarrolladas, implementadas y utilizadas en la Unión deben respetar plenamente el derecho de los ciudadanos de la Unión a la intimidad y a la protección de los datos personales. En particular, su desarrollo, implementación y uso deben ser conformes con el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo[14] y la Directiva 2002/58/CE del Parlamento Europeo y del Consejo[15].

(38) En particular, los límites éticos del uso de la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, deben tenerse debidamente en cuenta a la hora de utilizar tecnologías de reconocimiento remoto, como el reconocimiento de las características biométricas, en particular el reconocimiento facial, para identificar automáticamente a las personas. Cuando las autoridades públicas utilicen estas tecnologías por razones de interés público esencial, a saber, para garantizar la seguridad de las personas y hacer frente a situaciones de emergencia nacional, y no para garantizar la seguridad de los bienes, dicho uso debe siempre hacerse público, ser proporcionado, específico, restringirse a objetivos concretos y estar limitado en el tiempo, de conformidad con el Derecho de la Unión y teniendo debidamente en cuenta la dignidad y la autonomía humanas y los derechos fundamentales establecidos en la Carta. Los criterios y límites de dicho uso deben estar sujetos a tutela judicial y sometidos a un control y un debate democráticos con participación de la sociedad civil.

(39) La gobernanza basada en las normas pertinentes refuerza la seguridad y fomenta una mayor confianza de los ciudadanos en el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías.

(40) Las autoridades públicas deben llevar a cabo evaluaciones de impacto sobre los derechos fundamentales antes de implementar tecnologías de alto riesgo que sirvan para apoyar decisiones tomadas en el sector público que repercuten de forma directa y significativa en los derechos y las obligaciones de los ciudadanos.

(41) Entre las normas de gobernanza pertinentes existentes figuran, por ejemplo, las Directrices éticas para una inteligencia artificial fiable, elaboradas por el Grupo de expertos de alto nivel sobre inteligencia artificial creado por la Comisión Europea, así como otras normas técnicas como las adoptadas por el Comité Europeo de Normalización (CEN), el Comité Europeo de Normalización Electrotécnica (Cenelec) y el Instituto Europeo de Normas de Telecomunicaciones (ETSI) a escala europea, y por la Organización Internacional de Normalización (ISO) y el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) a escala internacional.

(42) El intercambio y el uso de datos por parte de múltiples participantes es una cuestión sensible, por lo que el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas deben regirse por las reglas, las normas y los protocolos pertinentes y reflejar los requisitos de calidad, integridad, seguridad, confiabilidad, privacidad y control. La estrategia de gestión de datos debe centrarse en el tratamiento y el intercambio de dichos datos, así como en el acceso a estos, incluidas su correcta gestión, auditabilidad y trazabilidad, y garantizar una protección adecuada de los datos pertenecientes a grupos vulnerables, incluidas las personas con discapacidad, los pacientes, los niños, las minorías y los migrantes u otros grupos en riesgo de exclusión. Además, los desarrolladores, los implementadores y los usuarios deben poder basarse, en su caso, en indicadores clave de rendimiento a la hora de evaluar los conjuntos de datos que usan con vistas a mejorar la fiabilidad de las tecnologías que desarrollan, implementan y utilizan.

(43) Los Estados miembros deben designar una autoridad administrativa independiente que actúe como autoridad de control. En particular, cada autoridad nacional de control debe ser responsable de determinar la inteligencia artificial, la robótica y las tecnologías conexas que se consideran de alto riesgo a la luz de los criterios de evaluación de riesgos previstos en el presente Reglamento, así como de evaluar y supervisar que esas tecnologías cumplen las obligaciones establecidas en el presente Reglamento.

(44) Cada autoridad nacional de control ha de ser asimismo responsable de la buena gobernanza de dichas tecnologías bajo la coordinación de la Comisión o de cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse a tal fin. Por tanto, desempeñan un papel importante en el fomento de la confianza y la seguridad de los ciudadanos de la Unión, así como en la creación de una sociedad democrática, pluralista y equitativa.

(45) A efectos de la evaluación de tecnologías de alto riesgo con arreglo al presente Reglamento, y de la supervisión de su conformidad con este, las autoridades nacionales de control deben cooperar, cuando proceda, con las autoridades responsables de evaluar y supervisar dichas tecnologías y de velar por su conformidad con la legislación sectorial.

(46) Las autoridades nacionales de control deben cooperar de forma sustancial y regular entre sí, así como con la Comisión Europea y otras instituciones, órganos y organismos pertinentes de la Unión, a fin de garantizar una actuación transfronteriza coherente y permitir un desarrollo, una implementación y un uso coherentes de estas tecnologías dentro de la Unión, de conformidad con los principios éticos y las obligaciones legales establecidos en el presente Reglamento.

(47) En el marco de dicha cooperación y con vistas a lograr la plena armonización a escala de la Unión, las autoridades nacionales de control deben asistir a la Comisión en la elaboración de una lista común y exhaustiva de la inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo, en consonancia con los criterios establecidos en el presente Reglamento y en su anexo. Además, debe desarrollarse un proceso para la concesión de un certificado europeo de conformidad ética, que incluya un proceso voluntario de solicitud para cualquier desarrollador, implementador o usuario de tecnologías no consideradas de alto riesgo que quiera certificar su conformidad con el presente Reglamento.

(48) Las autoridades nacionales de control deben velar por que se reúna al máximo número posible de partes interesadas, como la industria, las empresas, los interlocutores sociales, los investigadores, los consumidores y las organizaciones de la sociedad civil, y habilitar un foro plural de reflexión e intercambio de puntos de vista, con objeto de llegar a conclusiones comprensibles y precisas para orientar la regulación de la gobernanza.

(49) Las autoridades nacionales de control deben velar por que se reúna al máximo número posible de partes interesadas, como la industria, las empresas, los interlocutores sociales, los investigadores, los consumidores y las organizaciones de la sociedad civil, y habilitar un foro plural de reflexión e intercambio de puntos de vista, para facilitar la cooperación y la colaboración entre partes interesadas, procedentes en particular del mundo académico, la investigación, la industria y la sociedad civil, así como expertos individuales, con objeto de llegar a conclusiones comprensibles y precisas para orientar la regulación de la gobernanza.

(50) Además, dichas autoridades nacionales de control deben ofrecer orientación y apoyo administrativo y profesional a los desarrolladores, los implementadores y los usuarios, en particular a las pequeñas y medianas empresas o a las empresas emergentes, que afrontan desafíos en lo referente al cumplimiento de los principios éticos y las obligaciones legales establecidos en el presente Reglamento.

(51) La Comisión o cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse a tal fin debe elaborar directrices no vinculantes sobre la metodología que han de seguir las autoridades nacionales de control al llevar a cabo su evaluación de la conformidad.

(52) La denuncia de irregularidades pone en conocimiento de las autoridades infracciones posibles y reales del Derecho de la Unión con el fin de evitar lesiones, perjuicios o daños que se producirían en caso contrario. Además, los procedimientos de denuncia mejoran el flujo de información dentro de las empresas y organizaciones, reduciendo así el riesgo de que se desarrollen productos o servicios defectuosos o erróneos. Las empresas y las organizaciones que desarrollan, implementan o utilizan la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los datos utilizados o producidos por dichas tecnologías, deben establecer canales de denuncia, y se ha de proteger contra posibles represalias a las personas que informan sobre infracciones.

(53) La rápida evolución de la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, así como del aprendizaje automático, los procesos de razonamiento y otras tecnologías que se basan en dicho desarrollo es impredecible. Por consiguiente, resulta apropiado y necesario establecer un mecanismo de revisión con arreglo al cual, además de informar sobre la aplicación del presente Reglamento, la Comisión deba presentar periódicamente un informe sobre la posible modificación de su ámbito de aplicación.

(54) Dado que el objetivo del presente Reglamento, a saber, el establecimiento de un marco regulador común de principios éticos y obligaciones legales para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas en la Unión, no puede ser alcanzado de manera suficiente por los Estados miembros, sino que, debido a su dimensión y efectos, puede lograrse mejor a escala de la Unión, esta puede adoptar medidas, de acuerdo con el principio de subsidiariedad establecido en el artículo 5 del Tratado de la Unión Europea. De conformidad con el principio de proporcionalidad establecido en el mismo artículo, el presente Reglamento no excede de lo necesario para alcanzar dicho objetivo.

(55) La mejor manera de alcanzar la coordinación a escala de la Unión que prevé el presente Reglamento es a través de la Comisión o de cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse en este contexto, a fin de evitar la fragmentación y de garantizar una aplicación coherente del presente Reglamento. Por consiguiente, la Comisión debe ser la encargada de encontrar una solución adecuada para estructurar dicha coordinación a escala de la Unión con vistas a coordinar los mandatos y actuaciones de las autoridades nacionales de control en cada Estado miembro, en particular en lo que se refiere a la evaluación de riesgos de la inteligencia artificial, la robótica y las tecnologías conexas, el establecimiento de un marco común para la gobernanza del desarrollo, la implementación y el uso de estas tecnologías, la elaboración y emisión de un certificado de conformidad con los principios éticos y las obligaciones legales establecidos en el presente Reglamento, el apoyo a intercambios periódicos con la sociedad civil y las partes interesadas en cuestión, y la creación de un centro de conocimientos especializados que reúna a personas procedentes del mundo académico, la investigación y la industria y a expertos individuales a nivel de la Unión para fomentar el intercambio de conocimientos y competencias técnicas, así como la promoción del enfoque de la Unión a través de la cooperación internacional y la garantía de una respuesta coherente a escala mundial a las oportunidades y riesgos inherentes a estas tecnologías.


HAN ADOPTADO EL PRESENTE REGLAMENTO:

 

Capítulo I

Disposiciones generales

Artículo 1

Objeto

 

El presente Reglamento tiene por objeto establecer un marco regulador de la Unión, global y con visión de futuro, de principios éticos y obligaciones legales para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas en la Unión.

Artículo 2

Ámbito de aplicación

 

El presente Reglamento se aplicará a la inteligencia artificial, la robótica y las tecnologías conexas —incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías— desarrolladas, implementadas o utilizadas en la Unión.

Artículo 3

Ámbito geográfico

El presente Reglamento se aplicará a la inteligencia artificial, la robótica y las tecnologías conexas cuando una parte de estas se desarrolle, implemente o utilice en la Unión, con independencia de que los programas informáticos, los algoritmos o los datos utilizados o producidos por dichas tecnologías estén localizados fuera de la Unión o no tengan una ubicación geográfica específica.

Artículo 4

Definiciones

A efectos del presente Reglamento, se entenderá por:

a) «inteligencia artificial», un sistema basado en programas informáticos o incorporado en dispositivos físicos que manifiesta un comportamiento inteligente al ser capaz, entre otras cosas, de recopilar y tratar datos, analizar e interpretar su entorno y pasar a la acción, con cierto grado de autonomía, con el fin de alcanzar objetivos específicos[16];

b) «autonomía», un sistema de inteligencia artificial que funciona interpretando determinados datos de entrada y utilizando un conjunto de instrucciones predeterminadas, sin limitarse a ellas, a pesar de que el comportamiento del sistema esté orientado a cumplir el objetivo que se le haya asignado y esté limitado por este y por otras decisiones de diseño pertinentes tomadas por su desarrollador;

c) «robótica», las tecnologías que permiten que las máquinas controladas automáticamente, reprogramables y multifuncionales[17] realicen en el mundo físico acciones tradicionalmente realizadas o iniciadas por los seres humanos, en particular mediante la inteligencia artificial o las tecnologías conexas;

d) «tecnologías conexas», las tecnologías que permiten que los programas informáticos controlen, con un grado de autonomía parcial o total, un proceso físico o virtual; las tecnologías capaces de detectar los datos biométricos, genéticos o de otro tipo; y las tecnologías que copian o utilizan de otro modo características humanas;

e) «alto riesgo», riesgo significativo, derivado del desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas, de causar lesiones o daños a las personas o a la sociedad, vulnerando los derechos fundamentales y las normas de seguridad establecidas en el Derecho de la Unión, teniendo en cuenta su uso o finalidad específicos, el sector en el que se desarrollan, implementan o usan y la gravedad de las lesiones o daños que cabe esperar que se produzcan;

f) «desarrollo», la construcción y el diseño de algoritmos, la redacción y el diseño de programas informáticos o la recopilación, el almacenamiento y la gestión de datos con el fin de crear o entrenar la inteligencia artificial, la robótica y las tecnologías conexas o de crear una nueva aplicación para la inteligencia artificial, la robótica y las tecnologías conexas existentes;

g) «desarrollador», toda persona física o jurídica que toma decisiones que determinan y controlan el curso o la forma del desarrollo de la inteligencia artificial, la robótica y las tecnologías conexas;

h) «implementación», el funcionamiento y la gestión de la inteligencia artificial, la robótica y las tecnologías conexas, así como su comercialización o cualquier otra forma de puesta a disposición de los usuarios;

i) «implementador», toda persona física o jurídica que interviene en la implementación específica de la inteligencia artificial, la robótica y las tecnologías conexas con una función de control o gestión, tomando decisiones, ejerciendo un control sobre los riesgos y beneficiándose de dicha implementación;

j) «uso»: toda acción relacionada con la inteligencia artificial, la robótica y las tecnologías conexas distinta del desarrollo o la implementación;

k) «usuario»: toda persona física o jurídica que utiliza la inteligencia artificial, la robótica y las tecnologías conexas para fines distintos del desarrollo o la implementación;

l) «sesgo», toda percepción personal o social prejuiciosa de una persona o de un grupo de personas sobre la base de sus características personales;

m) «discriminación», todo trato diferenciado de una persona o de un grupo de personas basado en un motivo que no tiene justificación objetiva o razonable alguna y que, por tanto, está prohibido por el Derecho de la Unión;

n) «lesión o daño», toda lesión física o mental y todo daño material o inmaterial, incluso cuando hayan sido causados por incitación al odio, sesgo, discriminación o estigmatización, tales como pérdidas financieras o económicas, pérdida de empleo o de oportunidades educativas, restricción indebida de la libertad de elección o de expresión, pérdida de la privacidad y cualquier infracción del Derecho de la Unión que sea perjudicial para una persona;

o) «buena gobernanza», la manera de garantizar que los desarrolladores, los implementadores y los usuarios adoptan y cumplen unas normas y unos protocolos de conducta adecuados y razonables sobre la base de un conjunto formal de reglas, procedimientos y valores que les permiten tratar adecuadamente las cuestiones éticas cuando se plantean o antes de que se planteen.

Artículo 5

Principios éticos de la inteligencia artificial, la robótica y las tecnologías conexas

1. La inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, se desarrollarán, implementarán y utilizarán en la Unión de conformidad con el Derecho de la Unión y respetando plenamente la dignidad, la autonomía y la seguridad humanas, así como otros derechos fundamentales establecidos en la Carta.

2. Todo tratamiento de datos personales realizado en el marco del desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los datos personales derivados de datos no personales y de datos biométricos, se llevará a cabo de conformidad con el Reglamento (UE) 2016/679 y la Directiva 2002/58/CE.

3. La Unión y sus Estados miembros fomentarán los proyectos de investigación destinados a ofrecer soluciones basadas en la inteligencia artificial, la robótica y las tecnologías conexas que aspiren a promover la inclusión social, la democracia, la pluralidad, la solidaridad, la equidad, la igualdad y la cooperación.

Capítulo II

Obligaciones para las tecnologías de alto riesgo

Artículo 6

Obligaciones para las tecnologías de alto riesgo

1. Las disposiciones del presente capítulo solo se aplicarán a la inteligencia artificial, la robótica y las tecnologías conexas —incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías— desarrolladas, implementadas o utilizadas en la Unión que se consideren de alto riesgo.

 

2. La inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, se desarrollarán, implementarán y utilizarán de forma que se garantice que no vulneran los principios éticos establecidos en el presente Reglamento.

Artículo 7

Inteligencia artificial antropocéntrica y antropogénica

1. Las tecnologías de inteligencia artificial de alto riesgo, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, se desarrollarán, implementarán y utilizarán de forma que se garantice en todo momento una supervisión humana integral.

2. Las tecnologías a que se refiere el apartado 1 se desarrollarán, implementarán y utilizarán de forma que se pueda restablecer en todo momento el control humano cuando sea necesario, incluso mediante la alteración o la desactivación de dichas tecnologías.

 

Artículo 8

Seguridad, transparencia y rendición de cuentas

1. La inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, se desarrollarán, implementarán y utilizarán de forma que se garantice que:

 a) se desarrollan, implementan y utilizan de manera resiliente a fin de garantizar un nivel de seguridad adecuado gracias al cumplimiento de unos parámetros mínimos de ciberseguridad proporcionales al riesgo identificado, y de evitar que ninguna vulnerabilidad técnica se explote con fines malintencionados o ilícitos;

b) se desarrollan, implementan y utilizan de una manera segura, garantizando la existencia de salvaguardias que incluyan un plan alternativo y medidas en caso de riesgo para la seguridad o la protección;

c) se desarrollan, implementan y utilizan de manera que se garantice un rendimiento fiable conforme a lo que el usuario pueda esperar razonablemente respecto de la consecución de los objetivos y la realización de las actividades para las que han sido concebidas, en particular garantizando la reproductibilidad de todas las operaciones;

d) se desarrollan, implementan y utilizan de manera que se garantice la exactitud de la realización de los objetivos y de las actividades de las tecnologías concretas; en caso de que no sea posible evitar inexactitudes ocasionales, el sistema indicará a los implementadores y los usuarios, en la medida de lo posible y a través de los medios adecuados, la probabilidad de que se produzcan errores e inexactitudes;

e) se desarrollan, implementan y utilizan de manera fácilmente explicable a fin de garantizar que se pueda realizar una revisión de los procesos técnicos de las tecnologías;

f) se desarrollan, implementan y utilizan de manera que informen a los usuarios de que están interactuando con sistemas de inteligencia artificial, y revelan debidamente y de manera exhaustiva sus capacidades, exactitud y limitaciones a los desarrolladores, los implementadores y los usuarios de inteligencia artificial;

g) de conformidad con lo dispuesto en el artículo 6, se desarrollan, implementan y utilizan de manera que, en caso de incumplimiento de las características de seguridad establecidas en las letras a) a g), sea posible desactivar temporalmente las funcionalidades en cuestión y volver a un estado anterior que restaure unas funcionalidades seguras. 

2. De conformidad con el artículo 6, apartado 1, las tecnologías mencionadas en el apartado 1, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, se desarrollarán, implementarán y utilizarán de manera transparente y rastreable, de modo que sus elementos, procesos y fases estén documentados con arreglo a las normas aplicables más estrictas posibles y que las autoridades nacionales de control a que se refiere el artículo 14 puedan evaluar que dichas tecnologías cumplen las obligaciones establecidas en el presente Reglamento. En particular, los desarrolladores, implementadores o usuarios de dichas tecnologías serán los encargados de garantizar la conformidad con las características de seguridad establecidas en el apartado 1 y deberán poder demostrar dicha conformidad.

3. Los desarrolladores, implementadores o usuarios de las tecnologías mencionadas en el apartado 1 velarán por que las medidas adoptadas para garantizar la conformidad con las características de seguridad establecidas en el apartado 1 puedan ser auditadas por las autoridades nacionales de control a que se refiere el artículo 14 o, en su caso, por otros órganos de control sectorial nacionales o europeos.

Artículo 9

Ausencia de sesgo y de discriminación

 

1. Los programas informáticos, los algoritmos o los datos utilizados o producidos por la inteligencia artificial, la robótica y las tecnologías conexas desarrolladas, implementadas o utilizadas en la Unión serán imparciales y, sin perjuicio de lo dispuesto en el apartado 3, no discriminarán por motivos de raza, sexo, orientación sexual, embarazo, discapacidad, características físicas o genéticas, edad, minoría nacional, origen étnico o social, lengua, religión o creencias, opiniones políticas o participación cívica, nacionalidad, estado civil o económico, educación o antecedentes penales.

 

2. No obstante lo dispuesto en los apartados 1 y 2, y sin perjuicio del Derecho de la Unión en materia de discriminación ilícita, solo podrá justificarse el trato diferenciado entre personas o grupos de personas cuando exista una finalidad objetiva, razonable y legítima que sea proporcionada y necesaria en la medida en que no exista otra alternativa que interfiera menos con el principio de igualdad de trato.

Artículo 10

Responsabilidad social e igualdad de género

La inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo —incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías— desarrolladas, implementadas y utilizadas en la Unión se desarrollarán, implementarán y utilizarán de conformidad con la legislación, los principios y los valores pertinentes de la Unión, de manera que no interfieran en elecciones ni contribuyan a la difusión de desinformación, que respeten los derechos de los trabajadores, promuevan una educación de calidad y la alfabetización digital, no aumenten la brecha de género impidiendo la igualdad de oportunidades para todos y no vulneren los derechos de propiedad intelectual o cualesquiera de sus limitaciones o excepciones.

Artículo 11

Sostenibilidad medioambiental

La inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, serán evaluadas, en lo referente a su sostenibilidad medioambiental, por las autoridades nacionales de control a que se refiere el artículo 14 o, en su caso, por otros órganos de control sectorial nacionales o europeos, quienes velarán por que se adopten medidas para mitigar y remediar su impacto general en lo que respecta a los recursos naturales, el consumo de energía, la producción de residuos, la huella de carbono, la emergencia climática y la degradación del medio ambiente, a fin de garantizar el cumplimiento de la legislación nacional o de la Unión aplicable, y el de cualesquiera otros compromisos internacionales asumidos por la Unión en materia medioambiental.

Artículo 12

Respeto de la intimidad y protección de los datos personales

El uso y la recogida de datos biométricos con fines de identificación remota en zonas públicas, como el reconocimiento biométrico o facial, entraña riesgos específicos para los derechos fundamentales, por lo que solo serán implementados o utilizados por las autoridades públicas de los Estados miembros para fines de interés público esencial. Dichas autoridades velarán por que dicha implementación o uso se haga público, sea proporcionado y específico, se restrinja a unos objetivos y una ubicación concretos y esté limitado en el tiempo, de conformidad con el Derecho nacional y de la Unión, en particular el Reglamento (UE) 2016/679 y la Directiva 2002/58/CE, y teniendo debidamente en cuenta la dignidad y la autonomía humanas y los derechos fundamentales establecidos en la Carta, en particular, el derecho al respeto de la intimidad y a la protección de los datos personales.

 

Artículo 13

Derecho de reparación

 Toda persona física o jurídica tendrá derecho a obtener reparación por las lesiones o los daños causados por el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, cuando se infrinjan el Derecho de la Unión y las obligaciones establecidas en el presente Reglamento.

Artículo 14

Evaluación de riesgos

1. A efectos del presente Reglamento, la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, se considerarán tecnologías de alto riesgo cuando, tras una evaluación de riesgos basada en criterios objetivos, como su uso o finalidad específicos, el sector en el que se desarrollan, implementan o utilizan, y la gravedad de los posibles daños o lesiones causados, se determine que su desarrollo, implementación o uso entrañan un riesgo significativo de causar a las personas o a la sociedad las lesiones o daños que cabe esperar que se produzcan, vulnerando los derechos fundamentales y las normas de seguridad establecidas en la legislación de la Unión.

2. Sin perjuicio de la legislación sectorial aplicable, la evaluación de riesgos de la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, se llevará a cabo, de conformidad con los criterios objetivos establecidos en el apartado 1 del presente artículo y en la lista exhaustiva y acumulativa que figura en el anexo del presente Reglamento, por las autoridades nacionales de control a que se refiere el artículo 14, bajo la coordinación de la Comisión o de cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse a tal fin en el contexto de su cooperación.

3. En cooperación con las autoridades nacionales de control a que se refiere el apartado 2, la Comisión elaborará y actualizará posteriormente, mediante actos delegados de conformidad con el artículo 15 bis, una lista común de tecnologías de alto riesgo identificadas en la Unión.

4. La Comisión también actualizará periódicamente, mediante actos delegados de conformidad con el artículo 15 bis, la lista que figura en el anexo del presente Reglamento.

Artículo 15

Evaluación de la conformidad

1. La inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo estarán sujetas a una evaluación de la conformidad con las obligaciones establecidas en los artículos 6 a 12 del presente Reglamento, así como a un seguimiento posterior, que llevarán a cabo las autoridades nacionales de control a que se refiere el artículo 17 bajo la coordinación de la Comisión o de cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse a tal fin.

 

2. Se considerará que también cumplen las obligaciones establecidas en el presente Reglamento los programas informáticos, los algoritmos o los datos utilizados o producidos por las tecnologías de alto riesgo que hayan sido evaluadas conformes con dichas obligaciones con arreglo al apartado 1, a menos que la autoridad nacional de control en cuestión decida llevar a cabo una evaluación por iniciativa propia o a petición del desarrollador, implementador o usuario.

 

3. Sin perjuicio de la legislación sectorial, la Comisión o cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse específicamente a tal fin elaborará directrices vinculantes sobre la metodología que deberán seguir las autoridades nacionales de control para la evaluación de la conformidad a que se refiere el apartado 1, a más tardar en la fecha de entrada en vigor del presente Reglamento.

 

Artículo 16

Certificado europeo de conformidad ética

1. Cuando se haya realizado con arreglo al artículo 7 bis una evaluación de la conformidad de la inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo —incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías—, y esta sea positiva, la autoridad nacional de control correspondiente expedirá un certificado europeo de conformidad ética.

 

2. Los desarrolladores, implementadores o usuarios de inteligencia artificial, robótica y tecnologías conexas —incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías— que no se consideren de alto riesgo y que, por tanto, no estén sujetas a las obligaciones establecidas en los artículos 6 a 12, ni a la evaluación de riesgos ni la evaluación de la conformidad previstas en los artículos 13 y 14, podrán también solicitar que se certifique el cumplimiento de las obligaciones establecidas en el presente Reglamento, o parte de ellas cuando así lo justifique la naturaleza de la tecnología en cuestión, conforme a lo decidido por las autoridades nacionales de control. El certificado solo se expedirá si la autoridad nacional de control correspondiente ha llevado a cabo una evaluación de la conformidad y esta evaluación es positiva.

 

3. A efectos de la expedición del certificado a que se refiere el apartado 2, la Comisión o cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse a tal fin elaborará un procedimiento de solicitud.

 

Capítulo III

Supervisión institucional

Artículo 17

Normas de gobernanza y directrices de aplicación

1. La inteligencia artificial, la robótica y las tecnologías conexas desarrolladas, implementadas o utilizadas en la Unión cumplirán las normas de gobernanza pertinentes establecidas de conformidad con la legislación, los principios y los valores de la Unión por las autoridades nacionales de control a que se refiere el artículo 17, bajo la coordinación de la Comisión o de cualquier institución, órgano u organismo pertinente que pueda designarse a tal fin y en consulta con las partes interesadas pertinentes.

 

2. Las normas a que se refiere el apartado 1 incluirán directrices de aplicación no vinculantes sobre la metodología que deberán seguir los desarrolladores, implementadores y usuarios para conformarse al presente Reglamento y se publicarán a más tardar en la fecha de entrada en vigor del presente Reglamento.

 

3. Los datos utilizados o producidos por la inteligencia artificial, la robótica y las tecnologías conexas desarrolladas, implementadas o utilizadas en la Unión serán gestionados por los desarrolladores, los implementadores y los usuarios de conformidad con las correspondientes reglas y normas nacionales, de la Unión, de otras organizaciones europeas, e internacionales, así como con los correspondientes protocolos industriales y comerciales. En particular, los desarrolladores y los implementadores llevarán a cabo, cuando sea viable, controles de calidad de las fuentes externas de los datos utilizados por la inteligencia artificial, la robótica y las tecnologías conexas, y establecerán mecanismos de supervisión para su recopilación, almacenamiento, tratamiento y uso.

 

3. Sin perjuicio de los derechos de portabilidad y de los derechos de las personas cuyo uso de la inteligencia artificial, la robótica y las tecnologías conexas haya generado datos, la recopilación, el almacenamiento, el tratamiento, el intercambio y el acceso a los datos utilizados o producidos por la inteligencia artificial, la robótica y las tecnologías conexas desarrolladas, implementadas o utilizadas en la Unión cumplirán las correspondientes reglas y normas nacionales, de la Unión, de otras organizaciones europeas, e internacionales, así como los correspondientes protocolos industriales y comerciales. En particular, los desarrolladores y los implementadores velarán por que dichos protocolos se apliquen durante el desarrollo y la implementación de la inteligencia artificial, la robótica y las tecnologías conexas, definiendo claramente los requisitos para el tratamiento y la concesión de acceso a los datos utilizados o producidos por dichas tecnologías, así como la finalidad, el ámbito de aplicación y los destinatarios del tratamiento y la concesión de acceso a dichos datos, todos los cuales podrán, en todo momento, ser objeto de auditoría y trazabilidad.

 

Artículo 18

Autoridades de control

1. Cada Estado miembro designará una autoridad pública independiente encargada de controlar la aplicación del presente Reglamento («autoridad de control») y de llevar a cabo la evaluación de riesgos, la evaluación de la conformidad y el certificado previstos en los artículos 13, 14 y 15, sin perjuicio de la legislación sectorial. 

 

2. Cada autoridad nacional de control contribuirá a la aplicación coherente del presente Reglamento en toda la Unión. A tal fin, las autoridades de control de cada Estado miembro cooperarán entre sí, con la Comisión y con otras instituciones, órganos y organismos pertinentes de la Unión que puedan designarse a tal fin.

 

3. Cada autoridad nacional de control servirá de primer punto de contacto en caso de sospecha de incumplimiento de los principios éticos y las obligaciones legales establecidos en el presente Reglamento, incluido el trato discriminatorio o la violación de otros derechos, como resultado del desarrollo, la implementación o el uso de la inteligencia artificial, la robótica y las tecnologías conexas. En tales casos, la autoridad nacional de control correspondiente llevará a cabo una evaluación de la conformidad con el fin de respaldar el derecho de impugnación y obtención de reparación de que gozan los ciudadanos.

 

4. Cada autoridad nacional de control será responsable de supervisar la aplicación de las correspondientes reglas y normas de gobernanza nacionales, europeas e internacionales a que se refiere el artículo 13 a la inteligencia artificial, la robótica y las tecnologías conexas, en particular colaborando con el mayor número posible de partes interesadas. Para ello, las autoridades de control de cada Estado miembro constituirán un foro que permita un intercambio periódico con y entre las partes interesadas de las esferas académica, de la investigación, de la industria y de la sociedad civil.

 

5. Cada autoridad nacional de control competente proporcionará orientación y apoyo profesional y administrativo sobre la aplicación general de la legislación de la Unión aplicable a la inteligencia artificial, la robótica y las tecnologías conexas, y sobre los principios éticos establecidos en el presente Reglamento, en particular a las organizaciones de investigación y desarrollo pertinentes y a las pequeñas y medianas empresas o las empresas emergentes.

 

6. Cada Estado miembro notificará a la Comisión Europea las disposiciones legales que adopte de conformidad con el presente artículo, a más tardar el [DO: insértese la fecha correspondiente a un año después de la entrada en vigor], así como, sin demora, cualquier modificación posterior que afecte a dichas disposiciones.

 

7. Los Estados miembros adoptarán todas las medidas necesarias para garantizar la aplicación de los principios éticos y las obligaciones legales establecidos en el presente Reglamento. Los Estados miembros apoyarán a las partes interesadas pertinentes y a la sociedad civil, tanto a escala de la Unión como a escala nacional, en sus esfuerzos por dar una respuesta oportuna, ética y bien informada a los nuevos retos y oportunidades, en particular de carácter transfronterizo, derivados de los avances tecnológicos relacionados con la inteligencia artificial, la robótica y las tecnologías conexas.

 

Artículo 19

Denuncia de infracciones y protección de los denunciantes

 

La Directiva (UE) 2019/1937 del Parlamento Europeo y del Consejo[18] se aplicará a la denuncia de infracciones del presente Reglamento y a la protección de las personas que informen sobre dichas infracciones.

 

Artículo 20

Coordinación a escala de la Unión

1. La Comisión o cualquier institución, órgano u organismo pertinente de la Unión que pueda designarse en este contexto llevará a cabo las siguientes tareas:

 

- garantizar una evaluación de riesgos coherente de la inteligencia artificial, la robótica y las tecnologías conexas a que se refiere el artículo 13, que deberán llevar a cabo las autoridades nacionales de control a que se refiere el artículo 17 sobre la base de los criterios objetivos comunes previstos en el artículo 7, apartado 1, y en la lista de sectores de alto riesgo y usos o fines de alto riesgo que figura en el anexo del presente Reglamento;

 

- tomar nota de la evaluación de la conformidad y el seguimiento posterior de la inteligencia artificial, la robótica y las tecnologías conexas de alto riesgo a que se refiere el artículo 14, que deberán llevar a cabo las autoridades nacionales de control a que se refiere el artículo 17;

 

- elaborar el proceso de solicitud del certificado a que se refiere el artículo 15 y que deberán expedir las autoridades nacionales de control a que se refiere el artículo 17;

 

- sin perjuicio de la legislación sectorial, preparar las directrices vinculantes a que se refiere el artículo 14, apartado 3, sobre la metodología que deberán seguir las autoridades nacionales de control a que se refiere el artículo 17;

 

- coordinar el establecimiento de las normas de gobernanza pertinentes a que se refiere el artículo 16 por parte de las autoridades nacionales de control a que se refiere el artículo 17, incluidas directrices de aplicación no vinculantes destinadas a los desarrolladores, implementadores y usuarios sobre la metodología que corresponda seguir para conformarse al presente Reglamento;

 

- cooperar con las autoridades nacionales de control a que se refiere el artículo 17 en lo que respecta a su contribución a la aplicación coherente del presente Reglamento en toda la Unión, de conformidad con el artículo 17, apartado 2;

 

- servir de centro de conocimientos especializados, promoviendo el intercambio de información relacionada con la inteligencia artificial, la robótica y las tecnologías conexas y apoyando el desarrollo de un entendimiento común en el mercado único, proporcionando orientaciones, dictámenes y conocimientos especializados adicionales a las autoridades nacionales de control a que se refiere el artículo 17, supervisando la aplicación de la legislación pertinente de la Unión, definiendo normas de buenas prácticas y, en su caso, formulando recomendaciones sobre medidas reglamentarias; para ello, estará en contacto con el mayor número posible de partes interesadas y garantizará que la composición de sus niveles de decisión sea diversa y garantice la igualdad de género;

 

- organizar un grupo de trabajo sobre seguridad y defensa destinado a examinar cuestiones políticas y en materia de inversión relacionadas específicamente con el uso ético de la inteligencia artificial, la robótica y las tecnologías conexas en el ámbito de la seguridad y la defensa.

 

Artículo 21

Ejercicio de la delegación

1. Se otorgan a la Comisión los poderes para adoptar actos delegados en las condiciones establecidas en el presente artículo.

 

2. Los poderes para adoptar actos delegados mencionados en el artículo 7, apartados 3 y 4, se otorgan a la Comisión por un período de cinco años a partir del [fecha de entrada en vigor del presente Reglamento].

 

3. La delegación de poderes mencionada en el artículo 7, apartados 3 y 4, podrá ser revocada en cualquier momento por el Parlamento Europeo o por el Consejo. La decisión de revocación pondrá término a la delegación de los poderes que en ella se especifiquen. Surtirá efecto el día siguiente al de su publicación en el Diario Oficial de la Unión Europea o en una fecha posterior indicada en ella. No afectará a la validez de los actos delegados que ya estén en vigor.

 

4. Antes de la adopción de un acto delegado, la Comisión consultará a los expertos designados por cada Estado miembro de conformidad con los principios establecidos en el Acuerdo interinstitucional de 13 de abril de 2016 sobre la mejora de la legislación.

 

5. Tan pronto como la Comisión adopte un acto delegado lo notificará simultáneamente al Parlamento Europeo y al Consejo.

 

6. Los actos delegados adoptados en virtud del artículo 7, apartados 3 y 4, entrarán en vigor únicamente si, en un plazo de tres meses a partir de su notificación al Parlamento Europeo y al Consejo, ninguna de estas instituciones formula objeciones o si, antes del vencimiento de dicho plazo, ambas informan a la Comisión de que no las formularán. El plazo se prorrogará tres meses a iniciativa del Parlamento Europeo o del Consejo.

 

Artículo 22

Enmiendas a la Directiva (UE) 2019/1937

 

La Directiva (UE) 2019/1937 se modifica como sigue:

 

1) En el artículo 2, apartado 1, se añade el inciso siguiente:

 

«xi) desarrollo, implementación y uso de la inteligencia artificial, la robótica y las tecnologías conexas.».

 

2) En la parte I del anexo, se añade la letra siguiente:

 

«K. Artículo 2, apartado 1, letra a), inciso xi) - Desarrollo, implementación y uso de la inteligencia artificial, la robótica y las tecnologías conexas:

 

xxi) Reglamento [XXX] del Parlamento Europeo y del Consejo sobre los principios éticos para el desarrollo, la implementación y el uso de la inteligencia artificial, la robótica y las tecnologías conexas.».

Artículo 23

Revisión

La Comisión examinará periódicamente el desarrollo de la inteligencia artificial, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por dichas tecnologías, y a más tardar el [DO: insértese la fecha correspondiente a tres años después de la entrada en vigor], y posteriormente cada tres años, presentará al Parlamento Europeo, al Consejo y al Comité Económico y Social Europeo un informe sobre la aplicación del presente Reglamento, incluida una evaluación sobre la posible modificación del ámbito de aplicación del mismo.

Artículo 24

Entrada en vigor

1. El presente Reglamento entrará en vigor a los veinte días de su publicación en el Diario Oficial de la Unión Europea. Será aplicable a partir del [XX].

2. El presente Reglamento será obligatorio en todos sus elementos y directamente aplicable en los Estados miembros de conformidad con el Tratado de la Unión Europea.

El presente Reglamento será obligatorio en todos sus elementos y directamente aplicable en cada Estado miembro.


 

ANEXO

 

Lista exhaustiva y acumulativa de sectores de alto riesgo y de usos o fines de alto riesgo que conllevan un riesgo de violación de los derechos fundamentales y las normas de seguridad

 

 

Sectores de alto riesgo

 

 Empleo

 Educación

 Asistencia sanitaria

 Transporte

 Energía

 Sector público (asilo, migración, controles fronterizos, sistema judicial y servicios de seguridad social)

 Seguridad y defensa

 Finanzas, bancos, seguros

 

 

Usos o fines de alto riesgo

 

 Contratación

 Clasificación y evaluación de estudiantes

 Asignación de fondos públicos

 Concesión de préstamos

 Comercio, corretaje, fiscalidad, etc.

 Tratamientos y procedimientos médicos

 Procesos electorales y campañas políticas

 Decisiones del sector público que tienen un impacto significativo y directo en los derechos y las obligaciones de las personas físicas o jurídicas

 Conducción automatizada

 Gestión del tráfico

 Sistemas militares autónomos

 Producción y distribución de energía

 Gestión de residuos

 Control de emisiones 

 

 


 

EXPOSICIÓN DE MOTIVOS

En un diálogo de la película de 1982 Blade Runner, entre Rachael, una replicante que trabaja para una empresa que fabrica «replicantes» —robots humanoides dotados de inteligencia—, y Deckard, un cazarrecompensas que se gana la vida eliminando a los replicantes fuera de control, ella le inquiere:

 

– «It seems you feel our work is not a benefit to the public».

 

A lo que él le contesta:

 

– «Replicants are like any other machine - they're either a benefit or a hazard. If they're a benefit, it's not my problem».

 

Beneficios y riesgos

 

La implementación masiva de la inteligencia artificial en todas las máquinas con las que interactuamos en el orden público, laboral y social, va a suponer —supone— un salto tecnológico solo comparable con lo que implicó en su tiempo la Revolución Industrial. La vida nunca va a ser igual, se producirán cambios muy sustanciales en el mercado laboral, en la relación con los poderes públicos, en las relaciones personales y hasta en nuestra propia vida doméstica —pensemos en lo que supone el «internet de las cosas» en todos los aparatos de nuestros hogares. Un salto tecnológico de tal calibre nos enfrenta a esa disyuntiva que planteaba el blade runner en su respuesta: cualquier tecnología plantea beneficios y riesgos. Y cuando hablamos de inteligencia artificial hablamos de beneficios y/o riesgos en una escala no antes conocida, teniendo en cuenta su potencia intrínseca.

 

El papel de la Unión Europea en el establecimiento de un marco legal

 

Pero cuando las administraciones públicas nos acercamos a este fenómeno, por contra, no podemos quedarnos con el cinismo profesional de Deckard. Precisamente, para el Parlamento Europeo es tan importante impulsar la potencialidad que estas tecnologías tienen para el bienestar y la competitividad de Europa, como controlar los riesgos inherentes —o prever las consecuencias de la sustanciación efectiva de alguno de esos riesgos—. Por ello, queremos ser pioneros en el establecimiento legal de un umbral ético que por un lado proteja a la ciudadanía europea de las posibles adversidades que conlleve esta evolución tecnológica, y por otro provea de un valor añadido de confianza a la inteligencia artificial europea en el mundo. Un umbral ético consecuente con nuestros principios y valores europeos, reflejados en la Carta de los Derechos Fundamentales de la Unión Europea y congruentes también con nuestro proyecto civilizatorio. Una normativa inspirada por una aproximación humanística y humanocéntrica en el desarrollo tecnológico. Una regulación que no solo se aplique a la inteligencia artificial desarrollada en Europa, sino que suponga un exigente imperativo normativo para todo aquel que pretenda operar en la Unión.

 

Es imperativo que el marco de derechos y deberes sea compartido para todos los Estados miembros de la Unión Europea. Una sucesión de regulaciones nacionales sin una referencia común podría significar la ruptura del mercado único y lastrar nuestro esfuerzo colectivo para alcanzar el liderazgo tecnológico en el mundo. La creación de una agencia europea encargada de supervisar el desarrollo de esta regulación, acabará por armonizar el marco jurídico y técnico que se desarrolle en cada uno de los países miembros.

 

Una regulación flexible y con vocación de futuro

 

Frente a quien defiende abandonar la ordenación de este sector a la autorregulación, el diálogo del comienzo puede servir para ilustrar también la necesidad de una implicación pública, que salvaguarde objetivos más allá de la rentabilidad económica. Evitar la discriminación (cualquiera que sea su raíz) en la fórmula de toma de decisiones, aprovechar la potencia de cambio de estas tecnologías para avanzar en una sociedad más justa —con especial incidencia en la reducción de la brecha de género— y más sostenible medioambientalmente, son otros de los objetivos a salvaguardar por las instituciones públicas de Europa. Para estas últimas cuestiones, el texto prevé mandatos expresos para los poderes públicos europeos.

 

Es objetivo también de esta norma, combinar un elevado marco de exigencia junto con la sencillez normativa, huyendo de alambicados sistemas regulatorios y/o de pesadas cargas burocráticas para los agentes implicados. También se persigue un marco suficientemente flexible para poder acoger los avances en una realidad extremadamente cambiante, al tiempo que se permita el desarrollo sectorial de normas que ahormen realidades más concretas.

 

Una aproximación integral con la creación de organismos nacionales de control

 

Esta regulación pretende extender la supervisión a todos los estadios en una tecnología de alta complejidad. Desarrollo, implementación, la propia evolución de la tecnología mediante el machine-learning o el deep-learning, son todos aspectos para los que este articulado recoge disposiciones. Se pone un especial énfasis en las prevenciones cuando hablamos de tecnologías que se definen «de alto riesgo», esto es, cuando exista una alta probabilidad de generación de externalidades negativas y/o cuando estén implicadas materias sensibles que merecen una especial protección —que son las que se definen en esta misma norma—. Se regula una cuestión tan delicada para los derechos individuales como las técnicas de reconocimiento remoto, estableciendo muchas salvaguardas para su uso; también se regula un marco material y temporal muy estricto, para que se puedan utilizar por los poderes públicos excepcionalmente en caso de grandes emergencias.

 

Es también objetivo de esta norma que el diseño, desarrollo, control y supervisión de este marco regulador, sea participado por toda la ciudadanía y especialmente por aquellas personas y colectivos más implicados o afectados. El texto prevé un mandato a todos los organismos nacionales de control —que esta misma norma indica de creación obligatoria—, para que cuenten necesaria y periódicamente con el concurso de la sociedad civil. De la misma forma, se establecen obligaciones exigentes en materia de transparencia y rendición de cuentas para los diseñadores, implementadores y usuarios de inteligencia artificial. También se recogen obligaciones de comportamiento cívico para los usuarios y la necesaria protección que los mismos tienen en cuanto utilicen estas tecnologías de acuerdo con la buena fe.

 

Comprensibilidad, transparencia, rendición de cuentas, responsabilidad y gobernanza

 

Estamos todavía muy lejos de que un algoritmo pueda hacer realidad el nacimiento de la psicohistoria, de la que nos hablaba Isaac Asimov en Fundación. Por lo tanto, el mismo concepto de libre albedrío, consustancial a la condición humana, no parece correr peligro por el momento.  Ni siquiera cuando de lo que se trata es de anticiparse al surgimiento de las grandes corrientes de la historia. Los poderes democráticos nos vamos a asegurar de que las grandes y pequeñas decisiones que se toman con la asistencia de tecnologías de inteligencia artificial no lo sean como consecuencia de oscuras e inaccesibles fórmulas matemáticas. La comprensibilidad, la transparencia, la rendición de cuentas y la responsabilidad serán características indispensables en la inteligencia artificial que se desarrolle y que opere en la Unión Europea.

 

En definitiva, la Unión Europea pretende ser un espacio en el que exista un necesario equilibrio entre la salvaguarda de los derechos de la ciudadanía y el fortalecimiento del desarrollo tecnológico. Nuestro Reglamento y el desarrollo que de este haga el organismo o los organismos de control debe ser un ejemplo para el resto del mundo y una primera piedra para asegurar una adecuada gobernanza de este fenómeno a escala mundial.

 


 

 

OPINIÓN DE LA COMISIÓN DE ASUNTOS EXTERIORES (24.6.2020)

<CommissionInt>para la Comisión de Asuntos Jurídicos</CommissionInt>


<Titre>con recomendaciones destinadas a la Comisión sobre el marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Ponente de opinión (*): <Depute>Urmas Paet</Depute>

(*) Comisión asociada – artículo 57 del Reglamento interno

(Iniciativa – artículo 47 del Reglamento interno)

 

 

 

 

SUGERENCIAS

La Comisión de Asuntos Exteriores pide a la Comisión de Asuntos Jurídicos, competente para el fondo:

 que incorpore las siguientes sugerencias en la propuesta de Resolución que apruebe:

1. Destaca que las políticas de seguridad y defensa de la Unión Europea y de sus Estados miembros se rigen por los principios consagrados en la Carta de los Derechos Fundamentales de la Unión Europea y la Carta de las Naciones Unidas y por un entendimiento común de los valores universales del respeto de los derechos inviolables e inalienables de la persona, la dignidad humana, la libertad, la democracia, la igualdad y el Estado de Derecho; destaca que todos los esfuerzos relacionados con la defensa dentro del marco de la Unión deben respetar estos valores universales, fomentando al mismo tiempo la paz, la seguridad y el progreso en Europa y en el mundo; opina que el uso de la inteligencia artificial (IA) debería regirse por un conjunto común de principios éticos, a saber, responsabilidad, equidad, trazabilidad, fiabilidad y gobernabilidad;

2. Acoge favorablemente el respaldo, por parte de la Reunión de las Altas Partes Contratantes en la Convención sobre ciertas armas convencionales (CAC) de las Naciones Unidas de 2019, de once principios rectores para el desarrollo y el uso de sistemas armamentísticos autónomos; lamenta, no obstante, que no se llegue a un acuerdo sobre un instrumento jurídicamente vinculante que regule las armas autónomas letales y cuente con un mecanismo de cumplimiento eficaz; acoge favorablemente y respalda las directrices éticas para una IA fiable del grupo de expertos de alto nivel sobre la IA de la Comisión, publicadas el 9 de abril de 2019, y su posición con respecto a los sistemas de armas autónomos letales (SAAL); insta a los Estados miembros a que elaboren estrategias nacionales para la definición y el estatuto de las armas letales autónomas en favor de una estrategia global a escala de la Unión y que promuevan, junto con el alto representante de la Unión / vicepresidente de la Comisión (AR/VP) y el Consejo, el debate sobre los SAAL en el marco de la CAC de las Naciones Unidas y otros foros pertinentes, así como el establecimiento de normas internacionales en relación con los parámetros éticos y jurídicos del desarrollo y el uso de sistemas armamentísticos totalmente autónomos, semiautónomos y controlados a distancia; recuerda, en este sentido, su Resolución de 12 de septiembre de 2018 sobre los sistemas armamentísticos autónomos letales, y pide, una vez más, la elaboración y la adopción urgentes de una posición común al respecto, la prohibición internacional del desarrollo, la producción y el uso de SAAL que permiten llevar a cabo ataques sin un control humano significativo y sin respetar el principio de participación humana, en consonancia con las declaraciones de los investigadores más destacados del mundo en materia de IA en su carta abierta de 2015; acoge favorablemente el acuerdo del Consejo y el Parlamento de excluir de las acciones financiadas en el marco del Fondo Europeo de Defensa las armas autónomas letales «que no permitan un control humano significativo sobre las decisiones de selección e intervención cuando lleven a cabo ataques»; considera que no deben pasarse por alto los aspectos éticos de otras aplicaciones de la IA en el ámbito de la defensa, como las operaciones de inteligencia, vigilancia y reconocimiento (ISR) o las ciberoperaciones, y que debe prestarse una atención especial al desarrollo y la implementación de drones en operaciones militares;

3. Recomienda que cualquier marco de la Unión que regule el uso de sistemas (basados en la IA) en el ámbito de la defensa, en situaciones tanto de combate como de no combate, respete todos los regímenes jurídicos aplicables, en particular el Derecho internacional humanitario y el Derecho internacional de los derechos humanos, y sea conforme a la legislación, los principios y los valores de la Unión; destaca que la Unión debería desempeñar un papel global abriendo el camino hacia un marco normativo de la IA creíble y vinculante basado en valores democráticos y centrado en el ser humano; pide a la Unión y a sus Estados miembros que desarrollen mecanismos conjuntos para evaluar con rapidez y en profundidad los riesgos y las oportunidades relacionados con la IA inherentes a la aplicación del Derecho de la Unión, inspirándose para ello en las mejores prácticas de los Estados miembros más avanzados, y que prevean, en su caso, el ajuste y la ejecución necesarios, teniendo en cuenta las disparidades en términos de infraestructuras técnicas y de seguridad en toda la Unión;

4. Reconoce que, a diferencia de las bases industriales de defensa, las innovaciones críticas en materia de IA podrían venir de Estados miembros pequeños, por lo que un enfoque normalizado de la PCSD debería garantizar que no se excluya a los Estados miembros más pequeños ni a las pymes; destaca que un conjunto de capacidades comunes de IA de la Unión que se corresponda con los conceptos operativos de los Estados miembros puede colmar las lagunas técnicas que podrían dejar atrás a aquellos Estados que no dispongan de la tecnología, los conocimientos especializados industriales o la capacidad pertinentes para aplicar sistemas de IA en sus ministerios de Defensa;

5. Hace hincapié en que el ámbito geográfico de dicho marco debería abarcar todos los componentes de la IA, la robótica y las tecnologías conexas desarrolladas, implementadas o utilizadas en la Unión, incluso en los casos en que una parte de las tecnologías esté situada fuera de la Unión o no tenga una ubicación específica;

6. Subraya que las tecnologías emergentes no reguladas por el Derecho internacional deberían estar sujetas al principio del respeto de la humanidad y a los dictados de la conciencia pública; subraya que el uso y la ética de los sistemas basados en la IA en el ámbito de la defensa deben someterse a una evaluación constante desde el punto de vista de los derechos humanos y, en particular, de la protección, la salud y la seguridad humanas, la libertad, la intimidad, la integridad y la dignidad, así como a un control constante, especialmente desde el punto de vista de sus ventajas e inconvenientes, y de su impacto en la protección de los derechos humanos universales; considera que las ventajas tecnológicas en el ámbito de los sistemas de defensa basados en la IA deben ir acompañadas de un amplio debate sobre el uso de la IA y su impacto en las sociedades y comunidades, así como sobre sus potenciales beneficios económicos y sociales, sin olvidar los riesgos derivados del uso de la IA, que deben comunicarse de manera adecuada;

7. Considera que las actividades actuales y futuras relacionadas con la seguridad y la defensa dentro del marco de la Unión se basarán en la IA, en la robótica y la autonomía y en las tecnologías conexas, y que una IA fiable, sólida y de confianza podría contribuir a una fuerza militar moderna y eficaz; opina por ello que la Unión debe asumir un papel líder en la investigación y el desarrollo de sistemas de IA en el ámbito de la seguridad y la defensa; considera que el uso de aplicaciones basadas en la IA en el ámbito de la seguridad y la defensa podría conllevar una serie de ventajas directas para el mando de las operaciones, como unos datos recopilados de mayor calidad, un mayor conocimiento de la situación, una mayor rapidez en la toma de decisiones, un riesgo reducido de daños colaterales gracias a un mejor cableado, y la protección de las fuerzas sobre el terreno, así como una mayor fiabilidad de los equipos militares y, por ende, un menor riesgo para las personas y un menor número de víctimas humanas; destaca que el desarrollo de una IA fiable en el ámbito de la defensa resulta esencial para garantizar la autonomía estratégica europea con respecto a las capacidades y operaciones; recuerda que los sistemas de IA también se están convirtiendo en elementos clave a la hora de contrarrestar las nuevas amenazas a la seguridad, como la guerra cibernética y la guerra híbrida, tanto en el entorno en línea como fuera de este; subraya, al mismo tiempo, todos los riesgos y los desafíos de un uso no regulado de la IA; señala que la IA podría ser objeto de manipulación y verse expuesta a errores e imprecisiones;

8. Pide que se creen sinergias y redes entre los distintos centros de investigación europeos en materia de IA, así como con otros foros multilaterales, como el Consejo de Europa, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco), la Organización para la Cooperación y el Desarrollo Económico (OCDE), la Organización Mundial del Comercio y la Unión Internacional de Telecomunicaciones (UIT), con el fin de armonizar sus esfuerzos y coordinar mejor los avances en la tecnología de la IA;

9. Subraya que las tecnologías de IA presentan, en su esencia, un doble uso, y que el desarrollo de la IA en actividades relacionadas con la defensa se beneficia de intercambios entre tecnologías militares y civiles; destaca que, en las actividades relacionadas con la defensa, la IA es una tecnología disruptiva transversal cuyo desarrollo puede brindar oportunidades para la competitividad y la autonomía estratégica de la Unión;

10. Destaca que, sobre la base de la Comunicación de la Comisión de 8 de abril de 2019 titulada «Generar confianza en la inteligencia artificial centrada en el ser humano», conforme a la cual la tecnología ha de respetar plenamente los derechos humanos, y las personas han de conservar la autoridad sobre los sistemas automatizados de toma de decisiones, a la vez que se complementan y apoyan la autonomía y la toma de decisiones humanas, la Unión necesita un marco normativo de la IA sólido y centrado en la seguridad y la defensa, que siga una trayectoria de responsabilidad y transparencia, de protección de nuestros ciudadanos y sus datos, y de defensa de nuestros valores, y cuyas políticas aspiren a preservar la paz, prevenir los conflictos y reforzar la seguridad internacional, aprovechando al mismo tiempo las oportunidades que ofrecen tales tecnologías y teniendo presente que los sistemas basados en la IA serán un elemento clave en los futuros avances en materia de defensa y capacidades defensivas;

11. Pide a los Estados miembros y a la Comisión que garanticen que los algoritmos utilizados en los sistemas de defensa, al tiempo que preservan la confidencialidad necesaria, se rigen por el principio de transparencia, incluido un régimen de responsabilidad claro para los resultados del uso de la IA; subraya que estos algoritmos deben ajustarse constantemente al progreso en materia de tecnologías de IA;

12. Subraya que la Unión debe estar a la vanguardia del apoyo a los esfuerzos multilaterales en el marco del Grupo de Expertos Gubernamentales de la CAC de las Naciones Unidas y de otros foros pertinentes, para debatir un marco normativo internacional eficaz que garantice un control humano significativo de los sistemas armamentísticos autónomos con el fin de dominar estas tecnologías mediante el establecimiento de procesos bien definidos basados en parámetros de referencia y la adopción de legislación para su uso ético, en consulta con las partes interesadas militares, industriales, policiales, académicas y de la sociedad civil, para comprender los aspectos éticos conexos y para contener los riesgos inherentes a estas tecnologías e impedir su uso con fines malintencionados, incluidos, en particular, los daños no intencionados a las personas, ya sean materiales o inmateriales, como la violación de derechos fundamentales o los daños físicos; considera que la Unión, en colaboración con los Estados miembros, debe determinar los regímenes de responsabilidad apropiados aplicables a las innovaciones en IA y otras tecnologías de inmersión en el ámbito de la seguridad y la defensa, estableciendo así una base jurídica para mecanismos de rendición de cuentas y trazabilidad; destaca que la legislación y los marcos normativos de la Unión no deben verse sobrepasados por los futuros avances tecnológicos, los progresos en materia de IA o los nuevos métodos de guerra y que, para ello, deben estar respaldados por programas de seguimiento significativos y sometidos a una adaptación constante a fin de evitar vacíos legales o zonas grises; subraya que la investigación y el desarrollo ulteriores de la IA deberían garantizar que los sistemas basados en la IA estén mejor equipados para comprender contextos singulares;

13. Respalda el principio clave de «ética por diseño», según el cual los principios éticos deben incorporarse en los productos y los servicios de IA desde el inicio del proceso de diseño;

14. Recuerda que la mayoría de las actuales potencias militares a escala mundial ya se han implicado en esfuerzos significativos de I+D relacionados con la dimensión militar de la IA; considera que la Unión debe velar por no quedarse a la zaga en este ámbito; hace hincapié en que, para cualquier aplicación de sistemas de defensa basados en la IA, la Unión debería establecer normas técnicas y organizativas, de conformidad con el principio de seguridad desde el diseño, que hagan posible una supervisión humana específica, para garantizar la resiliencia de esos sistemas frente a las vulnerabilidades que pueden ser explotadas por los ataques externos, los ciberataques y la influencia digital dirigidos a los datos, el modelo o la infraestructura subyacente, tanto de software como de hardware, así como su conformidad con las normas de fiabilidad más estrictas posibles, el seguimiento activo y la supervisión en lo que se refiere a la recogida, el almacenamiento y la explotación de datos operativos a lo largo de todo el ciclo de vida de un sistema; hace hincapié en la importancia de la transparencia y la rendición de cuentas de los algoritmos de IA; observa la importante distinción entre la transparencia de los algoritmos y la transparencia en el uso de los algoritmos; subraya que los sistemas y las aplicaciones de IA pensados para extraer y sintetizar datos y extrapolar sus resultados para fundamentar decisiones en asuntos relacionados con la defensa y la seguridad nacional deben atenerse a un ámbito específico y cumplir lo dispuesto en el actual marco normativo en lo referente a la recopilación y el tratamiento de datos; destaca que las aplicaciones de IA diseñadas para tratar datos para fines de inteligencia en actividades relacionadas con la defensa deberían cumplir las normas de tratamiento de datos para evitar riesgos de vigilancia involuntaria o la vulneración de derechos individuales; opina que, en el caso de las aplicaciones de alto riesgo de tecnologías basadas en la IA, como el reconocimiento facial, que carecen de un marco normativo definitivo a nivel europeo, la Unión debe garantizar que su desarrollo y despliegue sean legítimos y proporcionales y respeten los derechos individuales; recalca que las autoridades policiales nacionales competentes deben respetar la legislación vigente a la hora de desarrollar e implementar sistemas y tecnologías basados en la IA para mantener el orden público, con el fin de mitigar los riesgos desproporcionados de la actuación policial predictiva; reconoce que el garante principal de la seguridad euroatlántica es la OTAN y pide que se refuerce la cooperación dentro de esta Alianza en pro del establecimiento de normas comunes y la interoperabilidad de los sistemas de IA en el ámbito de la defensa; destaca que la relación transatlántica resulta fundamental para preservar los valores compartidos y contrarrestar amenazas futuras e incipientes;

15. Destaca la necesidad de adoptar disposiciones y requisitos claros, con certificaciones adecuadas, en materia de fiabilidad, seguridad y protección para los sistemas de IA en el ámbito de la seguridad y la defensa, de introducir criterios de transparencia en las distintas fases (a saber, diseño, producción y operación) y de llevar a cabo un seguimiento constante y pruebas y comprobaciones periódicas a lo largo de todo el ciclo de vida; subraya la necesidad de garantizar la conformidad con las normas aplicables y las certificaciones obtenidas cuando la IA modifique, por ejemplo a través del aprendizaje automático, la funcionalidad y el comportamiento de los sistemas en los que esté integrada, a fin de garantizar la plena trazabilidad, explicabilidad y rendición de cuentas por las decisiones tomadas con la intervención de la IA y sus resultados, así como un control humano significativo cuando dichos sistemas puedan matar a seres humanos;

16. Pide a la Comisión que incorpore el desarrollo de capacidades de ciberseguridad en su política industrial con el fin de garantizar el desarrollo y la implementación de sistemas robóticos y basados en la IA seguros, resilientes y sólidos; pide a la Comisión que estudie el uso de protocolos y aplicaciones de ciberseguridad basados en cadenas de bloques para mejorar la resiliencia, la confianza y la solidez de las infraestructuras de IA a través de modelos de cifrado de datos sin intermediación; anima a las partes interesadas europeas a que investiguen y diseñen funciones avanzadas que faciliten la detección de sistemas robóticos y basados en la IA corruptos y maliciosos que podrían socavar la seguridad de la Unión y de los ciudadanos;

17. Subraya que todos los sistemas de IA en materia de defensa deben tener un marco de misión concreto y bien definido por el que las personas conserven la capacidad de detectar y desconectar o desactivar los sistemas implementados en caso de que se aparten del marco de misión definido y asignado por el controlador humano o emprendan cualquier acción no deseada o en escalada; considera que los sistemas, los productos y la tecnología basados en la IA y destinados a un uso militar deberían estar equipados con una «caja negra» para registrar todas las transacciones de datos realizadas por la máquina;

18. Subraya que la responsabilidad y rendición de cuentas por la decisión de diseñar, desarrollar, implementar y utilizar sistemas de IA tiene que recaer íntegramente en los operadores humanos, dado que debe haber una supervisión y un control humano significativos sobre cualquier sistema armamentístico, y una intencionalidad humana en la decisión de recurrir al uso de la fuerza, a la hora de ejecutar cualquier decisión de sistemas de armas basados en la IA que pueda tener consecuencias letales; subraya que el control humano debería ejercerse de forma efectiva sobre el mando y control de los sistemas basados en la IA, con arreglo a los principios de participación, supervisión y control humanos, en el marco de la dirección de las operaciones militares; destaca que los sistemas basados en la IA deben permitir que los mandos militares al frente de ejércitos asuman su plena responsabilidad y rendición de cuentas por el uso de fuerza letal y ejerzan la capacidad necesaria de discernimiento, de la que no puede dotarse a las máquinas ya que se debe basar en la distinción, la proporcionalidad y la precaución, a la hora de adoptar medidas de efectos letales o destructivas a gran escala por medio de tales sistemas; destaca la necesidad de establecer marcos de autorización y de rendición de cuentas claros y rastreables para la implementación de armas inteligentes y otros sistemas basados en la IA, utilizando características de usuario únicas, como especificaciones biométricas, para permitir exclusivamente la implementación por parte de personal autorizado;

19. Pide a la Comisión que colabore con las autoridades nacionales competentes de los Estados miembros y otras partes interesadas que participen en el desarrollo y la implementación de sistemas, productos y tecnologías basados en la IA para establecer un marco seguro, protegido y resiliente mediante el que compartir, supervisar y verificar el código fuente de sistemas basados en la IA para mitigar las posibles desviaciones con respecto a los principios rectores y el marco ético en que se basa la tecnología de la IA en el ámbito de la seguridad y la defensa; sugiere a la Comisión que la Unión conserve la titularidad de la propiedad intelectual de la investigación financiada por la Unión sobre sistemas, productos y tecnologías basados en la IA en materia de seguridad y defensa;

20. Subraya que la Unión debe fomentar una mejor comprensión de las implicaciones, ventajas y oportunidades militares, así como de los puntos débiles, de la IA, la robótica y las funciones y características autónomas, incluido su potencial para la industria europea de defensa, colaborando para ello con los mandos militares; considera que la Unión debe fomentar la adquisición de las competencias y los conocimientos necesarios sobre los procesos de desarrollo tecnológico y los métodos operativos a lo largo de toda la cadena de suministro y de todo el ciclo de vida de las capacidades militares basadas en la IA; subraya la necesidad urgente de establecer una mayor independencia estratégica y tecnológica europea en el ámbito de los sistemas que utilizan IA, incluida la infraestructura crítica en la que se basan;

21. Cree que es necesario reforzar la cooperación entre los Estados miembros y la Comisión para garantizar normas transfronterizas coherentes en la Unión con el fin de fomentar la colaboración entre industrias europeas y permitir el desarrollo y la implementación de tecnologías basadas en la IA con arreglo a las normas prescritas en materia de protección y seguridad y al marco ético que rige el desarrollo y la implementación de la tecnología de IA;

22. Reconoce que, en el actual contexto de guerra híbrida y avanzada, el volumen y la velocidad de la información durante las fases tempranas de una crisis pueden resultar abrumadores para los analistas humanos, y que un sistema de IA podría tratar la información para garantizar que los humanos responsables de la toma de decisiones rastreen todo el espectro de información dentro de un plazo adecuado para ofrecer una respuesta rápida;

23. Subraya la importancia de invertir en el desarrollo de capital humano para la IA, fomentando las competencias y la educación necesarias en materia de tecnologías de IA en el ámbito de la defensa y la seguridad, con especial atención a la ética de los sistemas operativos semiautónomos y autónomos fundados en la rendición de cuentas humana en un mundo basado en la IA; destaca, en particular, la importancia de garantizar que los expertos en ética en este ámbito posean las competencias adecuadas y reciban una formación apropiada; pide a la Comisión que presente cuanto antes su apoyo a la Agenda de Capacidades anunciado en el Libro Blanco sobre la inteligencia artificial de 19 de febrero de 2020;

24. Subraya que la computación cuántica podría representar el cambio más revolucionario en el campo de los conflictos desde el advenimiento del armamento nuclear, por lo que insta a la Unión y a los Estados miembros a que den prioridad a un mayor desarrollo de las tecnologías de computación cuántica; reconoce que los actos de agresión, incluidos los ataques a infraestructuras críticas, asistidos por computación cuántica crearán un entorno de conflicto en que el tiempo para adoptar decisiones se reducirá drásticamente de días y horas a minutos y segundos, lo que forzará a los Estados miembros a desarrollar capacidades que los protejan y a formar tanto a los responsables de la toma de decisiones como al personal militar para responder de forma eficaz dentro de esos lapsos de tiempo;

25. Destaca la necesidad de superar la actual fragmentación dentro de la Unión en lo que respecta a la legislación nacional, la investigación, la innovación y los conocimientos técnicos en materia de IA, lo que pone en riesgo el funcionamiento del mercado interior y el objetivo de garantizar un desarrollo fiable y seguro de la IA en Europa; acoge con satisfacción, en este sentido, la inclusión de proyectos relacionados con la IA en el marco del Programa Europeo de Desarrollo Industrial en materia de Defensa (PEDID); considera que el futuro Fondo Europeo de Defensa (FED) y la Cooperación Estructurada Permanente (CEP) también ofrecen unos marcos bien adaptados para futuros proyectos relacionados con la IA que ayudarían a racionalizar mejor los esfuerzos de la Unión en este ámbito y promoverían al mismo tiempo el objetivo de la Unión de reforzar los derechos humanos, el Derecho internacional y las soluciones multilaterales; destaca que los proyectos relacionados con la IA deberían sincronizarse con los programas civiles más amplios de la Unión dedicados a la IA; observa que, de conformidad con el Libro Blanco de la Comisión sobre la inteligencia artificial, deberían establecerse centros de excelencia y de pruebas que se concentren en la investigación y el desarrollo de la IA en el ámbito de la seguridad y la defensa con especificaciones sólidas que sustenten la participación y la inversión de partes interesadas privadas;

26. Recalca que la Unión necesita esforzarse para lograr la resiliencia estratégica a fin de que ninguna otra crisis la vuelva a coger desprevenida y subraya que esto reviste una importancia vital, especialmente en lo que se refiere a la IA y su aplicación a la defensa y la seguridad; hace hincapié en que las cadenas de suministro de sistemas de IA para la defensa y la seguridad que puedan dar lugar a una dependencia tecnológica deberían reajustarse, y que habría que acabar progresivamente con esa dependencia; aboga por el aumento de la inversión en IA europea para defensa y en la infraestructura crítica que la sustenta;

27. Hace hincapié en que un desarrollo de la IA que respete los derechos fundamentales y apoye el interés público requiere la puesta en común y el intercambio estratégicos de datos en la Unión entre entidades privadas y públicas, así como el refuerzo de un ecosistema de IA de la Unión, que implique a partes interesadas públicas, privadas y de la sociedad civil; pide a la Comisión que fomente el diálogo, una cooperación más estrecha y sinergias entre los Estados miembros, los investigadores, el mundo académico, los agentes de la sociedad civil y el sector privado, en particular las sociedades y empresas líderes, y las autoridades militares, a fin de tener procesos de formulación de políticas inclusivos en lo que se refiere a la normativa en materia de IA relacionada con la defensa y de aprovechar al máximo el potencial de la IA, fomentando al mismo tiempo una mejor comprensión de los riesgos y los beneficios, y garantizando la máxima seguridad operativa;

28. Destaca que, en el contexto de la extensa guerra de desinformación, impulsada especialmente por agentes no europeos, las tecnologías de IA podrían tener efectos adversos desde el punto de vista ético debido a la explotación de sesgos en los datos y los algoritmos o a la alteración deliberada de los datos de aprendizaje por un tercer país, y podrían verse expuestas también a otros tipos de manipulación malintencionada y peligrosa, de manera imprevisible y con consecuencias incalculables; existe, por tanto, una necesidad cada vez mayor de que la Unión siga invirtiendo en investigación, análisis, innovación y transferencia de conocimientos transfronteriza e intersectorial, con el fin de desarrollar tecnologías de IA en las que no haya ninguna clase de elaboración de perfiles, sesgo o discriminación, y que puedan contribuir eficazmente a luchar contra las noticias falsas y la desinformación, respetando al mismo tiempo la privacidad de los datos y el marco jurídico europeo;

29. Destaca la importancia de crear un código ético de conducta en que basar la implementación en operaciones militares de sistemas armamentísticos que utilizan IA, similar al marco normativo existente por el que se prohíbe el despliegue de armas químicas y biológicas; opina que la Comisión debería empezar a elaborar normas sobre el uso en la guerra de sistemas armamentísticos basados en la IA, de conformidad con el Derecho internacional humanitario, y que la Unión debería perseguir la adopción internacional de dichas normas; considera que la Unión debería participar en una labor diplomática sobre la IA en foros internacionales con socios afines, como el G7, el G20 y la OCDE;

30. Toma nota del Libro Blanco de la Comisión sobre la inteligencia artificial, de 19 de febrero de 2020, y lamenta que no se hayan tenido en cuenta en él los aspectos militares; pide a la Comisión y al VP/AR que presenten también, como parte de un enfoque global, una estrategia sectorial de IA para las actividades relacionadas con la defensa dentro del marco de la Unión, que garantice el respeto tanto de los derechos de los ciudadanos como de los intereses estratégicos de la Unión, y esté basada en un enfoque coherente que abarque desde la creación de los sistemas que utilizan IA hasta sus aplicaciones, y que creen un grupo de trabajo sobre seguridad y defensa en el seno del grupo de expertos de alto nivel sobre inteligencia artificial, que se encargue específicamente de las cuestiones políticas y relacionadas con la inversión, así como de los aspectos éticos de la IA en el ámbito de la seguridad y la defensa; pide al Consejo, a la Comisión y al VP/AR que entablen un diálogo estructurado con el Parlamento a tal fin.


INFORMACIÓN SOBRE LA APROBACIÓN
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

Fecha de aprobación

22.6.2020

 

 

 

Resultado de la votación final

+:

–:

0:

60

7

2

Miembros presentes en la votación final

Alviina Alametsä, Maria Arena, Petras Auštrevičius, Traian Băsescu, Lars Patrick Berg, Anna Bonfrisco, Reinhard Bütikofer, Fabio Massimo Castaldo, Susanna Ceccardi, Włodzimierz Cimoszewicz, Katalin Cseh, Tanja Fajon, Anna Fotyga, Michael Gahler, Kinga Gál, Sunčana Glavak, Raphaël Glucksmann, Klemen Grošelj, Bernard Guetta, Márton Gyöngyösi, Sandra Kalniete, Karol Karski, Dietmar Köster, Stelios Kouloglou, Andrius Kubilius, Ilhan Kyuchyuk, David Lega, Miriam Lexmann, Nathalie Loiseau, Antonio López-Istúriz White, Claudiu Manda, Lukas Mandl, Thierry Mariani, David McAllister, Vangelis Meimarakis, Sven Mikser, Francisco José Millán Mon, Javier Nart, Gheorghe-Vlad Nistor, Urmas Paet, Kostas Papadakis, Tonino Picula, Manu Pineda, Kati Piri, Giuliano Pisapia, Diana Riba i Giner, María Soraya Rodríguez Ramos, Nacho Sánchez Amor, Isabel Santos, Jacek Saryusz-Wolski, Andreas Schieder, Radosław Sikorski, Sergei Stanishev, Tineke Strik, Hermann Tertsch, Hilde Vautmans, Harald Vilimsky, Idoia Villanueva Ruiz, Thomas Waitz, Witold Jan Waszczykowski, Charlie Weimers, Isabel Wiseler-Lima, Željana Zovko

Suplentes presentes en la votación final

Katarina Barley, Nicolas Bay, Arnaud Danjean, Katrin Langensiepen, Hannah Neumann, Mick Wallace

 


VOTACIÓN FINAL NOMINAL
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

60

+

PPE

Traian Băsescu, Arnaud Danjean, Michael Gahler, Kinga Gál, Sunčana Glavak, Sandra Kalniete, Andrius Kubilius, David Lega, Miriam Lexmann, Antonio López‑Istúriz White, Lukas Mandl, David McAllister, Vangelis Meimarakis, Francisco José Millán Mon, Gheorghe‑Vlad Nistor, Radosław Sikorski, Isabel Wiseler‑Lima, Željana Zovko

S&D

Maria Arena, Katarina Barley, Włodzimierz Cimoszewicz, Tanja Fajon, Raphaël Glucksmann, Dietmar Köster, Claudiu Manda, Sven Mikser, Tonino Picula, Kati Piri, Giuliano Pisapia, Nacho Sánchez Amor, Isabel Santos, Andreas Schieder, Sergei Stanishev

Renew

Petras Auštrevičius, Katalin Cseh, Klemen Grošelj, Bernard Guetta, Ilhan Kyuchyuk, Nathalie Loiseau, Javier Nart, Urmas Paet, María Soraya Rodríguez Ramos, Hilde Vautmans

ID

Anna Bonfrisco, Susanna Ceccardi

Verts/ALE

Alviina Alametsä, Reinhard Bütikofer, Katrin Langensiepen, Hannah Neumann, Diana Riba i Giner, Tineke Strik, Thomas Waitz

ECR

Anna Fotyga, Karol Karski, Jacek Saryusz‑Wolski, Hermann Tertsch, Witold Jan Waszczykowski, Charlie Weimers

NI

Fabio Massimo Castaldo, Márton Gyöngyösi

 

7

-

GUE/NGL

Stelios Kouloglou, Manu Pineda, Idoia Villanueva Ruiz, Mick Wallace

ID

Nicolas Bay, Thierry Mariani

NI

Kostas Papadakis

 

2

0

ID

Lars Patrick Berg, Harald Vilimsky

 

Explicación de los signos utilizados

+ : a favor

- : en contra

0 : abstenciones

 


 

 

OPINIÓN DE LA COMISIÓN DE MERCADO INTERIOR Y PROTECCIÓN DEL CONSUMIDOR (8.7.2020)

<CommissionInt>para la Comisión de Asuntos Jurídicos</CommissionInt>


<Titre>con recomendaciones destinadas a la Comisión sobre el marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Ponente de opinión (*): <Depute>Alexandra Geese </Depute>

(Iniciativa – artículo 47 del Reglamento interno)

 

(*) Comisión asociada – artículo 57 del Reglamento interno

 

 

 

 

 

SUGERENCIAS

La Comisión de Mercado Interior y Protección del Consumidor pide a la Comisión de Asuntos Jurídicos, competente para el fondo:

 que incorpore las siguientes sugerencias en la propuesta de Resolución que apruebe:

 

A. Considerando que la orientación ética, como los principios adoptados por el grupo de expertos de alto nivel sobre la inteligencia artificial, constituye un buen punto de partida, pero no basta para garantizar que las empresas actúen de manera justa y aseguren una protección eficaz de los consumidores;

 

Ámbito de aplicación

 

1. Subraya la importancia de un marco regulador de la Unión que se centre en los aspectos éticos de la inteligencia artificial (IA), la robótica y las tecnologías conexas y que se aplique en aquellos casos en que, dentro de esta, los consumidores sean usuarios o destinatarios de un sistema algorítmico o se les aplique uno o dirija hacia uno, independientemente del lugar en que estén establecidas las entidades que realicen, comercialicen o utilicen dicho sistema; estima además que, en aras de la seguridad jurídica, las normas establecidas deben aplicarse a todos los desarrolladores y a toda la cadena de valor, a saber, el desarrollo, el despliegue y el uso de las tecnologías pertinentes y sus componentes, y deben garantizar un alto nivel de protección de los consumidores; reitera la importancia de los valores de la Unión contemplados en los Tratados en relación con la importancia de la protección de los datos personales y del consentimiento explícito e informado, y propone que estas normas tengan en cuenta las lecciones extraídas de la aplicación del Reglamento (UE) n.º 2016/679[19] (RGPD), que se considera un valor de referencia mundial; considera que un representante legal establecido en la Unión, a quien puedan dirigirse las solicitudes, por ejemplo, para permitir la reparación a los consumidores, es importante para la aplicación de un futuro marco regulador de la Unión;

 

2. Señala que el marco regulador de la Unión debe ser de aplicación a los sistemas algorítmicos, en particular en los ámbitos de la IA, el internet de las cosas, el aprendizaje automático, los sistemas basados en reglas, los procesos automatizados y asistidos de toma de decisiones y la robótica; señala asimismo que podrían desarrollarse iconos normalizados para ayudar a explicar dichos sistemas a los consumidores cuando los sistemas se caractericen por su complejidad o estén habilitados para adoptar decisiones que repercutan de forma significativa en la vida de los consumidores;

 

3. Destaca que el marco regulador de la Unión debe tener un enfoque antropocéntrico y llevar al desarrollo de sistemas que incorporen valores éticos europeos a través del diseño; estima que un marco regulador de la Unión centrado en los valores de la Unión citados en los Tratados representaría un valor añadido que aportaría a Europa una ventaja competitiva única y contribuiría de forma significativa al bienestar y la prosperidad de los ciudadanos y las empresas de la Unión, e impulsaría asimismo el mercado interior; subraya que un marco ético de la IA también representa un valor añadido en lo que respecta a la promoción de la innovación en el mercado interior;

 

 

4. Señala que el marco legislativo establecido por la Decisión n.º 768/2008/EC[20] establece una lista armonizada de obligaciones para los productores, importadores y distribuidores, fomenta el uso de normas y prevé varios niveles de control en función de la peligrosidad del producto; considera que dicho marco también debe aplicarse a los productos integrados de la IA;

 

5. Hace hincapié en que, en el futuro, toda regulación ha de seguir un enfoque basado en la distinción de riesgos a fin de permitir el desarrollo y despliegue de sistemas seguros y fiables, con unos criterios e indicadores claros, seguidos de una evaluación jurídica imparcial, cuyo punto de partida sean los posibles daños o vulneraciones de los derechos de la persona de que se trate como para el conjunto de la sociedad tomando en consideración las circunstancias concretas en que se utiliza el sistema algorítmico; subraya que las obligaciones jurídicas y los requisitos de certificación deben aumentar de manera paulatina según sea mayor el nivel de riesgo establecido; destaca que, en el caso de las categorías de menor riesgo, no deben disponerse otras obligaciones jurídicas; observa que no deberá considerarse que pertenezcan a la categoría de menor riesgo aquellos sistemas algorítmicos que puedan provocar daño a una persona o causar vulneraciones potenciales de los derechos de un individuo, o afectar a su acceso a beneficios públicos; observa que las normas que se sigan en el enfoque basado en el riesgo han de ser claras y transparentes, garantizar una seguridad jurídica suficiente, así como su viabilidad futura; pide una aplicación uniforme del sistema de clasificación de riesgos y obligaciones jurídicas conexas, con el fin de garantizar la igualdad de condiciones entre los Estados miembros y evitar una fragmentación del mercado interior; subraya que la evaluación del riesgo de un sistema específico debe someterse a una reevaluación periódica;

 

6. Recuerda que la Comisión debe examinar el marco jurídico vigente de la Unión y su aplicación, incluido el acervo en materia de protección de los consumidores, la legislación en materia de responsabilidad por productos defectuosos, la legislación en materia de seguridad de los productos y la legislación en materia de vigilancia del mercado, con el fin de identificar las lagunas jurídicas, así como las obligaciones reglamentarias existentes; considera que esto es necesario para determinar si el actual marco jurídico de la Unión es capaz de responder a la aparición de la IA, la robótica y las tecnologías conexas y si es capaz de garantizar un elevado nivel de protección de los consumidores;

 

Gestión de datos

 

7. Subraya la importancia de un marco ético y regulador de la Unión que incluya, en particular, disposiciones que exijan datos de alta calidad para formar sistemas algorítmicos en relación con el propósito de su uso; destaca, a este respecto, la necesidad de garantizar la representatividad de los datos de formación utilizados y, en la medida de lo posible, la eliminación de sesgos en los conjuntos de datos, así como de las normas en materia de datos y agregación, con el fin de mejorar la producción de los sistemas algorítmicos y reforzar la confianza y la aceptación de los consumidores; destaca que estos conjuntos de datos deben ser auditados por las autoridades competentes siempre que se les solicite para asegurarse de su conformidad con los principios citados anteriormente;

 

Protección de los consumidores: transparencia y explicabilidad de los algoritmos

 

8. Subraya que la confianza de los consumidores es esencial para el desarrollo y la aplicación de la IA, la robótica y las tecnologías conexas que pueden conllevar riesgos inherentes cuando se basan en algoritmos opacos y conjuntos de datos sesgados; estima que los consumidores deben tener derecho a ser debidamente informados de manera comprensible, oportuna, normalizada, exacta y accesible de la existencia, el razonamiento, el posible resultado y las repercusiones de los sistemas algorítmicos para los consumidores, así como de la manera de contactar con un ser humano con poder de decisión y de cómo se pueden verificar, impugnar de manera útil y corregir las decisiones del sistema; recuerda que los seres humanos siempre deben poder anular las decisiones automatizadas; considera que los consumidores también deben estar protegidos por el derecho a desactivar o limitar un sistema de IA recurriendo, cuando sea posible, a su personalización; destaca la importancia de la proporcionalidad en el desarrollo de dicho marco de transparencia para evitar crear una carga innecesaria a las empresas emergentes y las pequeñas y medianas empresas (pymes) que operan en categorías de bajo riesgo;

 

9. Hace hincapié en la necesidad de abordar de manera eficaz los retos creados por los sistemas algorítmicos y garantizar que los consumidores están capacitados y adecuadamente protegidos; subraya la necesidad de mirar más allá de los principios tradicionales de la información y la divulgación sobre los que se ha basado el acervo en materia de protección de los consumidores, ya que serán necesarios unos derechos de los consumidores más reforzados y unas limitaciones claras en relación con el desarrollo y el uso de sistemas algorítmicos para garantizar que la tecnología contribuya a mejorar la vida de los consumidores y evolucione de un modo respetuoso con los derechos fundamentales y de los consumidores, así como con los valores europeos;

 

10. Considera que es muy necesario un enfoque y diseño basado en los valores a fin de crear las condiciones para una aceptación social generalizada de la IA por parte de los consumidores; estima que los valores éticos de la equidad, la exactitud, la confidencialidad y la transparencia deben ser la base de la IA, lo que en este contexto implica que las operaciones del sistema deben concebirse de tal manera que no generen resultados injustos y sesgados;

 

11. Recuerda la importancia de garantizar a los consumidores el acceso a un recurso efectivo y pide a los Estados miembros y a las autoridades encargadas de supervisar el funcionamiento del mercado nacional que velen por que se disponga de procedimientos accesibles, asequibles, independientes y eficaces y estructuras de revisión al objeto de garantizar la revisión humana e imparcial de todas las denuncias de vulneraciones de los derechos de los consumidores al recurrirse a sistemas algorítmicos, independientemente de si tienen su origen en agentes del sector público o del privado; insta a que se pongan a disposición mecanismos de resolución de litigios y de vías de recurso colectivo, en consonancia con la Directiva del Parlamento Europeo y del Consejo, relativa a las acciones de representación para la protección de los intereses colectivos de los consumidores y por la que se deroga la Directiva 2009/22/CE[21], para impugnar la introducción o la utilización continua de un sistema susceptible de vulnerar los derechos de los consumidores o para subsanar una violación de derechos; pide a la Comisión que vele por que las organizaciones de consumidores nacionales y europeas dispongan de financiación suficiente para ayudar a los consumidores a ejercer su derecho a la tutela judicial en los casos en que las decisiones basadas en aplicaciones de IA sean contrarias a los derechos de los consumidores;

 

12. Subraya que, cuando los fondos procedentes de fuentes públicas contribuyan significativamente a la creación o puesta en marcha de un sistema algorítmico, junto con normas abiertas de adquisición y contratación, el código, los datos generados (en tanto en cuanto no sean personales) y el modelo formado puedan ser públicos por defecto previo acuerdo con el desarrollador, a fin de garantizar la transparencia, mejorar la ciberseguridad y posibilitar su reutilización, a fin de fomentar la innovación; destaca que, de esta manera, se puede liberar todo el potencial del mercado único evitando la fragmentación del mercado;

 

Mercado interior: información al consumidor y conocimiento

 

13. Hace hincapié en la importancia de velar por que los intereses de todos los consumidores, incluidos los consumidores marginados o en una situación de vulnerabilidad, como las personas con discapacidades, sean debidamente tenidos en cuenta y estén incluidos en un futuro marco regulador de la Unión; señala que, a fin de estudiar las repercusiones de los sistemas algorítmicos sobre los consumidores, el acceso a los datos podría hacerse extensible a terceros pertinentes, en particular a investigadores independientes, medios de comunicación y organizaciones de la sociedad civil, cuando sea posible a través de una interfaz de programador de aplicaciones, respetando plenamente al mismo tiempo la legislación de la Unión en materia de protección de datos y privacidad así como la legislación en materia de secretos comerciales; recuerda lo importante que resulta que se eduque a los consumidores para que estén más informados y capacitados cuando interactúen con los sistemas algorítmicos al objeto de protegerlos de posibles riesgos y defender sus derechos; Considera que la IA, el internet de las cosas y otras tecnologías emergentes tienen un enorme potencial para ofrecer a los consumidores oportunidades para poder acceder a varios servicios que les faciliten la vida diaria en numerosos aspectos y posibiliten mejores productos y servicios, así como para beneficiar a los consumidores al fomentar una mejor vigilancia del mercado, siempre que se sigan aplicando todos los principios, condiciones (incluidas la transparencia y la auditabilidad) y los reglamentos aplicables;

 

14. Subraya la importancia que reviste conseguir un alto nivel de alfabetización digital general y formar profesionales altamente cualificados en este ámbito, así como garantizar el reconocimiento recíproco de estas formaciones en toda la Unión; hace hincapié en la necesidad de contar con diversos equipos de desarrolladores e ingenieros que trabajen conjuntamente con los principales agentes de la sociedad, a fin de evitar que los sesgos culturales y de género se incluyan involuntariamente en los algoritmos, sistemas y aplicaciones de la IA; apoya la creación de programas educativos y actividades de sensibilización pública en torno al impacto social, jurídico y ético de la inteligencia artificial;

 

15. Pide a la Comisión que promueva y financie el desarrollo de la IA centrada en el ser humano, la robótica y las tecnologías conexas que aborden los retos medioambientales y climáticos y que garanticen la igualdad de acceso y disfrute de los derechos fundamentales mediante el uso de incentivos fiscales, de contratación pública o de otro tipo;

 

16. Subraya que la IA y los sistemas algorítmicos deben ser conformes desde el punto de vista jurídico, sólidos, fiables y seguros en el diseño; pide a la Comisión que garantice que el enfoque regulador de la Unión para los sistemas algorítmicos incluya medidas apropiadas para posibilitar que estos sistemas sean objeto de un control y una supervisión independientes;

 

Vigilancia del mercado

 

17. Pide la creación de un centro europeo de conocimiento especializado que refuerce las capacidades de la Unión y se base en la medida de lo posible en estructuras existentes para fomentar el intercambio de información relativa a los sistemas algorítmicos entre las autoridades de los Estados miembros y apoye el desarrollo de un entendimiento común en el mercado único brindando directrices, dictámenes y conocimientos técnicos a las autoridades de los Estados miembros, supervisando la aplicación de la legislación pertinente de la Unión, abordando los posibles problemas de protección de los consumidores, definiendo normas de buenas prácticas y formulando, cuando proceda, recomendaciones sobre medidas reglamentarias; pide, además, que esta estructura reciba asesoramiento adecuado de las organizaciones de partes interesadas –como organizaciones de protección de los consumidores–, con el fin de garantizar una representación más amplia de los consumidores; considera que, habida cuenta del impacto desproporcionado de los sistemas algorítmicos en las mujeres y las minorías, los niveles decisorios de dicha estructura deben ser diversos y equilibrados desde el punto de vista del género; hace hincapié en que los Estados miembros deben elaborar estrategias armonizadas de gestión de riesgos para la inteligencia artificial en el contexto de sus estrategias nacionales de vigilancia del mercado;

 

18. Pide a la Comisión que proponga medidas de trazabilidad del tratamiento de los datos, teniendo en cuenta tanto la legalidad de la adquisición de los datos como la protección de los derechos de los consumidores y los derechos fundamentales; subraya, entretanto, que los conjuntos de datos, los algoritmos y los procesos utilizados en el desarrollo y despliegue de sistemas algorítmicos, incluidos los de recopilación de datos y etiquetado de datos, deben documentarse de acuerdo con la norma del sector; observa que es fundamental que las autoridades de vigilancia del mercado tengan pleno acceso tanto a la documentación sobre la evaluación del riesgo y a la documentación del programa informático como a los algoritmos y conjuntos de datos utilizados o producidos mediante inteligencia artificial, robótica y tecnologías conexas, y puedan contar con una explicación al respecto, respetándose en todo momento el Derecho de la Unión y los secretos comerciales; señala asimismo que dicha documentación debe ser almacenada por quienes participan en las diferentes fases del desarrollo de los sistemas algorítmicos; observa que deberían concederse a las autoridades de vigilancia del mercado más prerrogativas en tal sentido; considera que podría ser necesario examinar la legislación actual en materia de vigilancia del mercado para evitar su obsolescencia y garantizar que esta responda desde el punto de vista ético al surgimiento de la IA, la robótica y las tecnologías conexas;

 

19. Solicita que cada Estado miembro designe una autoridad nacional competente, suficientemente financiada, para que se encargue de vigilar la aplicación de las disposiciones relativas a los sistemas algorítmicos; destaca la necesidad de reforzar las autoridades nacionales de vigilancia del mercado en términos de capacidad, conocimientos y competencias en materia de IA, así como en lo que se refiere al conocimiento sobre los riesgos específicos de la IA;

 

20. Pide que, a fin de garantizar una supervisión eficaz y la igualdad de condiciones a escala europea y evitar la fragmentación del mercado interior, se establezca una importante coordinación de las autoridades de los Estados miembros y un consejo europeo de vigilancia del mercado relativo a los sistemas algorítmicos, compuesto por autoridades nacionales;

 

21. Reconoce los valiosos resultados del Grupo de expertos de alto nivel sobre inteligencia artificial, en particular el estudio «Directrices éticas para una inteligencia artificial fiable»; sugiere que dicho grupo, compuesto por representantes del mundo académico, la sociedad civil y la industria, así como de la Alianza Europea de la inteligencia artificial, pueda aportar conocimientos técnicos al consejo europeo de vigilancia del mercado relativo a los sistemas algorítmicos;

 

22. Señala que, en particular en los ámbitos «empresa a consumidor», los sistemas deben centrarse en el usuario y estar diseñados de manera que permitan a todo el mundo utilizar productos o servicios de inteligencia artificial, independientemente de su edad, género, habilidades o características; señala que la accesibilidad a esta tecnología para las personas con discapacidad reviste especial importancia; observa que los sistemas de inteligencia artificial no deben tener un enfoque único y deben tener en cuenta los principios de diseño universal dirigidos a la gama más amplia posible de usuarios, siguiendo las normas de accesibilidad pertinentes; hace hincapié en que esto permitirá a las personas tener un acceso equitativo y participar activamente en las actividades humanas existentes y emergentes mediadas por ordenador y en las tecnologías asistenciales.

 


INFORMACIÓN SOBRE LA APROBACIÓN EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

Fecha de aprobación

7.7.2020

 

 

 

Resultado de la votación final

+:

–:

0:

39

1

4

Miembros presentes en la votación final

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Suplentes presentes en la votación final

Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin


 

VOTACIÓN FINAL NOMINAL EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

39

+

PPE

S&D

RENEW

Verts/ALE

ECR

GUE/NGL

NI

Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, MariaManuel LeitãoMarques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

Andrus Ansip, VladMarius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie YonCourtin

David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kimvan Sparrentak

Adam Bielan, Carlo Fidanza, Eugen Jurzyca, Beata Mazurek

Kateřina Konečná, AnneSophie Pelletier

Marco Zullo

 

1

-

ID

Hynek Blaško

 

4

0

ID

Alessandra Basso, Markus Buchheit, Virginie Joron, JeanLin Lacapelle

 

Explicación de los signos utilizados:

+ : a favor

- : en contra

0 : abstenciones


 

 

OPINIÓN DE LA COMISIÓN DE TRANSPORTES Y TURISMO (16.7.2020)

<CommissionInt>para la Comisión de Asuntos Jurídicos</CommissionInt>


<Titre>con recomendaciones destinadas a la Comisión sobre el marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Ponente de opinión: <Depute>Valter Flego</Depute>

(*) Comisión asociada – artículo 57 del Reglamento interno

 

 

(Iniciativa – artículo 47 del Reglamento interno)

 

SUGERENCIAS

La Comisión de Transportes y Turismo pide a la Comisión de Asuntos Jurídicos, competente para el fondo, que incorpore las siguientes sugerencias en la propuesta de Resolución que apruebe:

A. Considerando que la inteligencia artificial (IA) es una forma de tecnología que reviste una importancia estratégica para el sector del transporte y que se espera que beneficie a los ciudadanos y a la sociedad mejorando la calidad de vida, dotando de mayor seguridad a todos los modos de transporte y creando nuevas oportunidades de empleo y modelos de negocio más sostenibles; que la IA tiene potencial para transformar la sociedad de manera significativa, especialmente si se extiende considerablemente su disponibilidad y accesibilidad;

B. Considerando que el pleno aprovechamiento de las posibilidades que ofrece la IA en el sector del transporte únicamente será posible si los usuarios son conscientes de las posibles ventajas y retos que entraña esta tecnología; que es necesario abordar esta cuestión en la educación y la formación, también en lo que respecta al fomento de la inclusión digital, así como llevar a cabo campañas de información a escala de la Unión en las que se presenten con exactitud todos los aspectos del desarrollo de la IA;

C. Considerando que el enfoque europeo en relación con la IA, la robótica y las tecnologías conexas debe atenerse a principios éticos, con objeto de garantizar que la IA, la robótica y las tecnologías conexas se centren en el ser humano, mejoren el bienestar humano, la seguridad, el bienestar de la sociedad y el medio ambiente, aborden los dilemas éticos correspondientes, respeten plenamente los derechos fundamentales, valores y principios de la Unión y sean plenamente coherentes con la legislación de la Unión en materia de privacidad y protección de datos; que este enfoque también deberá abordar las cuestiones relacionadas con la calidad de los conjuntos de datos utilizados en los sistemas algorítmicos, así como los algoritmos propiamente dichos, y las normas en materia de datos y agregación;

D. Considerando que una IA fiable debe basarse en cuatro principios éticos: el respeto de la autonomía humana, la prevención de daños, la equidad y la explicabilidad; que el respeto de estos principios éticos requiere que se adopten normas específicas para el sector del transporte de la Unión;

E. Considerando que el error humano aún está presente en alrededor del 95 % del total de los accidentes de tráfico en la Unión; que la Unión Europea tenía el objetivo de reducir las muertes en accidentes de carretera en la Unión en un 50 % para 2020 con respecto a 2010, pero, habida cuenta del estancamiento en la consecución de dicho objetivo, renovó sus esfuerzos en su Marco de la política de seguridad vial 2021-2030 - Próximos pasos hacia el objetivo «visión cero»; que, en este sentido, la IA, la automatización y otras nuevas tecnologías tienen un gran potencial y una importancia crucial de cara al aumento de la seguridad vial, al reducir las posibilidades de error humano;

F. Considerando que la IA, la automatización y otras nuevas tecnologías también pueden contribuir a reducir la congestión del tráfico y las emisiones de gases de efecto invernadero y de contaminantes atmosféricos;

G. Considerando que la producción de IA, robótica y tecnologías conexas responsables desde un punto de vista ético, centradas en el ser humano y tecnológicamente sólidas en el transporte brindan a las empresas de la Unión, incluidas las pymes, la oportunidad empresarial de convertirse en líderes mundiales en este ámbito;

H. Considerando que esas nuevas oportunidades empresariales pueden contribuir a la recuperación de la industria de la Unión tras la crisis sanitaria y económica actual, así como a una mayor utilización de la tecnología de IA en el sector del transporte; que esas oportunidades crearán nuevos puestos de trabajo, ya que la adopción de la IA y de las tecnologías conexas puede aumentar los niveles de productividad de las empresas y contribuir a mejorar la eficiencia; que los programas de innovación en este ámbito pueden permitir que prosperen las agrupaciones regionales;

I. Considerando que un enfoque europeo respecto al desarrollo de la IA, la robótica y las tecnologías conexas en el transporte podría incrementar la competitividad global y la autonomía estratégica de la economía de la Unión;

J. Considerando que, para sectores como el transporte público, los sistemas de IA para sistemas de transporte inteligentes pueden utilizarse para reducir al máximo las colas, optimizar las rutas, permitir que las personas con discapacidad tengan una mayor independencia y aumentar la eficiencia energética, mejorando así los esfuerzos de descarbonización y reduciendo la huella ambiental;

1. Destaca el potencial que presenta la utilización de la IA, la robótica y las tecnologías conexas para todos los medios autónomos de transporte por carretera, por ferrocarril, por vías navegables y vía aérea, así como para impulsar el cambio modal y la intermodalidad, dado que estas tecnologías pueden contribuir a hallar la combinación óptima de modos de transporte para el transporte de mercancías y pasajeros; destaca, además, su potencial para reforzar la eficiencia del transporte, la logística y los flujos de tráfico y para lograr que todos los modos de transporte sean más seguros, más inteligentes y más respetuosos con el medio ambiente; señala que un enfoque ético respecto de la IA también puede considerarse un sistema de alerta temprana, en particular en lo que se refiere a la seguridad y la eficiencia del transporte;

2. Subraya que la competencia mundial entre empresas y regiones económicas requiere que la Unión promueva las inversiones y fortalezca la competitividad internacional de las empresas que operan en el sector del transporte, creando un entorno favorable para el desarrollo y la aplicación de soluciones y otras innovaciones de IA, en el que las empresas de la Unión puedan convertirse en líderes mundiales del desarrollo de tecnologías de IA;

3. Insiste en que en el sector del transporte de la Unión se impone una actualización del marco regulador relativo a estas tecnologías emergentes y su uso en el sector del transporte, así como un marco ético claro para lograr una IA fiable, que incluya los aspectos de seguridad, protección, respeto de la autonomía humana, supervisión y responsabilidad, lo que incrementará los beneficios compartidos por todos y será fundamental para impulsar las inversiones en investigación e innovación, el desarrollo de capacidades y la adopción de la lA por parte de los servicios públicos, las pymes, las empresas emergentes y las demás empresas, velando al mismo tiempo por la protección de datos y la interoperabilidad, sin imponer una carga administrativa innecesaria a las empresas y los consumidores; subraya que es fundamental garantizar que toda actualización del marco regulador de estas tecnologías emergentes se base siempre en una necesidad real y se ajuste al principio de mejora de la legislación y, en este contexto,

a) pide a la Comisión que prevea un marco claro de principios éticos para el desarrollo, el despliegue y el uso de la IA, la robótica y las tecnologías conexas en el sector del transporte; considera que la IA, la robótica y las tecnologías conexas en el sector del transporte deben desarrollarse, desplegarse y usarse según esos principios éticos;

b) recomienda el establecimiento de unas directrices para una clasificación armonizada del riesgo de las tecnologías basadas en IA en todos los modos de transporte, que contemplen las funciones de los vehículos asignadas a los seres humanos y a la IA y que aclaren las responsabilidades y los requisitos en materia de seguridad;

c) pide a la Comisión que examine la posibilidad de utilizar la estructura europea existente de vigilancia del mercado para los sistemas algorítmicos, incluidas sus disposiciones conexas sobre protección de datos, proporcionando orientaciones, dictámenes y conocimientos especializados a las autoridades de los Estados miembros, también sobre interoperabilidad;

d) pide a la Comisión que establezca un sistema de clasificación de la IA para los sistemas de transporte inteligentes, en consonancia con las evaluaciones del Grupo de expertos de alto nivel, a fin de responder mejor a las nuevas necesidades del sector del transporte;

e) pide a la Comisión que preste especial atención a la situación de las pymes y que conciba la futura legislación de modo que mejore las oportunidades de estas empresas en lo que respecta al desarrollo y la utilización de la tecnología de IA;

f) estima necesario que se informe de manera detallada a los usuarios finales sobre el funcionamiento de los sistemas de transporte y los vehículos basados en la IA;

4. Destaca que el enfoque europeo respecto de la tecnología de IA debe asegurarse la confianza de las personas, estar al servicio del interés público y fortalecer la responsabilidad social compartida; considera que el desarrollo de una IA fiable, éticamente responsable y sólida desde el punto de vista tecnológico es un importante factor de apoyo a una movilidad sostenible e inteligente que sea segura y accesible; pide a la Comisión, a este respecto, que siga fomentando la adopción de la IA en el sector del transporte y que proponga, con el fin de garantizar el respeto de los derechos fundamentales de la Unión, los cambios pertinentes en la legislación de la Unión sin demora y en estrecha cooperación con todas las partes interesadas del sector del transporte;

5. Subraya que el desarrollo y despliegue de la IA permitirá contar con unos servicios de transporte seguros y accesibles;

6. Recomienda que se elaboren unas normas fiables en materia de IA a escala de la Unión para todos los modos de transporte, incluida la industria del automóvil, en lo relativo a seguridad, interoperabilidad, solidez técnica, reparabilidad y reciclabilidad de los soportes físicos pertinentes, también para afrontar las preocupaciones sobre el uso eficiente de los recursos, la privacidad, la protección de datos y la transparencia, y para probar los vehículos dotados de IA y los productos y servicios conexos;

7. Pide a la Comisión que mantenga una estrecha colaboración con los Estados miembros en lo que respecta a la concepción, la implantación y el control del cumplimiento de unas normas fiables en materia de IA en la Unión; señala que la Unión tiene potencial para convertirse en líder mundial en la promoción de un enfoque socialmente responsable de la tecnología de IA y de su uso;

8. Pide a la Comisión que estudie la posibilidad de encomendar a uno o varios de los organismos, instituciones u órganos pertinentes existentes a escala de la Unión los mecanismos de vigilancia, control del cumplimiento y sanción, y que examine la manera de equipar y utilizar los instrumentos existentes de supervisión y control en el sector del transporte para actuar, con el fin de garantizar la supervisión a escala de la Unión y permitir a la Comisión actuar si un sistema de IA utilizado en el transporte vulnera los derechos fundamentales o el marco europeo de ética y seguridad;

9. Pide a la Comisión que siga apoyando el desarrollo de sistemas de IA fiables para que el transporte sea más seguro, eficiente, accesible, asequible e inclusivo, también para las personas con movilidad reducida, en particular las personas con discapacidad, teniendo en cuenta la Directiva (UE) 2019/882 del Parlamento Europeo y del Consejo[22] y la legislación de la Unión sobre derechos de los pasajeros;

10. Destaca el gran valor añadido que aportan los vehículos autónomos a las personas con movilidad reducida, dado que estos vehículos les permiten participar de forma más efectiva en el transporte individual por carretera, facilitando así su vida cotidiana;

11. Destaca la importancia de la accesibilidad, especialmente al diseñar sistemas de movilidad como servicio (MaaS);

12. Subraya la importancia fundamental que reviste la ciencia de datos para diseñar unos sistemas de IA no discriminatorios y evitar el uso de datos deteriorados; recomienda, por otra parte, que se sigan procedimientos para el tratamiento de datos que sean conformes con el Reglamento general de protección de datos y respeten los principios de confidencialidad y no discriminación;

13. Señala que los sistemas de IA podrían contribuir a reducir de forma significativa el número de víctimas mortales de accidentes de carretera, por ejemplo, con la mejora de los tiempos de reacción y una mejor observancia de las normas; considera, no obstante, que la utilización de vehículos autónomos no permitirá eliminar todos los accidentes, y subraya que, en consecuencia, la explicabilidad de las decisiones de la IA es cada vez más importante para justificar las deficiencias y las consecuencias no deseadas de las decisiones de la IA;

14. Considera que siempre ha de ser posible explicar en términos no técnicos las decisiones de la IA, así como los datos pertinentes en los que estén basadas, a los usuarios finales y otras partes interesadas;

15. Señala que el desarrollo y la implantación de la IA en el sector del transporte resultará imposible sin una infraestructura moderna, que constituye un elemento fundamental de los sistemas de transporte inteligentes; hace hincapié en que, como consecuencia de las disparidades existentes en cuanto a nivel de desarrollo entre los distintos Estados miembros, existe el riesgo de que las regiones menos desarrolladas y sus habitantes queden privados de las ventajas derivadas del despliegue de la movilidad autónoma; pide que se evalúen adecuadamente los retos que conllevará para el futuro del mercado laboral el desarrollo de tecnologías de IA en el sector del transporte y que se financie adecuadamente la modernización de las infraestructuras de la Unión, incluida su integración en la red 5G.


INFORMACIÓN SOBRE LA APROBACIÓN
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

Fecha de aprobación

14.7.2020

 

 

 

Resultado de la votación final

+:

–:

0:

49

0

0

Miembros presentes en la votación final

Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski

Suplentes presentes en la votación final

Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti

 


VOTACIÓN FINAL NOMINAL
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

49

+

ECR Group

Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski

GUE/NGL Group

Leila Chaibi, Kateřina Konečná, Elena Kountoura

ID Group

Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo

NI

Dorien Rookmaker, Mario Furore,

PPE Group

Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian-Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Elżbieta Katarzyna Łukacijewska

Renew Group

José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan-Christoph Oetjen, Dominique Riquet

S&D Group

Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi

Verts/ALE Group

Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay-Grunenberg, Tilly Metz

 

0

-

 

 

 

0

0

 

 

 

Explicación de los signos utilizados

+ : a favor

- : en contra

0 : abstenciones

 


 

 

OPINIÓN DE LA COMISIÓN DE LIBERTADES CIVILES, JUSTICIA Y ASUNTOS DE INTERIOR (22.9.2020)

<CommissionInt>para la Comisión de Asuntos Jurídicos</CommissionInt>


<Titre>con recomendaciones destinadas a la Comisión sobre el marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Ponente de opinión (*): <Depute>Assita Kanko</Depute>

(*) Comisión asociada – artículo 57 del Reglamento interno

 

 

(Iniciativa – artículo 47 del Reglamento interno)

 

 

SUGERENCIAS

La Comisión de Libertades Civiles, Justicia y Asuntos de Interior pide a la Comisión de Asuntos Jurídicos, competente para el fondo, que incorpore las siguientes sugerencias en la propuesta de Resolución que apruebe:

 Vistos los artículos 2 y 3 del Tratado de la Unión Europea (TUE),

 Vistos los artículos 10, 19, 21 y 167 del Tratado de Funcionamiento de la Unión Europea (TFUE),

 Visto el derecho de petición consagrado en los artículos 20 y 227 del TFUE y en el artículo 44 de la Carta de los Derechos Fundamentales de la Unión Europea,

 Vistos los artículos 21 y 22 de la Carta de los Derechos Fundamentales de la Unión Europea,

 Visto el preámbulo del TUE,

 Vistos el Convenio Marco del Consejo de Europa para la Protección de las Minorías Nacionales, el Protocolo n.º 12 del Convenio para la protección de los derechos humanos y de las libertades fundamentales y la Carta Europea de las Lenguas Regionales o Minoritarias,

 Vista la Directiva 2000/43/CE del Consejo, de 29 de junio de 2000, relativa a la aplicación del principio de igualdad de trato de las personas independientemente de su origen racial o étnico[23] (Directiva sobre igualdad racial),

 Vista la Directiva 2000/78/CE del Consejo, de 27 de noviembre de 2000, relativa al establecimiento de un marco general para la igualdad de trato en el empleo y la ocupación[24] (Directiva sobre la igualdad de trato en el empleo),

 Vistos el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos)[25] (RGPD), y la Directiva (UE) 2016/680 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativa a la protección de las personas físicas en lo que respecta al tratamiento de datos personales por parte de las autoridades competentes para fines de prevención, investigación, detección o enjuiciamiento de infracciones penales o de ejecución de sanciones penales, y a la libre circulación de dichos datos y por la que se deroga la Decisión Marco 2008/977/JAI del Consejo[26],

 Vista la Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, de 11 de diciembre de 2019, titulada «El Pacto Verde Europeo»,

 Vista su Resolución, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica[27],

 Vista la Recomendación del Consejo de la OCDE sobre la inteligencia artificial, aprobada el 22 de mayo de 2019,

A. Considerando que los seres humanos son quienes desarrollan y diseñan la denominada «inteligencia artificial», la robótica y las tecnologías conexas, y que sus opciones determinan el potencial de la tecnología para beneficiar a la sociedad;

B. Considerando que la responsabilidad algorítmica debe implicar la aplicación de medidas técnicas y operativas que garanticen la transparencia, las cadenas de responsabilidad claramente asignadas y la no discriminación mediante la toma de decisiones automatizadas o el cálculo de probabilidades de comportamiento individual; que la transparencia debe facilitar a las personas información significativa sobre la lógica aplicada, la importancia y las consecuencias previstas; que debe incluir información sobre los datos utilizados para la formación de la IA y permitir a las personas comprender y controlar las decisiones que les afectan;

C.  Considerando que se percibe con notable inquietud que el actual marco jurídico de la Unión, incluido el acervo en materia de protección de los consumidores, la legislación sobre seguridad de los productos y vigilancia del mercado, así como la legislación contra la discriminación, no siempre sea adecuado para abordar eficazmente los riesgos creados por la inteligencia artificial, la robótica y las tecnologías conexas;

D. Considerando que la inteligencia artificial, la robótica y las tecnologías conexas pueden tener graves consecuencias para los bienes materiales e inmateriales de las personas, los grupos y la sociedad en su conjunto, y que estos daños individuales y colectivos deben reflejarse en las respuestas legislativas;

E. Considerando que las cuestiones de gobernanza asociadas al despliegue de la IA en el sector público deben considerarse debidamente en lo que atañe a sus implicaciones para la democracia, y en especial la legitimidad democrática, la rendición de cuentas, el compromiso público significativo y la supervisión;

F. Considerando que el análisis de datos y la IA tienen cada vez más repercusión en la información que se facilita a los ciudadanos; que dichas tecnologías, en caso de utilizarse indebidamente, podrían poner en peligro los derechos fundamentales a la información, así como la libertad y el pluralismo de los medios de comunicación;

G. Considerando que la orientación ética, como los principios adoptados por el grupo de expertos de alto nivel sobre la inteligencia artificial, constituye un buen punto de partida, pero no basta para garantizar que las empresas actúen de manera justa y aseguren la protección eficaz de las personas;

1. Subraya que los ciudadanos, los sectores público y privado, el mundo académico y la comunidad científica solo podrán aprovechar plenamente las perspectivas y oportunidades que brinda la inteligencia artificial (IA) si la confianza pública en esas tecnologías se garantiza mediante la estricta observancia de los derechos fundamentales y el cumplimiento de la legislación vigente de la Unión en materia de protección de datos, así como la seguridad jurídica en relación con todas las partes interesadas; pone de relieve que el tratamiento de los datos personales solo puede realizarse de conformidad con alguno de los fundamentos jurídicos recogidos en el artículo 6 del Reglamento (UE) n.º 2016/679; considera que la transparencia y la correcta información al público afectado son fundamentales para generar la confianza de la opinión pública y para la protección de los derechos individuales;

2. Hace hincapié en que el cumplimiento de la legislación vigente en materia de protección de datos, así como la existencia de unas normas científicas, éticas y legales estrictas, y de métodos para la supervisión democrática, son fundamentales para generar confianza en las soluciones basadas en la IA y para que estas sean fiables; subraya, asimismo, que la información revelada por la IA no ofrece una visión general imparcial de ninguna materia y que su fiabilidad depende de los datos subyacentes; resalta que los análisis predictivos basados en la IA únicamente pueden ofrecer una probabilidad estadística y que, por ello, no pueden predecir siempre con precisión la conducta individual; destaca, por tanto, que son fundamentales unas normas científicas, éticas y legales estrictas para gestionar la recopilación de datos y valorar los resultados de los análisis de la IA;

3. Opina que todo marco de principios éticos para el desarrollo, el despliegue y el uso de la IA, la robótica y las tecnologías conexas debe observar plenamente la Carta de los Derechos Fundamentales de la Unión Europea y, por tanto, perseguir el respeto de la dignidad humana, la autonomía y la autodeterminación de la persona, la prevención de daños, la promoción de la equidad, la inclusión y la transparencia, la eliminación de los sesgos y la discriminación, también contra grupos minoritarios, así como cumplir los principios de limitación de las externalidades negativas de la tecnología empleada y explicabilidad de las tecnologías, y garantizar que las tecnologías sirvan a las personas y no las reemplacen ni decidan por ellas, con el objetivo último de elevar el bienestar humano de todos;

4. Subraya la asimetría entre quienes emplean tecnologías de IA y quienes interactúan con ellas y se encuentran sujetos a estas; destaca, en este contexto, que la confianza de los ciudadanos en la IA solo puede basarse en un marco ético desde el diseño y por defecto, que garantice que toda IA puesta en funcionamiento respete plenamente la Carta de los Derechos Fundamentales de la Unión Europea, el Derecho de la Unión y los Tratados; considera que este marco debe ajustarse al principio de precaución que guía la legislación de la Unión y debe ocupar un lugar central en los marcos relativos a la IA; pide, en este sentido, un modelo de gobernanza claro y coherente que permita a las empresas y los innovadores avanzar en el desarrollo de la IA, la robótica y las tecnologías conexas;

5. Insta a la Unión Europea y a los Estados miembros a promover la sensibilización pública respecto a los riesgos y las oportunidades del uso de la IA como requisito ético;

6. Considera que el actual marco jurídico de la Unión, en particular en materia de protección de la intimidad y de los datos personales, deberá aplicarse plenamente a la IA, la robótica y las tecnologías conexas, y ser objeto de revisión y análisis de forma periódica, así como de actualización cuando sea necesario, a fin de abordar eficazmente los riesgos que plantean la IA, la robótica y las tecnologías conexas, y, en este sentido, podría ser beneficioso complementarlo con unos sólidos principios éticos rectores; señala que, en los casos en que resulte prematuro adoptar actos jurídicos, debe utilizarse un marco de Derecho indicativo;

7. Espera que la Comisión integre un sólido marco ético en la próxima propuesta legislativa como seguimiento del Libro Blanco sobre la inteligencia artificial, también en lo que atañe a la seguridad, la responsabilidad y los derechos fundamentales, que maximice las oportunidades y minimice los riesgos de las tecnologías de IA; espera que la próxima propuesta legislativa incluya soluciones políticas a los importantes riesgos reconocidos de la IA, incluidos, entre otros, los que atañen a la recopilación y el uso éticos de los macrodatos, la cuestión de la transparencia algorítmica y el sesgo algorítmico; pide a la Comisión que desarrolle criterios e indicadores para etiquetar la tecnología de IA con el fin de estimular la transparencia, la explicabilidad y la rendición de cuentas, e incentivar las precauciones adicionales por parte de los desarrolladores; destaca la necesidad de invertir en la integración de disciplinas no técnicas adaptadas al contexto social en el estudio y la investigación de la IA;

8. Recuerda que la IA, dependiendo de su desarrollo, uso y aplicación, puede crear y reforzar sesgos, también a través de sesgos inherentes a los conjuntos de datos subyacentes, y, por lo tanto, crea diversas formas de discriminación automatizada, incluida la discriminación indirecta, en particular en relación con grupos de personas con características similares; pide a la Comisión y a los Estados miembros que adopten todas las medidas posibles para evitar tales sesgos y para garantizar la plena protección de los derechos fundamentales;

9. Señala que el campo de la IA, la robótica y las tecnologías conexas es sorprendentemente homogéneo y carente de diversidad; reconoce la necesidad de garantizar que los equipos que diseñan, desarrollan, prueban, mantienen, despliegan y procuran estos sistemas reflejen la diversidad de sus usos y de la sociedad en general, con el fin de garantizar que el sesgo no «venga incorporado» inconscientemente en estas tecnologías;

10. Opina que una cooperación transfronteriza y unas normas éticas eficaces solo serán posibles si todas las partes interesadas se comprometen a garantizar la intervención y la supervisión humanas, la solidez y la seguridad técnicas, la transparencia y la rendición de cuentas, la diversidad, la no discriminación y la equidad, el bienestar social y medioambiental y el respeto de los principios establecidos de privacidad y gobernanza y protección de datos, específicamente aquellos consagrados en el Reglamento (UE) 2016/679 (RGPD);

11. Pide un enfoque basado en el riesgo y orientado al futuro para regular la IA, la robótica y las tecnologías conexas, con normas neutras desde un punto de vista tecnológico que se apliquen a todos los sectores y con normas sectoriales cuando proceda; cree firmemente que debe aplicarse un marco ético viable a escala de la Unión a todo aquel que pretenda desarrollar o utilizar aplicaciones de IA en la Unión, a fin de evitar la fragmentación; pide a la Unión que fomente una cooperación sólida y transparente y la puesta en común de conocimientos entre los sectores público y privado para establecer buenas prácticas e identificar aplicaciones de IA de alto riesgo;

12. Promueve la responsabilidad digital corporativa de forma voluntaria; señala que la Unión debe apoyar a las empresas que por elección utilicen las tecnologías digitales y la IA de forma ética en sus organizaciones; indica que la Unión debe alentar a las empresas a ser proactivas mediante el establecimiento de una plataforma para que compartan sus experiencias con la digitalización ética, así como la coordinación de las acciones y estrategias de las empresas participantes;

13. Subraya la importancia de la protección de las redes de IA y robótica interconectadas, por lo que deben adoptarse medidas sólidas para evitar las vulneraciones de la seguridad, las fugas y la intoxicación de datos, los ciberataques y los usos indebidos de los datos personales, lo que exigirá que las instituciones, órganos y organismos pertinentes, tanto a escala europea como nacional, trabajen juntos y en cooperación con los usuarios finales de estas tecnologías; pide a la Comisión y a los Estados miembros que velen por la observancia permanente de los valores europeos y el respeto de los derechos fundamentales a la hora de desarrollar e implantar tecnología de IA, a fin de garantizar la seguridad y la resiliencia de la infraestructura digital de la Unión;

14. Señala a este respecto las disposiciones establecidas en el Reglamento 2019/881 del Parlamento Europeo y del Consejo sobre la ENISA y la Ley de ciberseguridad, en particular el papel de la ENISA en la promoción de campañas de sensibilización y educación públicas dirigidas a los usuarios finales, incluidas las relativas a posibles amenazas cibernéticas y actividades delictivas en línea, y en el fomento de medidas esenciales de protección de datos; reconoce el valor añadido de esta agencia de la Unión a este respecto;

15. Enfatiza que el uso malintencionado de la IA puede suponer un riesgo para los valores de nuestras democracias y los derechos fundamentales de los ciudadanos de la Unión Europea; pide a la Comisión que proponga un marco que penalice a quienes, utilizando esta tecnología, distorsionen la percepción de la realidad a través de campañas de desinformación o a quienes provoquen ciberataques con el fin de vulnerar la ciberseguridad digital;

16. Señala que, en el ámbito de la aplicación de la ley y del control fronterizo, la IA, la robótica y las tecnologías conexas pueden aumentar la seguridad pública, pero también deben estar sometidas a un control público amplio y riguroso, así como al máximo nivel de transparencia posible, tanto en lo que se refiere a la evaluación del riesgo de las diversas aplicaciones como a una visión general del uso de la IA, la robótica y las tecnologías conexas en el ámbito de la aplicación de la ley y del control fronterizo; considera que estas tecnologías entrañan importantes riesgos éticos que deben abordarse adecuadamente, teniendo en cuenta los posibles efectos adversos para las personas por lo que respecta, en particular, a sus derechos a la intimidad, la protección de datos y la no discriminación; subraya que su uso indebido puede suponer una amenaza directa para la democracia y que su despliegue y uso deben respetar los principios de proporcionalidad y necesidad, la Carta de los Derechos Fundamentales y el Derecho derivado pertinente de la Unión, como sus normas de protección de datos; hace hincapié en que la IA nunca debe sustituir a los seres humanos en la emisión de sentencias; añade que decisiones como las relativas a la obtención de libertad bajo fianza o libertad condicional, la comparecencia ante un tribunal o decisiones basadas únicamente en el tratamiento automatizado, que produzcan efectos jurídicos o afecten de forma similar a las personas, siempre deben comportar la evaluación y el criterio significativos de un ser humano;

17. Advierte de que, debido al efecto intrusivo de las decisiones y medidas adoptadas por las autoridades encargadas de la aplicación de la ley (en particular mediante el tratamiento de datos y la IA) en la vida de los ciudadanos y en sus derechos, se requiere la máxima prudencia para evitar la discriminación ilícita y la selección de determinadas personas o grupos de personas, definidos en relación con la raza, el color, el origen étnico o social, las características genéticas, la lengua, la religión o creencia, las opiniones políticas o de otra índole, la propiedad, el nacimiento, la discapacidad, la edad, el género, la expresión o la identidad de género, la orientación sexual, la condición de residente, la salud o la pertenencia a una minoría nacional, que a menudo son objeto de elaboración de perfiles en función de la etnia o de una actuación policial más intensa, además de las personas que pueden definirse por características particulares; pide que se forme de manera adecuada a quienes recopilan los datos en primera línea y a los usuarios de las informaciones obtenidas de la IA;

18. Señala que la posibilidad que ofrecen estas tecnologías de utilizar datos personales y no personales para categorizar y microseleccionar a las personas, detectar las vulnerabilidades de estas o explorar conocimientos predictivos exactos debe ser compensada por la aplicación eficaz de principios de protección de los datos y de privacidad como los relativos a la minimización de los datos, el derecho a oponerse a la elaboración de perfiles y al control de los datos propios, el derecho a obtener una explicación de una decisión basada en el tratamiento automatizado y la protección de la intimidad desde el diseño, así como por los principios de proporcionalidad, necesidad y limitación sobre la base de la finalidad rigurosamente identificada; señala que, aunque ciertos modelos de actuación policial predictiva son más respetuosos con la privacidad que otros, como cuando se realizan predicciones probabilísticas respecto a lugares o acontecimientos, y no sobre personas concretas, los sistemas de actuación policial predictiva han demostrado que contribuyen a la actuación policial excesiva sobre la base de sesgos existentes, como la elaboración de perfiles raciales, o de los antecedentes de inmigrantes o miembros de la clase trabajadora, aun cuando estos no se correspondan con los niveles de delincuencia reales;

19. Subraya que los ciudadanos tienen derecho a confiar en la tecnología que utilizan y en la tecnología utilizada por otros; destaca que la IA y la robótica no son inmunes a los errores, por lo que hace hincapié en la importancia del derecho a una explicación cuando las personas están sujetas a decisiones algorítmicas, así como en la necesidad de que los algoritmos sean transparentes, ya que la transparencia en relación con la lógica subyacente de un algoritmo es muy importante para las personas afectadas, a fin de proteger plenamente sus derechos fundamentales; considera necesario que los legisladores reflexionen sobre la compleja cuestión de la responsabilidad y que la responsabilidad asociada a todas las aplicaciones de IA debe recaer siempre en una persona, ya sea física o jurídica;

20. Subraya que la IA, la robótica y las tecnologías conexas son tecnologías globales y que estas normas deben adoptarse en todo el mundo para garantizar que su desarrollo futuro se ajuste a los valores y normas éticas de Europa; insta a la Comisión a participar en la diplomacia sobre la IA en los foros internacionales con socios con planteamientos similares como los Estados Unidos, el G7, el G20 y la OCDE, con el fin de establecer normas y directrices éticas comunes para el desarrollo de la IA, la robótica y las tecnologías conexas;

21 Hace hincapié en la necesidad de introducir un marco claro respecto al uso de la IA por las plataformas de redes sociales, así como unos requisitos de transparencia para los algoritmos utilizados y su calibración, con el fin de evitar la eliminación excesiva de contenidos y cualquier forma de filtrado o censura de internet;

22 Observa que la IA puede utilizarse para manipular características faciales y audiovisuales, lo que suele denominarse falsedades profundas o deep fakes; recuerda que esta técnica puede utilizarse para manipular elecciones, difundir desinformación y realizar otras acciones no deseables; pide, por tanto, a la Comisión que utilice su marco ético para imponer la obligación, respecto a todo material de falsedad profunda o deep fake o cualquier otro vídeo sintético realizado de manera realista, de declarar que no es original e introducir una limitación estricta cuando se utilice con fines electorales;

23. Sugiere la creación de un centro de conocimiento especializado que reúna a expertos del ámbito académico, de la investigación, de la empresa y de otros ámbitos a título individual a escala de la Unión, como parte integrante de dicha Agencia o asociada a esta, con el fin de fomentar el intercambio de conocimientos y competencias técnicas y de facilitar la colaboración en toda la Unión y fuera de ella;

24. Recuerda la importancia de la diversidad lingüística y cultural; pide, por tanto, a la Comisión que utilice su marco ético para no permitir que la IA reduzca esta diversidad, sino que se mantenga un acceso abierto a una amplia variedad de contenidos que no representen excesivamente a una única lengua o modelo cultural, y que condene toda utilización de algoritmos que limiten esta diversidad y solo ofrezcan contenidos que se correspondan con determinados patrones ya existentes o que puedan actuar como una «cámara de resonancia» que evite el acceso a una mayor diversidad;

25. Recomienda a la Comisión que demuestre que ha revisado, evaluado y ajustado claramente su plan coordinado en materia de IA con el fin de abordar las graves consecuencias para los derechos fundamentales de la IA, y que esboce cómo se mitigarán tales riesgos en el enfoque legislativo de la Unión y en la aplicación de las estrategias nacionales de los Estados miembros.

 

INFORMACIÓN SOBRE LA APROBACIÓN
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

Fecha de aprobación

22.9.2020

 

 

 

Resultado de la votación final

+:

–:

0:

55

5

7

Miembros presentes en la votación final

Magdalena Adamowicz, Malik Azmani, Katarina Barley, Pernando Barrena Arza, Pietro Bartolo, Nicolas Bay, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Patrick Breyer, Saskia Bricmont, Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Damien Carême, Anna Júlia Donáth, Lena Düpont, Cornelia Ernst, Laura Ferrara, Nicolaus Fest, Jean-Paul Garraud, Maria Grapini, Sylvie Guillaume, Andrzej Halicki, Balázs Hidvéghi, Evin Incir, Sophia in ‘t Veld, Patryk Jaki, Lívia Járóka, Marina Kaljurand, Assita Kanko, Fabienne Keller, Peter Kofod, Moritz Körner, Alice Kuhnke, Jeroen Lenaers, Juan Fernando López Aguilar, Nuno Melo, Roberta Metsola, Nadine Morano, Javier Moreno Sánchez, Maite Pagazaurtundúa, Nicola Procaccini, Paulo Rangel, Diana Riba i Giner, Ralf Seekatz, Michal Šimečka, Birgit Sippel, Sylwia Spurek, Tineke Strik, Ramona Strugariu, Annalisa Tardino, Tomas Tobé, Dragoş Tudorache, Milan Uhrík, Tom Vandendriessche, Bettina Vollath, Jadwiga Wiśniewska, Elena Yoncheva

Suplentes presentes en la votación final

Delara Burkhardt, Gwendoline Delbos-Corfield, Kostas Papadakis, Kris Peeters, Anne-Sophie Pelletier, Sira Rego, Rob Rooken, Paul Tang, Tomáš Zdechovský

Suplentes (art. 209, apdo. 7) presentes en la votación final

Isabel Benjumea Benjumea

 


 

VOTACIÓN FINAL NOMINAL
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

55

+

EPP

Magdalena Adamowicz, Isabel Benjumea Benjumea, Vladimír Bilčík, Vasile Blaga, Ioan‑Rareş Bogdan, Lena Düpont, Andrzej Halicki, Balázs Hidvéghi, Lívia Járóka, Jeroen Lenaers, Nuno Melo, Roberta Metsola, Nadine Morano, Kris Peeters, Paulo Rangel, Ralf Seekatz, Tomas Tobé, Tomáš Zdechovský

S&D

Katarina Barley, Pietro Bartolo, Delara Burkhardt, Maria Grapini, Sylvie Guillaume, Evin Incir, Marina Kaljurand, Juan Fernando López Aguilar, Javier Moreno Sánchez, Birgit Sippel, Sylwia Spurek, Paul Tang, Bettina Vollath, Elena Yoncheva

Renew

Malik Azmani, Anna Júlia Donáth, Sophia In 'T Veld, Fabienne Keller, Moritz Körner, Maite Pagazaurtundúa, Michal Šimečka, Ramona Strugariu, Dragoş Tudorache

ID

Peter Kofod

Verts/ALE

Patrick Breyer, Saskia Bricmont, Damien Carême, Gwendoline Delbos-Corfield, Alice Kuhnke, Diana Riba I Giner, Tineke Strik

ECR

Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Assita Kanko, Nicola Procaccini, Jadwiga Wiśniewska

NI

Laura Ferrara

 

5

-

GUE/NGL

Pernando Barrena Arza, Cornelia Ernst, Anne-Sophie Pelletier, Sira Rego

NI

Kostas Papadakis

 

7

0

ID

Nicolas Bay, Nicolaus Fest, Jean-Paul Garraud, Annalisa Tardino, Tom Vandendriessche

ECR

Rob Rooken

NI

Milan Uhrík

 

Explicación de los signos utilizados

+ : a favor

- : en contra

0 : abstenciones

 


 

 

OPINIÓN DE LA COMISIÓN DE EMPLEO Y ASUNTOS SOCIALES (7.9.2020)

<CommissionInt>para la Comisión de Asuntos Jurídicos</CommissionInt>


<Titre>con recomendaciones destinadas a la Comisión sobre el marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Ponente de opinión: <Depute>Lina Gálvez Muñoz</Depute>

(Iniciativa – artículo 47 del Reglamento interno)

 

 

 

SUGERENCIAS

La Comisión de Empleo y Asuntos Sociales pide a la Comisión de Asuntos Jurídicos, competente para el fondo, que incorpore las siguientes sugerencias en la propuesta de Resolución que apruebe:

A. Considerando que la aplicación de la inteligencia artificial (IA), la robótica y las tecnologías conexas en la vida cotidiana y en el trabajo aumenta constantemente, por lo que está transformando significativamente las actuales estructuras socioeconómicas; que la IA debe beneficiar a los ciudadanos y a la sociedad mejorando la calidad de vida, creando nuevas oportunidades de empleo y aumentando la competitividad de la Unión; que la IA es una parte esencial de la economía digital y puede llegar a fomentar la prosperidad y facilitar la transición a una economía sostenible, si se aprovecha bien;

B. Considerando que el término IA se aplica a los sistemas que manifiestan un comportamiento inteligente, pues son capaces de analizar su entorno y pasar a la acción —con cierto grado de autonomía— a fin de alcanzar objetivos específicos; que los sistemas basados en la IA pueden consistir simplemente en programas informáticos, que actúen en el mundo virtual (por ejemplo, en forma de asistentes de voz, programas de análisis de imágenes, motores de búsqueda o sistemas de reconocimiento facial y de voz), o pueden estar incorporados en dispositivos de hardware (por ejemplo, en forma de robots avanzados, automóviles autónomos, drones o aplicaciones del internet de las cosas);[28]

C. Considerando que la IA constituye una prioridad estratégica, cuyo potencial solo se podrá aprovechar plenamente si los usuarios y los consumidores son conscientes de las posibles ventajas y retos que entraña; que las empresas, así como los trabajadores y sus representantes, no suelen conocer ni las aplicaciones de IA ni las funciones o datos subyacentes; que existen casos de aplicaciones de IA que vulneran las normas vigentes, como por ejemplo en materia de protección de datos;

D. Considerando que la IA puede llegar a ofrecer beneficios económicos y sociales, así como nuevas oportunidades para las empresas y los trabajadores, al tiempo que plantea una serie de retos éticos, jurídicos y relacionados con el empleo; que la aplicación de la IA en el lugar de trabajo puede contribuir a unos mercados laborales inclusivos y repercutir en la salud y seguridad en el trabajo, mientras que también puede utilizarse para supervisar, evaluar, predecir y orientar el rendimiento de los trabajadores con consecuencias directas e indirectas para sus carreras profesionales; que la IA debe tener un impacto positivo en las condiciones de trabajo y guiarse por el respeto de los derechos humanos, así como de los derechos fundamentales y los valores de la Unión; que la IA debe estar centrada en el ser humano, mejorar el bienestar de las personas y de la sociedad, y contribuir a una transición equitativa y justa;

E. Considerando que la IA tiene un impacto notable en el mercado laboral[29]; que puede llegar a sustituir a trabajadores que realizan actividades repetitivas, facilitar sistemas de trabajo colaborativo entre las personas y las máquinas, aumentar la competitividad y la prosperidad, y crear nuevas oportunidades de empleo para los trabajadores cualificados; que el panorama del empleo está evolucionando con rapidez y se calcula que el 65 % de los niños de hoy previsiblemente ocuparán empleos completamente nuevos, por lo que son necesarios el reciclaje profesional y la mejora de las capacidades, en particular en lo que respecta a las capacidades digitales, a fin de garantizar que nadie quede rezagado y que haya una oferta suficiente de mano de obra especializada[30];

F. Considerando que, según el Cedefop, el 43 % de los trabajadores adultos de la Unión ha estado en contacto con nuevas tecnologías en el trabajo; que aproximadamente siete de cada diez trabajadores de la Unión necesitan competencias digitales, como mínimo de nivel medio, para realizar su trabajo[31]; que, por término medio, alrededor de una cuarta parte de los ciudadanos de la Unión carecen o tienen un bajo nivel de competencias digitales; que la brecha digital presenta aspectos específicos relacionados con la sociedad, la economía, el género, la edad, la geografía y la accesibilidad, lo que constituye una problemática que debe abordarse; que el 42 % de los trabajadores de empresas que aplican la IA en sus procesos empresariales creen que estas actividades generan problemas éticos que es menester abordar; que el 28 % de los empleadores creen que la aplicación de la IA no se ha desarrollado a plena escala debido a la falta de normas éticas al respecto[32];

G. Considerando que la pandemia de COVID-19 ha puesto de manifiesto la importancia de las soluciones digitales, incluido el teletrabajo, así como sus implicaciones técnicas y sociales; que no existen disposiciones comunes a escala de la Unión en lo que respecta a la aplicación de la IA en el lugar de trabajo, lo que podría provocar distorsiones en el mercado y desventajas competitivas; que la IA debe estar sujeta a un marco normativo adecuado;

H. Considerando que la OCDE ha elaborado una serie de recomendaciones sobre la IA[33];

I. Considerando que en lo relativo a la IA el Consejo de la Unión Europea incentiva la promoción de un enfoque ético y centrado en el ser humano[34];

J. Considerando que los interlocutores sociales a escala de la Unión han celebrado un acuerdo marco sobre digitalización que incluye, entre otras cosas, un capítulo sobre «Inteligencia artificial y garantía del principio del ser humano al mando»[35];

K. Considerando que algunos Estados miembros ya han creado organismos especiales para supervisar y evaluar la influencia de la IA en el lugar de trabajo;

L. Considerando que los esfuerzos por abordar el sesgo y la desigualdad de género en el sector digital son insuficientes; que la brecha de género persiste en todos los ámbitos de la tecnología digital y en particular en lo relativo a la IA, consolidando de este modo una orientación masculina en el sector digital en el futuro inmediato;

1. Destaca la necesidad de evaluar minuciosamente las oportunidades y los retos que presentan las aplicaciones de IA en las empresas privadas y públicas, así como en la administración pública, en relación con los puestos de trabajo y los trabajadores, incluida su repercusión en el equilibrio entre vida privada y vida laboral, la organización del trabajo y los flujos de trabajo; considera indispensable que no se eluda el diálogo social, que se consulte a los trabajadores y a sus representantes, y que estos reciban información suficiente desde el inicio del proceso de toma de decisiones; subraya que el despliegue de la IA debe ser transparente y que los sistemas de IA en el lugar de trabajo deben respetar la intimidad y la dignidad de los trabajadores;

2. Señala la conveniencia de realizar una evaluación de riesgos exhaustiva antes del desarrollo, despliegue y aplicación de sistemas de IA, para valorar su impacto sobre los derechos fundamentales y las condiciones laborales, inclusive en términos de salud y seguridad en el trabajo, así como sus consecuencias sociales; considera que las evaluaciones deben cubrir los riesgos relacionados con las decisiones humanas y la discriminación social, así como los riesgos laborales resultantes;

3. Señala que las soluciones de IA disponen de potencial para mejorar las condiciones laborales y la calidad de vida, incluido un mejor equilibrio entre la vida laboral y la vida privada y una mejor accesibilidad para las personas con discapacidad, predecir el desarrollo del mercado laboral y apoyar la gestión de los recursos humanos en la prevención de sesgos humanos, pero también pueden plantear problemas en lo que respecta a la privacidad y la salud y la seguridad en el trabajo, como el derecho a desconectar, y conducir a una vigilancia y a un seguimiento desproporcionados e ilegales de los trabajadores, lo que puede vulnerar su dignidad y privacidad, así como dar lugar a un trato discriminatorio, en particular en los procesos de contratación, debido a algoritmos sesgados, también por lo que respecta al género, la raza y la etnia[36], y a algoritmos en detrimento de grupos vulnerables; expresa su preocupación, asimismo, por el riesgo de que la IA pueda socavar la libertad y la autonomía de las personas y contribuir a los problemas de salud mental de los trabajadores, como el agotamiento profesional, el «estrés tecnológico», la sobrecarga psicológica y la fatiga; subraya que las soluciones de IA en el lugar de trabajo deben ser transparentes y justas y evitar cualquier repercusión negativa para los trabajadores;

4. Subraya que las autoridades competentes deben tener acceso a toda la información relativa a los datos utilizados para formación, modelos estadísticos y principios teóricos relacionados con las soluciones de IA, así como a la validez empírica de sus resultados;

5. Considera que la IA puede ayudar a utilizar mejor las capacidades y competencias de las personas con discapacidad y que la aplicación de la IA en el lugar de trabajo puede contribuir a unos mercados laborales inclusivos y a unas tasas de empleo más elevadas para las personas con discapacidad;

6. Subraya que las nuevas posibilidades tecnológicas, como la IA, y la apreciación de la eficiencia del trabajo no deben conducir a una desigualdad por lo que respecta a las capacidades potenciadas por la tecnología, ni a un futuro digital deshumanizado; subraya que la ética de la innovación debe seguir un enfoque humanista;

7. Considera que los usuarios, incluidos los trabajadores, y los consumidores han de ser informados en caso de que un sistema utilice la IA, en particular con respecto a productos o servicios personalizados, y han de recibir información significativa, de forma fácilmente comprensible y accesible, sobre todos los aspectos éticos de las aplicaciones de IA que les conciernan, a fin de tomar decisiones con conocimiento de causa; destaca la importancia de comprender cómo los algoritmos procesan y valoran los datos y cómo se puede limitar o detener este proceso; subraya la necesidad de desarrollar competencias a través de la formación y la educación de los trabajadores y sus representantes en relación con la IA en el lugar de trabajo, a fin de comprender mejor las repercusiones de las soluciones de IA;

8. Destaca que los candidatos y los trabajadores deben ser debidamente informados por escrito cuando se utilice la IA durante un proceso de selección de personal y en el marco de otras decisiones de recursos humanos, y que debe indicárseles la manera de solicitar en este caso una revisión humana a fin de revocar una decisión automatizada;

9. Hace hincapié en la necesidad de garantizar que los aumentos de productividad debidos al desarrollo y la utilización de la IA y la robótica no solo beneficien a los propietarios y accionistas de las empresas, sino también a las empresas y a la mano de obra, gracias a unas mejores condiciones de trabajo y empleo, incluidos el salario, el crecimiento económico y el desarrollo, así como a la sociedad en su conjunto, especialmente cuando estas ganancias se produzcan a expensas de los puestos de trabajo; pide a los Estados miembros que estudien detenidamente el posible impacto de la IA en el mercado laboral y los sistemas de seguridad social, y que desarrollen estrategias para garantizar la estabilidad a largo plazo mediante la reforma de los impuestos y las cotizaciones, así como con otras medidas en caso de menores ingresos públicos;

10. Subraya la importancia de la inversión empresarial en la formación formal e informal y en el aprendizaje permanente, a fin de apoyar una transición justa hacia la economía digital; destaca, en este contexto, que las empresas que despliegan IA tienen la responsabilidad de garantizar un reciclaje profesional y una mejora de las capacidades adecuados a todos los empleados afectados, a fin de que aprendan a utilizar herramientas digitales y a trabajar con robots colaborativos y otras nuevas tecnologías, adaptándose así a las necesidades cambiantes del mercado laboral y conservando el empleo;

11. Pide que se aplique el principio de precaución en lo relativo a las nuevas tecnologías basadas en la IA; resalta el principio fundamental de que el ser humano siempre debe controlar las máquinas y la IA, y que las decisiones de la IA deben ser responsables y discutibles, así como reversibles, en su caso; hace hincapié en que deben respetarse las normas de seguridad relativas a la IA y destaca la importancia de llevar a cabo comprobaciones y controles periódicos a este respecto para evitar resultados erróneos por parte de la IA; recuerda que, por lo que respecta al uso de la IA, es necesario definir claramente el concepto de responsabilidad tanto en caso de accidente laboral como de daños a terceros;

12. Subraya que la IA debe estar centrada en el ser humano, ser transparente y segura, y respetar los derechos fundamentales y las disposiciones legales y reglamentarias aplicables, incluido el Reglamento general de protección de datos (RGPD), a lo largo de todo el ciclo de vida del sistema, especialmente cuando se implemente en el lugar de trabajo; pide el desarrollo de un sistema de certificación sólido, basado en procedimientos de prueba y guiado por el principio de precaución, que permita a las empresas demostrar que sus productos de IA cumplen los derechos fundamentales y las normas de la Unión;

13. Recuerda que el acervo social y de empleo de la Unión se aplica plenamente a la IA y pide a la Comisión y a los Estados miembros que garanticen una aplicación adecuada y aborden cualquier posible laguna legislativa; observa que la Unión puede convertirse en líder mundial por lo que respecta a la promoción de un uso socialmente responsable de la IA;

14. Destaca la importancia de un enfoque europeo común de los aspectos éticos de la IA; subraya que todo marco normativo a este respecto debe ser adecuado y basarse en una evaluación de impacto exhaustiva para evitar obstaculizar la innovación y la creación de empleo en el futuro; pide, en este contexto, un marco normativo europeo relativo a los aspectos éticos de la IA que sea proporcionado y preste especial atención al mundo del trabajo, incluidos los derechos de los trabajadores y las condiciones laborales; considera que deben tenerse en cuenta particularmente las nuevas formas de trabajo, como el trabajo en plataformas digitales o esporádico, resultantes de la aplicación de las nuevas tecnologías en este contexto; considera que un marco legislativo que tenga por objeto regular las condiciones de teletrabajo en toda la Unión y garantizar unas condiciones de trabajo y empleo dignas en la economía digital también debe tener en cuenta el impacto de la IA; pide a la Comisión que consulte a los interlocutores sociales, los desarrolladores de IA, los investigadores y otras partes interesadas a este respecto;

15. Subraya que la IA, así como cualquier acto legislativo relacionado, no debe afectar en modo alguno al ejercicio de los derechos fundamentales reconocidos en los Estados miembros y a escala de la Unión, incluido el derecho o la libertad de huelga o de emprender otras acciones contempladas por los sistemas de relaciones laborales específicos de los Estados miembros, de conformidad con la legislación o las prácticas nacionales, ni afectar al derecho a negociar, celebrar y aplicar convenios colectivos, o a emprender acciones colectivas de acuerdo con la legislación o las prácticas nacionales;

16. Subraya que debe prestarse especial atención a los datos recogidos en el lugar de trabajo con la ayuda de la IA, en particular si se utilizan para tomar decisiones sobre recursos humanos; pide a los interlocutores sociales en la esfera empresarial que analicen y supervisen conjuntamente el despliegue de la IA; pide a la Comisión y a los interlocutores sociales que analicen la necesidad de disposiciones especiales en materia de protección de datos en el lugar de trabajo en el marco de la IA; destaca que los trabajadores son propietarios de sus datos, incluso una vez finalizada la relación laboral;

17. Destaca que la nueva Agenda de Capacidades para Europa debe abordar los retos de la adaptación y la adquisición de cualificaciones y conocimientos, en vista de la transición ecológica y digital, incluidos los aspectos éticos de la IA; subraya la necesidad de que los aspectos éticos de la IA y el desarrollo de capacidades con fines éticos formen parte integrante de todos los programas educativos y de formación dirigidos a los desarrolladores y a las personas que trabajen con la IA; recuerda que los desarrolladores, programadores, responsables de la toma de decisiones y empresas que trabajan con IA deben ser conscientes de su responsabilidad ética; considera igualmente importante garantizar que se facilite información completa al respecto a los usuarios finales y a los consumidores, así como que se produzcan intercambios regulares a este respecto entre todas las partes interesadas pertinentes;

18. Reitera la importancia de la educación y el aprendizaje continuo para desarrollar las cualificaciones necesarias en la era digital y luchar contra la exclusión digital; pide a los Estados miembros que inviertan en sistemas de educación, formación profesional y aprendizaje permanente de alta calidad, adaptables e inclusivos, así como en políticas de reciclaje profesional y de mejora de las capacidades para los trabajadores de sectores que puedan verse gravemente afectados por la IA; destaca la necesidad de dotar a la mano de obra actual y futura de las capacidades necesarias en lectura, escritura, cálculo y competencias digitales, así como de competencias en ciencias, tecnología, ingeniería y matemáticas (CTIM) y de competencias interpersonales transversales, como el pensamiento crítico, la creatividad y el emprendimiento; subraya que, en este contexto, debe prestarse especial atención a la inclusión de los grupos desfavorecidos;

19. Subraya que la IA no debe reforzar las desigualdades y los estereotipos de género transformando por medio de algoritmos los sesgos y prejuicios analógicos en digitales;

20. Destaca la necesidad de garantizar que las personas procedentes de orígenes y entornos diversos, incluidas las mujeres, los jóvenes, las personas de color y las personas con discapacidad, sean incluidas en el desarrollo, despliegue y uso de la IA; recuerda que las tecnologías basadas en la IA en el lugar de trabajo deben ser accesibles para todos, sobre la base del principio de «diseño para todos»;

21. Señala que el acceso a las soluciones de IA está estrechamente vinculado al acceso a internet de alta velocidad, por lo que la cobertura de banda ancha debe ser una prioridad para evitar la discriminación y la desigualdad en el acceso a estas tecnologías;

22. Señala que las oportunidades que ofrecen las soluciones de IA dependen de los macrodatos y que se necesita una masa crítica de datos para entrenar los algoritmos y refinar los resultados; acoge con satisfacción, a este respecto, la propuesta de la Comisión de crear un espacio común de datos en la Unión para reforzar el intercambio de datos y apoyar la investigación respetando plenamente la normativa europea de protección de datos.

INFORMACIÓN SOBRE LA APROBACIÓN
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

Fecha de aprobación

7.9.2020

 

 

 

Resultado de la votación final

+:

–:

0:

46

6

1

Miembros presentes en la votación final

Atidzhe Alieva-Veli, Abir Al-Sahlani, Marc Angel, Dominique Bilde, Gabriele Bischoff, Vilija Blinkevičiūtė, Andrea Bocskor, Milan Brglez, Sylvie Brunet, David Casa, Leila Chaibi, Margarita de la Pisa Carrión, Özlem Demirel, Klára Dobrev, Jarosław Duda, Estrella Durá Ferrandis, Lucia Ďuriš Nicholsonová, Rosa Estaràs Ferragut, Nicolaus Fest, Loucas Fourlas, Cindy Franssen, Heléne Fritzon, Elisabetta Gualmini, France Jamet, Agnes Jongerius, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Katrin Langensiepen, Miriam Lexmann, Elena Lizzi, Radka Maxová, Kira Marie Peter-Hansen, Dragoș Pîslaru, Manuel Pizarro, Dennis Radtke, Elżbieta Rafalska, Guido Reil, Daniela Rondinelli, Mounir Satouri, Monica Semedo, Beata Szydło, Eugen Tomac, Romana Tomc, Yana Toom, Marie-Pierre Vedrenne, Nikolaj Villumsen, Marianne Vind, Maria Walsh, Stefania Zambelli, Tomáš Zdechovský

Suplentes presentes en la votación final

Lina Gálvez Muñoz, Eugenia Rodríguez Palop

 


 

VOTACIÓN FINAL NOMINAL
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

46

+

ECR

Lucia Ďuriš Nicholsonová, Elżbieta Rafalska, Beata Szydło, Margarita de la Pisa Carrión

GUE/NGL

Leila Chaibi, Özlem Demirel, Eugenia Rodríguez Palop, Nikolaj Villumsen

NI

Daniela Rondinelli

PPE

Andrea Bocskor, David Casa, Jarosław Duda, Rosa Estaràs Ferragut, Loucas Fourlas, Cindy Franssen, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Miriam Lexmann, Dennis Radtke, Eugen Tomac, Romana Tomc, Maria Walsh, Tomáš Zdechovský

Renew

Abir Al‑Sahlani, Atidzhe Alieva‑Veli, Sylvie Brunet, Dragoș Pîslaru, Monica Semedo, Yana Toom, Marie‑Pierre Vedrenne

S&D

Marc Angel, Gabriele Bischoff, Vilija Blinkevičiūtė, Milan Brglez, Klára Dobrev, Estrella Durá Ferrandis, Heléne Fritzon, Lina Gálvez Muñoz, Elisabetta Gualmini, Agnes Jongerius, Manuel Pizarro, Marianne Vind

Verts/ALE

Katrin Langensiepen, Kira Marie Peter‑Hansen, Mounir Satouri

 

6

-

ID

Dominique Bilde, Nicolaus Fest, France Jamet, Elena Lizzi, Guido Reil, Stefania Zambelli

 

1

0

Renew

Radka Maxová

 

Explicación de los signos utilizados

+ : a favor

- : en contra

0 : abstenciones

 


 

 

 

OPINIÓN DE LA COMISIÓN DE MEDIO AMBIENTE, SALUD PÚBLICA Y SEGURIDAD ALIMENTARIA (16.9.2020)

<CommissionInt>para la Comisión de Asuntos Jurídicos</CommissionInt>


<Titre>con recomendaciones destinadas a la Comisión sobre el marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Ponente de opinión: <Depute>Adam Jarubas</Depute> (Iniciativa – artículo 47 del Reglamento interno)

 

 

SUGERENCIAS

La Comisión de Medio Ambiente, Salud Pública y Seguridad Alimentaria pide a la Comisión de Asuntos Jurídicos, competente para el fondo:

 que incorpore las siguientes sugerencias en la propuesta de Resolución que apruebe:

A. Considerando que la Unión se fundamenta en los valores enunciados en el artículo 2 del Tratado de la Unión Europea y en el respeto del principio de cautela enunciado en el artículo 191, apartado 2, del Tratado de Funcionamiento de la Unión Europea;

B. Considerando que el artículo 16 del TFUE establece que toda persona tiene derecho a la protección de los datos de carácter personal que le conciernan; que el artículo 22 del Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo[37] alude a la situación en la que los datos se utilizan únicamente en el marco del tratamiento automatizado, y reconoce el derecho de los interesados a no ser objeto de una decisión basada únicamente en el tratamiento automatizado;

C. Considerando que la competencia mundial por el liderazgo en el desarrollo de la inteligencia artificial (IA), que afectará a la fuente de normas y valores éticos que configuran el sector en todo el mundo, está cobrando impulso y la Unión debería dar ejemplo al resto del mundo con un marco regulador adecuado para evitar también una posible carrera de mínimos en lo que respecta a las normativas nacionales;

D. Considerando que no se debe separar esa competencia mundial de los valores y normas éticos;

E.  Considerando que los rápidos avances en materia de investigación e innovación han planteado una serie de importantes cuestiones éticas, jurídicas y sociales que afectan a la relación entre la ciencia y la sociedad; que la investigación y la innovación han de respetar los principios éticos y las legislaciones nacionales, de la Unión e internacionales pertinentes, incluidos la Carta de los Derechos Fundamentales de la Unión Europea y el Convenio Europeo para la Protección de los Derechos Humanos y de las Libertades Fundamentales, de conformidad con las disposiciones de los programas europeos de investigación;

F. Considerando que la integración de las tecnologías de los macrodatos y de la inteligencia artificial en los sistemas de salud pública y otros sectores ha de acompañarse de reglas, normas y legislación apropiadas que protejan los derechos fundamentales de las personas y aborden esos nuevos desafíos éticos;

G. Considerando que actualmente existe una brecha evidente en materia de patentes e inversiones en la Unión en comparación con otras partes del mundo;

H. Considerando que la inteligencia artificial y otras soluciones digitales emergentes pueden beneficiar a la sociedad en ámbitos como, entre otros, la transición ecológica, la protección del medio ambiente y de la biodiversidad, el incremento de la eficiencia de la agricultura, la gestión de residuos, la economía circular, la mitigación y adaptación al cambio climático, la ecologización de diversos procesos industriales, la eficiencia y la gestión de la energía y el transporte, la calidad del agua y del aire (por ejemplo, redes inteligentes y electromovilidad), la gestión de riesgos y la observación de la Tierra, ámbito en el que el programa Copernicus de la Unión es uno de los mejores;

I. Considerando que la inteligencia artificial puede aplicarse a casi cualquier ámbito de la medicina, por ejemplo: la investigación biomédica, como en el caso del antibiótico Halicin, descubierto mediante la IA, o las aportaciones de la inteligencia artificial a la prevención del cáncer, unos diagnósticos más precoces y precisos, las nuevas terapias con métodos como la medicina predictiva o la medicina genómica, la educación médica, la asistencia a los cuidadores, el apoyo al cuidado de personas mayores, el seguimiento del estado de los pacientes, un desarrollo más eficiente de medicamentos, tratamientos más específicos, la toma de decisiones clínicas, la medicina personalizada, el diagnóstico y el tratamiento psiquiátricos, la revolución en el ámbito de las prótesis robóticas y los sistemas de apoyo, la telemedicina, la telecirugía y el refuerzo de la eficiencia e interoperabilidad globales de los sistemas sanitarios;

J.  Considerando que el progreso digital requiere una formación y preparación adecuadas del personal sanitario y administrativo a fin de evitar la aparición de una brecha digital, al tiempo que se tiene en cuenta el envejecimiento de nuestras sociedades y los posibles retos para los sistemas sanitarios;

K. Considerando que existen serias preocupaciones éticas en relación con la autonomía de las máquinas;

L. Considerando que la salud digital no debe deshumanizar los cuidados ni reducir la relación entre médico y paciente, sino que debe proporcionar a los médicos ayuda para diagnosticar y tratar con mayor efectividad a los pacientes;

M. Considerando que la tecnología basada en la inteligencia artificial acelerará la transformación digital de la industria y desempeñará un papel esencial en el éxito de la economía digital en un mundo cada vez más conectado;

N. Considerando que en el marco jurídico y las directrices éticas actuales de la Unión ya se abordan algunos retos éticos relacionados con las aplicaciones de IA indicados en el Libro Blanco de la Comisión sobre la inteligencia artificial, como, por ejemplo, los procesos de evaluación del riesgo establecidos para las soluciones sanitarias basadas en la inteligencia artificial en el mercado único; que otras áreas van a la zaga de los desafíos éticos que se han de determinar y mitigar, dado que la inteligencia artificial tiene una enorme capacidad para poner en peligro las preferencias, la seguridad y la privacidad de los pacientes; que se deben perfilar, por lo que respecta al cuidado de los pacientes, las líneas de separación entre las funciones de los profesionales médicos y de cuidados y las funciones de las máquinas, incluido el principio de autonomía supervisada de los robots, y que es necesario formar tanto a los trabajadores sanitarios como a los pacientes;

O. Considerando que se debe adaptar la normativa de la Unión en materia de protección de datos para tener en cuenta la complejidad e interconectividad crecientes de los robots asistenciales y médicos, que pueden tener que manejar información personal y datos sanitarios muy sensibles, y que dicha normativa debe ajustarse a lo dispuesto en materia de protección de la intimidad desde el diseño, tal como se establece en el Reglamento (UE) 2016/679 sobre protección de datos;

P. Considerando que las soluciones que hacen hincapié en la necesidad de incluir la investigación científica como base de las estrategias de desarrollo mediante la creación de repositorios de datos médicos (por ejemplo, de neurología y cardiología) y el acceso a los datos procedentes de dicha investigación pueden conllevar beneficios sociales concretos en el contexto de la seguridad y la sanidad públicas;

Q. Considerando que las soluciones de inteligencia artificial pueden beneficiar a la sociedad en el ámbito de la seguridad alimentaria, entre otras cosas mediante la reducción del uso de plaguicidas, el apoyo a la agricultura de precisión o, en general, la Agricultura 2.0, ámbito en el que la Unión figura entre los líderes en aplicaciones de IA (por ejemplo, para los ajustes automatizados de las máquinas para la previsión meteorológica o la detección de enfermedades), lo que permitirá combinar una producción más eficaz con normas medioambientales más estrictas y una mejor utilización de los recursos, especialmente en las zonas en las que los recursos hídricos son escasos y el cambio climático tiene graves repercusiones, como corresponde en consonancia con las prioridades del Pacto Verde;

R. Considerando que el ámbito de dicho marco debe ser adecuado y proporcionado y evaluarse exhaustivamente; que debe abarcar una amplia gama de tecnologías y sus componentes, incluidos los algoritmos, los programas informáticos y los datos utilizados o producidos por la inteligencia artificial; que se requiere un enfoque específico basado en el concepto de riesgo elevado para no impedir que las innovaciones futuras aporten a los ciudadanos los beneficios de las aplicaciones de la inteligencia artificial en ámbitos como la asistencia sanitaria, la protección del medio ambiente y la calidad de los alimentos;

S. Considerando que es esencial determinar cuáles son los medios eficaces para garantizar la fiabilidad de las tecnologías digitales, posibilitando el disfrute de sus beneficios al tiempo que se protegen los derechos fundamentales y se fomenta el desarrollo de sociedades informales, abiertas, tolerantes y justas; que ello es especialmente importante en el caso de los sistemas híbridos que combinen la inteligencia humana y la artificial;

T. Considerando que las máquinas robotizadas desdibujan los límites entre sujetos humanos y objetos tecnológicos; que no solo tienen implicaciones para la sociedad que deben valorarse desde un punto de vista ético, sino que incluso cuestionan los marcos éticos sobre cuya base han de valorarse; que, tal como señala en su informe la Comisión Mundial de Ética del Conocimiento Científico y la Tecnología (Comest), se debe prestar especial atención al uso de robots médicos, robots de enfermería, robots asistenciales para personas de edad avanzada y robots de compañía;

U. Considerando que el uso de robots sociales y robots de compañía se está extendiendo rápidamente en el ámbito de la asistencia sanitaria y, en especial, de la asistencia geriátrica; que los robots asistenciales para personas de edad avanzada y los robots de compañía pueden tener un papel funcional y emocional; que esos robots pueden contribuir a mitigar la soledad de las personas de edad avanzada, prevenir comportamientos asociados a la demencia, estimular las actividades cognitivas de pacientes con enfermedades neurodegenerativas o llevar a cabo determinadas tareas cotidianas que para las personas de edad avanzada son difíciles de realizar; que, de ese modo, los robots de compañía pueden provocar sentimientos falsos, ilusorios y no recíprocos, engañando e infantilizando a las personas de edad avanzada;

V. Considerando que los robots de compañía pueden utilizarse cada vez más con fines sexuales; que el uso de robots sexuales con aspecto infantil o programados para sufrir abusos plantea implicaciones éticas especialmente preocupantes;

Un marco jurídico y ético para la IA

1. Destaca que la Unión ha de tomar todas las medidas necesarias para garantizar que sus valores éticos, tal como se contemplan en el acervo, se apliquen efectivamente a todos los campos de la inteligencia artificial dentro de su territorio, y para promover sus estándares en todo el mundo; hace hincapié en este sentido en que la evolución tecnológica en el ámbito de la inteligencia artificial siempre ha de ir en beneficio de la humanidad;

2. Subraya que la Unión ha de adoptar todas las medidas necesarias para reforzar la confianza de la sociedad en el desarrollo y la aplicación de la inteligencia artificial, la robótica y las tecnologías asociadas, a la luz del significativo impacto que estas tecnologías pueden tener en los ciudadanos; pide a la Comisión que siga las directrices éticas para una IA fiable y proponga medidas adecuadas que garanticen que esas tecnologías no generen resultados sesgados injustamente para los ciudadanos;

3. Subraya que un ecosistema de confianza en materia de IA basado en la legislación, para las aplicaciones de protección ambiental, salud o seguridad alimentaria, y ampliado mediante el marco ético de la IA de la Unión, reforzará la seguridad jurídica y la previsibilidad, fomentará la participación de las distintas partes interesadas, generará un aumento del volumen de datos confiados y la asimilación por parte del mercado, propiciará economías de escala y apoyará un ecosistema de excelencia en esos sectores; opina que ello reforzará la competitividad global del sector de la inteligencia artificial de la Unión y el potencial para promover los valores y los estándares de la Unión;

4 Observa que, debido al hecho de que la normativa legal responde mejor a los retos bien definidos actuales y debido al rápido desarrollo de la inteligencia artificial, que genera incertidumbre respecto al futuro, un marco ético común de la Unión para la inteligencia artificial que esté jurídicamente consolidado y tenga carácter ejecutivo dimensionará el ecosistema de confianza para todas las partes interesadas que se define en el Libro Blanco de la Comisión, en particular por lo que se refiere a las aplicaciones de protección ambiental o de la salud pública, creación de entornos más sanos, mejora de los recursos y servicios sanitarios o seguridad alimentaria, lo que reforzará el ecosistema de excelencia por lo que se refiere a la seguridad jurídica y la previsibilidad, y aportará una respuesta eficaz a los retos que todavía no se han definido, por ejemplo en las salas de vistas, las reuniones de gestión o los laboratorios científicos;

5. Señala que es preciso seguir trabajando sobre la definición de inteligencia artificial; subraya por ello la importancia de adoptar un enfoque centrado en el ser humano y de examinar periódicamente los avances en el terreno de la inteligencia artificial y el marco ético, con el fin de promover una regulación proactiva y garantizar su aplicabilidad a lo largo del tiempo y posterior evolución; subraya que existen muchos niveles de riesgo que van evolucionando a medida que pasa el tiempo con los avances de las tecnologías de inteligencia artificial; destaca la necesidad de un marco legislativo proporcionado que evolucione en consonancia con la velocidad de los avances tecnológicos; señala que el programa Copernicus puede servir como buena práctica en el desarrollo de grandes conjuntos de datos de alta calidad como aportación a los modelos de inteligencia artificial;

6. Destaca la necesidad de un marco reglamentario que establezca los principios éticos que deban aplicarse al diseño, al desarrollo, a la aplicación y al funcionamiento de esa tecnología, desde el acceso a los datos hasta el seguimiento estricto de los resultados;

7. Subraya que se ha de adoptar un enfoque equilibrado respecto de la regulación, garantizándose ante todo que nuestros valores no se vean comprometidos y también evitándose crear cargas administrativas innecesarias, especialmente para las pymes y las empresas emergentes; destaca, a ese respecto, que la competencia mundial en materia de inteligencia artificial no siempre sigue los mismos principios éticos que la Unión; destaca asimismo que la inteligencia artificial y las tecnologías conexas no deben ser objeto únicamente de una autorregulación «ligera»; considera esencial que se requiera un marco legislativo de la Unión proporcionado y favorable; señala que un gran número de terceros países están trabajando sobre sus marcos éticos y que existen múltiples propuestas a escala mundial; es consciente de que la dificultad fundamental por lo que respecta a los principios éticos puede radicar más en su aplicación que en su existencia;

8. Conviene en que los siete requisitos para la inteligencia artificial contemplados en las Directrices éticas para una IA fiable del Grupo de expertos de alto nivel sobre la IA son unos fundamentos sólidos para un marco ético común de la Unión, con un anclaje jurídico adecuado, abordando, entre otros, los aspectos éticos de las aplicaciones de inteligencia artificial en los campos del medio ambiente, la salud y la protección alimentaria; pide que se mejore el acervo en materia de transparencia, trazabilidad y supervisión humana, ámbitos en los que, según los comentarios formulados por 350 organizaciones sobre las Directrices, es necesario realizar más mejoras; apoya además la creación de un marco ético de la Unión en materia de inteligencia artificial manteniendo un espíritu de apertura respecto de la labor de otros socios internacionales que comparten los valores de la Unión, por ejemplo las Naciones Unidas, el Consejo de Europa con sus «Directrices sobre inteligencia artificial y protección de datos» (2019)[38], la Carta ética europea sobre el uso de la inteligencia artificial en los sistemas judiciales y la labor de su centro de investigación jurídica, el Comité ad hoc sobre Inteligencia Artificial (CAHAI, por sus siglas en inglés), los Principios sobre la IA[39] firmados por los miembros de la OCDE en mayo de 2019, la Declaración ministerial de 2019 sobre el comercio y la economía digital, en cuyo anexo se incluyen los principios para la IA, y la Iniciativa Mundial del IEEE sobre la Ética de los Sistemas Inteligentes y Autónomos[40];

9.  Apoya firmemente a la Comisión en el establecimiento de un marco ético común de la Unión para la inteligencia artificial con el fin de subsanar las deficiencias causadas por la fragmentación del mercado interior de la IA, también en materia de investigación, innovación y conocimientos especializados en las aplicaciones en materia de medio ambiente, salud pública, asistencia sanitaria y seguridad alimentaria, y con el fin de evitar la duplicación de normativas de IA en los Estados miembros para la inteligencia artificial desarrollada en la Unión y fuera de ella, por ejemplo en los ámbitos de la gestión de los datos de los consumidores, la protección y la privacidad en las redes inteligentes, la gestión de residuos, la igualdad de acceso a los servicios y las tecnologías, las normativas sobre la relación entre el paciente y el médico, la legislación sobre protección de datos y la vida privada, incluida su interacción con las actividades de investigación y el desarrollo de fármacos, la responsabilidad civil en la sanidad pública asistida por IA y la responsabilidad civil en relación con los vehículos y las máquinas autónomos; observa que, a nivel nacional, las legislaciones de los Estados miembros no contienen normas armonizadas en materia de responsabilidad aplicables a los daños o perjuicios que puedan derivarse de las tecnologías digitales y conductuales; aboga por un anclaje y un posicionamiento jurídicos adecuados del marco ético de la Unión para la inteligencia artificial;

10. Recuerda a ese respecto que, en la Resolución del Parlamento Europeo, de 16 de febrero de 2017, sobre normas de Derecho civil sobre robótica[41], se pedía a la Comisión que considerara la designación de una Agencia Europea para la Inteligencia Artificial que garantice, entre otras cosas, la adopción de un enfoque armonizado en toda la Unión, desarrolle criterios comunes y un proceso de solicitud relativo a la concesión de un certificado europeo de cumplimiento ético, y aborde las nuevas oportunidades y retos, en particular los de naturaleza transfronteriza, derivados de la evolución tecnológica en curso; pide a la Comisión que reflexione sobre si para realizar esas tareas basta con los órganos e instituciones de la Unión ya existentes o si es necesario crear un nuevo organismo para la inteligencia artificial;

11. Considera que, para todas las aplicaciones de inteligencia artificial, desarrolladas en la Unión y fuera de ella, se debe garantizar el mismo nivel de protección en la Unión, como en el caso de todas las demás tecnologías, incluida una tutela judicial efectiva para las partes que se vean perjudicadas por los sistemas de inteligencia artificial, habiéndose de permitir a la vez que la innovación tecnológica siga evolucionando; considera asimismo que este área de riesgo de la inteligencia artificial es crucial en el caso, por ejemplo, de los servicios de salud, el transporte mediante vehículos autónomos y la seguridad alimentaria; aboga por una distribución inequívoca de obligaciones, derechos y responsabilidades entre los agentes económicos que intervienen en la provisión de aplicaciones de IA, con el fin de atribuir cada obligación a los agentes en mejor posición para abordar cualesquiera riesgos potenciales, ya se trate del desarrollador, del implementador, del productor, del distribuidor o importador, del proveedor de servicios o del usuario profesional o privado y, en este sentido, solicita que se revise debidamente la legislación pertinente de la Unión, como la Directiva relativa a la responsabilidad por productos defectuosos, y se armonicen las legislaciones nacionales; apoya la posición de la Comisión expuesta en el Libro Blanco según la cual, debido a la complejidad de los sistemas de inteligencia artificial, obtener un nivel efectivo de protección y tutela jurídica puede requerir la adaptación de la carga de la prueba exigida por las normativas nacionales sobre la responsabilidad por daños causados por el funcionamiento de aplicaciones de inteligencia artificial; opina que la claridad respecto a la responsabilidad jurídica en el sector de la inteligencia artificial reforzará el cumplimiento de los valores éticos de la Unión integrados en su acervo, la seguridad jurídica y la previsibilidad, así como la aceptación social, favoreciéndose el desarrollo de un ecosistema de excelencia de inteligencia artificial en la Unión mediante la agrupación de inversores y el refuerzo de la aceptación por el mercado;

12. Pone de relieve que muchas de las propuestas formuladas por países que no son miembros de la Unión y por organizaciones internacionales giran en torno a principios y conceptos comunes en materia de inteligencia artificial, entre los que figuran: una IA centrada en el ser humano, la fiabilidad, el respeto de la autonomía humana, la prevención de daños, la equidad y el objetivo de que «nadie se quede atrás», así como la explicabilidad; opina que sería muy deseable contar con un marco ético internacional en torno a esos principios; expresa su inquietud de que los avances e innovaciones en materia de inteligencia artificial desemboquen en desigualdades sociales si no se hace nada al respecto; pide por ello a la Comisión y a los Estados miembros que adopten las medidas necesarias para que nadie quede rezagado en la transición hacia una Europa digital, y garanticen un acceso justo, asequible y equitativo a esas innovaciones, sobre todo en ámbitos como el de la asistencia sanitaria;

13. Recomienda que se complemente el enfoque basado en el riesgo con una evaluación de impacto algorítmico, extrayendo información, por ejemplo, de la evaluación de las repercusiones de la legislación, del procedimiento de evaluación de riesgos del RGPD, o de la evaluación de las repercusiones en los derechos humanos, y que se hagan públicos los resultados;

14. Celebra que en la metodología del enfoque basado en el riesgo, definida en el Libro Blanco de la Comisión de 19 de febrero de 2020[42], se consideren los sectores de la asistencia sanitaria, el transporte y la energía como sectores de riesgo elevado por definición, introduciéndose una serie de requisitos en materia de inteligencia artificial superiores a las normas vigentes en la Unión en dichos sectores, a menos que la forma en que se utilice la inteligencia artificial no entrañe riesgos significativos; subraya que en el marco ético de la Unión para la inteligencia artificial se debe prestar especial atención a los sectores de riesgo elevado mencionados más arriba;

15. Aboga por unos procedimientos claros, objetivos y transparentes a escala de la Unión para establecer un catálogo público de aplicaciones de inteligencia artificial de alto riesgo que impliquen un mecanismo de revisión y actualización periódicas; solicita que se considere la posibilidad de atribuir la carga de la prueba en tales procedimientos, para todas las aplicaciones de inteligencia artificial en todos los ámbitos, a la entidad que pretenda desarrollar o implementar el sistema de inteligencia artificial, con el fin de mantener el catálogo abierto a la innovación y de evitar que se pase por alto el riesgo de clasificar las aplicaciones de inteligencia artificial como carentes de un riesgo elevado;

16. Considera que existen riesgos de sesgo y discriminación en el desarrollo, la implementación y el uso de la inteligencia artificial de alto riesgo, la robótica y las tecnologías conexas, incluidos los programas informáticos, los algoritmos y los datos utilizados o producidos por tales tecnologías; recuerda que, en todas las circunstancias, dichas tecnologías deben respetar la dignidad humana y garantizar la igualdad de trato para todos; considera que esos posibles sesgos podrían abordarse mediante la fijación de normas sobre tratamiento de datos y el establecimiento de las salvaguardas adecuadas contra los sesgos y la discriminación basados en factores sociales, económicos, étnicos, raciales, sexuales, de género, de discapacidad, o de otra índole; advierte del posible uso indebido de las aplicaciones de diagnóstico con inteligencia artificial, y solicita que se establezcan salvaguardas motivacionales y relativas a la capacidad de la IA;

17 Acoge favorablemente la iniciativa de etiquetado voluntario para la inteligencia artificial de riesgo no elevado;

18. Recomienda medidas para fomentar la participación de todas las partes interesadas en el ámbito de la ética de la inteligencia artificial del sector privado, los grupos de consumidores y el mundo académico en la formulación de un código ético adaptado a la evolución tecnológica, social y política;

19. Señala que, para tomar decisiones, los robots utilizan algoritmos que encarnan valores y marcos éticos, y que su introducción tiene importantes consecuencias éticas para la asistencia sanitaria y las relaciones sociales; expresa su especial preocupación en relación con el uso de robots de compañía con fines de pedofilia y abusos sexuales; estima que en el diseño de las tecnologías robóticas se deben tener en cuenta las consideraciones éticas; pide que en el proceso de desarrollo de estas máquinas se reserve un espacio para la ética, sobre la base de un enfoque del tipo del diseño sensible a los valores, en particular en el caso de los robots asistenciales para los personas de edad avanzada y los robots de compañía; destaca que este enfoque también se debe adaptar para que tenga en cuenta el bienestar de los animales;

20. Subraya que, además de unos requisitos normativos inequívocos sobre rendición de cuentas y asunción de responsabilidades, también es necesario garantizar la transparencia de los algoritmos, de manera que sea posible determinar el momento en el que las «cosas se torcieron» y propiciar la intervención oportuna de los expertos; considera la transparencia algorítmica crucial para prevenir situaciones en las que la toma de decisiones médicas se realice en un entorno de «caja negra»; incide en que los algoritmos de caja negra que adoptan decisiones inexplicables resultan inaceptables en cualquier sector, pero, en un contexto en el que la toma de decisiones basada en la inteligencia artificial repercute en decisiones de vida o muerte, las consecuencias de un fallo de los algoritmos pueden ser graves; invita a la Comisión y a los Estados miembros a que entablen un diálogo con las principales partes interesadas de los ámbitos de la medicina, las TI, las matemáticas, la física, la tecnología de los datos médicos, la psicología clínica, la bioingeniería y la ciencia farmacéutica con el fin de establecer plataformas de refuerzo del diálogo y de evaluar el impacto en la relación entre médico y paciente y la deshumanización de la atención médica.

21. Solicita unas iniciativas de la Unión que sirvan como guía y promuevan los algoritmos interpretables, la IA explicable (xIA), la IA basada en el razonamiento simbólico, las técnicas de comprobación de la IA «de caja blanca», mostrando que tales tecnologías pueden combinarse con redes neuronales profundas, poniendo de relieve sus ventajas legales, éticas y, a menudo, empresariales, y promoviendo además los métodos para determinar los riesgos asociados a cada opción tecnológica diferente, utilizando, entre otras, la experiencia de la Information Commissioner's Office (ICO) del Reino Unido y las directrices del The Alan Turing Institute tituladas «Explicar las decisiones adoptadas con IA», demostrando que incluso los sistemas de inteligencia artificial neuronales de elevada complejidad pueden interpretarse de manera suficiente;

22. Pide que se garanticen la transparencia, la responsabilidad, la auditabilidad, la previsibilidad y la rendición de cuentas, dado que los ciudadanos, los pacientes y los usuarios que interactúan con un sistema que utilice la inteligencia artificial deben recibir explicaciones claras y comprensibles de los datos empleados, del funcionamiento del algoritmo, de su finalidad, de sus resultados, y de sus peligros potenciales; subraya que la transparencia y la explicabilidad resultan esenciales para garantizar la confianza en estas tecnologías; considera que la explicación debe complementarse mediante la auditabilidad y la trazabilidad, ya que el respeto de tales principios constituye un modo de garantizar la rendición de cuentas; señala que las aplicaciones de la inteligencia artificial pueden superar a los seres humanos en tareas específicas concretas, pero que fallan en los análisis de conjunto; aboga por la supervisión humana, la responsabilidad profesional y la previsibilidad de los sistemas, con capacidad para anular el sistema de inteligencia artificial;

23. Considera que toda persona física o jurídica debe contar con la posibilidad de obtener una reparación frente a las resoluciones formuladas por la inteligencia artificial de alto riesgo, la robótica o las tecnologías conexas en su detrimento, y que cualquier decisión adoptada por la inteligencia artificial debe someterse a una rigurosa verificación humana y a las garantías procesales pertinentes; sugiere que se introduzcan salvaguardas relacionadas con el uso de la inteligencia artificial de alto riesgo, la robótica y las tecnologías conexas en el marco de las decisiones de los poderes públicos, incluida la evaluación periódica y la posible revisión del marco regulador para adaptarse al desarrollo tecnológico; sugiere el establecimiento de directrices vinculantes sobre la metodología de evaluación del cumplimiento, que deberán seguir las autoridades nacionales de supervisión, así como el establecimiento de directrices no vinculantes dirigidas a los desarrolladores, los encargados del despliegue, y los usuarios;

24. Acoge favorablemente una estrategia europea en materia de datos, abordando los retos de futuro para la Unión en esta área que es clave para el progreso de la inteligencia artificial, y buscando oportunidades europeas para lograr ventajas competitivas en la nueva economía de los datos, sobre todo en el creciente sector de los datos descentralizados no personales procedentes de la industria, el sector empresarial y el sector público, y de los dispositivos en los límites de la red, respecto al que se prevé que concentre un 80 % de 175 zettabytes en 2025 y que invierta las proporciones actuales;

25. Pide que se garantice una financiación suficiente para la transformación de la inteligencia artificial de la Unión; apoya las ambiciones expuestas en el Libro Blanco de la Comisión de atraer inversiones públicas y privadas en inteligencia artificial por valor de 200 000 millones de euros en la Unión durante los próximos diez años; celebra que se haya prestado atención a los déficits de los ecosistemas de inteligencia artificial en las regiones menos desarrolladas y a las necesidades de las pymes y las empresas emergentes; pide a la Comisión que identifique los déficits de infraestructuras públicas y facilite la financiación de la inteligencia artificial en la mitigación del cambio climático y la adaptación al mismo, las energías renovables y la salud, y que facilite un acceso geográficamente equilibrado a toda la financiación de la inteligencia artificial, también para las pymes y las empresas emergentes; destaca que los nuevos objetivos de la Unión no deben conllevar una reducción de su compromiso respecto de sus prioridades desde hace tiempo, como son la PAC, la política de cohesión, el Pacto Verde y el nuevo instrumento del Plan de recuperación frente a la COVID19 «Next Generation EU»;

26 Invita a la Comisión a promover y financiar el desarrollo de la inteligencia artificial, la robótica y las tecnologías conexas que se centran en el ser humano, abordan los retos del medio ambiente y el clima, y garantizan la igualdad de acceso a los derechos fundamentales, y el disfrute de estos, mediante el uso de impuestos, la contratación pública «ecológica» u otros incentivos;

Huella de carbono de la IA

27. Observa que, en su «paquete digital» publicado el 19 de febrero de 2020, la Comisión refiere que las TIC representan entre el 5 y el 9 % del consumo mundial de electricidad y el 2 % de las emisiones de CO2, y que el volumen de datos transferidos y almacenados seguirá creciendo exponencialmente en los próximos años, y que es necesario encontrar soluciones al respecto; señala, por otra parte, que, en el estudio de 2018 del Centro Común de Investigación «Inteligencia artificial: una perspectiva europea», se estima que los centros de datos y la transmisión de datos podrían concentrar del 3 al 4 % del consumo total de energía de la Unión;

28. Acoge con satisfacción que la estrategia digital europea proponga medidas de transformación ecológica para los sectores digitales;

29. Subraya que, a pesar de la elevada huella de carbono actual del aprendizaje profundo y de la propia inteligencia artificial, estas tecnologías pueden contribuir a reducir la huella medioambiental actual del sector de las TIC y al desarrollo de la inteligencia artificial, la robótica, las decisiones automatizadas y el aprendizaje automático; subraya que estas y otras tecnologías conexas debidamente reguladas deben ser facilitadoras esenciales para alcanzar los objetivos del Pacto Verde, los Objetivos de Desarrollo Sostenible de las Naciones Unidas y el Acuerdo de París en muchos sectores diferentes, y deben potenciar el impacto de las políticas de protección del medio ambiente, por ejemplo en lo que respecta a la reducción de residuos y la degradación ambiental;

30. Pide a la Comisión que lleve a cabo un estudio sobre el impacto de la huella de carbono de la tecnología de la inteligencia artificial y los efectos positivos y negativos de la transición hacia el uso de dicha tecnología por los consumidores;

31. Señala que, dado el creciente desarrollo de aplicaciones de inteligencia artificial, que requieren recursos informáticos, de almacenamiento y energéticos, el impacto ambiental de los sistemas de inteligencia artificial debe considerarse durante todo su ciclo de vida;

Impacto de la IA en el sector sanitario y los derechos de los pacientes

32. Reconoce el importante papel que puede desempeñar la inteligencia artificial en la salud y hace hincapié en que las aplicaciones de la inteligencia artificial en la salud deben tener en todo caso el objetivo de maximizar las oportunidades que pueden brindar (como la mejora de la salud de los pacientes considerados individualmente, así como del rendimiento de los sistemas de salud pública de los Estados miembros), sin rebajar las normas éticas ni poner en peligro la privacidad o la seguridad de los ciudadanos;

33. Acoge favorablemente el compromiso de la Comisión expresado en el Libro Blanco de examinar los retos de seguridad y responsabilidad que son característicos de la asistencia sanitaria como, por ejemplo, los relativos a los sistemas de inteligencia artificial que proporcionan información médica especializada a los médicos o directamente al paciente, y los sistemas de inteligencia artificial que realizan tareas médicas por sí mismos directamente en los pacientes; aboga por el examen correspondiente de los demás sectores consignados que son, por defecto, los de riesgo elevado;

34. Considera que, en áreas como la salud, la responsabilidad debe recaer en última instancia en una persona física o jurídica; hace hincapié en la necesidad de datos de la formación trazables y públicamente disponibles para la formulación de algoritmos;

35. Pide a la Comisión que entable un diálogo sectorial abierto y transparente tratando de manera prioritaria la atención sanitaria con el fin de presentar después un plan de acción que facilite el despliegue, las pruebas y la implantación de la inteligencia artificial en el ámbito de la investigación e innovación, así como su empleo generalizado en los servicios de salud pública;

36. Advierte en contra de los intentos de atribuir a las máquinas alguna clase de «personalidad», lo que derivaría en la eliminación de la responsabilidad humana por los errores de tratamiento;

37. Apoya firmemente la creación de un Espacio Europeo de Datos de Salud[43] propuesto por la Comisión que aspira a promover el intercambio de datos sobre salud y apoyar la investigación de plena conformidad con lo dispuesto en cuanto a protección de datos, incluido el tratamiento de datos con la tecnología de la inteligencia artificial, y que potencie y extienda la utilización y la reutilización de los datos de salud; pide que se intensifique el intercambio transfronterizo de datos relativos a la salud, su vinculación y uso a través de repositorios seguros y federados, de determinados tipos de información sanitaria, como los registros sanitarios europeos (RSE), la información genómica, y las imágenes de salud digitales con el fin de facilitar los registros y las bases de datos interoperables en toda la Unión en áreas como la investigación, la ciencia y los sectores sanitarios;

38. Hace hincapié en que los pacientes deben saber cuándo y cómo interactúan con un profesional humano y cuando no; insiste en que los pacientes deben tener la libertad de decidir con respecto a su interacción, y se les debe ofrecer una alternativa de nivel equivalente;

39. Considera que, en particular en el sector sanitario, las aplicaciones móviles pueden ayudar a monitorizar enfermedades y la presencia de robots resulta útil como apoyo al trabajo de los médicos y de los asistentes sanitarios, con el objetivo de mejorar el diagnóstico y el tratamiento, velando al mismo tiempo por que no se deshumanicen las prácticas médicas y de atención sanitaria de que son objeto los pacientes;

40. Pide la interoperabilidad normalizada en la Unión de las aplicaciones de «eHealth» (salud electrónica) y la creación de un acceso común europeo a los datos para las recetas, los diagnósticos y los informes médicos, accesible de manera sencilla para todos los ciudadanos de la Unión en todos los Estados miembros;

41. Reitera que las oportunidades y los riesgos inherentes a estas tecnologías poseen una dimensión global que requiere un enfoque armonizado y coherente a escala internacional; pide a la Comisión que trabaje en contextos bilaterales y multilaterales con el fin de defender y garantizar el cumplimiento ético;

42. Pone de relieve los beneficios de la inteligencia artificial para la prevención, el tratamiento y el control de las enfermedades, como demuestra el hecho de que la inteligencia artificial pronosticó la epidemia de COVID-19 antes que la OMS; insta a la Comisión a dotar adecuadamente al ECDC del marco jurídico y de los recursos que le permitan recopilar en tiempo real los datos de salud globales anonimizados necesarios de manera independiente y en colaboración con los Estados miembros, con el fin, entre otras cosas, de abordar las cuestiones reveladas por la pandemia de COVID-19;

43. destaca que el uso de tecnologías de seguimiento y trazado de contactos por las autoridades públicas durante la pandemia de COVID-19 y otras posibles emergencias sanitarias podría entrar en conflicto con la protección de datos; recuerda en este sentido la Comunicación de la Comisión, de 17 de abril de 2020 titulada «Orientaciones sobre las aplicaciones móviles de apoyo a la lucha contra la pandemia de COVID-19 en lo referente a la protección de datos»[44], y la necesidad de proporcionalidad, limitación en el tiempo, conformidad con los valores europeos y respeto por la dignidad humana y los derechos fundamentales;

44. Considera que la inteligencia artificial y la robótica puede proporcionar mejoras considerables en el control de los productos sanitarios y facilitar la labor diaria de los profesionales de la salud; considera asimismo que, en el caso de los productos sanitarios esenciales, se requiere un sistema de respaldo que permita supervisar y garantizar la funcionalidad de tales productos en cualquier posible situación de interferencia, y que las posibles amenazas cibernéticas en el control de tales productos han de tenerse en cuenta y mitigarse; subraya que, aparte de los piratas informáticos y las amenazas externas, las amenazas cibernéticas pueden derivarse asimismo de errores humanos o de los sistemas, y que es necesario disponer de sistemas de respaldo adecuados en funcionamiento; considera asimismo que la Unión debe elaborar una hoja de ruta para el desarrollo de mecanismos de respaldo en materia de inteligencia artificial, con el fin de abordar los posibles problemas derivados de la comisión de errores por los controles de los sistemas de inteligencia artificial;

45. Señala que las normas de seguridad establecidas en el Reglamento (UE) 2017/745 del Parlamento Europeo y del Consejo[45] pueden no ser suficientes para los retos de los sistemas de inteligencia artificial; pide a la Comisión que haga un seguimiento de los retos en este ámbito y, si procede, presente propuestas de modificación;

46. Subraya la necesidad de garantizar que los productos sanitarios impulsados por la inteligencia artificial se atengan a los requisitos de seguridad y funcionamiento del Reglamento (UE) 2017/745; pide a la Comisión y a los Estados miembros que velen por que el Reglamento (UE) 2017/745 se aplique con respecto a estas tecnologías; considera que se requieren nuevas directrices y especificaciones para la evaluación de la seguridad y la efectividad de los dispositivos basados en el aprendizaje profundo, los programas informáticos y la inteligencia artificial a lo largo de todo el ciclo de utilización;

47. Pide que se garantice un mandato legal más claro y la financiación suficiente para la EMA y las autoridades nacionales competentes en materia de medicamentos con el fin de apoyar la innovación y los aspectos de salud pública relacionados con la inteligencia artificial en el ciclo de vida de los medicamentos, en particular, para recabar y analizar datos de salud en el mundo real que puedan generar pruebas adicionales sobre productos sanitarios como apoyo de la I+D, y optimizar el uso seguro y efectivo de los fármacos existentes en beneficio de los pacientes y de los sistemas sanitarios europeos;

48. Insiste en que no debe permitirse a las compañías de seguros ni a ningún otro tipo de proveedor de servicios utilizar los datos de la sanidad electrónica para fijar precios de forma discriminatoria, dado que así se vulneraría el derecho fundamental al disfrute del más alto nivel posible de salud;

IA y protección de datos

49.  Acoge con satisfacción la revisión[46] del Reglamento (UE) 2016/679 recientemente publicada por la Comisión, y señala que la legislación de los Estados miembros sigue enfoques diferentes a la hora de aplicar excepciones a la prohibición general del tratamiento de categorías especiales de datos personales, en lo que respecta al nivel de especificación y a las salvaguardias, también para fines sanitarios; declara, por tanto, que, en última instancia, los seres humanos deben mantener la responsabilidad respecto a la toma de decisiones, sobre todo en aquellos sectores en los que hay mucho en juego y riesgos como el de la salud;

50. Acoge con satisfacción la intención de la Comisión de supervisar la aplicación del Reglamento (UE) 2016/679 a las nuevas tecnologías, también en posibles iniciativas futuras en el ámbito de la inteligencia artificial y en el marco de la estrategia de datos, y apoya el llamamiento de la Comisión al Consejo Europeo de Protección de Datos para que publique directrices sobre la aplicación del Reglamento (UE) 2016/679 en el ámbito de la investigación científica, la inteligencia artificial, la cadena de bloques y otros posibles avances tecnológicos;

51. Pide el empoderamiento de ciudadanos y pacientes respecto a sus datos personales con el fin de garantizar la plena aplicación y una interpretación uniforme del marco jurídico de la Unión en materia de protección de datos y privacidad, especialmente en las aplicaciones de inteligencia artificial en el campo de la asistencia sanitaria y los datos sensibles conexos, con el fin de respetar plenamente el «derecho al olvido» previsto en el artículo 17 del Reglamento (UE) 2016/679 y de reforzar el «derecho a recibir una explicación» previsto en el artículo 22 del Reglamento (UE) 2016/679, y unos requisitos superiores para la inteligencia artificial de riesgo elevado por lo que respecta a su naturaleza interpretable;

52. Hace hincapié en que el marco ético de la inteligencia artificial debe incluir el derecho de las personas que sean objeto de una decisión basada en el tratamiento automatizado a obtener una explicación de esa decisión;

53. Pide que se alcance el equilibrio adecuado entre la privacidad y la protección y utilidad de los datos; considera importante para el avance científico que se garantice que es posible compartir y tratar datos de salud con el suficiente grado de profundidad y detalle; pide que se garantice la anonimización de los datos, evitando al mismo tiempo una minimización excesiva de los mismos; solicita unas bases de datos, registros y repositorios interoperables y adecuados a escala de la Unión para facilitar el uso de datos relativos a la salud en los sectores de la sanidad, el medio ambiente y la seguridad alimentaria;

54. Subraya la necesidad de garantizar la protección de los datos relativos a la salud pertenecientes a grupos vulnerables y señala que, en la medida en que las aplicaciones de inteligencia artificial procesan datos relativos a la salud sobre la base del consentimiento del interesado, deben cumplirse las condiciones establecidas en el artículo 7 del Reglamento (UE) 2016/679;

55. Subraya que, en ningún caso, los datos generados deben contribuir a cualquier tipo de discriminación; pide que se garantice que la recopilación de datos y la accesibilidad estén siempre en consonancia con el marco jurídico de la Unión;

56. Señala que el riesgo relativo a las alteraciones maliciosas y a la manipulación de los datos, así como a posibles pirateos y robos de datos, puede resultar especialmente grave en el sector sanitario y utilizarse para dañar, desacreditar o aprovecharse de las personas; subraya la necesidad de establecer las normas más elevadas en materia de ciberseguridad para las redes pertinentes;

Impacto de la IA en los entornos laborales y sociales

57. Recuerda que el marco ético de la OCDE tiene en cuenta las turbulencias en el mercado laboral; subraya que la automatización combinada con la inteligencia artificial aumentará la productividad y, por tanto, la producción; señala que, al igual que en anteriores revoluciones tecnológicas, se sustituirán algunos puestos de trabajo; subraya que un mayor uso de la robótica y la inteligencia artificial debería también reducir la exposición de los seres humanos a condiciones nocivas y peligrosas, y contribuir a la creación de más puestos de trabajo de calidad y dignos, además de mejorar la productividad; recuerda la labor de la OCDE, que destaca que la automatización puede permitir a la sociedad reducir el número de horas trabajadas y mejorar, de esta manera, las condiciones de vida y la salud de los trabajadores;

58. Llama asimismo la atención sobre las recomendaciones de la OCDE, que invitan a las autoridades públicas a colaborar estrechamente con las partes interesadas para fomentar el uso responsable de la inteligencia artificial en el trabajo, a reforzar la seguridad de los trabajadores y la calidad del empleo y a velar por que las ventajas de la inteligencia artificial sean compartidas de manera amplia y justa; subraya, en este contexto, que diversos equipos de desarrolladores e ingenieros que trabajan junto con agentes clave pueden contribuir a evitar los sesgos de género y culturales y a garantizar el respeto del bienestar físico y mental de los trabajadores en los algoritmos, sistemas y aplicaciones de inteligencia artificial;

59. Subraya que el desarrollo de las aplicaciones de inteligencia artificial puede dar lugar a la reducción de los costes y al incremento del volumen de servicios disponibles, como los de salud, transporte público, y la denominada agricultura 2.0, al hacerlos más asequibles para un espectro más amplio de la sociedad; destaca que las aplicaciones de inteligencia artificial pueden dar lugar además a un aumento del desempleo, de la presión sobre los sistemas de asistencia social, y de la pobreza; hace hincapié, de conformidad con los valores consagrados en el artículo 3 del Tratado de la Unión Europea, en la necesidad de adaptar la transformación de la inteligencia artificial de la Unión a las capacidades socioeconómicas, a una protección social adecuada, a la educación y a la creación de puestos de trabajo alternativos; pide que se considere la posibilidad de establecer un Fondo de la Unión de Ajuste a la IA sobre la base de la experiencia del Fondo Europeo de Adaptación a la Globalización (FEAG) o del Fondo de Transición Justa;

60. Destaca asimismo la importancia del diálogo social para dar cabida a una transición justa e inclusiva para los trabajadores a las nuevas realidades laborales afectadas por la inteligencia artificial y la necesidad de que las empresas inviertan en formación y reciclaje profesional de su mano de obra;

61. Pide a los Estados miembros que adapten la educación para los profesionales de los sectores de la protección del medio ambiente, la salud y la seguridad alimentaria a la evolución de la inteligencia artificial, y que sensibilicen sobre los riesgos y los retos éticos asociados a la inteligencia artificial;

62. Acoge favorablemente los requisitos propuestos en el Libro Blanco respecto a los datos de formación sobre inteligencia artificial de alto riesgo, abordando asimismo los datos suficientemente amplios en cuanto a seguridad para cubrir todos los escenarios pertinentes con el fin de evitar situaciones peligrosas como las de discriminación, y los datos suficientemente representativos para reflejar adecuadamente el entorno social en que se aplicarán;

63. Incide en que el sector público debe centrarse en la resolución de problemas sociales, y no en propiciar la asimilación de la inteligencia artificial por sí misma; pide una mejora de las normativas y directrices de la Unión sobre contrataciones públicas, incluida la Contratación pública ecológica de la UE, de modo que, durante los procedimientos de evaluación pertinentes para las ofertas de licitación, se tenga en cuenta si un determinado asunto requiere la aplicación de un sistema de inteligencia artificial y se permita seguir una ruta de provisión alternativa en los casos en los que la evaluación indique que tal solución ajena a la inteligencia artificial aborda mejor el problema social;

 

INFORMACIÓN SOBRE LA APROBACIÓN
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

Fecha de aprobación

10.9.2020

 

 

 

Resultado de la votación final

+:

–:

0:

77

2

2

Miembros presentes en la votación final

Nikos Androulakis, Bartosz Arłukowicz, Margrete Auken, Simona Baldassarre, Marek Paweł Balt, Traian Băsescu, Aurelia Beigneux, Monika Beňová, Sergio Berlato, Alexander Bernhuber, Malin Björk, Simona Bonafè, Delara Burkhardt, Pascal Canfin, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Nathalie Colin-Oesterlé, Miriam Dalli, Esther de Lange, Christian Doleschal, Marco Dreosto, Bas Eickhout, Eleonora Evi, Agnès Evren, Fredrick Federley, Pietro Fiocchi, Andreas Glück, Catherine Griset, Jytte Guteland, Teuvo Hakkarainen, Martin Hojsík, Pär Holmgren, Jan Huitema, Yannick Jadot, Adam Jarubas, Petros Kokkalis, Athanasios Konstantinou, Ewa Kopacz, Joanna Kopcińska, Ryszard Antoni Legutko, Peter Liese, Sylvia Limmer, Javi López, César Luena, Fulvio Martusciello, Liudas Mažylis, Joëlle Mélin, Tilly Metz, Silvia Modig, Dolors Montserrat, Alessandra Moretti, Dan-Ștefan Motreanu, Ville Niinistö, Ljudmila Novak, Jutta Paulus, Stanislav Polčák, Jessica Polfjärd, Luisa Regimenti, Frédérique Ries, María Soraya Rodríguez Ramos, Sándor Rónai, Rob Rooken, Silvia Sardone, Christine Schneider, Günther Sidl, Ivan Vilibor Sinčić, Linea Søgaard-Lidell, Nicolae Ştefănuță, Nils Torvalds, Edina Tóth, Véronique Trillet-Lenoir, Alexandr Vondra, Mick Wallace, Pernille Weiss, Michal Wiezik, Tiemo Wölken, Anna Zalewska

Suplentes presentes en la votación final

Michael Bloss, Manuel Bompard, Christel Schaldemose

 


 

VOTACIÓN FINAL NOMINAL
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

77

+

PPE

Bartosz Arłukowicz, Alexander Bernhuber, Traian Băsescu, Nathalie Colin-Oesterlé, Christian Doleschal, Agnès Evren, Adam Jarubas, Ewa Kopacz, Peter Liese, Fulvio Martusciello, Liudas Mažylis, Dolors Montserrat, Dan-Ștefan Motreanu, Ljudmila Novak, Jessica Polfjärd, Stanislav Polčák, Christine Schneider, Edina Tóth, Pernille Weiss, Michal Wiezik, Esther de Lange

S&D

Nikos Androulakis, Marek Paweł Balt, Monika Beňová, Simona Bonafè, Delara Burkhardt, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Miriam Dalli, Jytte Guteland, César Luena, Javi López, Alessandra Moretti, Sándor Rónai, Christel Schaldemose, Günther Sidl, Tiemo Wölken

Renew

Pascal Canfin, Fredrick Federley, Andreas Glück, Martin Hojsík, Jan Huitema, Frédérique Ries, María Soraya Rodríguez Ramos, Linea Søgaard-Lidell, Nils Torvalds, Véronique Trillet-Lenoir, Nicolae Ştefănuță

ID

Simona Baldassarre, Aurelia Beigneux, Marco Dreosto, Catherine Griset, Joëlle Mélin, Luisa Regimenti, Silvia Sardone

Verts/ALE

Margrete Auken, Michael Bloss, Bas Eickhout, Pär Holmgren, Yannick Jadot, Tilly Metz, Ville Niinistö, Jutta Paulus

ECR

Sergio Berlato, Pietro Fiocchi, Joanna Kopcińska, Ryszard Antoni Legutko, Alexandr Vondra, Anna Zalewska

GUE/NGL

Malin Björk, Manuel Bompard, Petros Kokkalis, Silvia Modig, Mick Wallace

NI

Eleonora Evi, Athanasios Konstantinou

 

2

-

ID

Sylvia Limmer

ECR

Rob Rooken

 

2

0

ID

Teuvo Hakkarainen

NI

Ivan Vilibor Sinčić

 

Explicación de los signos utilizados

+ : a favor

- : en contra

0 : abstenciones

 


 

 

OPINIÓN DE LA COMISIÓN DE CULTURA Y EDUCACIÓN (3.9.2020)

<CommissionInt>para la Comisión de Asuntos Jurídicos</CommissionInt>


<Titre>con recomendaciones destinadas a la Comisión sobre el marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas </Titre>

<DocRef>(2020/2012(INL))</DocRef>

Ponente de opinión: <Depute>Łukasz Kohut</Depute>

(Iniciativa – artículo 47 del Reglamento interno)

 

 

SUGERENCIAS

La Comisión de Cultura y Educación pide a la Comisión de Asuntos Jurídicos, competente para el fondo:

 que incorpore las siguientes sugerencias en la propuesta de Resolución que apruebe:

1. Recuerda que el desarrollo, la implementación y la utilización de inteligencia artificial (IA) en los sectores cultural y creativo, así como en los ámbitos de la educación, los medios de comunicación, la juventud y la política en materia de información, no solo pueden suscitar cuestiones éticas muy variadas que deben abordarse, sino que ya las suscita y las seguirá suscitando; destaca que la Unión debe abrir la vía hacia una inteligencia artificial ética basada en valores europeos, garantizándose la protección de la dignidad humana y los derechos fundamentales dentro de una Europa democrática, justa y sostenible; pide a las instituciones de la Unión que inicien una reflexión a largo plazo sobre el impacto de la inteligencia artificial en nuestros debates democráticos, en nuestras sociedades y en la naturaleza misma del ser humano, para estar en condiciones de allanar el camino hacia una tecnología de inteligencia artificial que respete nuestra libertad y no perturbe la innovación ni restrinja la libertad de expresión;

2. Cree firmemente que es necesario estudiar cómo los marcos y obligaciones en materia de derechos humanos pueden orientar las actuaciones y políticas relativas a las tecnologías digitales nuevas y emergentes, a fin de garantizar que tengan un enfoque antropocéntrico y que sus beneficios estén accesibles para todos; reconoce la necesidad de garantizar que el desarrollo, la implementación y el uso de la inteligencia artificial no sean discriminatorios y carezcan de sesgos en la elaboración de perfiles, y que se reflejan todos los elementos esenciales de la sociedad; reconoce que la inteligencia artificial y la automatización podrían tener un efecto en la economía globalizada que podría acentuar las desigualdades existentes;

3. Hace hincapié en la necesidad de elaborar criterios específicos para el desarrollo, la implementación y el uso de la inteligencia artificial en los sectores educativo, de los medios de comunicación, la juventud, la investigación y cultural y creativo, mediante el establecimiento de índices de referencia y la definición de principios para usos éticamente responsables y aceptados de las tecnologías de inteligencia artificial en esos ámbitos, incluido un régimen de responsabilidad claro para los productos resultantes del uso de inteligencia artificial; subraya que esos criterios han de ser adaptables y ajustarse constantemente al progreso de las tecnologías de inteligencia artificial, con el fin también de contribuir de manera responsable al aprovechamiento de todo el potencial de la inteligencia artificial; destaca, en particular, la necesidad de abordar las preocupaciones relacionadas con la recopilación de datos personales de los usuarios y la privacidad, así como las cuestiones de responsabilidad en los casos en que los procesos automatizados tengan resultados indeseables; recuerda que, para que esos criterios tengan una base sólida, es necesario exigir que se respeten los principios de conformidad de un sistema con sus especificaciones, transparencia, buena fe y equidad, consultando a los comités deontológicos competentes encargados de contribuir a sentar las bases en consonancia con los valores culturales y las disposiciones del marco jurídico de la Unión; observa que los sistemas de inteligencia artificial consisten en programas informáticos con un comportamiento inteligente basado en el análisis de su entorno; subraya que ese análisis se basa en modelos estadísticos de los que los errores forman inevitablemente parte integrante; señala la necesidad de garantizar la implantación de sistemas y métodos que permitan verificar los algoritmos y explicarlos, así como acceder a vías de recurso; destaca la necesidad de garantizar la existencia de normas vinculantes que garanticen el respeto de los principios de transparencia, rendición de cuentas y no discriminación; recuerda las Directrices éticas para una IA fiable de 2019 y los siete requisitos clave para la fiabilidad de la inteligencia artificial;

4. Señala que todos los niños tienen derecho a una educación pública de calidad a todos los niveles; pide, por tanto, que se desarrollen, implementen y usen sistemas de inteligencia artificial de calidad que faciliten y ofrezcan herramientas educativas de calidad para todos a todos los niveles, y subraya que la implementación de nuevos sistemas de inteligencia artificial en las escuelas no debe agrandar la brecha digital existente en la sociedad;

5. Señala que en las escuelas y las universidades se están implementando cada vez más sistemas de aprendizaje personalizado de inteligencia artificial, lo que está cambiando gradualmente el papel de los profesores en el proceso de aprendizaje; hace hincapié en que esta transformación debe evaluarse a fondo, reflejarse en los planes de estudios en consecuencia y basarse en valores centrados en el ser humano; reconoce la enorme contribución que la inteligencia artificial y la robótica pueden aportar a la educación; señala que los sistemas de aprendizaje personalizado de inteligencia artificial no deben sustituir a las relaciones educativas que impliquen a profesores, y que no se debe prescindir de las formas tradicionales de educación, al tiempo que subraya que debe proporcionarse apoyo financiero, tecnológico y educativo, incluida formación especializada en tecnologías de la información y la comunicación, a los profesores que deseen adquirir las capacidades adecuadas para adaptarse a los cambios tecnológicos y no solo aprovechar el potencial de la inteligencia artificial, sino también comprender sus limitaciones;

6. Destaca que, cuando se utilice el aprendizaje automático en los procedimientos de selección de posibles estudiantes, deben aplicarse salvaguardas adecuadas, como por ejemplo informar a los solicitantes acerca de esos procedimientos y de sus derechos al respecto; observa que los algoritmos pertinentes deben entrenarse utilizando grandes conjuntos de datos para evitar que discriminen injustamente a determinados grupos; opina que las decisiones pertinentes adoptadas con la ayuda de procesos automatizados deben poder explicarse, también a los estudiantes rechazados si fuera necesario;

7. Pide que se desarrolle a escala de la Unión una estrategia en materia de inteligencia artificial, robótica y tecnologías conexas, con el fin de transformar y actualizar nuestros sistemas educativos, preparar nuestras instituciones educativas a todos los niveles y dotar a los profesores y los alumnos de las capacidades y competencias necesarias; estima necesario contar con un marco ético en el ámbito de la educación; recomienda que en el proceso de elaboración de dicho marco participen la sociedad civil, las universidades, los sindicatos y las asociaciones patronales; observa que los sistemas de inteligencia artificial desarrollados, implementados y utilizados en la Unión deben reflejar su diversidad cultural y su multilingüismo; hace hincapié en que se debe apoyar especialmente a los desarrolladores de las tecnologías y sus beneficiarios pertenecientes a grupos desfavorecidos y con discapacidad;

8. Considera que se ha de prestar una atención y protección especiales a la defensa de los derechos del menor, dado que la educación ejerce una particular influencia en su futuro, y de manera específica el derecho a la intimidad y el acceso a una educación de calidad, garantizándose en todos los casos la igualdad de oportunidades; hace hincapié en que las instituciones educativas solo deben utilizar sistemas de inteligencia artificial para fines educativos que hayan sido auditados y certificados como éticos, beneficiosos y conformes a los principios en materia de derechos humanos; pide a la Comisión y a los Estados miembros que promuevan la cooperación entre los sectores público y privado y el mundo académico, con el fin de afianzar el intercambio de conocimientos y las fuentes abiertas;

9. Señala que es necesario clarificar el concepto de artes y de obras culturales y creativas, así como el papel de los seres humanos como creadores y artistas; hace hincapié en que las oportunidades que ofrecen la digitalización y las nuevas tecnologías no deben conducir a una pérdida global de puestos de trabajo en los sectores cultural y creativo, ni a descuidar la conservación de los originales y a restar importancia al acceso tradicional al patrimonio cultural, que también debe fomentarse;

10. Reconoce el creciente potencial de la inteligencia artificial en los ámbitos de la información, los medios de comunicación y las plataformas en línea, también como una poderosa herramienta para luchar contra la desinformación; expresa su preocupación, no obstante, ante la posibilidad de que se use indebidamente la inteligencia artificial para manipular a la opinión pública en línea; subraya que, si no se regula, la IA también podría tener efectos adversos desde el punto de vista ético mediante la explotación de sesgos en los datos y los algoritmos que podrían dar lugar a la divulgación de desinformación, a la creación de burbujas de información y a la explotación de sesgos incorporados en los algoritmos de la IA; recuerda que una educación adecuada es una condición necesaria para salvaguardar los derechos de los ciudadanos en materia de libertad de información, de opinión y de expresión, y pide un uso ético de las tecnologías de inteligencia artificial en el ámbito de los medios de comunicación; advierte de los riesgos de una censura basada en la tecnología y de la necesidad de un marco ético para proteger la libertad de palabra;

11. Considera que el uso de determinados tipos de inteligencia artificial, como los sistemas de reconocimiento facial y de detección de emociones y comportamientos, podría tener un efecto perjudicial, particularmente en el papel de los medios de comunicación y los periodistas como guardianes de la democracia y, por ende, en los procesos democráticos; subraya, por tanto, que el uso de dichos sistemas en los espacios públicos debe restringirse o prohibirse siempre que sea necesario; hace hincapié en la necesidad de seguir luchando contra las noticias falsas, incluidas técnicas como las «falsedades profundas», contra la censura y la vigilancia automatizada;

12. Hace hincapié en la necesidad de sensibilizar al público en general y mejorar su comprensión acerca del papel y del impacto de la inteligencia artificial a través de la educación formal y no formal, incluidos los estudios de humanidades, y en concreto acerca del uso de los algoritmos y sus repercusiones en el empleo, la privacidad y otros ámbitos, así como su comprensión del lugar que ocupan los sistemas informáticos en la selección, la interpretación, el almacenamiento y la representación de los datos; aboga por la creación de herramientas de alfabetización digital en todos los niveles educativos, y pide por ello a los Estados miembros y a las instituciones de la Unión que inviertan en información y alfabetización mediática, educación y formación; considera que las competencias en materia de información y medios de comunicación son cruciales para que todos los ciudadanos, incluidos los grupos sociales vulnerables, estén en condiciones de evaluar y comprender de forma crítica cómo evoluciona la situación, por ejemplo comprender el funcionamiento de la inteligencia artificial y sus sesgos inherentes, y, por ende, desarrollar nuevas formas de pensamiento crítico; recomienda que la Comisión promueva formatos de educación y de educación continua relacionados con la inteligencia artificial, la robótica y la tecnología;

13. Destaca la importante distinción existente entre la transparencia de los algoritmos y la transparencia en el uso de los algoritmos; hace hincapié en la importancia de la transparencia y la rendición de cuentas por lo que respecta a los algoritmos utilizados por las plataformas de intercambio de vídeos y de emisión en directo, a fin de garantizar el acceso a contenidos diversos desde el punto de vista cultural y lingüístico y evitar que se privilegien algunos contenidos en concreto; estima que se debe informar adecuadamente a todos los usuarios cuando se utilice un algoritmo para recomendar contenido, que los usuarios deben estar en condiciones de optimizar las recomendaciones con arreglo a sus propias elecciones, y que esos algoritmos no deben limitar las posibilidades de elección de los usuarios; considera que todos los usuarios también deben poder desactivar las recomendaciones sobre contenido de la inteligencia artificial; destaca que esos algoritmos deben diseñarse de modo que reflejen la diversidad cultural de nuestras sociedades, garantizando una verdadera apertura cultural y la libertad de creación; insiste en que los datos de usuario recopilados por la inteligencia artificial, como las preferencias culturales o los resultados educativos, no deben trasmitirse o utilizarse sin el conocimiento de su titular;

14. Toma nota de que el deporte siempre se ha adherido a la innovación tecnológica; considera, sin embargo, que el uso de las tecnologías de inteligencia artificial, que se está difundiendo rápidamente en las competiciones deportivas, plantea cada vez más cuestiones sobre la competencia leal en el deporte, puesto que los equipos que más recursos financieros tienen pueden adquirir la mejor tecnología, lo que les puede conceder una ventaja desleal; subraya que se ha de seguir de cerca esa evolución y que ese ámbito necesita contar con un marco reglamentario que aplique criterios éticos y centrados en los seres humanos al desarrollo y el uso de las tecnologías de inteligencia artificial; pide la plena transparencia para los algoritmos y las tecnologías que se utilizan en el deporte a fin de garantizar la igualdad de condiciones.


INFORMACIÓN SOBRE LA APROBACIÓN
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

Fecha de aprobación

31.8.2020

 

 

 

Resultado de la votación final

+:

–:

0:

28

0

2

Miembros presentes en la votación final

Isabella Adinolfi, Christine Anderson, Ilana Cicurel, Gilbert Collard, Gianantonio Da Re, Laurence Farreng, Tomasz Frankowski, Romeo Franz, Hannes Heide, Irena Joveva, Petra Kammerevert, Niyazi Kizilyürek, Predrag Fred Matić, Dace Melbārde, Victor Negrescu, Peter Pollák, Marcos Ros Sempere, Andrey Slabakov, Massimiliano Smeriglio, Michaela Šojdrová, Sabine Verheyen, Salima Yenbou, Milan Zver

Suplentes presentes en la votación final

Isabel Benjumea Benjumea, Christian Ehler, Ibán García Del Blanco, Bernard Guetta, Marcel Kolaja, Elżbieta Kruk, Martina Michels

 


 

VOTACIÓN FINAL NOMINAL
EN LA COMISIÓN COMPETENTE PARA EMITIR OPINIÓN

 

28

+

PPE

Isabel Benjumea Benjumea, Christian Ehler, Tomasz Frankowski, Peter Pollák, Michaela Šojdrová, Sabine Verheyen, Milan Zver

S&D

Ibán García del Blanco, Hannes Heide, Petra Kammerevert, Predrag Fred Matić, Victor Negrescu, Marcos Ros Sempere, Massimiliano Smeriglio

RENEW

Ilana Cicurel, Laurence Farreng, Bernard Guetta, Irena Joveva

ID

Gilbert Collard

VERTS/ALE

Romeo Franz, Marcel Kolaja, Salima Yenbou

ECR

Elżbieta Kruk, Dace Melbārde, Andrey Slabakov

GUE/NGL

Niyazi Kizilyürek, Martina Michels

NI

Isabella Adinolfi

 

0

-

-

-

 

2

0

ID

Christine Anderson, Gianantonio Da Re

 

Explicación de los signos utilizados

+ : a favor

- : en contra

0 : abstenciones

 

 

 

 


 

INFORMACIÓN SOBRE LA APROBACIÓN EN LA COMISIÓN COMPETENTE PARA EL FONDO

Fecha de aprobación

1.10.2020

 

 

 

Resultado de la votación final

+:

–:

0:

20

0

4

Miembros presentes en la votación final

Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, Raffaele Stancanelli, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos

Suplentes presentes en la votación final

Patrick Breyer, Evelyne Gebhardt

 


VOTACIÓN FINAL NOMINAL EN LA COMISIÓN COMPETENTE PARA EL FONDO

20

+

PPE

Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos

S&D

Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken

Renew

Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara

Verts/ALE

Patrick Breyer, Marie Toussaint

ECR

Angel Dzhambazki, Raffaele Stancanelli

NI

Mislav Kolakušić

 

0

-

 

 

 

 

 

4

0

ID

Gunnar Beck, Jean Paul Garraud, Gilles Lebreton

GUE/NGL

Manon Aubry

 

Explicación de los signos utilizados

+ : a favor

- : en contra

0 : abstenciones

 

 

 

 

[1] DO L 252 de 8.10.2018, p. 1.

[2] DO L 180 de 19.7.2000, p. 22.

[3] DO L 303 de 2.12.2000, p. 16.

[4] DO L 119 de 4.5.2016, p. 1.

[5] DO L 119 de 4.5.2016, p. 89.

[6] DO L 123 de 12.5.2016, p. 1.

[7] DO C 252 de 18.7.2018, p. 239.

[8] DO C 307 de 30.8.2018, p. 163.

[9] DO C 433 de 23.12.2019, p. 86.

[10] Textos Aprobados, P8_TA(2018)0332.

[11] Textos Aprobados, P8_TA(2019)0081.

[12] Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones, titulada «Una Estrategia Europea de Datos» COM(2020)0066

[13] Para la conducción automatizada de vehículos, la norma SAE J3016 (actualizada por última vez en 2018 como J3016_201806) ha propuesto seis niveles de automatización de la conducción, https://www.sae.org/standards/content/j3016_201806/

[14]  Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos) (DO L 119 de 4.5.2016, p. 1).

[15]  Directiva 2002/58/CE del Parlamento Europeo y del Consejo, de 12 de julio de 2002, relativa al tratamiento de los datos personales y a la protección de la intimidad en el sector de las comunicaciones electrónicas (Directiva sobre la privacidad y las comunicaciones electrónicas) (DO L 201 de 31.7.2002, p. 37).

[16] Adaptación de la definición que figura en la Comunicación de la Comisión Europea COM(2018) 237 final, de 25.4.2018, p. 1.

[17] A partir de la definición de robots industriales de la norma ISO 8373.

[18]  Directiva (UE) 2019/1937 del Parlamento Europeo y del Consejo, de 23 de octubre de 2019, relativa a la protección de las personas que informen sobre infracciones del Derecho de la Unión (DO L 305 de 26.11.2019, p. 17).

[19] Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos) (DO L 119 de 4.5.2016, p. 1).

[20] Decisión n.º 768/2008/CE del Parlamento Europeo y del Consejo, de 9 de julio de 2008, sobre un marco común para la comercialización de los productos y por la que se deroga la Decisión 93/465/CEE del Consejo (DO L 218 de 13.8.2008, p. 82).

[21] COD (2018) 0089, en curso de publicación.

[22] Directiva (UE) 2019/882 del Parlamento Europeo y del Consejo, de 17 de abril de 2019, sobre los requisitos de accesibilidad de los productos y servicios (DO L 151 de 7.6.2019, p. 70).

[23] DO L 180 de 19.7.2000, p. 22.

[24] DO L 303 de 2.12.2000, p. 16.

[25] DO L 119 de 4.5.2016, p. 1.

[26] DO L 119 de 4.5.2016, p. 89.

[27] DO C 252 de 18.7.2018, p. 239.

[28] Comunicación de la Comisión sobre Inteligencia artificial para Europa, COM(2018) 237 final.

[29] STOA: «The ethics of artificial intelligence: issues and initiatives» (La ética de la inteligencia artificial: problemas e iniciativas), marzo de 2020.

[30] Parlamento Europeo: «Encouraging STEM Studies for the labour market» (Promoción de las enseñanzas de ciencia, tecnología, ingeniería y matemáticas para el mercado de trabajo), marzo de 2015.

[31] Cedefop, Encuesta europea sobre capacidades y puestos de trabajo.