Relatório - A9-0186/2020Relatório
A9-0186/2020

RELATÓRIO que contém recomendações à Comissão sobre o quadro dos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas

8.10.2020 - (2020/2012(INL))

Comissão dos Assuntos Jurídicos
Relator: Ibán García del Blanco
Relatores de pareceres (*):
Urmas Paet, Comissão dos Assuntos Externos
Alexandra Geese, Comissão do Mercado Interno e da Proteção dos Consumidores
Valter Flego, Comissão dos Transportes e do Turismo
Assita Kanko, Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos
(*) Comissões associadas – Artigo 57.º do Regimento
(Iniciativa – artigo 47.º do Regimento)


Processo : 2020/2012(INL)
Ciclo de vida em sessão
Ciclo relativo ao documento :  
A9-0186/2020

PROPOSTA DE RESOLUÇÃO DO PARLAMENTO EUROPEU

que contém recomendações à Comissão sobre o quadro dos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas

(2020/2012(INL))

O Parlamento Europeu,

 Tendo em conta o artigo 225.º do Tratado sobre o Funcionamento da União Europeia,

 Tendo em conta o artigo 114.º do Tratado sobre o Funcionamento da União Europeia,

 Tendo em conta a Carta dos Direitos Fundamentais da União Europeia,

 Tendo em conta o Regulamento (UE) 2018/1488 do Conselho, de 28 de setembro de 2018, que cria a Empresa Comum para a Computação Europeia de Alto Desempenho[1],

 Tendo em conta a Diretiva 2000/43/CE do Conselho, de 29 de junho de 2000, que aplica o princípio da igualdade de tratamento entre as pessoas, sem distinção de origem racial ou étnica[2] (Diretiva «Igualdade Racial»),

 Tendo em conta a Diretiva 2000/78/CE do Conselho, de 27 de novembro de 2000, que estabelece um quadro geral de igualdade de tratamento no emprego e na atividade profissional[3] (Diretiva «Igualdade de Tratamento no Emprego»),

 Tendo em conta o Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados)[4], bem como a Diretiva (UE) 2016/680 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativa à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais pelas autoridades competentes para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou execução de sanções penais, e à livre circulação desses dados, e que revoga a Decisão-Quadro 2008/977/JAI do Conselho[5],

 Tendo em conta o Acordo Interinstitucional, de 13 de abril de 2016, sobre Legislar Melhor[6],

 Tendo em conta a proposta de regulamento do Parlamento Europeu e do Conselho, de 6 de junho de 2018, que cria o programa Europa Digital para o período de 2021-2027 (COM(2018)0434),

 Tendo em conta a Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões, de 11 de dezembro de 2019, sobre o Pacto Ecológico Europeu (COM(2019)0640),

 Tendo em conta a Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões, de 19 de fevereiro de 2020, sobre a inteligência artificial - Uma abordagem europeia virada para a excelência e a confiança (COM(2020)0065),

 Tendo em conta a Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões, de 19 de fevereiro de 2020, intitulada «Uma estratégia europeia para os dados» (COM(2020) 0066),

 Tendo em conta a Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões, de 19 de fevereiro de 2020, intitulada «Construir o futuro digital da Europa» (COM(2020)0067),

 Tendo em conta as Conclusões do Conselho de União Europeia intituladas «Construir o futuro digital da Europa», de junho de 2020.

 Tendo em conta a sua Resolução, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica[7],

 Tendo em conta a sua Resolução, de 1 de junho de 2017, sobre a digitalização da indústria europeia[8],

 Tendo em conta a sua Resolução, de 12 de setembro de 2018, sobre sistemas de armamento autónomos[9],

 Tendo em conta a sua Resolução, de 11 de setembro de 2018, sobre a igualdade linguística na era digital[10],

 Tendo em conta a sua Resolução, de 12 de fevereiro de 2019, sobre uma política industrial europeia completa no domínio da inteligência artificial e da robótica[11],

 Tendo em conta o relatório, de 8 de abril de 2019, intitulado «Orientações éticas para uma IA de confiança», elaborado pelo Grupo de peritos de alto nível sobre a inteligência artificial criado pela Comissão,

 Tendo em conta as comunicações e os estudos elaborados a pedido do Painel para o Futuro da Ciência e da Tecnologia (STOA), gerido pela Unidade de Estudos Científicos Prospetivos do Serviço de Estudos do Parlamento Europeu, intitulado «What if algorithms could abide by ethical principles» (E se os algoritmos obedecessem a princípios éticos?), «Artificial Intelligence ante portas: Legal & ethical reflections» (Inteligência Artificial ante portas: reflexões legais e éticas), «A governance framework for algorithmic accountability and transparency» (Um quadro de governação para a responsabilização e a transparência dos algoritmos), «Should we fear artificial intelligence?» (Devemos recear a inteligência artificial?) e «The ethics of artificial intelligence: Issues and initiatives» (A ética na inteligência artificial: questões e iniciativas),

 Tendo em conta a Convenção-Quadro para a Proteção das Minorias Nacionais do Conselho da Europa, o Protocolo n.º 12 à Convenção para a Proteção dos Direitos do Homem e das Liberdades Fundamentais e a Carta Europeia das Línguas Regionais ou Minoritárias,

 Tendo em conta a Recomendação do Conselho da OCDE sobre inteligência artificial, aprovada em 22 de maio de 2019,

 Tendo em conta os artigos 47.º e 54.º do seu Regimento,

 Tendo em conta os pareceres da Comissão dos Assuntos Externos, da Comissão do Mercado Interno e da Proteção dos Consumidores, da Comissão dos Transportes e do Turismo, da Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos, da Comissão do Emprego e dos Assuntos Sociais, da Comissão do Ambiente, da Saúde Pública e da Segurança Alimentar e da Comissão da Cultura e da Educação,

 Tendo em conta o relatório da Comissão dos Assuntos Jurídicos (A9-0186/2020),

Introdução

A. Considerando que o desenvolvimento, a implantação e a utilização da inteligência artificial (também conhecida como «IA»), da robótica e das tecnologias conexas são feitos pelos seres humanos e que as suas escolhas determinam o potencial dessas tecnologias para beneficiar a sociedade;

B. Considerando que a inteligência artificial, a robótica e as tecnologias conexas com potencial para gerar oportunidades para as empresas e para os cidadãos e suscetíveis de ter um impacto direto em todos os aspetos das nossas sociedades, incluindo os direitos fundamentais e os princípios e valores sociais e económicos, bem como ter uma influência duradoura em todos os domínios de atividade, estão a ser promovidas e desenvolvidas rapidamente;

C. Considerando que a inteligência artificial, a robótica e as tecnologias conexas conduzirão a mudanças substanciais no mercado laboral e no local de trabalho; que podem eventualmente substituir os trabalhadores que exercem atividades repetitivas, criar modelos de trabalho assentes na colaboração homem-máquina, aumentar a competitividade e a prosperidade e criar novas oportunidades de emprego para os trabalhadores qualificados, colocando em simultâneo um grande desafio em termos de reorganização da mão de obra;

D. Considerando que o desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas pode também contribuir para a consecução dos objetivos do Pacto Ecológico Europeu em muitos setores diferentes; que as tecnologias digitais podem impulsionar o impacto das políticas no que respeita à proteção do ambiente; que podem também contribuir para reduzir o congestionamento do tráfego e as emissões de gases com efeito de estufa e de poluentes atmosféricos;

E. Considerando que, em setores como os transportes públicos, os sistemas de transporte inteligentes apoiados na inteligência artificial podem ser utilizados para minimizar as filas, otimizar a seleção de percursos, permitir que as pessoas com deficiência se tornem mais independentes e aumentar a eficiência energética, reforçando assim os esforços de descarbonização e reduzindo a pegada ambiental;

F. Considerando que, se forem mais utilizadas, por exemplo, no setor dos transportes, essas tecnologias fazem surgir novas oportunidades de negócio que podem contribuir para a recuperação da indústria da União após a atual crise económica e sanitária; que tais oportunidades podem criar novos postos de trabalho, uma vez que a adoção destas tecnologias tem potencial para aumentar os níveis de produtividade das empresas e contribuir para ganhos de eficiência; que os programas de inovação neste domínio podem fazer com que os polos regionais prosperem;

G. Considerando que a União e os seus Estados-Membros têm uma responsabilidade particular em aproveitar, promover e reforçar o valor acrescentado da inteligência artificial e em garantir que as tecnologias de inteligência artificial sejam seguras e contribuam para o bem-estar e o interesse geral dos seus cidadãos, uma vez que podem dar um enorme contributo para a consecução do objetivo comum de melhorar a vida dos cidadãos e fomentar a prosperidade na União, contribuindo para o desenvolvimento de melhores estratégias e a inovação em vários domínios e setores; que, a fim de explorar todo o potencial da inteligência artificial e sensibilizar os utilizadores para os benefícios e os desafios associados às tecnologias de inteligência artificial, é necessário incluir a inteligência artificial ou a literacia digital no ensino e na formação, nomeadamente em termos de promoção da inclusão social, assim como efetuar campanhas de informação à escala da União que representem com precisão todos os aspetos inerentes ao desenvolvimento da inteligência artificial;

H. Considerando que um quadro regulamentar comum da União para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas na União («quadro regulamentar para a inteligência artificial») deve permitir que os cidadãos partilhem os benefícios resultantes do seu potencial, protegendo-os dos potenciais riscos dessas tecnologias e promovendo a fidedignidade das mesmas na União e não só; que esse quadro deve basear-se no direito e nos valores da União e ser orientado pelos princípios da transparência e da explicabilidade, da equidade, da prestação de contas e da responsabilidade;

I. Considerando que esse quadro regulamentar se reveste de uma importância fundamental para evitar a fragmentação do mercado interno, resultante de diferentes legislações nacionais, e ajudará a promover o tão necessário investimento, a desenvolver infraestruturas de dados e a apoiar a investigação; que deve consistir em obrigações jurídicas comuns e princípios éticos tal como estabelecidos na proposta de regulamento solicitada no anexo da presente resolução; que deve ser estabelecido de acordo com as orientações para legislar melhor;

J. Considerando que a União dispõe de um quadro jurídico rigoroso para assegurar, nomeadamente, a proteção dos dados pessoais e da privacidade e a não discriminação e para promover a igualdade de género, a proteção do ambiente e os direitos dos consumidores; que esse quadro jurídico, constituído por um vasto corpo de legislação transversal e setorial, incluindo as normas existentes em matéria de segurança dos produtos e responsabilidade, continuará a aplicar-se em relação à inteligência artificial, à robótica e às tecnologias conexas, embora possam ser necessários determinados ajustamentos de instrumentos jurídicos específicos para refletir a transformação digital e dar resposta aos novos desafios colocados pela utilização da inteligência artificial;

K. Considerando que existem preocupações quanto ao facto de o atual quadro jurídico da União, nomeadamente a legislação em matéria de defesa do consumidor e acervo social e de emprego, a legislação em matéria de proteção de dados, a legislação relativa à segurança dos produtos e à fiscalização do mercado, bem como a legislação contra a discriminação, poderem já não ser adequadas para combater eficazmente os riscos criados pela inteligência artificial, pela robótica e pelas tecnologias conexas;

L. Considerando que, para além de ajustamentos à legislação em vigor, as questões jurídicas e éticas relacionadas com as tecnologias de inteligência artificial devem ser abordadas através de um quadro regulamentar eficaz, abrangente e preparado para o futuro do direito da União que reflita os princípios e valores da União, tal como consagrados nos Tratados e na Carta dos Direitos Fundamentais, que deve evitar o excesso de regulamentação, colmatando apenas as lacunas jurídicas existentes e aumentando a segurança jurídica para as empresas e os cidadãos, nomeadamente através da inclusão de medidas obrigatórias destinadas a evitar práticas que, sem dúvida, poriam em causa os direitos fundamentais;

M. Considerando que qualquer novo quadro regulamentar deve tomar em consideração todos os interesses em causa; que uma análise cuidadosa das consequências de qualquer novo quadro regulamentar para todas as partes interessadas, através de uma avaliação de impacto, deve ser uma condição prévia para a adoção de novas medidas legislativas; que o papel essencial das pequenas e médias empresas (PME) e das empresas em fase de arranque, sobretudo para a economia da União, justifica uma abordagem estritamente proporcional que permita que se desenvolvam e inovem.

 

N. Considerando que a inteligência artificial, a robótica e as tecnologias conexas podem ter graves implicações para a integridade material e imaterial de indivíduos, de grupos e da sociedade no seu conjunto, e que os potenciais danos individuais e coletivos devem ser abordados com respostas legislativas;

O. Considerando que, a fim de respeitar um quadro regulamentar da União para a inteligência artificial, pode ser necessário adotar regras específicas para o setor dos transportes da União;

P. Considerando que as tecnologias de inteligência artificial são de importância estratégica para o setor dos transportes, nomeadamente devido ao aumento da segurança e acessibilidade de todos os modos de transporte e à criação de novas oportunidades de emprego e de modelos empresariais mais sustentáveis; que uma abordagem da União em relação ao desenvolvimento da  inteligência artificial, da robótica e das tecnologias conexas nos transportes tem potencial para aumentar a competitividade global e a autonomia estratégica da economia da União;

Q. Considerando que o erro humano continua presente em cerca de 95 % da totalidade de acidentes de viação na União; que a UE tinha como objetivo reduzir em 50 % até 2020 o número de vítimas mortais em acidentes rodoviários na União, em comparação com 2010, mas que, tendo em conta a estagnação dos progressos, renovou os seus esforços no quadro da política de segurança rodoviária para 2021-2030 - Próximas etapas para uma «Visão Zero»; que, neste sentido, a inteligência artificial, a automatização e outras novas tecnologias possuem um grande potencial e são de uma importância vital para o aumento da segurança rodoviária mediante a redução da possibilidade de erro humano;

R. Considerando que o quadro regulamentar da União em matéria de inteligência artificial deve igualmente refletir a necessidade de garantir o respeito dos direitos dos trabalhadores; que se deve ter em conta o acordo-quadro dos parceiros sociais europeus sobre a digitalização, de junho de 2020;

S. Considerando que o âmbito desse quadro regulamentar da União para a inteligência artificial deve ser adequado, proporcional e avaliado de forma exaustiva; que deve abranger uma vasta gama de tecnologias e respetivos componentes, nomeadamente algoritmos, software e dados por elas utilizados ou produzidos, sendo necessária uma abordagem específica orientada para os riscos para evitar prejudicar a inovação futura e a criação de encargos desnecessários, especialmente para as PME; que a diversidade de aplicações impulsionadas pela inteligência artificial, pela robótica e pelas tecnologias conexas dificulta a busca de uma solução única adequada a todo o espetro de riscos;

T. Considerando que a análise de dados e a inteligência artificial têm um impacto cada vez maior na informação disponibilizada aos cidadãos; que essas tecnologias, quando usadas indevidamente, podem pôr em perigo os direitos fundamentais à liberdade de expressão e à informação, assim como a liberdade dos meios de comunicação social e o pluralismo;

U. Considerando que o âmbito geográfico do quadro regulamentar da União para a inteligência artificial deve abranger todas as componentes da inteligência artificial, da robótica e das tecnologias conexas desenvolvidas, implantadas ou utilizadas na União, designadamente nos casos em que uma parte das tecnologias se encontre fora da União ou não tenha uma localização específica;

V. Considerando que o quadro regulamentar da União para a inteligência artificial deve abranger todas as fases relevantes, nomeadamente o desenvolvimento, a implantação e a utilização das tecnologias pertinentes e dos seus componentes, tendo em devida conta as obrigações jurídicas e os princípios éticos relevantes, e deve definir as condições para garantir que os promotores, os responsáveis pela implantação e os utilizadores estejam plenamente conformes com essas obrigações e princípios;

W. Considerando que uma abordagem harmonizada dos princípios éticos relacionados com a inteligência artificial, a robótica e as tecnologias conexas exige a existência na União de um entendimento comum dos conceitos que estão na base das tecnologias, tais como algoritmos, software, dados ou reconhecimento biométrico;

X. Considerando que a ação à escala da União se justifica pela necessidade de evitar a fragmentação regulamentar ou um conjunto de disposições regulamentares nacionais sem um denominador comum e de assegurar uma aplicação homogénea de princípios éticos comuns consagrados no direito aquando do desenvolvimento, da implantação e da utilização da inteligência artificial, da robótica e das tecnologias conexas; que são necessárias regras claras nos casos em que os riscos sejam significativos;

Y. Considerando que os princípios éticos comuns só são eficazes se também forem consagrados na legislação e se forem identificados as entidades responsáveis por assegurar, avaliar e controlar o seu cumprimento;

Z. Considerando que orientações éticas, como os princípios adotados pelo grupo de peritos de alto nível sobre a inteligência artificial, constituem um bom ponto de partida, mas não podem assegurar que os promotores, os responsáveis pela implantação e os utilizadores atuem de forma equitativa e garantam uma proteção eficaz das pessoas; que essas orientações são ainda mais relevantes no que diz respeito à inteligência artificial, à robótica e às tecnologias conexas de alto risco;

AA. Considerando que cada Estado-Membro deve designar uma autoridade nacional de controlo responsável por assegurar, avaliar e controlar a conformidade do desenvolvimento, da implantação e da utilização da inteligência artificial, da robótica e das tecnologias conexas com o quadro regulamentar da União para a inteligência artificial, bem como por assegurar o debate e o intercâmbio de pontos de vista em estreita cooperação com as partes interessadas pertinentes e a sociedade civil; que as autoridades supervisoras nacionais devem cooperar entre si;

AB. Considerando que, a fim de assegurar uma abordagem harmonizada em toda a União e o bom funcionamento do mercado único digital, a coordenação a nível da União, levada a cabo pela Comissão e/ou por quaisquer instituições, organismos, serviços e agências da União que possam ser designados neste contexto, deve ser avaliada no que respeita a novas oportunidades e desafios, em especial de natureza transfronteiriça, decorrentes dos desenvolvimentos tecnológicos em curso; que, para o efeito, a Comissão deve ser encarregada de encontrar uma solução adequada para estruturar essa coordenação a nível da União;

Uma inteligência artificial antropocêntrica e antropogénica

1. Considera que, sem prejuízo da legislação setorial, é necessário um quadro regulamentar eficaz e harmonizado, baseado no direito da União, na Carta dos Direitos Fundamentais da União Europeia («Carta») e no direito internacional em matéria de direitos humanos, aplicável, em particular, às tecnologias de alto risco, a fim de estabelecer normas iguais em toda a União e de proteger eficazmente os valores da União;

2. Considera que qualquer novo quadro regulamentar para a inteligência artificial, constituído por obrigações jurídicas e princípios éticos para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, deve respeitar plenamente a Carta e, dessa forma, respeitar a dignidade humana, a autonomia e a autodeterminação dos indivíduos, prevenir danos, promover a equidade, a inclusão e a transparência, eliminar os preconceitos e a discriminação, nomeadamente em relação a grupos minoritários, respeitar os princípios de limitação das externalidades negativas da tecnologia utilizada, de explicabilidade das tecnologias e de garantia de que as tecnologias existem para servir as pessoas e não para as substituir ou decidir por elas, com o objetivo último de aumentar o bem-estar para todos os seres humanos;

3. Destaca a assimetria entre os que empregam tecnologias de IA e aqueles que interagem e estão sujeitos a essas tecnologias; salienta, neste contexto, que a confiança dos cidadãos na IA só pode ser conseguida com base num quadro regulamentar de ética por definição e desde a conceção que garanta que toda e qualquer IA posta em funcionamento respeite integralmente os Tratados, a Carta e o direito derivado da União; considera que tal abordagem deve ser consentânea com o princípio da precaução que orienta a legislação da União e deve estar no cerne de qualquer quadro regulamentar para a IA; requer, a este respeito, um modelo de governação claro e coerente que permita às empresas e aos inovadores prosseguir o desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas;

4. Considera que qualquer ação legislativa relacionada com a inteligência artificial, a robótica e as tecnologias conexas deve estar em conformidade com os princípios da necessidade e da proporcionalidade;

5.  Considera que uma abordagem deste tipo permitirá às empresas introduzir produtos inovadores no mercado e criar novas oportunidades, assegurando simultaneamente a proteção dos valores da União, conduzindo ao desenvolvimento de sistemas de IA que incorporem os princípios éticos da União desde a conceção; entende que um tal quadro regulamentar baseado em valores constituiria um valor acrescentado, conferindo à Europa uma vantagem competitiva única e contribuindo de forma significativa para o bem-estar e a prosperidade dos cidadãos e das empresas da União mediante o fomento do mercado interno; sublinha que um tal quadro regulamentar para a inteligência artificial também constituirá um valor acrescentado no que respeita a promover a inovação no mercado interno; considera que, por exemplo, no setor dos transportes, esta abordagem oferece às empresas da União a oportunidade de se tornarem líderes mundiais neste domínio;

6. Observa que o quadro regulamentar da União deve ser aplicável à inteligência artificial, à robótica e às tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias;

7. Observa que as oportunidades baseadas na inteligência artificial, na robótica e nas tecnologias conexas dependem dos megadados, sendo necessário existir uma massa crítica de dados para treinar os algoritmos e afinar os resultados; saúda, a este respeito, a proposta da Comissão relativa à criação de um espaço comum de dados na União para reforçar o intercâmbio de dados e apoiar a investigação, respeitando plenamente as regras europeias em matéria de proteção de dados;

8. Considera que o atual quadro jurídico da União, especialmente em matéria de proteção e privacidade dos dados pessoais, terá de ser plenamente aplicado à IA, à robótica e às tecnologias conexas e precisa de ser periodicamente revisto e controlado e atualizado sempre que necessário, a fim de combater eficazmente os riscos criados por estas tecnologias, podendo, a este respeito, beneficiar do facto de ser completado com sólidos princípios éticos orientadores; salienta que, nos casos em que a adoção de atos jurídicos se revele prematura, deve ser utilizado um quadro não vinculativo;

9. Espera que a Comissão integre uma abordagem ética sólida na proposta legislativa solicitada no anexo desta resolução, no seguimento do Livro Branco sobre a Inteligência Artificial, nomeadamente em matéria de segurança, responsabilidade e direitos fundamentais, que maximize as oportunidades e minimize os riscos das tecnologias de IA; espera que a proposta legislativa solicitada inclua soluções políticas para os principais riscos reconhecidos da inteligência artificial, como sejam a recolha e a utilização éticas de megadados, a questão da transparência algorítmica e os enviesamentos algorítmicos; insta a Comissão a desenvolver critérios e indicadores para a rotulagem das tecnologias de IA, a fim de estimular a transparência, a explicabilidade e a prestação de contas e incentivar a adoção de medidas de precaução adicionais por parte dos promotores; salienta a necessidade de investir na integração de disciplinas não técnicas no estudo e investigação sobre IA que tenham em conta o contexto social;

10. Considera que a inteligência artificial, a robótica e as tecnologias conexas devem ser adaptadas às necessidades humanas, em conformidade com o princípio segundo o qual o seu desenvolvimento, implantação e utilização devem estar sempre ao serviço do ser humano e nunca o contrário, e devem procurar melhorar o bem-estar e a liberdade individual, bem como preservar a paz, prevenir conflitos e reforçar a segurança internacional, maximizando, ao mesmo tempo, os benefícios oferecidos e prevenindo e reduzindo os seus riscos;

11. Declara que o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas de alto risco, nomeadamente, mas não de forma exclusiva, por seres humanos, devem ser sempre orientados eticamente e concebidos para respeitar e permitir a ação humana e o controlo democrático, bem como permitir a recuperação do controlo humano quando necessário mediante a aplicação de medidas de controlo adequadas;

Avaliação dos riscos

12. Salienta que qualquer futura regulamentação deve seguir uma abordagem diferenciada, orientada para o futuro e baseada nos riscos para regulamentar a inteligência artificial, a robótica e as tecnologias conexas, incluindo normas tecnologicamente neutras em todos os setores, com normas setoriais específicas, se for caso disso; observa que, para assegurar a aplicação uniforme do sistema de avaliação dos riscos e que há conformidade com as obrigações legais conexas para assegurar condições de concorrência equitativas entre os Estados-Membros e evitar a fragmentação do mercado interno, é necessária uma lista exaustiva e cumulativa de setores de alto risco e de utilizações ou finalidades de alto risco; salienta que essa lista deve ser objeto de reavaliação periódica e observa que, tendo em conta o caráter evolutivo destas tecnologias, a forma como a avaliação dos riscos é realizada poderá ter de ser reavaliada no futuro;

13. Considera que, pare determinar se a inteligência artificial, a robótica e as tecnologias conexas devem ser consideradas de alto risco e assim estar sujeitas ao cumprimento obrigatório das obrigações jurídicas e dos princípios éticos previstos no quadro regulamentar para a AI, é conveniente realizar sempre uma avaliação ex ante imparcial, regulamentada e externa assente em critérios concretos e definidos;

14. Considera, neste contexto, que a inteligência artificial, a robótica e as tecnologias conexas devem ser sempre consideradas de alto risco se o seu desenvolvimento, a sua implantação e a sua utilização implicarem um risco significativo de prejudicar ou de causar danos às pessoas ou à sociedade, em violação dos direitos fundamentais e das regras de segurança previstas no direito da União; considera que, para avaliar se as tecnologias de IA implicam um tal risco, há que ter em conta o setor em que são desenvolvidas, implantadas ou utilizadas, a sua finalidade ou o seu uso específicos, bem como a gravidade do prejuízo ou dos danos que possam vir a ocorrer; destaca que o primeiro e o segundo critérios, a saber, o setor e a utilização ou a finalidade específicas, devem ser considerados cumulativamente;

15. Sublinha que a avaliação de risco destas tecnologias deve ser feita com base numa lista exaustiva e cumulativa de setores de alto risco e de utilizações e finalidades de alto risco; está profundamente convicto de que deve haver coerência na União no que diz respeito à avaliação dos riscos destas tecnologias, especialmente quando avaliadas à luz do seu respeito pelo quadro regulamentar para a IA e em conformidade com qualquer outra legislação setorial aplicável;

16. Considera que esta abordagem baseada no risco deve ser desenvolvida de forma a limitar os encargos administrativos para as empresas e, em particular, as PME, utilizando, tanto quanto possível, os instrumentos existentes; refere que tais instrumentos incluem, entre outros, a lista de avaliação de impacto sobre a proteção de dados prevista no Regulamento (UE) 2016/679;

Caraterísticas de segurança, transparência e responsabilização

17. Recorda que o direito à informação dos consumidores está consagrado como um princípio fundamental ao abrigo do direito da União e sublinha que, por conseguinte, deve ser plenamente aplicado em relação à inteligência artificial, à robótica e às tecnologias conexas; considera que deve incluir, em especial, a transparência no que respeita à interação com os sistemas de inteligência artificial, incluindo os processos de automatização, e ao seu modo de funcionamento, capacidades, por exemplo, a forma como as informações são filtradas e apresentadas, a exatidão e as limitações; considera que essas informações devem ser prestadas às autoridades nacionais de supervisão e às autoridades nacionais de defesa do consumidor;

18. Sublinha que a confiança dos consumidores é essencial para o desenvolvimento e implementação destas tecnologias, que podem comportar riscos inerentes quando se baseiam em algoritmos opacos e em conjuntos de dados que contêm enviesamentos; considera que os consumidores devem ter o direito de ser informados de forma adequada, compreensível, atempada, normalizada, rigorosa e acessível sobre a existência, a fundamentação e os eventuais resultados e consequências para os consumidores dos sistemas algorítmicos, sobre como contactar um ser humano com poder de decisão e sobre o modo como as decisões do sistema podem ser verificadas, contestadas eficazmente e corrigidas; sublinha, neste contexto, a necessidade ter em conta e respeitar os princípios de informação e divulgação sobre os quais o acervo relativo aos consumidores assenta; considera necessário fornecer informações pormenorizadas aos utilizadores finais em relação ao funcionamento dos sistemas de transporte e dos veículos baseados na IA;

19. Observa que é essencial que os algoritmos e conjuntos de dados utilizados ou produzidos pela inteligência artificial, pela robótica e pelas tecnologias conexas sejam explicáveis e, quando estritamente necessário e no pleno respeito pela legislação da União em matéria de proteção de dados, privacidade e direitos de propriedade intelectual e segredos comerciais, sejam acessíveis às autoridades públicas, nomeadamente as autoridades nacionais de supervisão e as autoridades de fiscalização do mercado; observa ainda que, em conformidade com as normas o mais rigorosas possível aplicáveis ao setor, essa documentação deve ser armazenada pelos que intervêm nas diferentes fases do desenvolvimento de tecnologias de alto risco; assinala a possibilidade de as autoridades de fiscalização do mercado disporem de prerrogativas adicionais a esse respeito; salienta, a este respeito, o papel da engenharia inversa lícita; considera que poderá ser necessário proceder a uma análise da atual legislação em matéria de fiscalização do mercado para garantir que responde de forma ética à emergência da inteligência artificial, da robótica e das tecnologias conexas;

20. Insta à adoção de um requisito para criadores e responsáveis pela implantação de tecnologias de alto risco, sempre que uma avaliação dos riscos assim o indique, de disponibilizarem às autoridades públicas a documentação pertinente sobre a utilização, a conceção e as instruções de segurança, inclusive, sempre que estritamente necessário e no pleno respeito do direito da União em matéria de proteção de dados, privacidade, direitos de propriedade intelectual e segredos comerciais, o código-fonte, os instrumentos de desenvolvimento e os dados utilizados pelo sistema; observa que tal obrigação permitiria avaliar a sua conformidade com o direito da União e os princípios éticos e observa, a este respeito, o exemplo do depósito legal de publicações de uma biblioteca nacional; assinala a importância da distinção entre transparência dos algoritmos e transparência no seu uso;

21. Observa ainda que, a fim de respeitar a dignidade, autonomia e segurança humanas, devem ser tidos em devida conta os dispositivos médicos vitais e avançados e a necessidade de autoridades independentes de confiança conservarem os meios necessários para prestar serviços às pessoas que os utilizam, se o criador ou o responsável pela implantação originais já não os prestarem; refere, a título de exemplo, serviços que incluam manutenção, reparações e melhorias, nomeadamente atualizações de software que resolvam funcionamentos deficientes e vulnerabilidades;

22. Defende que a inteligência artificial, a robótica e as tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, independentemente do domínio em que são criadas, implantadas e utilizadas, sejam desenvolvidas, desde a conceção, de forma segura, rastreável, rigorosa do ponto de vista técnico, fiável, ética e juridicamente vinculativa e sejam sujeitas a controlo e de supervisão independentes; considera, em particular, que todos os intervenientes ao longo das cadeias de desenvolvimento e de fornecimento de produtos e serviços de inteligência artificial devem ser juridicamente responsáveis e salienta a necessidade de mecanismos que assegurem a responsabilidade e a prestação de contas;

23. Sublinha que a regulamentação e as orientações relativas à explicabilidade, à auditoria, à rastreabilidade e à transparência, quando tal seja exigido por uma avaliação dos riscos e estritamente necessário e respeitando plenamente o direito da União, como é o caso da proteção de dados, da privacidade, dos direitos de propriedade intelectual e dos segredos comerciais, bem como o acesso por parte das autoridades públicas aos sistemas tecnológicos, de dados e de computação subjacentes a essas tecnologias, são essenciais para garantir a confiança dos cidadãos nessas tecnologias, mesmo que o grau de explicabilidade dependa da complexidade das tecnologias; salienta que nem sempre é possível explicar por que motivo um modelo levou a um resultado ou decisão específicos, como é o caso dos algoritmos de caixa negra; considera, por conseguinte, que o respeito destes princípios é uma condição prévia para garantir a responsabilização;

24. Considera que os cidadãos, incluindo os consumidores, devem ser informados quando interagem com um sistema que utiliza inteligência artificial, nomeadamente para personalizar um produto ou serviço para os seus utilizadores, e sobre se é possível e de que forma podem desativar ou restringir a personalização;

25. Salienta, a este respeito, que, para serem fiáveis, a inteligência artificial, a robótica e as suas tecnologias conexas devem ser tecnicamente sólidas e exatas;

26. Salienta a importância da proteção das redes de IA e robótica interligadas e que devem ser tomadas medidas vigorosas para evitar violações da segurança, fugas de dados, contaminações de dados, ciberataques e utilizações indevidas de dados pessoais, pelo que será necessário que as agências, os órgãos e as instituições pertinentes, tanto a nível da União como local, colaborem entre si e com os utilizadores finais destas tecnologias; insta a Comissão e os Estados-Membros a zelarem por que os valores da União e o respeito dos direitos fundamentais sejam a todo o momento observados aquando do desenvolvimento e da implantação de tecnologias de IA, a fim de garantir a segurança e a resiliência da infraestrutura digital da União;

Não enviesamento e não discriminação

27. Recorda que, dependendo da forma como é criada e utilizada, a inteligência artificial tem potencial para criar e reforçar enviesamentos, nomeadamente através de enviesamentos inerentes aos conjuntos de dados subjacentes, e, portanto, criar várias formas de discriminação automatizada, incluindo a discriminação indireta, relativamente a determinados grupos de pessoas com características semelhantes; insta a Comissão e os Estados-Membros a tomarem todas as medidas possíveis para evitar tais distorções e assegurar a proteção plena dos direitos fundamentais;

28. Manifesta preocupação pelo facto de existirem riscos de enviesamento e discriminação no desenvolvimento, na implantação e na utilização da inteligência artificial, da robótica e das tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias; recorda que, em todas as circunstâncias, devem respeitar o direito da União, bem como os direitos humanos e a dignidade, a autonomia e a autodeterminação do indivíduo, e assegurar a igualdade de tratamento e a não discriminação para todos;

29. Salienta que as tecnologias de IA devem ser concebidas para respeitar, servir e proteger os valores da União e a integridade física e mental, defender a diversidade cultural e linguística da União e ajudar a satisfazer as necessidades essenciais; sublinha a necessidade de evitar qualquer utilização que possa levar a uma coerção direta ou indireta inadmissível, ameaçar prejudicar a autonomia psicológica e a saúde mental ou conduzir a uma vigilância injustificada, ao engano ou a uma manipulação inadmissível;

30. Acredita firmemente que os direitos humanos fundamentais consagrados na Carta devem ser rigorosamente respeitados, de modo a garantir que estas tecnologias emergentes não criem lacunas em termos de proteção;

31. Afirma que os eventuais enviesamento e discriminação por parte do software, algoritmos e dados podem causar danos manifestos aos indivíduos e à sociedade, pelo que devem ser abordados incentivando a criação e partilha de estratégias para os combater, como a eliminação do enviesamento de conjuntos de dados usados na investigação e no desenvolvimento e a criação de regras em matéria de tratamento de dados; considera que esta abordagem tem potencial para transformar software, algoritmos e dados num ativo na luta contra o enviesamento e a discriminação em determinadas situações, bem como numa força para a igualdade de direitos e numa mudança social positiva;

32. Considera que os valores éticos de equidade, exatidão, confidencialidade e transparência devem constituir a base destas tecnologias, o que, neste contexto, implica que as suas operações devem adotar uma forma que não gere resultados enviesados;

33. Sublinha a importância da qualidade dos conjuntos de dados utilizados na inteligência artificial, na robótica e nas tecnologias conexas dependendo do seu contexto, especialmente no que diz respeito à representatividade dos dados de treino usados, da correção do enviesamento nos conjuntos de dados, dos algoritmos usados e das normas relativas aos dados e à agregação; salienta que esses conjuntos de dados devem ser verificáveis pelas autoridades nacionais de supervisão sempre que estas sejam chamadas a garantir a sua conformidade com os princípios anteriormente enunciados;

34. Realça que, no contexto da guerra generalizada de desinformação conduzida, em particular, por intervenientes não europeus, as tecnologias de IA podem ter efeitos negativos em termos de ética, ao explorarem enviesamentos em dados e algoritmos ou através de dados de aprendizagem deliberadamente modificados por um país terceiro, podendo também estar expostas a outras formas de manipulação mal intencionadas, perigosas e imprevisíveis, com consequências incalculáveis; cumpre, por conseguinte, que a União continue a investir em investigação, na análise, na inovação e na transferência de conhecimentos transfronteiras e intersectorial, de modo a desenvolver tecnologias de IA que sejam claramente isentas de qualquer tipo de definição de perfis, de enviesamentos e de discriminação e possam, efetivamente, contribuir para combater as notícias falsas e a desinformação, respeitando, em simultâneo, a privacidade dos dados e o quadro jurídico da União;

35. Recorda a importância de garantir vias de recurso eficazes para as pessoas e insta os Estados-Membros a assegurarem a existência de procedimentos e mecanismos de recurso acessíveis, económicos, independentes e eficazes para garantir uma análise imparcial, feita por seres humanos, de todas as alegações de violação dos direitos dos cidadãos, como os direitos civis ou os direitos dos consumidores, através do recurso a sistemas algorítmicos, quer imputáveis a intervenientes públicos, quer privados; sublinha a importância do projeto de Diretiva do Parlamento Europeu e do Conselho relativa a ações coletivas para proteger os interesses coletivos dos consumidores e que revoga a Diretiva 2009/22/CE, em relação à qual foi alcançado um acordo político em 22 de junho de 2020, no que respeita a casos que, no futuro, contestem a introdução ou a utilização em curso de um sistema de inteligência artificial que envolva violações dos direitos dos consumidores, ou solicitem a reparação de uma violação de direitos; solicita à Comissão e aos Estados-Membros que velem por que as organizações de consumidores, a nível nacional e da União, disponham de financiamento suficiente para ajudar os consumidores a exercerem o seu direito de recurso nos casos em que os seus direitos tenham sido violados;

36. Considera, por conseguinte, que qualquer pessoa singular ou coletiva deve poder recorrer de uma decisão da inteligência artificial, da robótica ou de uma tecnologia conexa que lhe seja prejudicial em violação do direito nacional ou da União;

37 Considera que, como primeiro ponto de contacto em caso de suspeita de violação do quadro regulamentar da União neste contexto, os consumidores poderiam igualmente enviar às autoridades nacionais de supervisão pedidos de recurso, com vista a assegurar a aplicação efetiva do referido quadro;

Responsabilidade social e igualdade de género

38. Salienta que a inteligência artificial, a robótica e as tecnologias conexas socialmente responsáveis têm um papel a desempenhar no que toca a contribuir para encontrar soluções que salvaguardem e promovam os valores e os direitos fundamentais da nossa sociedade, nomeadamente a democracia, o Estado de direito, a diversidade e a independência dos meios de comunicação social e uma informação objetiva e de livre acesso, a saúde e a prosperidade económica, a igualdade de oportunidades, os direitos sociais e laborais, a educação de qualidade, a proteção das crianças, a diversidade cultural e linguística, a igualdade de género, a literacia digital, a inovação e a criatividade; recorda a necessidade de garantir que os interesses de todos os cidadãos, incluindo os que são marginalizados ou que se encontram em situações de vulnerabilidade, como as pessoas com deficiência, sejam devidamente tidos em conta e representados;

39. Salienta a importância de alcançar um elevado nível de literacia digital generalizada e de formar profissionais altamente qualificados neste domínio, bem como de garantir o reconhecimento mútuo dessas qualificações em toda a União; frisa a necessidade de contar com equipas diversificadas compostas por criadores e engenheiros, por um lado, e os principais intervenientes na sociedade, por outro, a fim de evitar que os preconceitos de género e os preconceitos culturais sejam incluídos inadvertidamente em algoritmos, sistemas e aplicações de IA; apoia a criação de programas de ensino e atividades de sensibilização do público relativamente às implicações sociais, jurídicas e éticas da inteligência artificial;

40. Salienta a importância vital de garantir a liberdade de pensamento e de expressão, assegurando que estas tecnologias não promovam discursos de ódio ou atos de violência, e considera, assim, que impedir ou restringir a liberdade de expressão exercida digitalmente é ilegal ao abrigo dos princípios fundamentais da União, exceto quando o exercício deste direito fundamental implique atos ilegais;

41. Salienta que a inteligência artificial, a robótica e as tecnologias conexas podem contribuir para reduzir as desigualdades sociais e afirma que o modelo europeu para o seu desenvolvimento deve basear-se na confiança dos cidadãos e numa maior coesão social;

42. Salienta que a implantação de qualquer sistema de inteligência artificial não deve restringir indevidamente o acesso dos utilizadores a serviços públicos, como a segurança social; insta, por conseguinte, a Comissão a avaliar a forma como este objetivo pode ser alcançado;

43. Salienta a importância de uma investigação e um desenvolvimento responsáveis que visem maximizar o potencial pleno da inteligência artificial, da robótica e das tecnologias conexas para os cidadãos e para o bem público; solicita a mobilização de recursos da União e dos seus Estados-Membros, a fim de desenvolver e apoiar a inovação responsável;

44. Salienta que as competências tecnológicas serão cada vez mais importantes e, por conseguinte, será necessário atualizar continuamente os cursos de formação, em particular para as gerações futuras, e promover a requalificação das pessoas que já se encontram no mercado de trabalho; defende, a este respeito, que a inovação e a formação devem ser promovidas não só no setor privado, mas também no setor público;

45. Insiste em que o desenvolvimento, a implantação e a utilização destas tecnologias não devem traduzir-se em prejuízos ou danos de qualquer tipo para os indivíduos ou a sociedade, nem para o ambiente, e que, por conseguinte, os criadores, os responsáveis pela implantação e os utilizadores destas tecnologias devem ser responsabilizados por tais prejuízos ou danos, em conformidade com as normas pertinentes a nível nacional e da União em matéria de responsabilidade;

46. Insta os Estados-Membros a avaliarem se as perdas de postos de trabalho resultantes da implantação destas tecnologias devem conduzir a políticas públicas adequadas, como a redução do tempo de trabalho;

47. Defende que é extremamente necessária uma abordagem de conceção baseada em valores e princípios éticos da União para criar as condições para uma aceitação social generalizada da inteligência artificial, da robótica e das tecnologias conexas; considera que esta abordagem, que visa desenvolver uma inteligência artificial fiável, eticamente responsável e tecnicamente robusta, é um elemento importante para uma mobilidade sustentável e inteligente, segura e acessível;

48. Chama a atenção para o elevado valor acrescentado que os veículos autónomos representam para as pessoas com mobilidade reduzida, ao permitir que estas participem melhor no transporte rodoviário individual e, dessa forma, facilitar a sua vida quotidiana; salienta a importância da acessibilidade, especialmente na conceção dos sistemas MaaS (mobilidade enquanto serviço).

49. Insta a Comissão a continuar a apoiar o desenvolvimento de sistemas de IA fiáveis, a fim de tornar os transportes mais seguros, eficientes, acessíveis, económicos e inclusivos, nomeadamente para as pessoas com mobilidade reduzida, em particular as pessoas com deficiência, tendo em conta a Diretiva (UE) 2019/882, do Parlamento Europeu e do Conselho, e a legislação da União relativa aos direitos dos passageiros;

50. Considera que a IA pode ajudar a aproveitar melhor as aptidões e competências das pessoas com deficiência e que a aplicação da IA no local de trabalho pode contribuir para mercados de trabalho inclusivos e taxas de emprego mais elevadas para as pessoas com deficiência;

Ambiente e sustentabilidade

51. Afirma que a inteligência artificial, a robótica e as tecnologias conexas devem ser utilizados pelos governos e pelas empresas para beneficiar as populações e o planeta, contribuir para a consecução do desenvolvimento sustentável, a preservação do ambiente, a neutralidade climática e os objetivos da economia circular; considera que o desenvolvimento, a implantação e a utilização destas tecnologias devem contribuir para uma transição ecológica, proteger o ambiente, bem como minimizar e reparar quaisquer danos causados ao ambiente durante o seu ciclo de vida e ao longo de toda a sua cadeia de abastecimento em conformidade com o direito da União;

52. Considera que, tendo em conta o seu impacto ambiental significativo, para efeitos do número anterior, o impacto ambiental do desenvolvimento, da implantação e da utilização da inteligência artificial, da robótica e das tecnologias conexas poderá ser avaliado ao longo do ciclo de vida, sempre que pertinente e adequado, por autoridades setoriais específicas; entende que essa avaliação poderá incluir uma estimativa do impacto da extração dos materiais necessários, do consumo de energia e das emissões de gases com efeito de estufa causado pelo seu desenvolvimento, implantação e utilização;

53. Propõe, com o objetivo de desenvolver soluções de inteligência artificial  de ponta, que o potencial da inteligência artificial, da robótica e das tecnologias conexas seja explorado, incentivado e maximizado através de uma investigação e desenvolvimento responsáveis, o que exige a mobilização de recursos por parte da União e dos seus Estados-Membros;

54. Realça que o desenvolvimento, a implantação e a utilização destas tecnologias proporcionam oportunidades para a promoção dos Objetivos de Desenvolvimento Sustentável das Nações Unidas, da transição energética mundial e da descarbonização;

55. Considera que os objetivos de responsabilidade social, de equilíbrio de género, de proteção do ambiente e de sustentabilidade não devem prejudicar as obrigações gerais e setoriais vigentes nestes domínios; considera que devem ser estabelecidas orientações de execução não vinculativas para os criadores, os responsáveis pela implantação e os utilizadores, especialmente no que se refere às tecnologias de alto risco, relativamente à metodologia para avaliar a sua conformidade com o presente regulamento e a realização desses objetivos;

56. Insta a União a promover e financiar o desenvolvimento de inteligência artificial, robótica e tecnologias conexas centradas no ser humano que deem resposta aos desafios ambientais e climáticos e garantam o respeito dos direitos fundamentais através da utilização de incentivos fiscais, incentivos em matéria de contratação pública ou outros incentivos;

57. Salienta que, apesar da atualmente elevada pegada de carbono do desenvolvimento, da implantação e da utilização de inteligência artificial, da robótica e das tecnologias conexas, incluindo as decisões automatizadas e a aprendizagem automática, essas tecnologias podem contribuir para a redução da pegada ambiental atual do setor das TIC; sublinha que estas e outras tecnologias conexas devidamente regulamentadas deverão ser fatores determinantes para atingir os objetivos do Pacto Ecológico, os Objetivos de Desenvolvimento Sustentável das Nações Unidas e os objetivos do Acordo de Paris em muitos setores diferentes e deverão potenciar o impacto de políticas de proteção do ambiente, por exemplo, as políticas relativas à redução de resíduos e à degradação ambiental;

58. Insta a Comissão a realizar um estudo sobre o impacto da pegada carbónica das tecnologias de IA e sobre os impactos positivos e negativos da transição para utilização das tecnologias de IA pelos consumidores;

59. Observa que, dado o desenvolvimento crescente de aplicações de IA, que exigem recursos computacionais, de armazenamento e energéticos, o impacto ambiental dos sistemas de IA deve ser analisado ao longo do respetivo ciclo de vida;

60. Entende que, em domínios como a saúde, a responsabilidade deve caber, em última instância, a uma pessoa singular ou coletiva; salienta a necessidade de dados rastreáveis e publicamente disponíveis para treinar os algoritmos;

61. Apoia firmemente a criação de um espaço europeu de dados de saúde[12], conforme proposto pela Comissão, que visa promover o intercâmbio de dados de saúde e apoiar a investigação no pleno respeito da proteção dos dados, incluindo o tratamento de dados com tecnologias de IA, e que reforça e alarga a utilização e a reutilização dos dados de saúde; incentiva a intensificação do intercâmbio transfronteiras de dados de saúde, da ligação e da utilização desses dados através de repositórios federados, seguros, de tipos específicos de informações de saúde, tais como os registos de saúde europeus, as informações genómicas e imagens médicas digitais, para facilitar bases de dados ou registos interoperáveis a nível europeu em domínios como a investigação, a ciência e a saúde;

62. Realça os benefícios da IA para a prevenção, o tratamento e o controlo de doenças, exemplificados pela previsão da epidemia de COVID-19 pela IA antes da OMS; insta a Comissão a dotar adequadamente o ECDC do quadro regulamentar e dos recursos para recolher, de forma independente em articulação com os Estados-Membros, os dados de saúde globais em tempo real anonimizados necessários para, por exemplo, resolver os problemas revelados pela pandemia de COVID-19;

 Privacidade e reconhecimento biométrico

63. Faz notar o rápido aumento da produção e utilização de dados, nomeadamente de dados pessoais como os dados biométricos resultantes do desenvolvimento, implantação e utilização da inteligência artificial, da robótica e das tecnologias conexas, o que realça a necessidade de respeitar e proteger os direitos dos cidadãos à privacidade e à proteção dos dados pessoais, em conformidade com o direito da União;

64. Salienta que o facto de essas tecnologias permitirem que dados pessoais e não pessoais sejam utilizados para categorizar e microssegmentar grupos de pessoas, identificar as vulnerabilidades dos indivíduos ou explorar conhecimentos preditivos exatos, deve ser contrabalançado com medidas de proteção dos dados e princípios de privacidade efetivamente aplicados, como a minimização dos dados, o direito de oposição à definição de perfis e de controlo da utilização dos dados, o direito a uma explicação para uma decisão baseada no tratamento automatizado e a privacidade desde a conceção, bem como os princípios da proporcionalidade, da necessidade e da limitação baseada em finalidades claramente definidas, em conformidade com o RGPD;

65. Frisa que sempre que as autoridades públicas utilizem tecnologias de reconhecimento a distância, como o reconhecimento de características biométricas, nomeadamente o reconhecimento facial, para fins de substancial interesse público, devem garantir que essa utilização seja restringida a objetivos específicos, limitada no tempo em conformidade com o direito da União e no devido respeito pela autonomia e dignidade humana e pelos direitos fundamentais consagrados na Carta; salienta que os critérios e limites desses sistemas devem ser sujeitos a revisão judicial e a um controlo democrático e devem ter em conta o seu impacto psicológico e sociocultural na sociedade civil;

66. Assinala que, embora a implantação de inteligência artificial, robótica e tecnologias conexas no âmbito de decisões de poder público tenha benefícios, pode também dar origem a abusos graves, como a vigilância em larga escala, o policiamento preditivo e a violação dos direitos processuais;

67. Considera que as tecnologias capazes de produzir decisões automatizadas, substituindo assim as decisões tomadas pelas autoridades públicas, devem ser tratadas com a máxima precaução, nomeadamente no domínio da justiça e da aplicação da lei;

68. Entende que os Estados-Membros apenas devem fazer uso dessas tecnologias se existirem provas concludentes da sua fiabilidade e se a intervenção e revisão humana significativa for possível ou sistemática nos casos em que estejam em causa liberdades fundamentais; sublinha a importância de as autoridades nacionais procederem a uma avaliação rigorosa do impacto nos direitos fundamentais dos sistemas de inteligência artificial implantados nestes casos, especialmente na sequência da avaliação dessas tecnologias como de alto risco;

69. É de opinião que qualquer decisão tomada pela inteligência artificial, pela robótica ou por tecnologias conexas no quadro das prerrogativas de poder público deve ser sujeita a uma intervenção humana significativa e a um processo equitativo, especialmente na sequência da avaliação dessas tecnologias como de alto risco;

70. Está convicto de que o progresso tecnológico não deve conduzir à utilização da inteligência artificial, da robótica e das tecnologias conexas para tomar autonomamente decisões do setor público que tenham um impacto direto e significativo nos direitos e obrigações dos cidadãos;

71. Observa que a IA, a robótica e as tecnologias conexas no domínio da aplicação da lei e do controlo das fronteiras podem reforçar a segurança pública, mas também requerem um escrutínio público alargado e rigoroso e o mais elevado nível de transparência possível, tanto em termos de avaliação dos riscos de cada aplicação, como de uma panorâmica geral da forma como a IA, a robótica e as tecnologias conexas são utilizadas no domínio da aplicação da lei e do controlo das fronteiras; considera que essas tecnologias comportam importantes riscos éticos que devem ser adequadamente abordados, tendo em conta os possíveis efeitos adversos para as pessoas, em particular para os seus direitos à privacidade, à proteção de dados e à não discriminação; salienta que a sua utilização abusiva pode tornar-se uma ameaça direta para a democracia e que a sua implantação e utilização devem respeitar os princípios da proporcionalidade e da necessidade, a Carta dos Direitos Fundamentais, bem como o direito derivado pertinente da União, nomeadamente as regras em matéria de proteção de dados; sublinha que a IA jamais deverá substituir os seres humanos na emissão de decisões judiciais; considera que decisões como a de colocar em liberdade sob caução ou liberdade condicional, que são tomadas em tribunal, ou as decisões baseadas unicamente no tratamento automatizado que produzam efeitos jurídicos relativamente a pessoas ou que as afetem de forma significativa devem implicar sempre uma avaliação profunda e uma decisão por um ser humano;

Boa governação

72. Insiste em que uma governação adequada do desenvolvimento, implantação e utilização da inteligência artificial, da robótica e das tecnologias conexas, em especial as tecnologias de alto risco, através da adoção de medidas centradas na responsabilização e na abordagem dos potenciais riscos de enviesamento e discriminação, pode aumentar a segurança e a confiança dos cidadãos nessas tecnologias;

73. Considera que um quadro comum para a governação destas tecnologias, coordenado pela Comissão e/ou quaisquer instituições, órgãos e organismos da União pertinentes que possam ser designados para esta função neste contexto e implementado pelas autoridades nacionais de supervisão em cada Estado-Membro, asseguraria uma abordagem europeia coerente e evitaria uma fragmentação do mercado único;

74. Observa que grandes volumes de dados são utilizados no desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas, pelo que o seu tratamento e partilha, bem como o acesso a esses dados e a sua utilização, devem estar em conformidade com a legislação e obedecer aos requisitos de qualidade, integridade, interoperabilidade, transparência, segurança, privacidade e controlo nela estabelecidos;

75. Recorda que o acesso aos dados é uma componente essencial do crescimento da economia digital; assinala, a este respeito, que a interoperabilidade dos dados, ao limitar os efeitos de vinculação, desempenha um papel fundamental na garantia de condições de mercado equitativas e na promoção da igualdade das condições de concorrência no mercado único digital;

76. Realça a necessidade de assegurar a proteção adequada dos dados pessoais, em especial dos dados sobre os grupos vulneráveis ou deles provenientes, nomeadamente pessoas com deficiência, doentes, crianças, idosos, minorias, migrantes e outros grupos em risco de exclusão;

77. Observa que o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas pelas autoridades públicas são frequentemente subcontratados a entidades privadas; entende que tal não deve comprometer, de forma alguma, a proteção dos valores públicos e dos direitos fundamentais; defende que os termos e condições dos contratos públicos devem refletir as normas éticas impostas às autoridades públicas, quando aplicável;

Os consumidores e o mercado interno

78. Sublinha a importância de se aplicar um quadro regulamentar em matéria de AI sempre que os consumidores da União sejam utilizadores de um sistema algorítmico, estejam sujeitos, sejam alvo ou sejam orientados para um tal sistema, independentemente do local de estabelecimento das entidades que desenvolvem, vendem ou utilizam o sistema; entende, além disso, que, a bem da certeza jurídica, as regras estabelecidas num tal quadro devem aplicar-se a todos os criadores e em toda a cadeia de valor, nomeadamente o desenvolvimento, a implantação e a utilização das tecnologias pertinentes e respetivas componentes, e devem garantir um elevado nível de proteção dos consumidores;

79. Assinala a ligação intrínseca entre a inteligência artificial, a robótica e as tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, por um lado, e domínios como a Internet das coisas, a aprendizagem automática, os sistemas baseados em regras ou os processos decisórios automatizados e assistidos, por outro; observa ainda que poderiam ser desenvolvidos símbolos normalizados para ajudar a explicar esses sistemas aos consumidores sempre que apresentem algum grau de complexidade ou sejam utilizados para tomar decisões que tenham um impacto significativo nas vidas dos consumidores;

80. Recorda que a Comissão deve examinar o atual quadro jurídico e a respetiva aplicação, incluindo o acervo em matéria de defesa do consumidor, a legislação em matéria de responsabilidade decorrente dos produtos, a legislação em matéria de segurança dos produtos e a legislação relativa à fiscalização do mercado, a fim de identificar lacunas jurídicas, bem como as obrigações regulamentares existentes; considera que tal é necessário para determinar a sua capacidade para responder aos novos desafios decorrentes da emergência da inteligência artificial, da robótica e das tecnologias conexas e para assegurar um elevado nível de proteção dos consumidores;

81. Salienta a necessidade de enfrentar eficazmente os desafios criados pela inteligência artificial, a robótica e as tecnologias conexas e de assegurar que os consumidores estejam capacitados e devidamente protegidos; sublinha a necessidade de ir além dos princípios tradicionais de informação e divulgação sobre os quais o acervo relativo à proteção dos consumidores assenta, uma vez que será necessário prever direitos reforçados para os consumidores e limitações claras no que respeita ao desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas para garantir que tais tecnologias contribuam para melhorar a vida dos consumidores e evoluam de uma forma que respeite os direitos fundamentais e dos consumidores, assim como os valores da União;

82. Assinala que o quadro legislativo introduzido pela Decisão n.º 68/2008/CE prevê uma lista harmonizada de obrigações para os produtores, importadores e distribuidores, incentiva a utilização de normas e prevê vários níveis de controlo em função da perigosidade do produto; considera que esse quadro deve aplicar-se igualmente aos produtos que integram uma componente de IA;

83. Observa que, para efeitos de análise dos impactos da inteligência artificial, da robótica e das tecnologias conexas nos consumidores, o acesso aos dados deve ser alargado às autoridades nacionais competentes, no pleno respeito da legislação da União, nomeadamente a legislação em matéria de proteção de dados, privacidade e segredos comerciais; recorda a importância de educar os consumidores para estarem mais informados e disporem de maiores competências quando utilizam a inteligência artificial, a robótica e as tecnologias conexas, a fim de os proteger contra os riscos potenciais e defender os seus direitos;

84. Insta a Comissão a propor medidas para a rastreabilidade dos dados, tendo em conta tanto a legalidade da aquisição de dados como a proteção dos direitos dos consumidores e dos direitos fundamentais, no pleno respeito da legislação da União, nomeadamente a legislação em matéria de proteção de dados, privacidade, direitos de propriedade intelectual e segredos comerciais;

85. Observa que estas tecnologias devem centrar-se no utilizador e ser concebidas por forma a permitir que todas as pessoas utilizem os produtos ou serviços de IA, independentemente da sua idade, do seu género, das suas capacidades ou das suas características; faz notar que a acessibilidade a estas tecnologias por pessoas com deficiência se reveste de particular importância; assinala que não deve ser adotada uma abordagem única para todos os casos e que devem ser tomados em consideração os princípios de conceção universal, que visam abranger a maior variedade possível de utilizadores, bem como o respeito pelas normas de acessibilidade pertinentes; salienta que tal permitirá que todas as pessoas tenham um acesso equitativo e uma participação ativa em atividades humanas, existentes e emergentes, que utilizam computadores e tecnologias de apoio;

86. Realça que, sempre que os fundos provenientes de fontes públicas contribuam de forma significativa para o desenvolvimento, a implementação ou a utilização da inteligência artificial, da robótica e das tecnologias conexas, além de normas abertas em matéria de adjudicação e contratação pública, deverá ponderar-se a possibilidade de o código, os dados gerados – desde que não sejam pessoais – e o modelo treinado poderem ser sistematicamente tornados públicos, de comum acordo com o criador, a fim de garantir a transparência, reforçar a cibersegurança e permitir a respetiva reutilização de molde a promover a inovação; salienta que, desta forma, é possível aproveitar plenamente o potencial do mercado único, evitando a fragmentação do mercado;

87.  Considera que a IA, a robótica e as tecnologias conexas têm um potencial enorme para oferecer aos consumidores a possibilidade de aceder a diversas comodidades em muitos aspetos das suas vidas, bem com a melhores produtos e serviços, e de beneficiar de uma melhor fiscalização do mercado, desde que continuem a aplicar-se todos os princípios, condições, incluindo a transparência e a auditabilidade, e regulamentos aplicáveis;

Segurança e defesa

88. Salienta que as políticas de segurança e defesa da União Europeia e dos seus Estados-Membros são norteadas pelos princípios consagrados na Carta dos Direitos Fundamentais da União Europeia e na Carta das Nações Unidas e por um entendimento comum dos valores universais de respeito dos direitos invioláveis e inalienáveis da pessoa humana, da dignidade humana, da liberdade, da democracia, da igualdade e do Estado de Direito; sublinha que todos os esforços relacionados com a defesa no quadro da União têm de respeitar esses valores universais promovendo, em simultâneo, a paz, a segurança e o progresso na Europa e no mundo;

89. Saúda a aprovação, pelas Altas Partes Contratantes, da Convenção sobre Certas Armas Convencionais (CCAC) na sua reunião anual de 2019, de 11 princípios orientadores para o desenvolvimento e a utilização de sistemas de armas autónomas; lamenta, contudo, o facto de não se chegar a acordo sobre um instrumento juridicamente vinculativo que regule sistema de armas letais autónomo (SALA), com um mecanismo de execução eficaz; saúda e apoia o documento intitulado «Orientações éticas para uma IA de confiança» do Grupo de Peritos de Alto Nível sobre a Inteligência Artificial, da Comissão, publicado em 9 de abril de 2019, bem como a respetiva posição sobre os sistemas de armas letais autónomos (SALA); insta os Estados-Membros a desenvolverem estratégias nacionais para a definição e o estatuto dos sistemas de armas letais autónomos (SALA), tendo em vista uma estratégia global a nível da União e a promoverem, conjuntamente com o Alto Representante/Vice-Presidente da Comissão («AR/VP»), e o Conselho, o debate sobre os SALA no quadro da Convenção sobre Certas Armas Convencionais das Nações Unidas (CCAC) e de outros fóruns relevantes, e a elaboração de normas internacionais relativas aos parâmetros éticos e jurídicos do desenvolvimento e da utilização de sistemas de armas letais totalmente autónomos, semiautónomos e telecomandados; recorda, neste contexto, a sua resolução sobre sistemas de armamento autónomo, de 12 de setembro de 2018, e apela, uma vez mais, ao desenvolvimento e à adoção urgentes de uma posição comum sobre sistemas de armas letais autónomos, a uma proibição internacional do desenvolvimento, produção e utilização de sistemas de armas letais autónomos que permitam levar a cabo ataques sem controlo humano significativo e sem respeito pelo princípio da intervenção humana, em conformidade com a declaração dos investigadores mundiais mais proeminentes em matéria de IA na sua carta aberta de 2015; congratula-se com o acordo do Conselho e do Parlamento com vista à exclusão dos sistemas de armas letais autónomos, sem possibilidade de «controlo humano significativo sobre as decisões de seleção de alvos e lançamento de ataques», das ações financiadas ao abrigo do Fundo Europeu de Defesa; considera que os aspetos éticos de outras aplicações de IA na defesa, como os serviços de informação, vigilância e reconhecimento (ISR), ou as ciberoperações, não podem ser ignorados, impondo-se conceder especial atenção ao desenvolvimento e à implantação de veículos aéreos não tripulados em operações militares;

90 Sublinha que as tecnologias emergentes no domínio da defesa e da segurança não abrangidas pelo Direito internacional devem ser avaliadas à luz do princípio do respeito pela humanidade e dos imperativos de consciência pública;

91. Recomenda que todo e qualquer quadro europeu que regulamente a utilização dos sistemas de inteligência artificial (IA) no domínio da defesa, tanto em situações de combate, como de não combate, tem de respeitar todos os regimes jurídicos aplicáveis, em particular o Direito internacional humanitário e o Direito internacional em matéria de direitos humanos, assim como a legislação, os princípios e os valores da União, e ter em conta as disparidades em termos de infraestruturas técnicas e de segurança na União;

92. Reconhece que, ao contrário do que acontece com as bases industriais de defesa, as inovações críticas em matéria de IA poderão chegar de Estados-Membros pequenos, pelo que uma abordagem normalizada da PCSD deverá assegurar que os Estados-Membros de menor dimensão e as PME não sejam postos de lado; salienta que um conjunto de capacidades comuns da UE em matéria de IA adaptado aos conceitos operacionais dos Estados-Membros poderá colmatar as lacunas técnicas que poderiam deixar os Estados sem as devidas tecnologias, os conhecimentos especializados ou capacidade para aplicar os sistemas de IA nos seus ministérios da defesa;

93. Considera que as atividades de segurança e defesa atuais e futuras no quadro da União tirarão partido da IA, da robótica e da autonomia e das tecnologias conexas, e que uma IA fiável, robusta e digna de confiança poderia contribuir para um exército moderno e eficaz; considera que a União tem, por conseguinte, de assumir um papel de liderança na investigação e no desenvolvimento de sistemas de IA no domínio da segurança e da defesa; entende que a utilização de aplicações assentes na IA no sector da defesa oferece uma série de vantagens diretas a quem comanda as operações, designadamente dados de melhor qualidade, um melhor conhecimento da situação, uma maior celeridade no processo decisório, uma redução do risco de danos colaterais graças a uma melhor cablagem, proteção das forças no terreno, bem como maior fiabilidade do equipamento militar e, consequentemente, um menor risco para os seres humanos e menos baixas; salienta que o desenvolvimento de uma IA fiável no domínio da defesa é indispensável para assegurar a autonomia estratégica da Europa em termos operacionais e de capacidades; recorda que os sistemas de IA estão também a tornar-se elementos fundamentais na luta contra as novas ameaças à segurança, como a guerra cibernética e híbrida, tanto em linha, como fora de linha; destaca, ao mesmo tempo, todos os riscos e desafios da utilização não regulamentada da IA; faz notar que a IA pode ser sujeita a manipulação, a erros e a imprecisões;

94. Sublinha que, na sua essência, as tecnologias de IA são de dupla utilização e que o desenvolvimento da IA nas atividades relacionadas com a defesa beneficia com os intercâmbios entre as tecnologias militares e civis; realça que, nas atividades relacionadas com a defesa, a IA é uma tecnologia de disrupção transversal, cujo desenvolvimento pode proporcionar oportunidades para a competitividade e a autonomia estratégica da União;

95. Reconhece que, no atual contexto de guerra híbrida e avançada, o volume e a velocidade das informações durante as fases iniciais de uma crise podem ultrapassar os analistas humanos e que um sistema de IA pode processar as informações, de modo a assegurar que os decisores humanos consigam acompanhar todo o espetro de informações num lapso de tempo adequado para uma resposta rápida;

96. Salienta a importância primordial para a IA de investir no capital humano, promovendo as competências e a formação necessárias no domínio das tecnologias de segurança e defesa da IA, com particular ênfase na ética dos sistemas operacionais semiautónomos e autónomos baseados na responsabilização humana num mundo assente na IA; destaca, em particular, a importância de garantir que os especialistas em ética neste domínio disponham de competências adequadas e recebam formação adequada; insta a Comissão a apresentar, o mais rapidamente possível, o seu reforço da «Agenda de Competências», anunciado no Livro Branco sobre a Inteligência Artificial, em 19 de fevereiro de 2020;

97. Realça que a computação quântica pode representar a mudança mais revolucionária nos conflitos desde o advento da tecnologia nuclear, pelo que exorta a União e os Estados-Membros a conferirem prioridade ao desenvolvimento das tecnologias de computação quântica; reconhece que os atos de agressão – incluindo os ataques a infraestruturas críticas apoiados pela computação quântica – criarão um ambiente de conflito no qual o tempo de decisão disponível será fortemente comprimido, passando de dias e horas para minutos e segundos, forçando os Estados-Membros a desenvolverem capacidades para se protegerem e a formarem os seus decisores e o pessoal militar para que possam dar uma resposta eficaz dentro desses lapsos de tempo;

98. Apela a um maior investimento na IA europeia para a defesa e nas infraestruturas críticas que a sustentam;

99. Recorda que a maioria das atuais potências militares do mundo já encetaram esforços significativos de investigação e desenvolvimento relacionados com a dimensão militar da inteligência artificial; considera que a União tem de assegurar que não fica para trás neste domínio;

100. Solicita à Comissão que integre o reforço das capacidades em matéria de cibersegurança na sua política industrial, de molde a assegurar o desenvolvimento e a implantação de sistemas de robótica e de IA seguros, resilientes e robustos; exorta a Comissão a explorar o recurso a protocolos e aplicações de cibersegurança baseados em cadeias de blocos, para melhorar a resiliência, a fiabilidade e a robustez das infraestruturas de IA através de modelos de encriptação de dados sem intermediários; incentiva as partes interessadas europeias a investigarem e conceberem características avançadas que facilitem a deteção de sistemas de IA e de robótica corruptos e maliciosos, suscetíveis de comprometer a segurança da União e dos cidadãos;

101. Sublinha que todos os sistemas de IA de defesa devem ter um quadro de missão concreto e bem definido, no qual o ser humano conserve a faculdade de detetar e desativar ou desligar os sistemas implantados, caso estes se afastem do quadro de missão definido e atribuído pelo controlo humano ou se envolvam em qualquer ação não intencional ou que redunde numa escalada; considera que os sistemas, os produtos e as tecnologias baseados em IA para uso militar devem estar equipados com uma «caixa negra» para registar todas as transações de dados realizadas pela máquina;

102. Sublinha que toda a responsabilidade e prestação de contas pela decisão de conceber, desenvolver, implantar e utilizar sistemas de IA tem de assentar em operadores humanos, uma vez que se impõe um controlo humano significativo em todo e qualquer sistema de armamento e intenção humana na decisão de utilizar a força na execução de qualquer decisão de sistemas de armas ativadas por IA que possam ter consequências letais; destaca que o controlo humano deve ser mantido no comando e no controlo dos sistemas baseados na IA, de acordo com os princípios da intervenção humana, da supervisão humana e do comando de humano ao nível da direção das operações militares; salienta que os sistemas assentes na IA têm de permitir que a liderança militar dos exércitos assuma a sua total responsabilidade pela utilização de força letal, preste contas e exerça o nível necessário de discernimento, de que as máquinas não dispõem, uma vez que esse discernimento tem de assentar na distinção, proporcionalidade e precaução, para tomar medidas mortais ou de ação destrutiva em larga escala através desses sistemas; realça a necessidade de estabelecer quadros claros e rastreáveis de autorização e de prestação de contas para a implantação de armas inteligentes e outros sistemas baseados na IA, fazendo uso de características únicas do utilizador, como as especificações biométricas, para permitir que a implantação seja feita exclusivamente por pessoal autorizado;

Transporte

103. Destaca o potencial da utilização da inteligência artificial, da robótica e das tecnologias conexas em todos os meios autónomos de transporte rodoviário, ferroviário, marítimo e aéreo, bem como para impulsionar a transição modal e a intermodalidade, uma vez que essas tecnologias podem contribuir para encontrar uma combinação ótima de meios de transporte para o transporte de mercadorias e passageiros; salienta, além disso, o seu potencial para tornar os transportes, a logística e os fluxos de tráfego mais eficientes e todos os modos de transporte mais seguros, mais inteligentes e mais respeitadores do ambiente; insiste em que uma abordagem ética da IA também pode ser vista como um sistema de alerta precoce, nomeadamente no que diz respeito à segurança e à eficiência dos transportes;

104. Destaca o facto de a concorrência mundial entre empresas e regiões económicas significar que a União necessita de promover o investimento e reforçar a competitividade internacional das empresas que operam no setor dos transportes, criando um ambiente favorável ao desenvolvimento e à aplicação de soluções de IA e outras inovações, no âmbito das quais as empresas sediadas na União se possam tornar líderes mundiais no desenvolvimento das tecnologias de IA;

105. Insiste em que o setor dos transportes da União necessita de uma atualização do quadro regulamentar relativo a essas tecnologias emergentes e da sua utilização no setor dos transportes, assim como de um quadro ético claro para alcançar uma IA fiável, que inclua os aspetos da segurança, do respeito da autonomia humana, da supervisão e da responsabilidade, o que aumentará os benefícios partilhados por todos e será fundamental para impulsionar o investimento em investigação e inovação, o desenvolvimento de competências e a aceitação da IA pelos serviços públicos, as PME, as empresas em fase de arranque e as empresas em geral, garantindo simultaneamente a proteção de dados e a interoperabilidade, sem impor encargos administrativos desnecessários às empresas e aos consumidores;

106. Observa que o desenvolvimento e a implementação da IA no setor dos transportes não será possível sem infraestruturas modernas, que constituem uma parte fundamental dos sistemas de transporte inteligentes; salienta que as persistentes divergências no nível de desenvolvimento entre os Estados-Membros geram o risco de que as regiões menos desenvolvidas e os seus habitantes sejam privados dos benefícios decorrentes do desenvolvimento da mobilidade autónoma; apela a que a modernização das infraestruturas de transportes na União, nomeadamente a sua integração na rede 5G, seja devidamente financiada;

107. Recomenda que sejam criadas à escala da União normas fiáveis para todos os modos de transporte, incluindo a indústria automóvel, assim como o ensaio de veículos com IA integrada no seu funcionamento, bem como dos produtos e serviços conexos;

108. Observa que os sistemas de IA podem ajudar a reduzir significativamente o número de mortes na estrada, nomeadamente através de melhores tempos de reação e de um melhor cumprimento das regras; considera, no entanto, que será impossível a utilização de veículos autónomos resultar na eliminação de todos os acidentes e sublinha que isso torna ainda mais importante a explicabilidade das decisões da IA para justificar as lacunas e as consequências não intencionais das decisões da IA;

Emprego, direitos dos trabalhadores, competências digitais e o local de trabalho

109. Assinala que a aplicação da inteligência artificial, da robótica e das tecnologias conexas no local de trabalho pode contribuir para mercados de trabalho inclusivos e ter um impacto na saúde ocupacional e na segurança, podendo, ao mesmo tempo, ser utilizada para acompanhar, avaliar, prever e orientar o desempenho dos trabalhadores com consequências diretas e indiretas nas suas carreiras; faz notar que a IA deve ter um impacto positivo nas condições de trabalho e guiar-se pelo respeito dos direitos humanos, bem como pelos direitos e valores fundamentais da União; releva que a IA deve ser centrada no ser humano, reforçar o bem-estar das pessoas e da sociedade e contribuir para uma transição justa e equitativa; sublinha, por conseguinte, que essas tecnologias devem ter um impacto positivo nas condições de trabalho e guiar-se pelo respeito dos direitos humanos, bem como pelos direitos e valores fundamentais da União;

110. Realça a necessidade de desenvolver competências através da formação e da educação dos trabalhadores e dos seus representantes no que diz respeito à IA no local de trabalho, a fim de melhor compreenderem as implicações das soluções de IA; sublinha que os candidatos e os trabalhadores devem ser devidamente informados por escrito quando a IA é utilizada no decurso dos processos de recrutamento e na tomada de decisões no domínio dos recursos humanos, bem como sobre os meios disponíveis, nestes casos, para requerer uma revisão humana a fim de reverter uma decisão automatizada;

111. Salienta a necessidade de assegurar que os ganhos de produtividade decorrentes do desenvolvimento e da utilização da IA e da robótica não beneficiem apenas os proprietários das empresas e os acionistas, mas também as próprias empresas e os trabalhadores, através de melhores condições de trabalho e de emprego, incluindo melhores salários, o crescimento económico e o desenvolvimento, beneficiando igualmente a sociedade em geral, especialmente nos casos em que esses ganhos sejam obtidos em detrimento de postos de trabalho; insta os Estados-Membros a analisar atentamente o potencial impacto da IA no mercado de trabalho e nos sistemas de segurança social e a desenvolver estratégias para assegurar uma estabilidade a longo prazo, reformando os impostos e as contribuições sociais e adotando outras medidas para compensar o decréscimo das receitas públicas;

112. Sublinha a importância do investimento das empresas na formação formal e informal e na aprendizagem ao longo da vida, a fim de apoiar a transição justa para a economia digital; salienta, neste contexto, a responsabilidade das empresas que utilizam a IA de proporcionar a todos os trabalhadores em causa oportunidades em matéria de requalificação e melhoria das competências, a fim de aprenderem a utilizar as ferramentas digitais e a trabalhar com «cobôs» (robótica de colaboração inteligente) e outras tecnologias novas, adaptando-se assim à evolução das necessidades do mercado de trabalho e mantendo os seus postos de trabalho;

113. Considera que deve ser dada especial atenção às novas formas de trabalho, como os serviços pontuais e o trabalho nas plataformas digitais, resultantes da aplicação das novas tecnologias neste contexto; frisa que, ao regulamentar as condições de teletrabalho em toda a União e assegurar condições dignas de trabalho e de emprego na economia digital, o impacto da IA deve também ser tido em conta; insta a Comissão a consultar a este respeito os parceiros sociais, os criadores de IA, os investigadores e outras partes interessadas;

114. Sublinha que a inteligência artificial, a robótica e as tecnologias conexas não devem de modo algum afetar o exercício dos direitos fundamentais reconhecidos pelos Estados-Membros e a nível da União, nomeadamente o direito à greve ou a tomar outras medidas abrangidas pelos sistemas específicos que regulam as relações industriais nos Estados-Membros, em conformidade com o direito e/ou as práticas nacionais, nem devem afetar o direito à negociação, celebração ou aplicação coerciva de convenções coletivas ou a iniciar ações coletivas, em conformidade com o direito e/ou as práticas nacionais;

115. Reitera a importância da educação e da aprendizagem contínua para desenvolver as qualificações necessárias na era digital e para combater a exclusão digital; insta os Estados-Membros a investir em sistemas de ensino, formação profissional e aprendizagem ao longo da vida de elevada qualidade, reativos e inclusivos, bem como em políticas de requalificação e de melhoria das competências para os trabalhadores dos setores em que a IA pode ter repercussões mais graves; salienta a necessidade de dotar a mão de obra atual e futura das necessárias competências em literacia, numeracia e literacia digital, bem como de competências nos domínios da ciência, tecnologia, engenharia e matemática (CTEM) e de competências sociais transversais, como o pensamento crítico, a criatividade e o empreendedorismo; sublinha que, a este respeito, deve ser dada especial atenção à inclusão de grupos desfavorecidos;

116. Recorda que a inteligência artificial, a robótica e as tecnologias conexas utilizadas no local de trabalho devem ser acessíveis a todos, com base no princípio da conceção para todos os utilizadores;

Educação e cultura

117. Salienta a necessidade de desenvolver critérios para o desenvolvimento, a implantação e a utilização da IA que tenham em conta o seu impacto na educação, na comunicação social, na juventude, na investigação, no desporto e nos setores culturais e criativos, através do desenvolvimento de parâmetros de referência e da definição de princípios de utilização eticamente responsáveis e aceitáveis das tecnologias de IA que possam ser aplicados nestes domínios de forma adequada, nomeadamente um regime de responsabilização clara pelos produtos resultantes do recurso à IA;

118. Releva que todas as crianças gozam do direito a uma educação pública de qualidade a todos os níveis; apela, por conseguinte, ao desenvolvimento, à implantação e à utilização de sistemas de IA de qualidade que facilitem e proporcionem instrumentos educativos de qualidade para todos, a todos os níveis, e salienta que a implantação de novos sistemas de IA nas escolas não deve conduzir a uma maior disparidade digital na sociedade; reconhece o enorme contributo potencial que a IA e a robótica podem dar à educação; observa que os sistemas de aprendizagem personalizados de IA não devem substituir as relações educativas que envolvem professores e que as formas tradicionais de educação não devem ser deixadas para trás, salientando simultaneamente que deve ser prestado apoio financeiro, tecnológico e educativo, designadamente formação especializada em tecnologias da informação e da comunicação, aos professores que procurem adquirir as competências adequadas para se adaptarem às mudanças tecnológicas, não apenas explorando o potencial da IA, mas também compreendendo as suas limitações; apela ao desenvolvimento de uma estratégia a nível da União para ajudar a transformar e a atualizar os nossos sistemas educativos, a preparar os nossos estabelecimentos de ensino a todos os níveis e a equipar os professores e os alunos com as competências e aptidões necessárias;

119. Realça que as instituições de ensino devem procurar utilizar sistemas de IA para fins educativos que tenham recebido um certificado europeu de conformidade ética;

120. Frisa que as oportunidades proporcionadas pela digitalização e pelas novas tecnologias não devem resultar numa perda global de postos de trabalho nos setores culturais e criativos, nem dar origem a que a conservação dos originais seja negligenciada, nem à relativização da importância do acesso tradicional ao património cultural, que deve igualmente ser incentivado; assinala que os sistemas de IA desenvolvidos, implantados e utilizados na União devem refletir a sua diversidade cultural e o seu multilinguismo;

121. Reconhece o potencial crescente da IA nos domínios da informação, dos meios de comunicação social e das plataformas em linha, nomeadamente como um instrumento para combater a desinformação em conformidade com o direito da União; salienta que, se não for regulamentada, a IA poderá também ter efeitos eticamente nocivos, explorando enviesamentos nos dados e nos algoritmos que podem conduzir à disseminação de desinformação e à criação de bolhas de informação; salienta a importância da transparência e da responsabilização no que se refere aos algoritmos utilizados pelas plataformas de partilha de vídeos, bem como pelas plataformas de transmissão em direto, a fim de garantir o acesso a conteúdos culturais e linguísticos variados;

Autoridades nacionais de controlo

122. Regista o valor acrescentado de dispor, em cada Estado-Membro, de autoridades nacionais de controlo designadas, responsáveis por assegurar, avaliar e controlar o cumprimento das obrigações jurídicas e dos princípios éticos inerentes ao desenvolvimento, implantação e utilização da inteligência artificial, da robótica e das tecnologias conexas de alto risco, contribuindo assim para a conformidade jurídica e ética dessas tecnologias;

123. Entende que essas autoridades devem ter a obrigação de, sem duplicar as suas tarefas, cooperar com as autoridades responsáveis pela aplicação da legislação setorial, com o intuito de identificar as tecnologias de alto risco do ponto de vista ético e de supervisionar a aplicação das medidas necessárias e adequadas, sempre que tais tecnologias sejam identificadas;

124. Indica que essas autoridades devem estabelecer contactos não só entre si, mas também com a Comissão Europeia e outras instituições, órgãos e organismos da União pertinentes, a fim de garantir a coerência da ação transfronteiriça;

125. Sugere que, no contexto dessa cooperação, sejam desenvolvidos critérios comuns e um processo de candidatura para a concessão de um certificado europeu de conformidade ética, designadamente na sequência de um pedido de qualquer criador, implantador ou utilizador de tecnologias não consideradas de alto risco que tencione certificar a avaliação positiva da conformidade efetuada pela respetiva autoridade nacional de controlo;

126. Solicita que essas autoridades sejam incumbidas de promover intercâmbios regulares com a sociedade civil e a inovação no âmbito da União, prestando assistência a investigadores, criadores e outras partes interessadas pertinentes, bem como a empresas com menos maturidade digital, sobretudo às pequenas e médias empresas ou às empresas em fase de arranque e em especial no que se refere à sensibilização e ao apoio ao desenvolvimento, à implantação, à formação e à aquisição de talentos, de modo a assegurar a transferência eficiente de tecnologias e o acesso a tecnologias, projetos, resultados e redes;

127. Apela a que cada Estado-Membro proporcione financiamento suficiente às respetivas autoridades nacionais de controlo designadas e salienta a necessidade de reforçar as autoridades nacionais de fiscalização do mercado em termos de capacidades, aptidões e competências, bem como de conhecimentos sobre os riscos específicos da inteligência artificial, da robótica e das tecnologias conexas;

Coordenação a nível da União

128. Sublinha a importância da coordenação a nível da União, tal como levada a cabo pela Comissão e/ou quaisquer instituições, órgãos e organismos da União pertinentes que possam ser designados neste contexto, por forma a evitar a fragmentação, bem como a importância de assegurar uma abordagem harmonizada em toda a União; entende que a coordenação deve centrar-se nos mandatos e nas ações das autoridades nacionais de controlo em cada Estado-Membro, tal como supramencionado, bem como na partilha de boas práticas entre essas autoridades e na facilitação da cooperação em matéria de investigação e desenvolvimento neste domínio em toda a União; convida a Comissão a avaliar e a encontrar a solução mais adequada para estruturar essa coordenação; cita como exemplos de instituições, órgãos e organismos da União pertinentes a ENISA, a AEPD e o Provedor de Justiça Europeu;

129. Considera que uma tal coordenação, bem como uma certificação europeia de conformidade ética, não só beneficiaria o desenvolvimento da indústria e da inovação na União, como também aumentaria a sensibilização dos cidadãos europeus para as oportunidades e os riscos inerentes a essas tecnologias;

130. Propõe a criação de um centro de especialização que reúna o meio académico, os investigadores, a indústria e peritos individuais a nível da União, a fim de promover o intercâmbio de conhecimentos e competências técnicas especializadas e facilitar a colaboração dentro e fora da União; insta ainda a que este centro de especialização inclua organizações das partes interessadas, como as organizações de defesa do consumidor, de modo a garantir uma ampla representação dos consumidores; considera que, devido ao possível impacto desproporcionado dos sistemas algorítmicos nas mulheres e nas minorias, os níveis de decisão de tal estrutura devem ser diversificados e assegurar a igualdade de género; frisa que os Estados-Membros devem desenvolver estratégias de gestão dos riscos para a IA no contexto das suas estratégias nacionais de fiscalização do mercado;

131.  Propõe que a Comissão e/ou quaisquer instituições, órgãos e organismos da União pertinentes que possam ser designados neste contexto prestem toda a assistência necessária às autoridades nacionais de controlo no tocante ao seu papel de primeiro ponto de contacto em caso de suspeita de violação das obrigações jurídicas e dos princípios éticos estabelecidos no quadro regulamentar da União para a IA, nomeadamente o princípio da não discriminação; entende, além disso, que devem também prestar toda a assistência necessária às autoridades nacionais de controlo nos casos em que estas realizem avaliações de conformidade com vista a apoiar o direito dos cidadãos a contestar uma decisão e a procurar vias de recurso, nomeadamente apoiando, quando aplicável, a consulta de outras autoridades competentes na União, em especial a rede de cooperação no domínio da defesa do consumidor e os organismos nacionais de defesa do consumidor, organizações da sociedade civil e parceiros sociais situados noutros Estados-Membros;

132. Reconhece o precioso contributo dado pelo grupo de peritos de alto nível sobre a inteligência artificial, composto por representantes do meio académico, da sociedade civil e da indústria, bem como pela Aliança Europeia de IA, em particular as «Orientações éticas para uma inteligência artificial de confiança», e sugere que esse grupo possa proporcionar conhecimentos especializados à Comissão e/ou a quaisquer instituições, órgãos e organismos da União pertinentes que possam ser designados neste contexto;

133. Regista a inclusão de projetos relacionados com a IA no âmbito do Programa Europeu de Desenvolvimento Industrial (EDIDP); considera que o futuro Fundo Europeu de Defesa (FED) e a cooperação estruturada permanente (CEP) poderão também proporcionar quadros para futuros projetos relacionados com a IA, que poderão contribuir para racionalizar os esforços da União neste domínio, bem como para promover simultaneamente o objetivo da União de reforçar os direitos humanos, o Direito internacional e as soluções multilaterais; salienta que os projetos relacionados com a IA devem ser sincronizados com os programas civis mais vastos da União consagrados à IA; observa que, em conformidade com o Livro Branco da Comissão sobre a inteligência artificial, de 19 de fevereiro de 2020, os centros de excelência e de ensaio centrados na investigação e no desenvolvimento de IA no sector da segurança e da defesa devem ser instituídos de acordo com especificações rigorosas, que sustentem a participação e o investimento de partes interessadas do sector privado;

134. Toma conhecimento do Livro Branco da Comissão sobre a inteligência artificial, de 19 de fevereiro de 2020, e lamenta que não tenham sido tidos em conta os aspetos militares; insta a Comissão e o VP/AR a apresentar, também no âmbito de uma abordagem global, uma estratégia sectorial de IA para as atividades relacionadas com a defesa no quadro da União, que garanta o respeito pelos direitos dos cidadãos e os interesses estratégicos da União, e que se funde numa abordagem coerente, desde o início dos sistemas assentes na IA até às suas utilizações militares, e que crie um grupo de trabalho sobre segurança e defesa no âmbito do grupo de peritos de alto nível sobre inteligência artificial, que se debruce especificamente sobre os assuntos em matéria de política e de investimento, bem como sobre os aspetos éticos da IA no sector da segurança e da defesa; solicita ao Conselho, à Comissão e ao VP/AR que encetem um diálogo estruturado com o Parlamento para esse efeito;

Certificação europeia de conformidade ética

135. Sugere que, no contexto da coordenação a nível da União, sejam desenvolvidos critérios comuns e um processo de candidatura relativos à concessão de um certificado europeu de conformidade ética, designadamente na sequência de um pedido de qualquer criador, implantador ou utilizador de tecnologias não consideradas de alto risco que tencione certificar a avaliação positiva da conformidade efetuada pela respetiva autoridade nacional de controlo;

136. Está convicto de que uma certificação europeia de conformidade ética promoveria o princípio da ética desde a conceção em toda a cadeia de abastecimento dos ecossistemas de inteligência artificial; sugere, por conseguinte, que essa certificação, no caso das tecnologias de alto risco, possa ser uma condição prévia obrigatória para a elegibilidade para procedimentos de adjudicação de contratos públicos relativos a inteligência artificial, a robótica e a tecnologias conexas;

Cooperação internacional

137. Entende que só é possível estabelecer uma cooperação transfronteiriça e normas éticas eficazes se todas as partes interessadas procurarem assegurar a intervenção e a supervisão humanas, a solidez técnica e a segurança, a transparência e a responsabilização, a diversidade, a não discriminação e a equidade, o bem-estar social e ambiental, e respeitarem os princípios estabelecidos em matéria de privacidade, governação e proteção dos dados - especificamente os consagrados no Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho;

138. Sublinha que as obrigações jurídicas e os princípios éticos da União aplicáveis ao desenvolvimento, à implantação e à utilização destas tecnologias podem fazer da Europa um líder mundial no setor da inteligência artificial e devem, por conseguinte, ser promovidos a nível mundial através da cooperação com parceiros internacionais, prosseguindo simultaneamente o diálogo crítico e baseado na ética com os países terceiros que têm modelos alternativos de regulamentação em matéria de inteligência artificial, bem como modelos alternativos de desenvolvimento e implantação;

139. Reitera que as oportunidades e os riscos inerentes a estas tecnologias têm uma dimensão global, uma vez que o software e os dados que utilizam são frequentemente importados e exportados da União, exigindo, portanto, uma abordagem harmonizada e coerente a nível internacional; convida a Comissão a tomar a iniciativa de avaliar que acordos e tratados bilaterais e multilaterais devem ser ajustados de forma a assegurar uma abordagem coerente e a promover o modelo europeu de conformidade ética a nível mundial;

140. Destaca, ainda neste contexto, o valor acrescentado da coordenação a nível da União, tal como referido acima;

141. Apela à criação de sinergias e de redes entre os vários centros de investigação europeus no domínio da IA e outras instâncias multilaterais, tais como o Conselho da Europa, a Organização das Nações Unidas para a Educação, Ciência e Cultura (UNESCO), a Organização de Cooperação e de Desenvolvimento Económicos (OCDE), a Organização Mundial do Comércio e a União Internacional das Telecomunicações (UIT), para alinhar os seus esforços e melhor coordenar o desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas;

142. Realça que a União deve estar na vanguarda do apoio aos esforços multilaterais, no âmbito do Grupo de Peritos Governamentais CCAC da ONU e de outros fóruns relevantes, para discutir um quadro regulamentar internacional eficaz que garanta um controlo humano significativo dos sistemas de armas autónomos, a fim de dominar essas tecnologias através da criação de processos bem definidos e baseados em padrões de referência e da adoção de legislação para a sua utilização ética, em consulta com os intervenientes militares, a indústria, as autoridades policiais, o meio académico e as partes interessadas da sociedade civil, de molde a compreender os aspetos éticos conexos, a mitigar os riscos inerentes a essas tecnologias e a impedir a sua utilização para fins maliciosos;

143. Reconhece o papel da OTAN na promoção da segurança euro-atlântica e apela à cooperação no seio da OTAN para o estabelecimento de normas comuns e da interoperabilidade dos sistemas de IA na defesa; salienta que a relação transatlântica é importante para preservar os valores comuns e combater as ameaças futuras e emergentes;

144. Salienta a importância da criação de um código deontológico subjacente à implantação de sistemas de armamento assentes na IA em operações militares semelhante ao quadro regulamentar existente, que proíbe a implantação de armas químicas e biológicas; é de opinião que a Comissão deve dar início à elaboração de normas sobre a utilização de sistemas de armas assentes na IA num cenário de guerra, de acordo com o Direito internacional humanitário, e que a União se deve empenhar na adoção internacional dessas normas; considera que a União deve participar na diplomacia da IA nas instâncias internacionais com parceiros que partilhem a mesma visão, como o G7, o G20 e a OCDE;

Aspetos finais

145. Conclui, na sequência das reflexões supra sobre os aspetos relacionados com a dimensão ética da inteligência artificial, da robótica e das tecnologias conexas, que as dimensões jurídica e ética deve ser consagradas num quadro regulamentar eficaz, prospetivo e abrangente a nível da União, apoiado por autoridades nacionais competentes, coordenadas e reforçadas pela Comissão e/ou quaisquer instituições, órgãos e organismos da União pertinentes que possam ser designados neste contexto, apoiado de forma regular pelo possível centro de especialização acima referido e objeto do devido respeito e certificação no âmbito do mercado interno;

146. Solicita à Comissão, em conformidade com o procedimento previsto no artigo 225.º do Tratado sobre o Funcionamento da União Europeia, que apresente uma proposta de regulamento relativo aos princípios éticos para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, com base no artigo 114.º do Tratado sobre o Funcionamento da União Europeia e com base nas recomendações pormenorizadas constantes do anexo ao presente projeto de relatório; faz notar que a proposta não deve prejudicar a legislação específica do setor, devendo abranger apenas as lacunas identificadas;

147. Recomenda que a Comissão Europeia, após consultar todas as partes interessadas pertinentes, reveja, se necessário, a legislação comunitária em vigor aplicável à inteligência artificial, à robótica e às tecnologias conexas, a fim de abordar a rapidez da sua evolução, em conformidade com as recomendações constantes do anexo ao presente documento, evitando o excesso de regulamentação, designadamente para as PME;

148. Entende que a avaliação e revisão periódicas, quando necessário, do quadro regulamentar da União relativo à inteligência artificial, à robótica e às tecnologias conexas serão essenciais para garantir que a legislação aplicável se mantém a par do rápido ritmo do progresso tecnológico;

149. Considera que a proposta legislativa solicitada teria implicações financeiras se fosse designado um organismo europeu encarregado das funções de coordenação acima referidas, por forma a assegurar os meios técnicos e os recursos humanos necessários ao desempenho das tarefas recentemente atribuídas;

150. Encarrega o seu Presidente de transmitir a presente resolução, bem como as recomendações pormenorizadas que figuram em anexo, à Comissão e ao Conselho.

 

ANEXO À PROPOSTA DE RESOLUÇÃO: RECOMENDAÇÕES PORMENORIZADAS QUANTO AO CONTEÚDO DA PROPOSTA SOLICITADA

A. PRINCÍPIOS E OBJETIVOS DA PROPOSTA SOLICITADA

I. Os princípios e objetivos principais da proposta solicitada são:

˗  reforçar a confiança a todos os níveis das partes interessadas envolvidas e da sociedade na inteligência artificial, na robótica e nas tecnologias conexas, em especial quando são considerados de alto risco;

˗  apoiar o desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas na União, nomeadamente ajudando as empresas, as empresas em fase de arranque e as pequenas e médias empresas a avaliar e a tratar com segurança os requisitos e os riscos regulamentares, tanto atuais, como futuros, durante o processo de inovação e de desenvolvimento empresarial, bem como durante a fase subsequente de utilização por profissionais e particulares, reduzindo ao mínimo os encargos e a burocracia;

˗  apoiar a implantação da inteligência artificial, da robótica e das tecnologias conexas na União, facultando um quadro regulamentar adequado e proporcionado, que deve ser aplicado sem prejuízo da legislação setorial existente ou futura, com o objetivo de incentivar a segurança e a inovação regulamentares, garantindo, em simultâneo, os direitos fundamentais e a proteção dos consumidores;

˗  apoiar a utilização da inteligência artificial, da robótica e das tecnologias conexas na União, assegurando o seu desenvolvimento, implantação e utilização de forma compatível com os princípios éticos;

˗  exigir transparência e melhores fluxos de informação entre os cidadãos e no seio das organizações que desenvolvem, implantam ou utilizam a inteligência artificial, a robótica e as tecnologias conexas, para garantir que essas tecnologias cumpram o Direito da União, os valores e os direitos fundamentais e estejam em conformidade com os princípios éticos do regulamento proposto.

II. Da proposta fazem parte os seguintes elementos:

˗  um «Regulamento relativo aos princípios éticos para o desenvolvimento, implantação e utilização da inteligência artificial, da robótica e das tecnologias conexas», o papel de coordenação, a nível da União, pela Comissão e/ou quaisquer instituições, organismos, serviços e agências da União pertinentes que possam ser designados neste contexto e uma certificação europeia da conformidade ética;

˗  o papel de apoio da Comissão Europeia;

˗  o trabalho realizado pela «autoridade de controlo» em cada Estado-Membro, de molde a garantir a aplicação dos princípios éticos à inteligência artificial, à robótica e às tecnologias conexas;

 

˗  a participação e a consulta de, bem como a prestação de apoio a, projetos de investigação e desenvolvimento e partes interessadas relevantes, nomeadamente empresas em fase de arranque, pequenas e médias empresas, empresas em geral, parceiros sociais e outros representantes da sociedade civil;

˗  um anexo que contenha uma lista exaustiva e cumulativa de setores de alto risco, assim como utilizações e finalidades de alto risco;

III. O «Regulamento relativo aos princípios éticos para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas» assenta nos seguintes princípios:

˗  inteligência artificial, robótica e tecnologias conexas centradas no ser humano, fabricadas e controladas pelo ser humano;

˗  avaliação obrigatória dos elevados riscos da inteligência artificial, da robótica e das tecnologias conexas;

˗  segurança, transparência e responsabilização;

˗  salvaguardas e medidas de correção  contra a parcialidade e a discriminação;

˗  direito de recurso;

˗  responsabilidade social e igualdade de género no âmbito da inteligência artificial, da robótica e das tecnologias conexas;

˗  inteligência artificial, robótica e tecnologias conexas sustentáveis do ponto de vista ambiental;

˗  respeito pela privacidade e limitações ao uso do reconhecimento biométrico;

˗  boa governação em matéria de inteligência artificial, robótica e tecnologias conexas, nomeadamente dos dados utilizados ou produzidos por essas tecnologias.

IV. Para efeitos de coordenação a nível da União, a Comissão e/ou quaisquer instituições, organismos, serviços e agências da União que possam ser designados neste contexto deverão desempenhar as seguintes funções principais:

˗  cooperar no acompanhamento da aplicação da proposta de regulamento solicitada e do Direito setorial pertinente da União;

˗  cooperação em matéria de orientações relativas à aplicação coerente da proposta de regulamento, nomeadamente a aplicação dos critérios à inteligência artificial, à robótica e às tecnologias conexas a considerar de alto risco e a lista dos setores de alto risco e das utilizações e objetivos de alto risco estabelecidos no anexo do regulamento;

˗  cooperar com a «autoridade de controlo» em cada Estado-Membro no que diz respeito à criação de um certificado europeu de conformidade com os princípios éticos e as obrigações jurídicas previstos na proposta de regulamento e na legislação pertinente da União, bem como o desenvolvimento de um processo de candidatura para criadores, implantadores ou utilizadores de tecnologias que não sejam consideradas de alto risco, para certificar a sua conformidade com a proposta de regulamento;

˗  cooperação em matéria de apoio à colaboração intersetorial e transfronteiriça através de intercâmbios regulares com as partes interessadas e a sociedade civil, na UE e no mundo, nomeadamente com as empresas, os parceiros sociais, os investigadores e as autoridades competentes, inclusive no que se refere à definição de normas técnicas a nível internacional;

˗  cooperar com a «autoridade de controlo» em cada Estado-Membro no tocante à definição de orientações vinculativas sobre a metodologia a seguir para a avaliação da conformidade a efetuar por cada «autoridade de controlo»;

˗  colaborar, relativamente à ligação, com a «autoridade de controlo» em cada Estado-Membro e coordenar os respetivos mandato e funções;

˗  cooperar, tendo em vista a sensibilização, a prestação de informação e o intercâmbio com  os criadores, os implantadores e os utilizadores em toda a União;

˗  cooperar no atinente à sensibilização, à prestação de informações, à promoção da literacia, da formação e das competências digitais, bom como ao intercâmbio com os responsáveis pela conceção, os criadores, implantadores, os cidadãos, os utilizadores e os organismos institucionais de toda a União e a nível internacional;

˗  cooperar na coordenação de um quadro comum para a governação do desenvolvimento, implantação e utilização da inteligência artificial, da robótica e das tecnologias conexas a implementar pela «autoridade de controlo» em cada Estado-Membro;

˗  cooperar para servir de centro especializado, promovendo o intercâmbio de informações e apoiando o desenvolvimento de um entendimento comum no mercado único;

˗  cooperar no âmbito do acolhimento de um grupo de trabalho sobre segurança e defesa.

V. Além disso, a Comissão deve realizar as seguintes tarefas:

˗  elaborar e, posteriormente, atualizar, através de atos delegados, uma lista comum de tecnologias de alto risco identificadas na União, em cooperação com a «autoridade de controlo» em cada Estado-Membro;

˗  atualizar, através de atos delegados, a lista constante do anexo ao regulamento.

VI. A «autoridade controlo» em cada Estado-Membro deve desempenhar as seguintes funções principais:

˗  contribuir para a aplicação coerente do quadro regulamentar estabelecido na proposta de regulamento em cooperação com a «autoridade de controlo» nos outros Estados-Membros e com demais autoridades responsáveis pela aplicação da legislação setorial, da Comissão e/ou quaisquer instituições, organismos, serviços e agências da União que possam ser designados neste contexto, nomeadamente no que diz respeito à aplicação dos critérios de avaliação dos riscos previstos na proposta de regulamento e da lista de setores de alto risco e das utilizações ou objetivos de alto risco estabelecidos no seu anexo, bem como para a supervisão da aplicação das medidas necessárias e adequadas, sempre que sejam identificadas tecnologias de alto risco resultantes de tal aplicação;

˗  avaliar se a inteligência artificial, a robótica e as tecnologias conexas, designadamente software, algoritmos e dados utilizados ou produzidos por essas tecnologias, desenvolvidas, implantadas e utilizadas na União devem ser consideradas tecnologias de alto risco, em conformidade com os critérios de avaliação dos riscos previstos na proposta de regulamento e na lista constante do seu anexo;

˗  emitir um certificado europeu de conformidade com os princípios éticos e as obrigações jurídicas previstos na proposta de regulamento e na legislação pertinente da União, nomeadamente sempre que resulte de um processo de candidatura de um programador, responsável pela implantação, ou utilizador de tecnologias não consideradas de alto risco, para certificar a respetiva conformidade com a proposta de regulamento elaborada pela Comissão e/ou por quaisquer instituições, organismos, serviços e agências da União que possam ser designados neste contexto;

˗  avaliar e fiscalizar a sua conformidade com os princípios éticos e as obrigações jurídicas previstos na proposta de regulamento e na legislação pertinente da União;

˗  ser responsável pela definição e aplicação das normas de governação da inteligência artificial, da robótica e das tecnologias conexas, nomeadamente através de contactos e de um diálogo regular com todos os intervenientes e com os representantes da sociedade civil; cooperar, para o efeito, com a Comissão e com quaisquer instituições, órgãos e organismos pertinentes da União que possam ser designados neste contexto para a coordenação de um quadro comum a nível da União;

˗  sensibilizar, informando o público sobre a inteligência artificial, a robótica e as tecnologias conexas e apoiando a formação de profissões pertinentes, nomeadamente no sistema judicial, capacitando, assim, os cidadãos e os trabalhadores para a literacia digital, as competências e os instrumentos necessários para uma transição justa;

˗  servir de primeiro ponto de contacto em caso de suspeita de violação das obrigações jurídicas e dos princípios éticos estabelecidos na proposta de regulamento e efetuar uma avaliação de conformidade em tais casos. No contexto desta avaliação de conformidade, pode consultar e/ou informar outras autoridades competentes na União, nomeadamente a rede de cooperação de defesa do consumidor, os organismos nacionais de proteção do consumidor, as organizações da sociedade civil e os parceiros sociais.

VII. O papel fundamental das partes interessadas deverá ser o de dialogar com a Comissão e/ou quaisquer instituições, órgãos, gabinetes e agências pertinentes da União que possam vir a ser designadas neste contexto e com a «autoridade de controlo» em cada Estado-Membro.


B. TEXTO DA PROPOSTA LEGISLATIVA SOLICITADA

Proposta de

REGULAMENTO DO PARLAMENTO EUROPEU E DO CONSELHO

relativo aos princípios éticos para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas

Tendo em conta o Tratado sobre o Funcionamento da União Europeia, nomeadamente o artigo 114.º,

Tendo em conta a proposta da Comissão Europeia,

Após transmissão do projeto de ato legislativo aos parlamentos nacionais,

Tendo em conta o parecer do Comité Económico e Social Europeu,

Deliberando de acordo com o processo legislativo ordinário,

Considerando o seguinte:

(1) O desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, deveriam assentar no desejo de servir a sociedade. As tecnologias referidas podem implicar oportunidades e riscos, que devem ser tratados e regulamentados por um quadro regulamentar exaustivo a nível da União, que seja o reflexo de princípios éticos que devem ser respeitados desde o desenvolvimento e a implantação dessas tecnologias até à sua utilização.

(2) A conformidade com esse quadro regulamentar no que diz respeito ao desenvolvimento, à implantação e à utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias na União, deve ser de nível equivalente em todos os Estados-Membros, para que se possa tirar partido das oportunidades de forma eficiente e dar uma resposta coerente aos riscos associados a essas tecnologias, assim como para evitar a fragmentação regulamentar. É necessário garantir a aplicação homogénea das regras constantes no presente regulamento em toda a União.

(3) Neste contexto, a atual diversidade de regras e práticas seguidas na União representa um risco considerável de fragmentação do mercado único e para a proteção do bem-estar e da prosperidade dos cidadãos e da sociedade, bem como para a exploração coerente do pleno potencial que a inteligência artificial, a robótica e as tecnologias relacionadas têm para promover a inovação e preservar esse bem-estar e essa prosperidade. As diferenças no grau de consideração pelos criadores, implantadores e utilizadores da dimensão ética inerente a estas tecnologias podem evitar que estas sejam desenvolvidas, implantadas e utilizadas livremente na União, podendo essas diferenças constituir um obstáculo à igualdade de condições de concorrência e à prossecução do progresso tecnológico e das atividades económicas a nível da União, distorcer a concorrência e impedir as autoridades de cumprirem as suas obrigações ao abrigo do Direito da União. Além disso, a ausência de um quadro regulamentar comum de princípios éticos para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas redunda em insegurança jurídica para todas as partes, nomeadamente para os criadores, os implantadores e os utilizadores.

(4) No entanto, embora contribua para uma abordagem coerente a nível da União e dentro dos limites por ele estabelecidos, o presente regulamento deve dar margem de manobra aos Estados-Membros, nomeadamente no que respeita à forma como o mandato da respetiva autoridade nacional de controlo deverá ser cumprido, tendo em conta o objetivo que se pretende alcançar, tal como aqui estabelecido.

(5) O presente regulamento não prejudica a legislação setorial existente ou futura. Deve ser proporcionado em relação ao seu objetivo, para não entravar indevidamente a inovação na União, e estar em conformidade com uma abordagem baseada no risco.

(6) O âmbito geográfico de aplicação desse quadro deve abranger todas as componentes da inteligência artificial, da robótica e das tecnologias conexas ao longo do respetivo desenvolvimento, implantação e utilização na União, inclusive nos casos em que parte das tecnologias possa estar localizada fora da União ou não ter uma localização específica ou única, como no caso dos serviços de computação em nuvem.

(7) É necessário que a União tenha um entendimento comum de conceitos como inteligência artificial, robótica, tecnologias conexas e reconhecimento biométrico, para permitir uma abordagem regulamentar unificada e, por conseguinte, a segurança jurídica, tanto para os cidadãos, como para as empresas. Os conceitos devem ser neutros em termos tecnológicos e, sempre que necessário, sujeitos a revisão.

(8) Além disso, há que considerar o facto de existirem tecnologias relacionadas com inteligência artificial e a robótica que permitem ao software controlar processos físicos ou virtuais, com um grau de autonomia variável[13]. Por exemplo, para a condução automatizada de veículos, foram propostos seis níveis de automatização da condução de acordo com a norma internacional J3016 da SAE.

(9) O desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, devem complementar as capacidades humanas, sem as substituir,  assegurar que a sua execução não seja contrária aos melhores interesses dos cidadãos e que esteja em conformidade com o Direito da União, os direitos fundamentais consagrados na Carta dos Direitos Fundamentais da União Europeia («a Carta»), na jurisprudência do Tribunal de Justiça da União Europeia e em outros instrumentos europeus e internacionais aplicáveis na União.

(10) As decisões tomadas ou influenciadas pela inteligência artificial, robótica e tecnologias conexas devem continuar a estar sujeitas a avaliação, exame, intervenção e controlo humano apropriados. A complexidade técnica e operacional dessas tecnologias nunca deve impedir que o responsável pela implantação ou o utilizador possa, no mínimo, desligá-las em caso de falhas, alterá-las, interrompê-las, invertê-las para um estado anterior restaurando funcionalidades seguras, sempre que esteja em risco o cumprimento da legislação da União, das obrigações jurídicas e dos princípios éticos estabelecidos no presente regulamento.

(11) A inteligência artificial, a robótica e as tecnologias conexas, cujo desenvolvimento, implantação e utilização impliquem um risco significativo prejudicar ou de causar danos às pessoas ou à sociedade, em violação dos direitos fundamentais e das regras de segurança previstas no Direito da União, devem ser consideradas tecnologias de alto risco. Para as avaliar enquanto tal, há que ter em conta o setor em que são desenvolvidas, implantadas ou utilizadas, a sua finalidade ou o seu uso específicos, bem como a gravidade do prejuízo ou dos danos que possam vir a ocorrer. O grau de gravidade deve ser determinado com base na extensão do prejuízo ou do dano potencial resultante do funcionamento, no número de pessoas lesadas, no valor total do dano e no prejuízo para toda a sociedade. Tipos graves de prejuízos e danos são, por exemplo, violações dos direitos das crianças, dos consumidores ou dos trabalhadores que, devido à sua dimensão, ao número de crianças, consumidores ou trabalhadores afetados ou ao seu impacto na sociedade em geral, implicam um risco significativo de violação dos direitos fundamentais e das regras de segurança previstas no Direito da União. O presente regulamento deve incluir uma lista exaustiva e cumulativa de setores de alto risco e utilizações e finalidades de alto risco;

(12) As obrigações previstas no presente regulamento, nomeadamente as relativas às tecnologias de alto risco, devem aplicar-se apenas à inteligência artificial, à robótica e às tecnologias conexas, incluindo o software, aos algoritmos e aos dados utilizados ou produzidos por essas tecnologias, desenvolvidas, implantadas ou utilizadas na União, que, após a avaliação dos riscos prevista no presente regulamento, sejam consideradas de alto risco. Tais obrigações são cumpridas sem prejuízo da obrigação geral, de acordo com a qual inteligência artificial, robótica e tecnologias conexas, incluindo o software, algoritmos e dados utilizados ou produzidos por essas tecnologias, devem ser desenvolvidos, implantados e utilizados na União de forma antropocêntrica e assente nos princípios da autonomia e da segurança humanas, em conformidade com o Direito da União e no pleno respeito dos direitos fundamentais, como a dignidade humana, o direito à liberdade e segurança e o direito à integridade da pessoa.

(13) As tecnologias de alto risco devem respeitar os princípios da segurança, da transparência, da responsabilização, da não discriminação, da não discriminação, da responsabilidade social e da igualdade de género, do direito de recurso, da sustentabilidade ambiental, da privacidade e da boa governação, na sequência de uma avaliação de risco imparcial, objetiva e externa por parte da autoridade de controlo nacional, em conformidade com os critérios previstos no presente regulamento e da lista constante do seu anexo. Esta avaliação deve ter em conta os pontos de vista e qualquer autoavaliação efetuada pelo criador ou pelo responsável pela implantação..

(14) A Comissão e/ou quaisquer instituições, organismos, serviços e agências pertinentes da União que possam ser designados para o efeito devem elaborar orientações de execução não vinculativas para os criadores, os implantadores e os utilizadores sobre a metodologia de conformidade com o presente regulamento. Para o efeito, devem consultar as partes interessadas pertinentes.

(15) Deve haver coerência na União no que diz respeito à avaliação dos riscos destas tecnologias, especialmente no caso de serem avaliadas à luz do presente regulamento e em conformidade com a legislação setorial aplicável. Por conseguinte, as autoridades de controlo nacionais devem informar as demais autoridades que efetuam avaliações de risco em conformidade com qualquer legislação setorial, sempre que essas tecnologias sejam consideradas de alto risco, na sequência da avaliação dos riscos prevista no presente regulamento.

(16) Para serem fiáveis, a inteligência artificial, a robótica e as tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por tais tecnologias devem ser desenvolvidos, implantados e utilizados de forma segura, transparente e responsável, de acordo com as características de segurança, nomeadamente de robustez, resiliência, segurança, precisão e identificação de erros, explicabilidade, interpretabilidade, auditabilidade, transparência e identificabilidade, e de uma forma que permita desativar as funcionalidades em causa ou voltar a um estado anterior que restaure as funcionalidades seguras, em casos de não conformidade com essas características. A transparência deve ser garantida, permitindo o acesso às autoridades públicas, sempre que estritamente necessário, aos sistemas tecnológicos, de dados e de computação subjacentes a essas tecnologias.

(17) Os criadores, os implantadores e os utilizadores da inteligência artificial, da robótica e das tecnologias conexas, especialmente as tecnologias de alto risco, são responsáveis, em graus variáveis, pelo cumprimento dos princípios de segurança, transparência e responsabilidade, em função do seu grau de envolvimento nas tecnologias em causa, sem esquecer o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias. Os criadores devem garantir que as tecnologias em causa sejam concebidas e construídas de acordo com as características de segurança previstas no presente regulamento, devendo os implantadores e os utilizadores implantar e utilizar as tecnologias no pleno respeito dessas características. Para o efeito, os criadores de tecnologias de alto risco devem avaliar e antecipar os riscos de utilização indevida que se possam razoavelmente esperar no que respeita às tecnologias que desenvolvem. Têm também de garantir que os sistemas que desenvolvem indicam, na medida do possível e através de meios adequados, por exemplo, as mensagens de exoneração de responsabilidade, a probabilidade de erros ou as imprecisões.

(18) Os criadores e os implantadores devem disponibilizar aos utilizadores todas as atualizações posteriores das tecnologias em causa, nomeadamente no que diz respeito ao software, como estipulado por contrato ou previsto na legislação da União ou nacional. Além disso, sempre que uma avaliação dos riscos assim o indique, os criadores e os implantadores devem disponibilizar às autoridades públicas, no que diz respeito à documentação pertinente sobre a utilização das tecnologias em causa, as instruções de segurança nessa matéria, inclusive, sempre que estritamente necessário e no pleno respeito do Direito da União em matéria de proteção de dados, privacidade, direitos de propriedade intelectual e segredos comerciais, o código-fonte, os instrumentos de desenvolvimento e os dados utilizados pelo sistema.

 (19) Os particulares têm o direito de esperar que a tecnologia que utilizam funcione de uma forma razoável e que respeite a sua confiança. A confiança dos cidadãos na inteligência artificial, na robótica e nas tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, depende do conhecimento e da compreensão dos processos técnicos. O grau de explicabilidade desses processos deve depender do contexto desses processos técnicos e da gravidade das consequências de um resultado errado ou inexato e deve ser suficiente para os contestar e procurar vias de recurso. A auditabilidade, a rastreabilidade e a transparência devem solucionar qualquer eventual ininteligibilidade dessas tecnologias.

(20) A confiança da sociedade na inteligência artificial, na robótica e nas tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, depende do grau de avaliação, auditabilidade e rastreabilidade possibilitado por essas tecnologias. Na medida em que a sua participação assim o exija, os criadores devem garantir que as tecnologias sejam concebidas e construídas de forma a permitir a avaliação, a auditabilidade e a rastreabilidade. Dentro dos limites das possibilidades técnicas, os criadores, os implantadores e os utilizadores devem assegurar que a inteligência artificial, a robótica e as tecnologias conexas sejam implantadas e utilizadas no pleno respeito dos requisitos de transparência, permitindo a auditabilidade e a rastreabilidade.

(21) Para assegurar a transparência e a responsabilização, os cidadãos devem ser informados sempre que um sistema utilize inteligência artificial, sempre que os sistemas de inteligência artificial personalizem um produto ou serviço para os seus utilizadores, se podem desligar ou limitar a personalização e sempre que são confrontados com uma tecnologia de tomada de decisões automática. As medidas de transparência devem ainda ser acompanhadas, tanto quanto tecnicamente possível, de explicações claras e compreensíveis sobre os dados e o algoritmo utilizados, a sua finalidade, os seus resultados e os seus perigos potenciais.

(22) A parcialidade e a discriminação por software, algoritmos e dados são ilegais e devem ser corrigidos pela regulação dos processos através dos quais o software é concebido e utilizado. A parcialidade pode resultar, tanto de decisões informadas ou tomadas por um sistema automatizado, quanto por conjuntos de dados nos quais se baseia o processo decisório ou nos dados utilizados para treinar o sistema.

(23) O software, os algoritmos e os dados utilizados ou produzidos pela inteligência artificial, pela robótica e pelas tecnologias conexas devem ser considerados tendenciosos sempre que, por exemplo, apresentem resultados insatisfatórios em relação a qualquer pessoa ou grupo de pessoas, com base numa perceção pessoal, social ou parcial preconceituosa e no posterior tratamento dos dados relativos às suas características.

(24) Segundo o Direito da União, o software, os algoritmos e os dados utilizados ou produzidos pela inteligência artificial, pela robótica e pelas tecnologias conexas devem ser considerados discriminatórios sempre que produzam resultados que tenham efeitos negativos desproporcionados e resultem num tratamento diferente de uma pessoa ou grupo de pessoas, nomeadamente colocando-a numa posição de desvantagem em relação a outras pessoas, com base em elementos como as suas características pessoais, sem uma justificação objetiva ou razoável e independentemente de quaisquer reivindicações de neutralidade das tecnologias.

(25) Em conformidade com o Direito da União, os propósitos legítimos que, ao abrigo do presente regulamento, possam justificar objetivamente qualquer diferença de tratamento entre pessoas ou grupos de pessoas são a proteção da segurança e da saúde públicas, a prevenção de infrações penais, a proteção dos direitos e das liberdades individuais, a representação equitativa e requisitos objetivos para o exercício de uma profissão.

(26) A inteligência artificial, a robótica e as tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, devem contribuir para o progresso sustentável. Estas tecnologias não devem contrariar a causa da preservação do ambiente ou da transição ecológica. As referidas tecnologias devem contribuir para a concretização dos Objetivos de Desenvolvimento Sustentável das Nações Unidas, tendo em vista a prosperidade das gerações futuras. Podem apoiar o acompanhamento de progressos adequados com base em indicadores de sustentabilidade e de coesão social, bem como através da utilização de ferramentas de investigação e inovação responsáveis que exigem a mobilização de recursos pela União e pelos Estados-Membros, de molde a apoiar e investir em projetos que visem esses objetivos.

(27) O desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, não devem, de forma alguma, causar intencionalmente danos ou prejuízos de qualquer natureza a indivíduos ou à sociedade. Por conseguinte, as tecnologias de alto risco, em especial, devem ser desenvolvidas, implantadas e utilizadas de forma socialmente responsável.

(28) Assim, para efeitos do presente regulamento, os criadores, os implantadores e os utilizadores devem ser responsabilizados, em função da do seu grau de participação na inteligência artificial, na robótica e nas tecnologias conexas, e de acordo com as regras em matéria de responsabilidade nacionais e da União, pelos danos ou prejuízos causados a indivíduos ou à sociedade.

(29) Em particular, os criadores que tomam decisões que determinam e controlam o rumo ou o modo de desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas, bem como os implantadores que desempenham uma função operacional ou de gestão nessa implantação tomando decisões sobre essa implantação e exercendo o controlo dos riscos associados ou ainda beneficiando dessa implantação, devem ser, de forma geral, considerados responsáveis por evitar a ocorrência de quaisquer danos ou prejuízos, introduzindo medidas adequadas durante o processo de desenvolvimento e respeitando exaustivamente essas medidas durante a fase de implantação.

(30) A inteligência artificial, a robótica e as tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias socialmente responsáveis podem ser definidas como tecnologias que contribuem para encontrar soluções que visam salvaguardar e promover diversos aspetos da sociedade, em especial a democracia, a saúde, a prosperidade económica, a igualdade de oportunidades, os direitos sociais e dos trabalhadores, a diversidade e a independência dos meios de comunicação social  e o livre acesso a informações objetivas, permitindo o debate público, a educação de qualidade, a diversidade cultural e linguística, o equilíbrio de género, a literacia digital, a inovação e a criatividade. Também se inserem nesta categoria as que são desenvolvidas, implantadas e utilizadas com devida atenção ao seu impacto no bem-estar físico e mental dos cidadãos e que não incitam ao discurso do ódio ou à violência. Tais objetivos devem ser alcançados, designadamente, através de tecnologias de alto risco.

(31) A inteligência artificial, a robótica e tecnologias conexas também devem ser desenvolvidas, implantadas e utilizadas para apoiar a inclusão social, a democracia, o pluralismo, a solidariedade, a equidade, a igualdade e a cooperação, e o seu potencial nesse contexto deve ser maximizado e explorado através de projetos de investigação e inovação. A União e os seus Estados-Membros devem, por conseguinte, mobilizar os seus recursos de comunicação, administrativos e financeiros para apoiar e investir em tais projetos.

(32) Os projetos relacionados com o potencial da inteligência artificial, da robótica e das tecnologias conexas para tratar da questão do bem-estar social devem ser realizados com base em instrumentos responsáveis de investigação e inovação, a fim de garantir, desde o início, a conformidade desses projetos com os princípios éticos.

(33) O desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, deveriam ter em conta a respetiva pegada ecológica. Em conformidade com as obrigações previstas na legislação aplicável da União, essas tecnologias não devem prejudicar o ambiente durante o seu ciclo de vida e ao longo de toda a sua cadeia de aprovisionamento, e devem ser desenvolvidas, implantadas e utilizadas de forma a preservar o ambiente, a atenuar e a corrigir a sua pegada ambiental, a contribuir para a transição ecológica e a apoiar a consecução dos objetivos da neutralidade climática e da economia circular.

(34) Para efeitos do presente regulamento, os criadores, os implantadores e os utilizadores devem ser responsabilizados, em função do seu grau de participação no desenvolvimento, na implantação e na utilização da inteligência artificial, da robótica e das tecnologias conexas em causa, por quaisquer danos causados ao ambiente de acordo com as regras de responsabilidade ambiental aplicáveis.

(35) Essas tecnologias devem igualmente ser desenvolvidas, implantadas e utilizadas para apoiar a concretização dos objetivos ambientais, em conformidade com as obrigações estabelecidas na legislação da União aplicável, designadamente reduzir a produção de resíduos, diminuir a pegada de carbono, combater as alterações climáticas e preservar o ambiente, e o seu potencial nesse contexto deve ser maximizado e explorado através de projetos de investigação e inovação. A União e os seus Estados-Membros devem, por conseguinte, mobilizar os seus recursos de comunicação, administrativos e financeiros para apoiar e investir em tais projetos.

(36) Os projetos relacionados com o potencial da inteligência artificial, da robótica e das tecnologias conexas para ter em conta as preocupações ambientais devem ser realizados com base em instrumentos responsáveis de investigação e inovação, a fim de garantir, desde o início, a conformidade desses projetos com os princípios éticos.

(37) A inteligência artificial, a robótica e as tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, desenvolvidas, implantadas ou utilizadas na União devem respeitar plenamente o direito dos cidadãos da UE à privacidade e à proteção dos dados pessoais. Em especial, o seu desenvolvimento, implantação e utilização devem respeitar o disposto no Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho[14] e na Diretiva 2002/58/CE do Parlamento Europeu e do Conselho[15].

(38) Em particular, os limites éticos da utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, devem ser devidamente tidos em conta aquando da utilização de tecnologias de reconhecimento a distância, como o reconhecimento de identificadores biométricos, para identificar pessoas automaticamente. Sempre que estas estas tecnologias sejam utilizadas pelas autoridades públicas por razões de interesse público importante, a saber, garantir a segurança das pessoas e resolver situações de emergência nacionais, e não para garantir a segurança das propriedades, a utilização deve ser sempre divulgada, proporcionada, direcionada, restringida a objetivos específicos e limitada no tempo, em conformidade com o Direito da União e tendo em devida conta a dignidade humana e a autonomia e os direitos fundamentais enunciados na Carta. Os critérios e limites impostos a essa utilização devem ser sujeitos a um controlo judicial e submetidos a um escrutínio democrático e a um debate que envolva a sociedade civil;

(39) A governação que se baseia em normas pertinentes melhora a segurança e favorece o aumento da confiança dos cidadãos no desenvolvimento, na implantação e na utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias.

(40) As autoridades públicas devem realizar avaliações de impacto dos direitos fundamentais antes da implantação de tecnologias de alto risco que prestem apoio a decisões tomadas no setor público e que tenham um impacto direto e significativo nos direitos e nas obrigações dos cidadãos.

(41) Entre as normas de governação aplicáveis existentes encontram-se, por exemplo, a nível europeu, as «Orientações éticas para uma IA de confiança», elaboradas pelo grupo de peritos de alto nível sobre a inteligência artificial criado pela Comissão Europeia, e quaisquer outras normas técnicas, como as adotadas pelo Comité Europeu de Normalização (CEN), pelo Comité Europeu de Normalização Eletrotécnica (CENELEC), e pelo Instituto Europeu de Normalização das Telecomunicações (ETSI), e, a nível internacional, pela Organização Internacional de Normalização (ISO) e pelo Instituto de Engenharia Eletrotécnica e Eletrónica (IEEE).

(42) A partilha e utilização de dados por diversos participantes é sensível, pelo que o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas devem ser governados por regulamentação, padrões e protocolos pertinentes que reflitam os requisitos de qualidade, integridade, segurança, fiabilidade, privacidade e controlo. A estratégia de governação dos dados deve centrar-se no tratamento, na partilha e no acesso a esses dados, assim com na sua gestão, auditabilidade e rastreabilidade adequadas, e garantir a proteção correta dos dados de grupos vulneráveis, mormente pessoas com deficiência, doentes, crianças, minorias e migrantes ou outros grupos em risco de exclusão. Acresce que os criadores, os implantadores e os utilizadores devem poder, sempre que pertinente, basear-se em indicadores-chave de desempenho na avaliação dos conjuntos de dados que utilizam, tendo em vista reforçar a fiabilidade das tecnologias que desenvolvem, implantam e utilizam.

(43) Os Estados-Membros devem nomear uma autoridade administrativa independente para agir como autoridade de controlo. Em especial, cada autoridade nacional de controlo deve ser responsável pela identificação da inteligência artificial, da robótica e das tecnologias conexas consideradas de alto risco à luz dos critérios de avaliação dos riscos previstos no presente regulamento, bem como pela avaliação e monitorização da conformidade dessas tecnologias com as obrigações previstas no presente regulamento.

(44) Cada autoridade de controlo nacional deve também assumir a responsabilidade pela boa governação destas tecnologias sob a coordenação da Comissão e/ou de quaisquer instituições, organismos, serviços ou agências da União que possam ser designados para esse efeito. Por conseguinte, essas autoridades desempenham um papel importante na promoção da confiança e da segurança dos cidadãos da UE, bem como na construção de uma sociedade democrática, pluralista e justa.

(45) Para efeitos de avaliação das tecnologias de alto risco em conformidade com o presente regulamento e de monitorização do seu cumprimento, as autoridades de controlo nacionais deverão, sempre que aplicável, cooperar com as autoridades responsáveis pela avaliação e monitorização dessas tecnologias e pelo cumprimento da sua legislação setorial.

(46) As autoridades nacionais de controlo devem colaborar de forma substancial e regular entre si, bem como com a Comissão Europeia e com outras instituições, outros órgãos, organismos e agências pertinentes da União, a fim de garantir uma ação transfronteiriça coerente e permitir o desenvolvimento, a implantação e a utilização coerente destas tecnologias na União, em conformidade com as obrigações jurídicas e os princípios éticos estabelecidos no presente regulamento.

(47) No contexto dessa cooperação, e para alcançar a plena harmonização a nível da União, as autoridades de controlo nacionais deverão prestar assistência à Comissão na elaboração de uma lista comum e exaustiva de inteligência artificial, robótica e tecnologias conexas de alto risco, em conformidade com os critérios previstos no presente regulamento e no respetivo anexo. Deve ainda ser desenvolvido um processo para a emissão de um certificado europeu de conformidade ética, mormente um processo de candidatura voluntária para qualquer criador, implantador ou utilizador de tecnologias não consideradas de alto risco que procure certificar a sua conformidade com o presente regulamento.

(48) As autoridades nacionais de controlo devem reunir o maior número possível de partes interessadas, como a indústria, empresas, parceiros sociais, investigadores, consumidores e organizações da sociedade civil, e proporcionar um fórum pluralista de reflexão e troca de opiniões, para chegar a conclusões compreensíveis e exatas, tendo em vista orientar a forma como a governação é regulada.

(49) As autoridades nacionais de controlo devem reunir um número máximo de interessados, tais como a indústria, as empresas, os parceiros sociais, os investigadores, os consumidores e as organizações da sociedade civil, e proporcionar um fórum pluralista de reflexão e troca de pontos de vista, para facilitar a cooperação com, e entre, os interessados, em particular do meio académico, da investigação, da indústria, da sociedade civil e de especialistas, para chegar a conclusões compreensíveis e precisas para orientar a forma como a governação é regulada.

(50) As autoridades nacionais de controlo devem também prestar orientação e apoio administrativo profissional aos criadores, implantadores e utilizadores, especialmente às pequenas e médias empresas ou às empresas em fase de arranque que se deparem com dificuldades para cumprir os princípios éticos e as obrigações jurídicas previstas no presente regulamento.

(51) A Comissão e/ou quaisquer instituições, organismos, serviços e agências pertinentes da União que possam ser designados para o efeito devem, ao efetuarem a sua avaliação de conformidade, elaborar orientações vinculativas sobre a metodologia a utilizar pelas autoridades nacionais de controlo.

(52) A denúncia de irregularidades chama a atenção das autoridades para violações eventuais, e reais, do Direito da União, com o objetivo de evitar ofensas, prejuízos e danos que de outra forma ocorreriam. Além do mais, os procedimentos de comunicação melhoram o fluxo de informações nas empresas e nas organizações, atenuando, deste modo, o risco de serem desenvolvidos produtos ou serviços com falhas ou erros. As empresas e organizações que desenvolvem, implantam ou utilizam inteligência artificial, robótica e tecnologias conexas, incluindo os dados utilizados ou produzidos por essas tecnologias, devem criar canais de comunicação, e as pessoas que denunciem violações devem ser protegidas contra represálias.

(53) O rápido desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, bem como a aprendizagem automática técnica, os processos de raciocínio e outras tecnologias subjacentes a esse desenvolvimento, são imprevisíveis. Como tal, é adequado e necessário criar um mecanismo de revisão de acordo com o qual a Comissão, para além de prestar informações sobre a aplicação do regulamento, apresente com caráter periódico um relatório sobre as eventuais alterações ao âmbito de aplicação do presente regulamento.

(54) Uma vez que o objetivo do presente regulamento, nomeadamente a criação de um quadro regulamentar de princípios éticos para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, não pode ser suficientemente alcançado pelos Estados-Membros, mas pode, devido à sua dimensão e aos seus efeitos, ser mais bem alcançado a nível da União, que, por seu turno, pode tomar medidas em conformidade com o princípio da subsidiariedade consagrado no artigo 5.º do Tratado da União Europeia. Segundo o princípio da proporcionalidade consagrado nesse artigo, o presente regulamento não vai para além do considerado necessário para alcançar esse objetivo.

(55) A coordenação a nível da União, tal como estabelecida no presente regulamento, será melhor alcançada pela Comissão e/ou quaisquer instituições, órgãos, organismos e agências da União que possam ser designados neste contexto, a fim de evitar a fragmentação e garantir a aplicação coerente do presente regulamento. A Comissão deve, por conseguinte, ser incumbida de encontrar uma solução adequada para estruturar essa coordenação a nível da União, tendo em vista coordenar os mandatos e as ações das autoridades nacionais de controlo em cada Estado-Membro, nomeadamente no que diz respeito à avaliação dos riscos da inteligência artificial, da robótica e das tecnologias conexas, à criação de um quadro comum para a governação do desenvolvimento, da implantação e da utilização dessas tecnologias, ao desenvolvimento e à emissão de um certificado de conformidade com os princípios éticos e as obrigações jurídicas estabelecidos no presente regulamento, apoiando intercâmbios regulares com as partes interessadas e a sociedade civil e criando um centro de conhecimentos especializados que reúna as universidades, a investigação, a indústria e especialistas a nível da União, a fim de estimular o intercâmbio de conhecimentos e de competências técnicas, e promovendo a abordagem da União através da cooperação internacional e da garantia de uma resposta coerente em todo o mundo às oportunidades e aos riscos inerentes a estas tecnologias.


ADOTARAM O PRESENTE REGULAMENTO:

Capítulo I

Disposições gerais

Artigo 1.º

Objeto

 

O presente regulamento destina-se a estabelecer um quadro regulamentar abrangente e voltado para o futuro de princípios éticos e obrigações legais para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas na União.

Artigo 2.º

Âmbito de aplicação

 

O presente regulamento aplica-se à inteligência artificial, à robótica e às tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, desenvolvidas, implantadas ou utilizadas na União.

Artigo 3.º

Âmbito geográfico

O presente regulamento aplica-se à inteligência artificial, à robótica e às tecnologias conexas, quando uma parte das mesmas seja desenvolvida, implantada ou utilizada na União, independentemente de o software, os algoritmos ou os dados utilizados ou produzidos por essas tecnologias estarem localizados fora da União ou não terem uma localização geográfica específica.

Artigo 4.º

Definições

Para efeitos do presente regulamento, entende-se por:

(a) «Inteligência artificial», um sistema baseado em software ou integrado em dispositivos físicos que apresenta um comportamento inteligente, recolhendo e tratando dados, analisando e interpretando o seu ambiente e tomando medidas - com um determinado nível de autonomia - para atingir objetivos específicos[16];

(b) «Autonomia»: um sistema de IA que funcione interpretando certos dados e utilizando um conjunto de instruções predeterminadas, sem estar limitado a essas instruções, apesar de o comportamento do sistema estar limitado pelo objetivo que lhe foi atribuído e que está destinado a realizar e por outras escolhas de conceção tomadas por quem o desenvolveu;

(c) «Robótica», as tecnologias que permitam que máquinas controladas automaticamente, reprogramáveis e multifuncionais[17] executem tarefas no mundo físico tradicionalmente executadas ou iniciadas por seres humanos, nomeadamente por meio de inteligência artificial ou tecnologias conexas;

(d) «Tecnologias conexas», as tecnologias que permitam ao software controlar com um grau de autonomia parcial ou total um processo físico ou virtual, as tecnologias capazes de detetar dados biométricos, genéticos ou outros, e as tecnologias que copiem ou utilizem de qualquer outra forma características humanas;

(e) «Alto risco», um risco significativo decorrente do desenvolvimento, da implantação e da utilização da inteligência artificial, da robótica e das tecnologias conexas, de causar prejuízo ou danos às pessoas ou à sociedade, em violação dos direitos fundamentais e das regras de segurança previstas no Direito da União, tendo em conta a sua finalidade ou o seu uso específicos, o setor em que são desenvolvidas, implantadas ou utilizadas, bem como a gravidade do prejuízo ou dos danos que possam vir a ocorrer.

(f) «Desenvolvimento», a construção e conceção de algoritmos, a escrita e conceção de software ou a recolha, armazenagem e gestão de dados para efeitos de criação ou treino da inteligência artificial, da robótica e das tecnologias conexas ou para efeitos de criação de uma nova aplicação para a inteligência artificial, a robótica e as tecnologias conexas já existentes;

(g) «Criador», qualquer pessoa singular ou coletiva que tome as decisões que determinam e controlam o rumo ou a modalidade do desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas;

(h) «Implantação», o funcionamento e a gestão da inteligência artificial, da robótica e das tecnologias conexas, bem como a sua colocação no mercado ou outra forma de disponibilização aos utilizadores;

(i) «Implantador», qualquer pessoa singular ou coletiva envolvida na implantação da inteligência artificial, da robótica e das tecnologias conexas e que desempenhe uma função de controlo ou de gestão tomando decisões, exercendo o controlo dos riscos ou ainda beneficiando dessa implantação;

(j) «Utilização», qualquer ação relacionada com a inteligência artificial, a robótica e as tecnologias conexas, com exceção do desenvolvimento ou da implantação;

(k) «Utilizador», qualquer pessoa singular ou coletiva que utilize a inteligência artificial, a robótica e as tecnologias conexas, exceto para fins de desenvolvimento ou implantação;

(l) «Enviesamento», qualquer perceção pessoal ou social preconceituosa de uma pessoa ou um grupo de pessoas, com base nas suas características pessoais;

(m) «Discriminação», qualquer tratamento diferenciado de uma pessoa ou um grupo de pessoas com base num motivo que não tenha qualquer justificação objetiva ou razoável e que, por conseguinte, seja proibido pelo direito da União;

(n) «Prejuízos ou danos», quaisquer danos físicos ou mentais e quaisquer danos materiais e imateriais, inclusive quando causados por discurso de ódio, preconceito, discriminação ou estigmatização, como uma perda financeira ou económica, perda de emprego ou de oportunidades educativas, restrição indevida da liberdade de escolha ou expressão ou perda de privacidade, e qualquer violação do direito da União que seja prejudicial para uma pessoa;

(o) «Boa governação», a forma de garantir que os criadores, implantadores e utilizadores adotem e observem os padrões e protocolos de comportamento adequados e razoáveis, com base num conjunto formal de regras, procedimentos e valores, e que lhes permita tratar adequadamente as questões éticas, à medida ou antes que estas surjam.

Artigo 5.º

Princípios éticos da inteligência artificial, da robótica e das tecnologias conexas

1. A inteligência artificial, a robótica e as tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, devem ser desenvolvidas, implantadas ou utilizadas na União em conformidade com o direito da União e no pleno respeito pela dignidade, autonomia e segurança humanas e por outros direitos fundamentais estabelecidos na Carta.

2. Qualquer tratamento de dados pessoais no âmbito do desenvolvimento, da implantação e da utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo dados pessoais obtidos a partir de dados não pessoais e dados biométricos, deve ser efetuado em conformidade com o Regulamento (UE) n.º 2016/679 e a Diretiva 2002/58/CE.

3. A União e os seus Estados-Membros devem incentivar projetos de investigação destinados a fornecer soluções, baseadas na inteligência artificial, na robótica e nas tecnologias conexas, que visem promover a inclusão social, a democracia, o pluralismo, a solidariedade, a equidade, a igualdade e a cooperação.

Capítulo II

Obrigações relativas às tecnologias de alto risco

Artigo 6.º

Obrigações relativas às tecnologias de alto risco

1. O presente capítulo aplica-se apenas à inteligência artificial, à robótica e às tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, desenvolvidas, implantadas ou utilizadas na União e consideradas de alto risco.

 

2. A inteligência artificial, a robótica e as tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, devem ser desenvolvidas, implantadas e utilizadas em conformidade com os princípios éticos estabelecidos no presente regulamento.

Artigo 7.º

Inteligência artificial antropocêntrica e antropogénica

1. As tecnologias de inteligência artificial de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, devem ser desenvolvidas, implantadas ou utilizadas de forma a garantir a plena supervisão humana em qualquer momento.

2. As tecnologias referidas no n.º 1 devem ser desenvolvidas, implantadas e utilizadas de forma a permitir a recuperação do controlo humano quando necessário, incluindo através da alteração ou interrupção dessas tecnologias.

 

Artigo 8.º

Segurança, transparência e responsabilização

1. A inteligência artificial, a robótica e as tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, devem ser desenvolvidas, implantadas e utilizadas de um modo que garanta que sejam:

 a) desenvolvidas, implantadas e utilizadas de forma resiliente, a fim de garantir um nível de segurança adequado mediante a observância de referências mínimas de cibersegurança proporcionais ao risco identificado e que impeça a exploração de eventuais vulnerabilidades técnicas para fins maliciosos ou ilegais;

b) desenvolvidas, implantadas e utilizadas de forma segura, garantindo a existência de salvaguardas que incluam um plano e medidas de emergência em caso de risco para a segurança intrínseca ou extrínseca;

c) desenvolvidas, implantadas e utilizadas de forma a garantir um desempenho fiável que o utilizador possa razoavelmente esperar no que se refere ao cumprimento dos objetivos e à realização das atividades para as quais foram concebidas, nomeadamente assegurando que todas as operações sejam reproduzíveis;

d) desenvolvidas, implantadas e utilizadas de forma a garantir que a realização dos objetivos e das atividades das tecnologias específicas seja exata; se não puderem ser evitadas imprecisões ocasionais, o sistema deve indicar, na medida do possível, a probabilidade de erros e inexatidões aos implantadores e utilizadores através de meios adequados;

e) desenvolvidas, implantadas e utilizadas de uma forma facilmente explicável, de modo a garantir que possa ser efetuada uma revisão dos processos técnicos das tecnologias;

f) desenvolvidas, implantadas e utilizadas de forma a informar os utilizadores de que estão a interagir com sistemas de inteligência artificial, revelando devida e completamente as suas capacidades, exatidão e limitações aos criadores, implantadores e utilizadores de inteligência artificial;

g) em conformidade com o artigo 6.º, desenvolvidas, implantadas e utilizadas de forma a permitir, em caso de incumprimento dos critérios de segurança previstos nas alíneas a) a g), a desativação temporária das funcionalidades em causa e o regresso a um estado anterior que restaure as funcionalidades seguras. 

2. Em conformidade com o artigo 6º, n.º 1, as tecnologias mencionadas no n.º 1, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, devem ser desenvolvidas, implantadas e utilizadas de forma transparente e rastreável, de modo a que os seus elementos, processos e fases sejam documentados segundo as normas mais elevadas possíveis e aplicáveis e a que seja possível às autoridades nacionais de controlo referidas no artigo 14.º avaliar a conformidade dessas tecnologias com as obrigações estabelecidas no presente regulamento. Em especial, o criador, implantador ou utilizador dessas tecnologias é responsável pela conformidade com os critérios de segurança previstos no n.º 1 e deve poder demonstrá-la.

3. O criador, implantador ou utilizador das tecnologias mencionadas no n.º 1 deve assegurar que as medidas tomadas para garantir a conformidade com os critérios de segurança previstos no n.º 1 possam ser auditadas pelas autoridades nacionais de controlo a que se refere o artigo 14.º ou, se aplicável, por outras entidades nacionais ou europeias de supervisão setorial.

Artigo 9.º

Não enviesamento e não discriminação

 

1. O software, os algoritmos ou os dados utilizados ou produzidos pela inteligência artificial, pela robótica e pelas tecnologias conexas de alto risco desenvolvidas, implantadas ou utilizadas na União não devem ser enviesados e, sem prejuízo do disposto no n.º 3, não devem discriminar em razão, nomeadamente, de raça, género, orientação sexual, gravidez, deficiência, características físicas ou genéticas, idade, minoria nacional, etnia ou origem social, língua, religião ou crença, opiniões políticas ou participação cívica, nacionalidade, estado civil ou económico, grau de instrução ou antecedentes penais.

 

2. Em derrogação dos n.ºs 1 e 2, e sem prejuízo do direito da União aplicável à discriminação ilegal, o tratamento diferenciado de pessoas ou grupos de pessoas só pode ser justificado quando exista uma finalidade objetiva, razoável e legítima que seja simultaneamente proporcionada e necessária, na medida em que não haja alternativa que cause menos interferência com o princípio da igualdade de tratamento.

Artigo 10.º

Responsabilidade social e igualdade de género

A inteligência artificial, a robótica e as tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, desenvolvidas, implantadas e utilizadas na União devem ser desenvolvidas, implantadas e utilizadas em conformidade com a legislação, os princípios e os valores pertinentes da União, de forma a não interferir em eleições ou contribuir para a difusão de desinformação, a respeitar os direitos dos trabalhadores, a promover uma educação de qualidade e a literacia digital, a não aumentar a disparidade de género impedindo a igualdade de oportunidades para todos e a não desrespeitar os direitos de propriedade intelectual e quaisquer limitações ou exceções aos mesmos.

Artigo 11.º

Sustentabilidade ambiental

A inteligência artificial, a robótica e as tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, devem ser avaliadas quanto à sua sustentabilidade ambiental pelas autoridades nacionais de controlo a que se refere o artigo 14.º ou, se aplicável, por outras entidades nacionais ou europeias de supervisão setorial, assegurando que sejam tomadas medidas para atenuar e remediar o seu impacto geral no que respeita aos recursos naturais, ao consumo de energia, à produção de resíduos, à pegada de carbono, à emergência das alterações climáticas e à degradação do ambiente, a fim de garantir a conformidade com o direito nacional ou da União aplicável, bem como com outros compromissos internacionais assumidos pela União em matéria de ambiente.

Artigo 12.º

Respeito pela vida privada e proteção dos dados pessoais

A utilização e recolha de dados biométricos para fins de identificação a distância em espaços públicos, como o reconhecimento biométrico ou facial, comporta riscos específicos para os direitos fundamentais e deve ser implantada ou utilizada apenas pelas autoridades públicas dos Estados-Membros para fins de interesse público importante. Essas autoridades públicas devem garantir que essa implantação ou utilização seja divulgada ao público, proporcionada, direcionada e restringida a objetivos e locais específicos, bem como limitada no tempo, em conformidade com a legislação da União e nacional, em particular o Regulamento (UE) 2016/679 e a Diretiva 2002/58/CE, e no devido respeito pela dignidade e autonomia humanas e pelos direitos fundamentais estabelecidos na Carta, nomeadamente os direitos ao respeito pela vida privada e à proteção dos dados pessoais.

 

Artigo 13.º

Direito de recurso

 Qualquer pessoa singular ou coletiva tem o direito de procurar obter reparação por prejuízos ou danos causados pelo desenvolvimento, pela implantação e pela utilização de inteligência artificial, robótica e tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, em violação do direito da União e das obrigações estabelecidas no presente regulamento.

Artigo 14.º

Avaliação dos riscos

1. Para efeitos do presente regulamento, a inteligência artificial, a robótica e as tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, são consideradas tecnologias de alto risco quando, na sequência de uma avaliação dos riscos baseada em critérios objetivos como a sua finalidade ou o seu uso específicos, o setor em que são desenvolvidas, implantadas ou utilizadas, bem como a gravidade dos prejuízos ou dos danos que possam vir a causar, o seu desenvolvimento, a sua implantação e a sua utilização comportem um risco significativo expectável de causar prejuízos ou danos às pessoas ou à sociedade, em violação dos direitos fundamentais e das regras de segurança previstas no Direito da União.

2. Sem prejuízo da legislação sectorial aplicável, a avaliação dos riscos da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, é efetuada com base nos critérios objetivos previstos no n.º 1 do presente artigo e na lista exaustiva e cumulativa constante do anexo do presente regulamento, pelas autoridades nacionais de controlo a que se refere o artigo 14.º, sob a coordenação da Comissão e/ou de quaisquer outros organismos, instituições, serviços e agências pertinentes da União que possam ser designados para o efeito no contexto da sua cooperação.

3. Em cooperação com as autoridades nacionais de controlo referidas no n.º 2, a Comissão elabora e, posteriormente, atualiza, através de atos delegados em conformidade com o artigo 15.º-A, uma lista comum de tecnologias de alto risco identificadas na União.

4. Através de atos delegados em conformidade com o artigo 15.º-A, a Comissão também atualiza regularmente a lista constante do anexo do presente regulamento.

Artigo 15.º

Avaliação da conformidade

1. A inteligência artificial, a robótica e as tecnologias conexas de alto risco são submetidas a uma avaliação de conformidade com as obrigações estabelecidas nos artigos 6.º a 12.º do presente regulamento, bem como a um acompanhamento posterior, sendo ambos levados a cabo pelas autoridades nacionais de controlo a que se refere o artigo 17.º, sob a coordenação da Comissão e/ou de quaisquer outros organismos, instituições, serviços e agências pertinentes da União que possam ser designados para o efeito.

 

2. O software, os algoritmos e os dados utilizados ou produzidos por tecnologias de alto risco que tenham sido avaliados como cumprindo as obrigações estabelecidas no presente regulamento nos termos do n.º 1 serão igualmente considerados como cumprindo essas obrigações, a menos que a autoridade nacional de controlo competente decida realizar uma avaliação por sua própria iniciativa ou a pedido do criador, do implantador ou do utilizador.

 

3. Sem prejuízo da legislação setorial, a Comissão e/ou quaisquer instituições, organismos, serviços e agências pertinentes da União que possam ser especificamente designados para o efeito devem elaborar orientações vinculativas sobre a metodologia a utilizar pelas autoridades nacionais de controlo para a avaliação da conformidade referida no n.º 1 até à data de entrada em vigor do presente regulamento.

 

Artigo 16.º

Certificado europeu de conformidade ética

1. Sempre que tenha havido uma avaliação da conformidade positiva da inteligência artificial, da robótica e das tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por tais tecnologias, realizada em conformidade com o Artigo 7.º-A, a respetiva autoridade de controlo nacional emite um certificado europeu de conformidade ética.

 

2. Os criadores, implantadores ou utilizadores de inteligência artificial, robótica e tecnologias conexas, incluindo software, algoritmos e dados utilizados ou produzidos por essas tecnologias, que não sejam consideradas de alto risco e que, por conseguinte, não estejam sujeitas às obrigações previstas nos artigos 6.º a 12.º e à avaliação dos riscos e da conformidade prevista nos artigos 13.º e 14.º, podem igualmente procurar certificar o cumprimento das obrigações previstas no presente regulamento, ou parte delas, sempre que a natureza da tecnologia em questão o justifique, tal como decidido pelas autoridades de controlo nacionais. Só será emitido um certificado se tiver sido efetuada uma avaliação da conformidade pela autoridade nacional de controlo competente e se essa avaliação for positiva.

 

3. Para efeitos da emissão do certificado referido no n.º 2, a Comissão e/ou quaisquer organismos, instituições, serviços e agências pertinentes da União que possam ser designados para o efeito elaboram um processo de candidatura.

 

Capítulo III

Supervisão institucional

Artigo 17.º

Normas de governação e orientações de aplicação

1. A inteligência artificial, a robótica e as tecnologias conexas desenvolvidas, implantadas ou utilizadas na União devem respeitar as normas de governação pertinentes estabelecidas em conformidade com o direito, os princípios e os valores da União pelas autoridades nacionais de controlo referidas no artigo 17.º em conformidade com o direito, os princípios e os valores da União, sob a coordenação da Comissão e/ou dos organismos, instituições, serviços e agências pertinentes da União que possam ser designados para o efeito e em consulta com as partes interessadas em causa.

 

2. As normas referidas no n.º 1 incluem orientações de aplicação não vinculativas sobre a metodologia para o cumprimento do presente regulamento pelos criadores, implantadores e utilizadores e devem ser publicadas até à data de entrada em vigor do presente regulamento.

 

3. Os dados utilizados ou produzidos pela inteligência artificial, pela robótica e pelas tecnologias conexas desenvolvidas, implantadas ou utilizadas na União devem ser geridos pelos criadores, implantadores e utilizadores em conformidade com as regras e normas na matéria nacionais, da União e de outras organizações internacionais, bem como com os protocolos industriais e comerciais pertinentes. Em especial, os criadores e implantadores devem efetuar, sempre que possível, controlos de qualidade das fontes externas de dados utilizadas pela inteligência artificial, pela robótica e pelas tecnologias conexas e estabelecer mecanismos de supervisão relativamente à sua recolha, ao seu armazenamento, ao seu tratamento e à sua utilização.

 

3. Sem prejuízo dos direitos de portabilidade e dos direitos das pessoas cuja utilização da inteligência artificial, da robótica e das tecnologias conexas tenha gerado dados, a recolha, o armazenamento, o tratamento, a partilha e o acesso aos dados utilizados ou produzidos pela inteligência artificial, pela robótica e pelas tecnologias conexas desenvolvidas, implantadas ou utilizadas na União devem respeitar as regras e normas nacionais, da União e de outras organizações internacionais, bem como os protocolos industriais e comerciais pertinentes. Em especial, os criadores e implantadores devem garantir a aplicação desses protocolos durante o desenvolvimento e a implantação da inteligência artificial, da robótica e das tecnologias conexas, definindo claramente os requisitos para o tratamento e a concessão de acesso aos dados utilizados ou produzidos por essas tecnologias, bem como a finalidade, o âmbito e os destinatários do tratamento e da concessão de acesso a esses dados, sendo todos eles passíveis de auditoria e rastreabilidade a qualquer momento.

 

Artigo 18.º

Autoridades de controlo

1. Cada Estado-membro designa uma autoridade pública independente responsável pelo controlo da aplicação do presente regulamento («autoridade de controlo») e pela realização das avaliações dos riscos e da conformidade e pela certificação previstas nos artigos 13.º, 14.º e 15.º, sem prejuízo da legislação sectorial.

 

2. As autoridades nacionais de controlo contribuem para a aplicação coerente do presente regulamento em toda a União. Nesse sentido, as autoridades de controlo de cada Estado-Membro cooperam entre si, com a Comissão e com outros organismos, instituições, órgãos serviços e agências competentes da União que possam ser designados para o efeito.

 

3. Cada autoridade nacional de controlo servirá como primeiro ponto de contacto em caso de suspeita de violação dos princípios éticos e obrigações legais estabelecidos no presente regulamento, incluindo o tratamento discriminatório ou a violação de outros direitos, em resultado do desenvolvimento, da implantação ou da utilização da inteligência artificial, da robótica e das tecnologias conexas. Nesses casos, a respetiva autoridade nacional de controlo procede a uma avaliação da conformidade com vista a apoiar o direito dos cidadãos de contestar e obter reparação.

 

4. As autoridades nacionais de controlo são responsáveis pelo controlo da aplicação das regras e normas pertinentes de governação nacionais, da União e internacionais referidas no artigo 13.º à inteligência artificial, à robótica e às tecnologias conexas, nomeadamente através da coordenação com o maior número possível de partes interessadas em causa. Para o efeito, as autoridades de controlo de cada Estado-Membro constituem um fórum de intercâmbio regular com e entre as partes interessadas das universidades, da investigação, da indústria e da sociedade civil.

 

5. As autoridades nacionais de controlo fornecem orientação e apoio profissional e administrativo sobre a aplicação geral do direito da União em matéria de inteligência artificial, robótica e tecnologias conexas e dos princípios éticos definidos no presente regulamento, em especial às organizações de investigação e desenvolvimento pertinentes e às pequenas e médias empresas ou às empresas em fase de arranque.

 

6. Cada Estado-Membro notifica à Comissão Europeia as disposições legais que adote nos termos do presente artigo até [JO: inserir a data correspondente a um ano após a data de entrada em vigor] e, sem demora, quaisquer alterações subsequentes que afetem essas disposições.

 

7. Os Estados-Membros tomam todas as medidas necessárias para garantir a aplicação dos princípios éticos e das obrigações legais estabelecidas no presente regulamento. Os Estados-Membros devem apoiar os intervenientes em causa e a sociedade civil, tanto a nível da União como a nível nacional, nos esforços para dar uma resposta atempada, ética e fundamentada às novas oportunidades e aos novos desafios, em especial de natureza transfronteiriça, decorrentes da evolução tecnológica em matéria de inteligência artificial, robótica e tecnologias conexas.

 

Artigo 19.º

Denúncia de infrações e proteção dos denunciantes

 

A Diretiva (UE) 2019/1937 do Parlamento Europeu e do Conselho[18] aplica-se à denúncia de infrações ao presente regulamento e à proteção das pessoas que denunciam essas infrações.

 

Artigo 20.º

Coordenação a nível da União

1. A Comissão e/ou quaisquer instituições, organismos, serviços e agências da União que possam ser designados neste contexto devem desempenhar as seguintes funções:

 

- assegurar a realização de uma avaliação coerente dos riscos da inteligência artificial, da robótica e das tecnologias conexas a que se refere o artigo 13.º pelas autoridades nacionais de controlo referidas no artigo 17.º com base nos critérios objetivos comuns previstos no artigo 7.º, n.º 1, e na lista de sectores de alto risco e de utilizações ou finalidades de alto risco constante do anexo ao presente regulamento;

 

- tomar nota da avaliação da conformidade e posterior acompanhamento da inteligência artificial, da robótica e das tecnologias conexas de alto risco referidas no artigo 14.º, a efetuar pelas autoridades nacionais de controlo referidas no artigo 17.º;

 

- elaborar o processo de candidatura ao certificado referido no artigo 15.º que é emitido pelas autoridades nacionais de controlo referidas no artigo 17.º;

 

- sem prejuízo da legislação setorial, as orientações vinculativas referidas no artigo 14.º, n.º 3, sobre a metodologia a utilizar pelas autoridades nacionais de controlo referidas no artigo 17.º;

 

- coordenar o estabelecimento das normas de governação pertinentes referidas no artigo 16.º pelas autoridades nacionais de controlo referidas no artigo 17.º, incluindo orientações de aplicação não vinculativas para os criadores, implantadores e utilizadores sobre a metodologia para o cumprimento do presente regulamento;

 

- cooperar com as autoridades nacionais de controlo referidas no artigo 17.º relativamente à sua contribuição para a aplicação coerente do presente regulamento em toda a União, nos termos do artigo 17.º, nº 2;

 

- funcionar como centro de especialização, promovendo o intercâmbio de informações relacionadas com a inteligência artificial, a robótica e as tecnologias conexas e apoiando o desenvolvimento de um entendimento comum no Mercado Único, emitindo orientações, pareceres e aconselhamento adicionais para as autoridades nacionais de controlo referidas no artigo 17.º, controlando a implementação da legislação pertinente da União, identificando normas de melhores práticas e, quando apropriado, formulando recomendações de medidas regulamentares; ao fazê-lo, deve estabelecer uma ligação com o maior número possível de partes interessadas pertinentes e assegurar que a composição dos seus níveis de decisão seja diversificada e garanta a igualdade de género;

 

- acolher um Grupo de Trabalho sobre Segurança e Defesa destinado a analisar questões políticas e de investimento especificamente relacionadas com a utilização ética da inteligência artificial, da robótica e das tecnologias conexas no domínio da segurança e defesa.

 

Artigo 21.º

Exercício da delegação

1. O poder de adotar atos delegados é conferido à Comissão nas condições estabelecidas no presente artigo.

 

2. O poder de adotar atos delegados referido no artigo 7.º, n.ºs 3 e 4, é conferido à Comissão por um prazo de 5 anos, a partir de (data de entrada em vigor do presente regulamento).

 

3. A delegação de poderes referida no artigo 7.º, n.ºs 3 e 4, pode ser revogada em qualquer momento pelo Parlamento Europeu ou pelo Conselho. A decisão de revogação põe termo à delegação dos poderes nela especificados e produz efeitos no dia seguinte ao da sua publicação no Jornal Oficial da União Europeia ou numa data posterior nela especificada. A decisão de revogação não afeta os atos delegados já em vigor.

 

4. Antes de adotar um ato delegado, a Comissão consulta os peritos designados por cada Estado-Membro, de acordo com os princípios estabelecidos no Acordo Interinstitucional de 13 de abril de 2016 sobre Legislar Melhor.

 

5. Assim que adotar um ato delegado, a Comissão notifica-o simultaneamente ao Parlamento Europeu e ao Conselho.

 

6. Os atos delegados adotados nos termos do artigo 7.º, n.ºs 3 e 4, só entram em vigor se nem o Parlamento Europeu nem o Conselho formularem objeções no prazo de três meses a contar da notificação do ato a estas duas instituições ou se, antes do termo desse prazo, o Parlamento Europeu e o Conselho informarem a Comissão de que não formularão objeções. O referido prazo é prorrogável por três meses por iniciativa do Parlamento Europeu ou do Conselho.

 

Artigo 22.º

Alteração da Diretiva (UE) n.º 2019/1937

 

A Diretiva (UE) 2019/1937 é alterada do seguinte modo:

 

(1) Ao artigo 2.º, n.º 1, é aditado a seguinte subalínea:

 

«xi) desenvolvimento, implantação e utilização da inteligência artificial, da robótica e das tecnologias conexas.»

 

(2) Na parte I do anexo, é aditado a seguinte ponto:

 

‘K. Artigo 2.º, n.º 1, alínea a), subalínea xi) - Desenvolvimento, implantação e utilização da inteligência artificial, da robótica e das tecnologias conexas.»

 

« i) »Regulamento [XXX] do Parlamento Europeu e do Conselho relativo aos princípios éticos para o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas.»

Artigo 23.º

Revisão

A Comissão examina regularmente o desenvolvimento, a implantação e a utilização da inteligência artificial, da robótica e das tecnologias conexas, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, e até [JO: inserir data correspondente a três anos após a entrada em vigor] e, posteriormente, de três em três anos, apresenta ao Parlamento Europeu, ao Conselho e ao Comité Económico e Social Europeu um relatório sobre a aplicação do presente regulamento, incluindo uma avaliação da eventual alteração do seu âmbito de aplicação.

Artigo 24.º

Entrada em vigor

1. O presente regulamento entra em vigor no vigésimo dia seguinte ao da sua publicação no Jornal Oficial da União Europeia. É aplicável a partir de XX.

2. O presente regulamento é obrigatório em todos os seus elementos e diretamente aplicável nos Estados-Membros, em conformidade com o Tratado que institui a Comunidade Europeia.

O presente regulamento é obrigatório em todos os seus elementos e diretamente aplicável em todos os Estados-Membros.


ANEXO

 

Lista cumulativa e exaustiva dos setores de alto risco e das utilizações ou finalidades de alto risco que encerram um risco de violação dos direitos fundamentais e das regras de segurança

 

 

Setores de alto risco

 

 Emprego

 Educação

 Saúde

 Transportes

 Energia

 Setor público (asilo, migração, controlos nas fronteiras, sistema judicial e serviços da segurança social)

 Defesa e segurança

 Finanças, banca, seguros

 

 

Utilizações ou finalidades de alto risco

 

 Recrutamento

 Classificação e avaliação de estudantes

 Atribuição de fundos públicos

 Concessão de empréstimos

 Negociação, corretagem, tributação, etc.

 Tratamentos e procedimentos médicos

 Processos eleitorais e campanhas políticas

 Decisões do setor público com um impacto significativo e direto nos direitos e obrigações de pessoas singulares e coletivas

 Condução automatizada

 Gestão do tráfego

 Sistemas militares autónomos

 Produção e distribuição de energia

 Gestão de resíduos

 Controlo de emissões


EXPOSIÇÂO DE MOTIVOS

 

Num diálogo do filme Blade Runner, de 1982, Rachael, uma replicante que trabalha para uma empresa que fabrica «replicantes» - robôs humanoides dotados de inteligência -, pergunta a Deckard, um caçador de recompensas que ganha a vida a eliminar replicantes fora de controlo:

 

-“It seems you feel our work is not a benefit to the public”.

 

Ao que ele responde:

 

-“Replicants are like any other machine - they're either a benefit or a hazard. If they're a benefit, it's not my problem”.

 

Benefícios e riscos

 

A implantação em massa da inteligência artificial em todas as máquinas com que interagimos na esfera pública, laboral e social implicará - implica - um salto tecnológico comparável apenas ao que representou, no seu tempo, a Revolução Industrial. A vida nunca mais vai ser igual, produzir-se-ão alterações muito substanciais no mercado de trabalho, na relação com os poderes públicos, nas relações pessoais e até na nossa própria vida doméstica - basta pensar nas implicações da «Internet das coisas» em todos os aparelhos das nossas casas. Um salto tecnológico de tal calibre coloca-nos perante a alternativa a que se referia o blade runner na sua resposta: qualquer tecnologia apresenta benefícios e riscos. E, quando falamos de inteligência artificial, falamos de benefícios e/ou riscos numa escala nunca antes conhecida, tendo em conta a sua potência intrínseca.

 

O papel da União Europeia no estabelecimento de um quadro legal

 

Todavia, quando as administrações públicas abordam este fenómeno, não podem ficar-se pelo cinismo profissional de Deckard. Precisamente, para o Parlamento Europeu, é tão importante impulsionar a potencialidade que estas tecnologias têm para o bem-estar e a competitividade da Europa como controlar os riscos inerentes - ou prever as consequências do tratamento efetivo de alguns desses riscos. Assim, queremos ser pioneiros no estabelecimento legal de um limiar ético que, por um lado. proteja os cidadãos europeus das eventuais adversidades que acarreta esta evolução tecnológica, e, por outro, confira um valor acrescentado de confiança à inteligência artificial europeia no mundo. Um limiar ético em consonância com os nossos princípios e valores europeus, refletidos na Carta dos Direitos Fundamentais da União Europeia e coerentes também com o nosso projeto civilizacional. Uma normativa que se inspira numa abordagem humanista e antropocêntrica do desenvolvimento tecnológico. Uma regulamentação que não só se aplique à inteligência artificial desenvolvida na Europa, mas implique um exigente imperativo normativo para todos aqueles que pretendam operar na União.

 

É essencial que o quadro de direitos e deveres seja partilhado por todos os Estados-Membros da União Europeia. Uma sucessão de regulamentações nacionais sem uma referência comum poderia significar a rutura do mercado único e fazer malograr o nosso esforço coletivo para alcançar a liderança tecnológica no mundo. A criação de uma Agência Europeia encarregada de supervisionar a evolução desta regulamentação acabará por harmonizar o quadro jurídico e técnico adotado em cada um dos Estados-Membros.

 

Uma regulamentação flexível e virada para o futuro

 

Perante quem defende que a ordenação deste setor deve ser deixada à autorregulação, o diálogo do início pode servir também para ilustrar a necessidade de uma implicação pública que salvaguarde objetivos que vão para além da rendibilidade económica. Evitar a discriminação (qualquer que seja a sua razão) na fórmula de tomada de decisão e tirar partido das potencialidades de mudança destas tecnologias para avançar para uma sociedade mais justa - com especial incidência na redução da disparidade de género - e mais sustentável do ponto de vista ambiental são outros objetivos que as instituições públicas europeias devem salvaguardar. No que respeita a estas últimas questões, o texto prevê mandatos expressos para os poderes públicos europeus.

 

A presente regulamentação tem também por objetivo combinar um elevado grau de exigência com a simplicidade normativa, evitando sistemas regulamentares rebuscados e/ou um pesado ónus burocrático para os agentes implicados. Pretende também instituir um quadro suficientemente flexível para poder acolher os avanços numa realidade em extrema mutação, permitindo ao mesmo tempo o desenvolvimento sectorial de normas que enformem realidades mais concretas.

 

Uma abordagem integral com a criação de autoridades nacionais de controlo

 

A presente regulamentação pretende estender a supervisão a todos os estádios de uma tecnologia de elevada complexidade. Desenvolvimento, implantação, a própria evolução da tecnologia mediante a aprendizagem automática (machine-learning) ou a aprendizagem profunda (deep-learning), todos estes são aspetos em relação aos quais o presente articulado contém disposições. É colocada uma especial ênfase na prevenção quando falamos de tecnologias consideradas «de alto risco», isto é, quando existe uma grande probabilidade de geração de externalidades negativas e/ou quando estão implicadas matérias sensíveis que carecem de uma proteção especial - elementos que definidos neste regulamento. É regulamentada uma questão tão delicada para os direitos individuais como a das técnicas de reconhecimento a distância, sendo estabelecidas muitas salvaguardas para a sua utilização; é também regulamentado um quadro material e temporal muito rigoroso, para que possam ser utilizadas pelos poderes públicos excecionalmente em caso de grandes emergências.

 

O regulamento tem também como objetivo fazer com que a conceção, o desenvolvimento, o controlo e a supervisão do quadro regulamentar contem com a participação de todos os cidadãos, especialmente das pessoas e coletividades mais implicadas ou afetadas. O texto prevê a atribuição de um mandato a todas as autoridades nacionais de controlo - cuja criação é obrigatória nos termos do regulamento - para que contem com a colaboração necessária e periódica da sociedade civil. De igual modo, são estabelecidas obrigações rigorosas em matéria de transparência e prestação de contas para os que concebem, operam e utilizam inteligência artificial. São também previstas obrigações de comportamento cívico para os utilizadores e a necessária proteção de que estes beneficiam quando utilizam estas tecnologias de boa fé.

 

Compreensibilidade, transparência, prestação de contas, responsabilidade e governação

 

Não obstante, ainda estamos muito longe da possibilidade de um algoritmo tornar realidade o nascimento da psico-história de que nos falava Isaac Asimov em «Fundação». Por conseguinte, o próprio conceito de livre arbítrio, inerente à condição humana, não parece correr perigo para já, nem sequer quando se trata da antecipação ao surgimento das grandes correntes da História. Os poderes democráticos devem assegurar que as grandes e pequenas decisões tomadas com a ajuda de tecnologias da inteligência artificial não resultem de fórmulas matemáticas obscuras e inacessíveis. A compreensibilidade, a transparência, a prestação de contas e a responsabilidade serão características indispensáveis da inteligência artificial desenvolvida e utilizada na União Europeia.

 

Em suma, a União Europeia pretende ser um espaço em que exista um necessário equilíbrio entre a salvaguarda dos direitos dos cidadãos e o reforço do desenvolvimento tecnológico. A nossa regulamentação, e o desenvolvimento que dela fizerem as autoridades de controlo, deve ser um exemplo para o resto do mundo e uma primeira pedra para garantir uma governação adequada deste fenómeno à escala mundial.

 


 

 

 

 

PARECER DA COMISSÃO DOS ASSUNTOS EXTERNOS (24.6.2020)

dirigido à Comissão dos Assuntos Jurídicos

que contém recomendações à Comissão sobre um quadro para os aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas

(2020/2012(INL))

Relator de parecer (*): Urmas Paet

(*) Comissões associadas – Artigo 57.º do Regimento

(Iniciativa – artigo 47.º do Regimento)

 

 

 

 

SUGESTÕES

A Comissão dos Assuntos Externos insta a Comissão dos Assuntos Jurídicos, competente quanto à matéria de fundo:

 a incorporar as seguintes sugestões na proposta de resolução que aprovar:

1. Salienta que as políticas de segurança e defesa da União Europeia e dos seus Estados‑Membros são norteadas pelos princípios consagrados na Carta dos Direitos Fundamentais da União Europeia e na Carta das Nações Unidas e por um entendimento comum dos valores universais de respeito dos direitos invioláveis e inalienáveis da pessoa humana, da dignidade humana, da liberdade, da democracia, da igualdade e do Estado de Direito; destaca que todos os esforços relacionados com a defesa no quadro da União têm de respeitar estes valores universais promovendo, em simultâneo, a paz, a segurança e o progresso na Europa e no mundo; considera que a utilização de IA deve assentar num conjunto comum de princípios éticos, de acordo com o qual a utilização deve ser responsável, equitativa, rastreável, fiável e governável;

2. Saúda a aprovação, pelas Altas Partes Contratantes, da Convenção sobre Certas Armas Convencionais (CCAC) na sua reunião anual de 2019, de 11 princípios orientadores para o desenvolvimento e a utilização de sistemas de armas autónomas; lamenta, contudo, o facto de não se chegar a acordo sobre um instrumento juridicamente vinculativo que regule sistema de armas letais autónomo (SALA), com um mecanismo de execução eficaz; saúda e apoia o documento intitulado «Orientações éticas para uma IA de confiança» do Grupo de Peritos de Alto Nível sobre a Inteligência Artificial, da Comissão, publicado em 9 de abril de 2019, bem como a respetiva posição sobre os sistemas de armas letais autónomos (SALA); insta os Estados-Membros a desenvolverem estratégias nacionais para a definição e o estatuto dos sistemas de armas letais autónomos (SALA), tendo em vista uma estratégia global a nível da União e a promoverem, conjuntamente com o Alto Representante/Vice-Presidente da Comissão («AR/VP»), e o Conselho, o debate sobre os SALA no quadro da Convenção sobre Certas Armas Convencionais  das Nações Unidas (CCAC) e de outros fóruns relevantes, e a elaboração de normas internacionais relativas aos parâmetros éticos e jurídicos do desenvolvimento e da utilização de sistemas de armas letais totalmente autónomos, semiautónomos e telecomandados; recorda, neste contexto, a sua resolução sobre sistemas de armamento autónomo, de 12 de setembro de 2018, e apela, uma vez mais, ao desenvolvimento e à adoção urgentes de uma posição comum sobre sistemas de armas letais autónomos, a uma proibição internacional do desenvolvimento, produção e utilização de sistemas de armas letais autónomos que permitam levar a cabo ataques sem controlo humano significativo e sem respeito pelo princípio da intervenção humana, em conformidade com a declaração dos investigadores mundiais mais proeminentes em matéria de IA na sua carta aberta de 2015; congratula-se com o acordo do Conselho e do Parlamento com vista à exclusão dos sistemas de armas letais autónomos, sem possibilidade de «controlo humano significativo sobre as decisões de seleção de alvos e lançamento de ataques», das ações financiadas ao abrigo do Fundo Europeu de Defesa; considera que os aspetos éticos de outras aplicações de IA na defesa, como os serviços de informação, vigilância e reconhecimento (ISR), ou as ciberoperações, não podem ser ignorados, impondo-se conceder especial atenção ao desenvolvimento e à implantação de veículos aéreos não tripulados em operações militares;

3. Recomenda que todo e qualquer quadro europeu  que regulamente a utilização dos sistemas de inteligência artificial (IA) no domínio da defesa, tanto em situações de combate, como de não combate, tem de respeitar todos os regimes jurídicos aplicáveis, em particular o Direito internacional humanitário e o Direito internacional em matéria de direitos humanos, assim como a legislação, os princípios e os valores da União; salienta que a União deve desempenhar um papel global na condução de uma agenda regulamentar da IA credível e vinculativa, assente em valores democráticos e numa abordagem antropocêntrica; exorta a União e os seus Estados-Membros a desenvolverem mecanismos conjuntos para avaliar rápida e minuciosamente os riscos e as oportunidades inerentes à IA no que diz respeito à aplicação do Direito da União, inspirando-se nas melhores práticas dos Estados-Membros mais avançados, e a preverem os ajustamentos necessários e a respetiva execução, sempre que necessário, tendo em conta as disparidades em termos de infraestruturas técnicas e de segurança na União;

4. Reconhece que, ao contrário do que acontece com as bases industriais de defesa, as inovações críticas em matéria de IA poderão chegar de Estados-Membros pequenos, pelo que uma abordagem normalizada da PCSD deverá assegurar que os Estados-Membros de menor dimensão e as PME não sejam postos de lado; salienta que um conjunto de capacidades comuns da UE em matéria de IA adaptado aos conceitos operacionais de cada Estado-Membro poderá colmatar as lacunas técnicas que poderiam deixar os Estados sem as devidas tecnologias,  os conhecimentos especializados ou  capacidade para aplicar os sistemas de IA nos seus ministérios da defesa;

5. Sublinha que o âmbito geográfico de aplicação de um tal quadro deve abranger todas as componentes da inteligência artificial, da robótica e das tecnologias conexas desenvolvidas, implantadas ou utilizadas na União, designadamente nos casos em que uma parte das tecnologias se encontre fora da União ou não tenha uma localização específica;

6. Destaca que as tecnologias emergentes não abrangidas pelo Direito internacional devem ser avaliadas à luz do princípio do respeito pela humanidade e dos imperativos de consciência pública; sublinha que a utilização e a ética dos sistemas assentes na IA na defesa têm de ser constantemente avaliadas do ponto de vista dos direitos humanos, nomeadamente da segurança e da proteção humanas, da saúde e da liberdade, da privacidade, da integridade e da dignidade, e monitorizada em permanência, em particular no atinente às suas vantagens e desvantagens, bem como ao seu impacto na proteção dos direitos humanos universais; considera que as vantagens tecnológicas no domínio dos sistemas assentes na IA para a defesa devem ser acompanhadas de um amplo debate sobre a utilização da IA e do seu impacto nas sociedades e comunidades, bem como dos potenciais benefícios económicos e sociais, e que os riscos decorrentes da utilização da IA devem ser devidamente comunicados;

7. Considera que as atividades de segurança e defesa atuais e futuras no quadro da União tirarão partido da IA, da robótica e da autonomia e das tecnologias conexas, e que uma IA fiável, robusta e digna de confiança poderia contribuir para um exército moderno e eficaz; que a União tem, por conseguinte, de assumir um papel de liderança na investigação e no desenvolvimento de sistemas de IA no domínio da segurança e da defesa; entende que a utilização de aplicações assentes na IA no sector da defesa oferece uma série de vantagens diretas a quem comanda as operações, designadamente dados de melhor qualidade, um melhor conhecimento da situação, uma maior celeridade no processo decisório, uma redução do risco de danos colaterais graças a uma melhor cablagem, proteção das forças no terreno, bem como maior fiabilidade do equipamento militar e, consequentemente, um menor risco para os seres humanos e menos baixas; salienta que o desenvolvimento de uma IA fiável no domínio da defesa é indispensável para assegurar a autonomia estratégica da Europa em termos operacionais e de capacidades; recorda que os sistemas de IA estão também a tornar-se elementos fundamentais na luta contra as novas ameaças à segurança, como a guerra cibernética e híbrida, tanto em linha, como fora de linha; destaca, ao mesmo tempo, todos os riscos e desafios da utilização não regulamentada da IA; faz notar que a IA pode ser sujeita a manipulação, a erros e a imprecisões;

8. Apela à criação de sinergias e de redes entre os vários centros de investigação europeus no domínio da IA e outras instâncias multilaterais, tais como o Conselho da Europa, a Organização das Nações Unidas para a Educação, Ciência e Cultura (UNESCO), a Organização de Cooperação e de Desenvolvimento Económicos (OCDE), a Organização Mundial do Comércio e a União Internacional das Telecomunicações (UIT), para alinhar os seus esforços e melhor coordenar o desenvolvimento da tecnologia de IA;

9. Sublinha que, na sua essência, as tecnologias de IA são de dupla utilização e que o desenvolvimento da IA nas atividades relacionadas com a defesa beneficia com os intercâmbios entre as tecnologias militares e civis; salienta que, nas atividades relacionadas com a defesa, a IA é uma tecnologia de disrupção transversal, cujo desenvolvimento pode proporcionar oportunidades para a competitividade e a autonomia estratégica da União;

10. Realça que, de acordo com a comunicação da Comissão, de 8 de abril de 2019, intitulada «Aumentar a confiança numa inteligência artificial centrada no ser humano», a tecnologia deve respeitar  plenamente os direitos humanos, os quais têm de prevalecer sobre os sistemas decisórios automatizados, ao mesmo tempo que complementa e apoia a autonomia humana e o processo decisório, a União carece de um quadro regulamentar sólido em matéria de IA centrado na segurança e na defesa, norteado pelo sentido de responsabilidade e pela transparência, tendo em vista a proteção dos nossos cidadãos e dos respetivos dados, assim como a defesa dos nossos valores, que as políticas da União visam preservar a paz, prevenir conflitos e reforçar a segurança internacional, aproveitando, em simultâneo, as oportunidades oferecidas por essas tecnologias, reconhecendo que os sistemas ativados pela IA constituirão um elemento primordial no desenvolvimento futuro da defesa e das capacidades defensivas;

11. Exorta os Estados-Membros e a Comissão a garantirem que os algoritmos usados pelos sistemas de defesa, mantendo embora a confidencialidade requerida, se regem pelo princípio da transparência, nomeadamente um regime de responsabilização clara pelos resultados do recurso à  IA; sublinha que estes algoritmos têm de ser constantemente adaptados aos progressos das tecnologias de IA;

12. Realça que a União deve estar na vanguarda do apoio aos esforços multilaterais, no âmbito do Grupo de Peritos Governamentais CCAC da ONU e de outros fóruns relevantes, para discutir um quadro regulamentar internacional eficaz que garanta um controlo humano significativo dos sistemas de armas autónomos, a fim de dominar essas tecnologias através da criação de processos bem definidos e baseados em padrões de referência e da adoção de legislação para a sua utilização ética, em consulta com os intervenientes militares, a indústria, as autoridades policiais, o meio académico e as partes interessadas da sociedade civil, de molde a compreender os aspetos éticos conexos, a conter os riscos inerentes a essas tecnologias e a impedir a sua utilização para fins maliciosos; esses riscos incluem, em particular, danos não intencionais causados a pessoas, quer sejam materiais ou imateriais, como a violação de direitos fundamentais ou danos causados à integridade física; entende que a União, trabalhando em conjunto com os Estados-Membros, tem de determinar quais os regimes de responsabilização aplicáveis às inovações na IA e a outras tecnologias imersivas no domínio da segurança e defesa, instituindo, deste modo, uma base jurídica para os mecanismos de prestação de contas e rastreabilidade; salienta que a legislação e os quadros normativos da União não podem ser ultrapassados por quaisquer futuros avanços tecnológicos, progressos no domínio da IA e novos métodos bélicos e que, por conseguinte, têm de ser apoiados por mecanismos de monitorização significativos, que devem ser constantemente ajustados para evitar lacunas jurídicas ou zonas de indefinição; sublinha que a prossecução da investigação e do desenvolvimento da IA deve garantir que os sistemas assentes na IA estejam mais bem equipados para compreender este contexto único;

13. Subscreve o princípio fulcral da «ética desde a conceção», segundo o qual os princípios éticos são incorporados nos produtos e serviços da IA desde o início do processo de conceção;

14. Recorda que a maioria das atuais potências militares do mundo já encetaram esforços significativos de investigação e desenvolvimento relacionados com a dimensão militar da IA; considera que a UE tem de garantir que não fica para trás neste domínio; salienta que, para qualquer aplicação de sistemas de defesa baseados na IA, a União deve definir normas técnicas e organizacionais de acordo com o princípio da «segurança desde a conceção», prevendo supervisão humana específica, para assegurar a resistência destes sistemas a vulnerabilidades que possam ser exploradas em caso de ataques externos, ciberataques e à influência digital visando os dados, o modelo ou a infraestrutura subjacente, tanto de software como de hardware, bem como a sua conformidade com os mais elevados padrões de fiabilidade, monitorização ativa e supervisão no que diz respeito à recolha e tratamento dos dados operacionais ao longo de todo o ciclo de vida do sistema; destaca a importância da transparência e da responsabilização dos algoritmos de IA; assinala a importância da distinção entre transparência dos algoritmos e transparência no seu uso; sublinha que todos os sistemas e aplicações de IA destinados a extrair e a sintetizar dados, e a extrapolar os seus resultados para fundamentar as decisões sobre assuntos relacionados com a defesa e a segurança nacionais, devem ter um objetivo específico e cumprir as disposições estabelecidas no atual quadro regulamentar para a recolha e o tratamento de dados; salienta que as aplicações de IA concebidas para o tratamento de dados para efeitos de recolha de informações em atividades relacionadas com a defesa devem cumprir as normas de tratamento de dados, para evitar riscos de vigilância não intencional ou violação de direitos individuais; entende que, nas aplicações de alto risco de tecnologias assentes na IA, como o reconhecimento facial, para o qual não existe um quadro regulamentar definitivo ao nível da UE, a União tem de se assegurar que o seu desenvolvimento e uso são legítimos, proporcionados e respeitam os direitos individuais; salienta que as autoridades policiais nacionais competentes têm de respeitar a legislação relevante, ao mesmo tempo que desenvolvem e implantam sistemas e tecnologias que permitam manter a ordem pública, a fim de atenuar os riscos desproporcionados de um policiamento preditivo; reconhece que o principal garante da segurança euro-atlântica é a OTAN e apela a uma maior cooperação no seio desta aliança para o estabelecimento de normas comuns e interoperabilidade dos sistemas de IA na defesa; salienta que a relação transatlântica é crucial para preservar os valores comuns e combater as ameaças futuras e emergentes;

15. Realça a necessidade de adotar disposições e requisitos claros de fiabilidade, segurança e proteção, com certificações adequadas para os sistemas de IA no sector da segurança e da defesa, de introduzir critérios de transparência nas diferentes fases, nomeadamente conceção, produção e operação, e de levar a cabo uma monitorização constante, testes regulares e verificação ao longo de todo o ciclo de vida; sublinha a necessidade de garantir o cumprimento das normas aplicáveis e das certificações obtidas nos casos em que a IA modifique, por exemplo, através da aprendizagem automática, a funcionalidade e o comportamento dos sistemas em que está integrada, para assegurar a plena rastreabilidade e explicabilidade das, e a responsabilização pelas, decisões tomadas com a intervenção da IA e respetivos resultados, bem como um controlo humano significativo sempre que esses sistemas sejam suscetíveis de matar seres humanos;

16. Solicita à Comissão que integre o reforço das capacidades em matéria de cibersegurança na sua política industrial, de molde a assegurar o desenvolvimento e a implantação de sistemas de robótica e de IA seguros, resilientes e robustos; exorta a Comissão a explorar o recurso a protocolos e aplicações de cibersegurança baseadas em cadeias de blocos, para melhorar a resiliência, a fiabilidade e a robustez das infraestruturas de IA através de modelos de encriptação de dados sem intermediários; incentiva as partes interessadas europeias a investigarem e conceberem características avançadas que facilitem a deteção de sistemas de IA e de robótica corruptos e maliciosos, suscetíveis de comprometer a segurança da União e dos cidadãos;

17. Sublinha que todos os sistemas de IA de defesa devem ter um quadro de missão concreto e bem definido, no qual o ser humano conserve a faculdade de detetar e desativar ou desligar os sistemas implantados, caso estes se afastem do quadro de missão definido e atribuído pelo controlo humano ou se envolvam em qualquer ação não intencional ou que redunde numa escalada;  considera que os sistemas, produtos e as tecnologias baseados em IA para uso militar devem estar equipados com uma «caixa negra» para registar todas as transações de dados realizadas pela máquina;

18. Sublinha que toda a responsabilidade e prestação de contas pela decisão de conceber, desenvolver, implantar e utilizar sistemas de IA tem de assentar em operadores humanos, uma vez que se impõe um controlo humano significativo em todo e qualquer sistema de armamento e intenção humana na decisão de utilizar a força na execução de qualquer decisão de sistemas de armas ativadas por IA que possam ter consequências letais; destaca que o controlo humano deve ser mantido no comando e no controlo dos sistemas baseados na IA, de acordo com os princípios da intervenção humana, da supervisão humana e do comando de humano ao nível da direção das operações militares; salienta que os sistemas assentes na IA têm de permitir que a liderança militar dos exércitos assuma a sua total responsabilidade pela utilização de força letal, preste contas  e exerça o nível necessário de discernimento, de que as máquinas não dispõem, uma vez que tem de assentar na distinção, proporcionalidade e precaução, para tomar medidas mortais ou de ação destrutiva em larga escala através desses sistemas; realça a necessidade de estabelecer quadros claros e rastreáveis de autorização e de prestação de contas para a implantação de armas inteligentes e outros sistemas baseados na IA, fazendo uso de características únicas do utilizador, como as especificações biométricas, para permitir que a implantação seja feita exclusivamente por pessoal autorizado;

19. Convida a Comissão a trabalhar em conjunto com as autoridades nacionais competentes dos Estados-Membros e outras partes interessadas que participam no desenvolvimento e na implantação de sistemas, produtos e tecnologias baseadas na IA, com vista à criação de um quadro seguro e resiliente, mediante o qual o código fonte dos sistemas baseados na IA seja partilhado, controlado e verificado, a fim de atenuar eventuais desvios em relação aos princípios orientadores e ao quadro ético subjacente à tecnologia da IA no sector da segurança e da defesa; sugere à Comissão que a UE mantenha a propriedade intelectual da investigação financiada pela UE sobre sistemas, produtos e tecnologias baseados na IA no sector da segurança e da defesa;

20. Sublinha que a União tem de promover uma melhor compreensão das vantagens, oportunidades e implicações militares da IA, da robótica, das funções e características autónomas, inclusive o potencial para a indústria de defesa europeia,  trabalhando em conjunto com responsáveis militares; considera que a União deve promover a aquisição das competências e dos conhecimentos necessários sobre processos de desenvolvimento tecnológico e métodos operacionais em toda a cadeia de abastecimento e ao longo de todo o ciclo de vida das capacidades militares assentes na IA; destaca a necessidade urgente de estabelecer uma maior independência estratégica e tecnológica europeia no domínio dos sistemas assentes na IA, nomeadamente das infraestruturas críticas em que se baseia;

21. Considera que é necessário reforçar a cooperação entre os Estados-Membros e a Comissão para garantir regras transnacionais coerentes na União, de molde a incentivar a cooperação entre as indústrias europeias e possibilitar o desenvolvimento e a implantação de tecnologias assentes na IA compatíveis com as normas de segurança e de proteção prescritas e com o quadro ético que rege o desenvolvimento e a implantação de tecnologias de IA;

22. Reconhece que, no atual contexto de guerra híbrida e avançada, o volume e a velocidade das informações durante as fases iniciais de uma crise podem ultrapassar os analistas humanos e que um sistema de IA pode processar as informações, de modo a assegurar que os decisores humanos consigam acompanhar todo o espetro de informações num lapso de tempo adequado para uma resposta rápida;

23. Salienta a importância primordial para a IA de investir no capital humano, promovendo as competências e a formação necessárias no domínio das tecnologias de segurança e defesa da IA, com particular ênfase na ética dos sistemas operacionais semiautónomos e autónomos baseados na responsabilização humana num mundo assente na IA; destaca, em particular, a importância de garantir que os especialistas em ética neste domínio disponham de competências adequadas e recebam formação adequada; insta a Comissão a apresentar, o mais rapidamente possível, o seu reforço da «Agenda de Competências», anunciado no Livro Branco sobre a Inteligência Artificial, em 19 de fevereiro de 2020;

24. Realça que a computação quântica pode representar a mudança mais revolucionária nos conflitos desde o advento da tecnologia nuclear, pelo que exorta a União e os Estados‑Membros a conferirem prioridade ao desenvolvimento das tecnologias de computação quântica; reconhece que os atos de agressão – incluindo os ataques a infraestruturas críticas apoiados pela computação quântica – criarão um ambiente de conflito no qual o tempo de decisão será fortemente comprimido, passando de dias e horas, para minutos e segundos, forçando os Estados-Membros a desenvolver capacidades para se protegerem e formarem os seus decisores e o pessoal militar, para que possam dar resposta dentro desses lapsos de tempo;

25. Sublinha a necessidade de ultrapassar a atual fragmentação na União no que respeita à legislação nacional relacionada com a IA, à investigação, à inovação e aos conhecimentos especializados no domínio da IA, que põe em perigo o funcionamento do mercado interno e o objetivo de garantir um desenvolvimento fiável e seguro da IA na Europa; congratula-se, neste contexto, com a inclusão de projetos relacionados com a IA no âmbito do Programa Europeu de Desenvolvimento Industrial (EDIDP); considera que o futuro Fundo Europeu de Defesa (FED) e a cooperação estruturada permanente (CEP) também proporcionam quadros bem adaptados para os futuros projetos relacionados com a IA, que contribuiriam para racionalizar os esforços da União neste domínio, bem como para promover simultaneamente o objetivo da União de reforçar os direitos humanos, o Direito internacional e as soluções multilaterais; salienta que os projetos relacionados com a IA devem ser sincronizados com os programas civis mais vastos da União consagrados à IA; observa que, em conformidade com o Livro Branco da Comissão sobre a inteligência artificial, os centros de excelência e de ensaio centrados na investigação e no desenvolvimento de IA no sector da segurança e da defesa devem ser instituídos de acordo com especificações rigorosas, que sustentem a participação e o investimento de partes interessadas do sector privado;

26. Salienta que a União tem de envidar esforços visando a resiliência estratégica, para que nunca volte a ser apanhada desprevenida em tempos de crise e sublinha que este aspeto é de importância crucial, em particular, no que respeita à inteligência artificial e à sua aplicação à defesa e à segurança; sublinha que as cadeias de abastecimento dos sistemas de IA da defesa e segurança que podem conduzir à dependência tecnológica devem ser recalibradas e que tais dependências devem ser gradualmente suprimidas; exorta a um maior investimento na IA para a defesa europeia e as infraestruturas críticas que a sustentam;

27. Salienta que o desenvolvimento de IA que respeite os direitos fundamentais e apoie o interesse público exige a agregação e partilha estratégica de dados na União entre entidades públicas e privadas, bem como o reforço de um ecossistema de IA da União que envolva partes interessadas públicas, privadas e da sociedade civil; insta a Comissão a promover o diálogo, uma cooperação mais estreita e sinergias entre os Estados-Membros, os investigadores, os académicos, os intervenientes da sociedade civil e o sector privado, em particular as sociedades e empresas líderes, assim como os militares, para que se dotem de processos de elaboração de políticas inclusivas no que se refere à regulamentação em matéria de IA relacionada com a defesa, aproveitando ao máximo o potencial da IA, promovendo uma melhor compreensão dos riscos e benefícios, bem como garantindo a máxima segurança operacional;

28. Realça que, no contexto da guerra generalizada de desinformação conduzida, em particular, por intervenientes não europeus, as tecnologias de IA podem ter efeitos negativos em termos de ética, ao explorarem preconceitos em dados e algoritmos ou através de dados de aprendizagem deliberadamente modificados por um país terceiro, podendo também estar expostas a outras  formas de manipulação mal intencionadas, perigosas e imprevisíveis, com consequências inimagináveis; cumpre, por conseguinte, que a União continue a investir em investigação, na análise, na inovação e na transferência de conhecimentos transfronteiras e intersectorial, de modo a desenvolver tecnologias de IA que sejam claramente isentas de qualquer tipo de definição de perfis, de preconceitos e de discriminação e possam, efetivamente, contribuir para combater as notícias falsas e a desinformação, respeitando, em simultâneo, a privacidade dos dados e o quadro jurídico europeu;

29. Salienta a importância da criação de um código deontológico subjacente à implantação de sistemas de armamento assentes na IA em operações militares semelhante ao quadro regulamentar existente, que proíbe a implantação de armas químicas e biológicas; considera que a Comissão deve dar início à elaboração de normas sobre a utilização de sistemas de armas assentes na IA num cenário de guerra, de acordo com o Direito internacional humanitário, e que a União se deve empenhar na adoção internacional dessas normas; considera que a União deve participar na diplomacia da IA nas instâncias internacionais com parceiros que partilhem a mesma visão, como o G7, o G20 e a OCDE;

30. Toma conhecimento do Livro Branco da Comissão sobre a inteligência artificial, de 19 de fevereiro de 2020, e lamenta que os aspetos militares não tenham sido tidos em conta; insta a Comissão e o VP/AR a apresentar, também no âmbito de uma abordagem global, uma estratégia sectorial de IA para as atividades relacionadas com a defesa no quadro da União, que garanta o respeito pelos direitos dos cidadãos e os interesses estratégicos da União, e que se funde numa abordagem coerente, desde o início dos sistemas assentes na IA até às suas utilizações militares, e que crie um Grupo de Trabalho sobre Segurança e Defesa no âmbito do Grupo de Peritos de Alto Nível sobre Inteligência Artificial, que se debruce especificamente sobre os assuntos em matéria de política e de investimento, bem como sobre os aspetos éticos da IA no sector da segurança e da defesa; solicita ao Conselho, à Comissão e ao VP/AR que encetem um diálogo estruturado com o Parlamento para esse efeito.


INFORMAÇÕES SOBRE A APROVAÇÃO
NA COMISSÃO ENCARREGADA DE EMITIR PARECER

Data de aprovação

22.6.2020

 

 

 

Resultado da votação final

+:

–:

0:

60

7

2

Deputados presentes no momento da votação final

Alviina Alametsä, Maria Arena, Petras Auštrevičius, Traian Băsescu, Lars Patrick Berg, Anna Bonfrisco, Reinhard Bütikofer, Fabio Massimo Castaldo, Susanna Ceccardi, Włodzimierz Cimoszewicz, Katalin Cseh, Tanja Fajon, Anna Fotyga, Michael Gahler, Kinga Gál, Sunčana Glavak, Raphaël Glucksmann, Klemen Grošelj, Bernard Guetta, Márton Gyöngyösi, Sandra Kalniete, Karol Karski, Dietmar Köster, Stelios Kouloglou, Andrius Kubilius, Ilhan Kyuchyuk, David Lega, Miriam Lexmann, Nathalie Loiseau, Antonio López-Istúriz White, Claudiu Manda, Lukas Mandl, Thierry Mariani, David McAllister, Vangelis Meimarakis, Sven Mikser, Francisco José Millán Mon, Javier Nart, Gheorghe-Vlad Nistor, Urmas Paet, Kostas Papadakis, Tonino Picula, Manu Pineda, Kati Piri, Giuliano Pisapia, Diana Riba i Giner, María Soraya Rodríguez Ramos, Nacho Sánchez Amor, Isabel Santos, Jacek Saryusz-Wolski, Andreas Schieder, Radosław Sikorski, Sergei Stanishev, Tineke Strik, Hermann Tertsch, Hilde Vautmans, Harald Vilimsky, Idoia Villanueva Ruiz, Thomas Waitz, Witold Jan Waszczykowski, Charlie Weimers, Isabel Wiseler-Lima, Željana Zovko

Suplentes presentes no momento da votação final

Katarina Barley, Nicolas Bay, Arnaud Danjean, Katrin Langensiepen, Hannah Neumann, Mick Wallace

 


VOTAÇÃO NOMINAL FINAL NA COMISSÃO ENCARREGADA DE EMITIR PARECER

60

+

EPP

Traian Băsescu, Arnaud Danjean, Michael Gahler, Kinga Gál, Sunčana Glavak, Sandra Kalniete, Andrius Kubilius, David Lega, Miriam Lexmann, Antonio López-Istúriz White, Lukas Mandl, David McAllister, Vangelis Meimarakis, Francisco José Millán Mon, Gheorghe-Vlad Nistor, Radosław Sikorski, Isabel Wiseler-Lima, Željana Zovko

S&D

Maria Arena, Katarina Barley, Włodzimierz Cimoszewicz, Tanja Fajon, Raphaël Glucksmann, Dietmar Köster, Claudiu Manda, Sven Mikser, Tonino Picula, Kati Piri, Giuliano Pisapia, Nacho Sánchez Amor, Isabel Santos, Andreas Schieder, Sergei Stanishev

RENEW

Petras Auštrevičius, Katalin Cseh, Klemen Grošelj, Bernard Guetta, Ilhan Kyuchyuk, Nathalie Loiseau, Javier Nart, Urmas Paet, María Soraya Rodríguez Ramos, Hilde Vautmans

ID

Anna Bonfrisco, Susanna Ceccardi

VERTS

Alviina Alametsä, Reinhard Bütikofer, Katrin Langensiepen, Hannah Neumann, Diana Riba i Giner, Tineke Strik, Thomas Waitz

ECR

Anna Fotyga, Karol Karski, Jacek Saryusz-Wolski, Hermann Tertsch, Witold Jan Waszczykowski, Charlie Weimers

NI

Fabio Massimo Castaldo, Márton Gyöngyösi

 

7

-

GUE

Stelios Kouloglou, Manu Pineda, Idoia Villanueva Ruiz, Mick Wallace

ID

Nicolas Bay, Thierry Mariani

NI

Kostas Papadakis

 

2

0

ID

Lars Patrick Berg, Harald Vilimsky

 

Legenda dos símbolos utilizados:

+ : votos a favor

- : votos contra

0 : abstenções

 


 

 

PARECER DA COMISSÃO DO MERCADO INTERNO E DA PROTEÇÃO DOS CONSUMIDORES (8.7.2020)

dirigido à Comissão dos Assuntos Jurídicos

que contém recomendações à Comissão sobre o quadro dos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas

(2020/2012(INL))

Relatora de parecer: Alexandra Geese

(Iniciativa – artigo 47.º do Regimento)

 

(*) Comissão associada – artigo 57.º do Regimento

 

 

 

 

 

SUGESTÕES

A Comissão do Mercado Interno e da Proteção dos Consumidores insta a Comissão dos Assuntos Jurídicos, competente quanto à matéria de fundo:

 a incorporar as seguintes sugestões na proposta de resolução que aprovar:

 

A. Considerando que as orientações éticas, como os princípios adotados pelo grupo de peritos de alto nível sobre a inteligência artificial, constituem um bom ponto de partida, mas não são suficientes para assegurar que as empresas atuem de forma equitativa e garantam uma proteção eficaz dos consumidores;

 

Âmbito de aplicação

1. Sublinha a importância de aplicar um quadro regulamentar da UE centrado nos aspetos éticos da inteligência artificial (AI), na robótica e nas tecnologias conexas no qual os consumidores da União são utilizadores de um sistema algorítmico, estão sujeitos a um tal sistema algorítmico, são alvo desse sistema ou sejam orientados para um tal sistema, independentemente do local de estabelecimento das entidades que desenvolvem, vendem ou utilizam o sistema; entende, além disso, que, a bem da certeza jurídica, as regras estabelecidas devem aplicar-se a todos os programadores e em toda a cadeia de valor, nomeadamente o desenvolvimento, a implantação e a utilização das tecnologias pertinentes e respetivas componentes, e devem garantir o mais elevado nível de proteção dos consumidores; reitera a importância dos valores da União, tal como referidos nos Tratados, relativos à importância da proteção dos dados pessoais e do consentimento explícito e informado, e propõe que essas regras tenham em conta os ensinamentos retirados da aplicação do Regulamento (UE) n.º 2016/679[19] (RGPD), que é considerado um parâmetro de referência global; considera que um representante legal, estabelecido na União, a quem os pedidos podem ser dirigidos, por exemplo, para propiciar vias de recurso aos consumidores, é importante para a aplicação de um futuro quadro regulamentar da UE;

 

2. Faz notar que o quadro regulamentar da UE deve ser aplicado a sistemas algorítmicos, inclusive nos domínios da IA, da Internet das coisas, da aprendizagem automática, dos sistemas assentes em regras, dos processos decisórios automatizados e assistidos e da robótica; observa ainda que poderiam ser desenvolvidos símbolos normalizados para ajudar a explicar esses sistemas aos consumidores sempre que apresentem algum grau de complexidade ou sejam utilizados para tomar decisões que tenham um impacto significativo nas vidas dos consumidores;

 

3. Salienta que o quadro regulamentar da UE deve ter uma abordagem centrada no ser humano e conduzir ao desenvolvimento de sistemas que incorporem os valores éticos europeus na sua conceção; considera que um quadro regulamentar da UE centrado nos valores europeus enunciados nos Tratados constituiria um valor acrescentado que conferiria à Europa uma vantagem competitiva única e contribuiria de forma significativa para o bem-estar e a prosperidade dos cidadãos e das empresas da União, além de impulsionar o mercado interno; sublinha que um quadro ético da IA também constitui um valor acrescentado para promover a inovação no mercado interno;

 

 

4. Assinala que o quadro legislativo introduzido pela Decisão n.º 68/2008/CE[20] prevê uma lista harmonizada de obrigações para os produtores, importadores e distribuidores, incentiva a utilização de normas e prevê vários níveis de controlo em função da perigosidade do produto; considera que esse quadro deve aplicar-se igualmente aos produtos que integram uma componente de IA;

 

5. Salienta que qualquer futuro regulamento deve seguir uma abordagem de risco diferenciada, para permitir o desenvolvimento e a implantação de sistemas seguros e fiáveis, com critérios e indicadores claros, seguida de uma avaliação jurídica imparcial com base nos danos potenciais ou na violação potencial de direitos, tanto para os indivíduos como para a sociedade em geral, tendo em conta o contexto específico de utilização do sistema algorítmico; salienta que as obrigações jurídicas e os requisitos de certificação deverão ser progressivamente reforçados em função do nível de risco identificado; realça que na categoria de risco mais baixo não devem ser impostas obrigações jurídicas adicionais; entende que os sistemas algorítmicos que possam prejudicar uma pessoa, causar uma potencial violação dos seus direitos ou afetar o acesso de uma pessoa a benefícios públicos não devem ser pertencer à categoria de risco mais baixa; assinala que esta abordagem baseada nos riscos deve ter regras claras e transparentes, que proporcionem segurança jurídica suficiente e, ao mesmo tempo, sejam orientadas para o futuro; apela a uma aplicação uniforme do sistema de classificação dos riscos e das obrigações jurídicas conexas a fim de garantir condições de concorrência equitativas entre os Estados-Membros e evitar a fragmentação do mercado interno; salienta que a avaliação do risco de um sistema específico deve ser objeto de uma reavaliação periódica;

 

6. Recorda que a Comissão deve examinar o atual quadro jurídico da UE e a respetiva aplicação, incluindo o acervo em matéria de defesa do consumidor, a legislação em matéria de responsabilidade decorrente dos produtos, a legislação em matéria de segurança dos produtos e a legislação relativa à fiscalização do mercado, a fim de identificar lacunas jurídicas, bem como as obrigações regulamentares existentes; considera que tal é necessário para determinar se o atual quadro jurídico da UE está apto a responder à emergência da IA, da robótica e das tecnologias conexas e se é capaz de assegurar um elevado nível de proteção dos consumidores;

 

Gestão de dados

7. Sublinha a importância de um quadro ético e regulamentar da UE, que inclua, em particular, disposições que prevejam dados de alta qualidade para treinar sistemas algorítmicos tendo em conta a finalidade da sua utilização; salienta, neste contexto, a necessidade de assegurar a representatividade dos dados utilizados para treinar o sistema e, sempre que possível, a correção de distorções nos conjuntos de dados, bem como de normas relativas aos dados e à agregação, a fim de melhorar a produção dos sistemas algorítmicos e de aumentar a confiança e a aceitação dos consumidores; salienta que esses conjuntos de dados devem ser verificáveis pelas autoridades competentes sempre que estas sejam chamadas a garantir a sua conformidade com os princípios anteriormente enunciados;

 

Defesa do consumidor: transparência e explicabilidade dos algoritmos

8. Sublinha que a confiança dos consumidores é essencial para o desenvolvimento e implementação da AI, da robótica e das tecnologias conexas, que podem comportar riscos inerentes quando se baseiam em algoritmos opacos e em conjuntos de dados que contêm distorções; considera que os consumidores devem ter o direito de ser informados de forma adequada, compreensível, atempada, normalizada, rigorosa e acessível sobre a existência, a fundamentação e os eventuais resultados e consequências para os consumidores dos sistemas algorítmicos, sobre como contactar um ser humano com poder de decisão e sobre o modo como as decisões do sistema podem ser verificadas, contestadas e corrigidas de forma significativa; recorda que os seres humanos devem ter sempre a possibilidade de anular as decisões automatizadas; considera que os consumidores também devem ser protegidos pelo direito de desconectar ou de limitar, sempre que possível, um sistema de IA através da personalização; salienta a importância da proporcionalidade na elaboração de um tal quadro de transparência para evitar encargos desnecessários para as start-ups e as pequenas e médias empresas (PME) que operam em categorias de baixo risco;

 

9. Salienta a necessidade de enfrentar eficazmente os desafios criados pelos sistemas algorítmicos e de assegurar que os consumidores estejam capacitados e devidamente protegidos; sublinha a necessidade de ir além dos princípios tradicionais de informação e divulgação sobre os quais o acervo relativo à proteção dos consumidores assenta, uma vez que será necessário prever direitos reforçados para os consumidores e limitações claras no que respeita ao desenvolvimento e utilização dos sistemas algorítmicos para garantir que a tecnologia contribua para melhorar a vida dos consumidores e evolua de uma forma que respeite os direitos fundamentais e dos consumidores, assim como os valores europeus;

 

10. Considera absolutamente necessária uma abordagem da conceção que tenha em conta os valores a fim de criar as condições para uma ampla aceitação social da IA por parte dos consumidores; considera que os valores éticos de equidade, exatidão, confidencialidade e transparência devem constituir a base da IA, o que, neste contexto, implica que as operações do sistema não devem gerar resultados injustamente tendenciosos;

 

11. Recorda a importância de garantir a disponibilidade de vias de recurso eficazes para os consumidores e insta os Estados-Membros e as autoridades nacionais de fiscalização do mercado a assegurarem a existência de procedimentos e estruturas de avaliação acessíveis, económicos, independentes e eficazes para garantir uma análise humana imparcial de todas as alegações de violações dos direitos dos consumidores através do recurso a sistemas algorítmicos, quer imputáveis a intervenientes públicos, quer privados; insta a que sejam disponibilizados mecanismos de resolução de litígios e de recurso coletivo, em consonância com a Diretiva do Parlamento Europeu e do Conselho relativa a ações coletivas para proteger os interesses coletivos dos consumidores e que revoga a Diretiva 2009/22/CE[21], para contestar a introdução ou a utilização contínua de um sistema suscetível de dar lugar a violações dos direitos dos consumidores, ou para reparar uma violação desses direitos; solicita à Comissão que vele por que as organizações nacionais e europeias de consumidores disponham de financiamento suficiente para ajudar os consumidores a exercerem o seu direito de recurso nos casos em que as decisões baseadas em aplicações de IA violem os direitos dos consumidores;

 

12. Realça que, sempre que os fundos provenientes de fontes públicas contribuam de forma significativa para o desenvolvimento ou a implementação de um sistema algorítmico, além de normas abertas em matéria de adjudicação e contratação pública, o código, os dados gerados – desde que não sejam pessoais – e o modelo treinado podem ser sistematicamente públicos, de comum acordo com o programador, a fim de garantir a transparência, reforçar a cibersegurança e permitir a respetiva reutilização de molde a promover a inovação; salienta que, desta forma, é possível aproveitar plenamente o potencial do mercado único, evitando a fragmentação do mercado;

 

Mercado interno: informação e sensibilização dos consumidores

13. Sublinha que é importante garantir que os interesses de todos os consumidores, incluindo os consumidores de grupos marginalizados ou em situações de vulnerabilidade, como as pessoas com deficiência, sejam devidamente tidos em conta e representados em qualquer futuro quadro regulamentar da UE; observa que, para efeitos de análise dos impactos dos sistemas algorítmicos nos consumidores, o acesso aos dados pode ser alargado aos intervenientes adequados, nomeadamente a investigadores independentes, aos meios de comunicação social e às organizações da sociedade civil, sempre que possível através da utilização de interfaces de programação de aplicações (IPA), no pleno respeito da legislação da União em matéria de proteção de dados e privacidade e da legislação relativa a segredos comerciais; recorda a importância de educar os consumidores para estarem mais informados e disporem de maiores competências quando utilizam sistemas algorítmicos, a fim de os proteger contra os riscos potenciais e defender os seus direitos; considera que a IA, a Internet das coisas e outras tecnologias emergentes têm um potencial enorme para oferecer aos consumidores a possibilidade de terem acesso a diversas comodidades que facilitem a sua vida quotidiana de diversas formas, bem com a melhores produtos e serviços, beneficiando paralelamente de uma melhor fiscalização do mercado, desde que continuem a aplicar-se todos os princípios, condições (incluindo a transparência e a auditabilidade) e regulamentos pertinentes;

 

14. Salienta a importância de alcançar um elevado nível de literacia digital generalizada e de formar profissionais altamente qualificados neste domínio, bem como de garantir o reconhecimento mútuo dessas qualificações em toda a União; frisa a necessidade de contar com equipas diversificadas compostas por criadores e engenheiros, por um lado, e os principais intervenientes na sociedade, por outro, a fim de evitar que os preconceitos de género e os preconceitos culturais sejam incluídos inadvertidamente em algoritmos, sistemas e aplicações de IA; apoia a criação de programas de ensino e atividades de sensibilização do público para as implicações sociais, jurídicas e éticas da AI;

 

15. Insta a Comissão a promover e financiar o desenvolvimento de IA, robótica e tecnologias conexas centradas no ser humano que respondam aos desafios ambientais e climáticos e garantam a igualdade de acesso e o exercício dos direitos fundamentais através da utilização de incentivos orçamentais, contratação pública ou outras medidas;

 

16. Sublinha que a IA e os sistemas algorítmicos devem ser conformes com a legislação, robustos, fiáveis e seguros em termos de conceção; insta a Comissão a assegurar que a abordagem regulamentar da União em matéria de sistemas algorítmicos inclua medidas adequadas para permitir que estes sistemas estejam sujeitos a controlo e supervisão independentes;

 

Fiscalização do mercado

17. Insta à criação de um centro europeu de peritos para reforçar as capacidades da União e desenvolver, na medida do possível, as estruturas existentes para promover o intercâmbio de informações relacionadas com sistemas algorítmicos entre as autoridades dos Estados-Membros e apoiar o desenvolvimento de um entendimento comum no mercado único, mediante a emissão de orientações e a disponibilização de aconselhamento e conhecimentos técnicos especializados às autoridades dos Estados-Membros, bem como para acompanhar a aplicação da legislação pertinente da UE, resolver eventuais problemas em matéria de proteção dos consumidores, definir normas de boas práticas e, se for caso disso, formular recomendações de medidas de regulação; insta ainda a que esta estrutura disponha de aconselhamento adequado por parte de organizações das partes interessadas (como as organizações de defesa do consumidor), de modo a garantir uma ampla representação dos consumidores; considera que, devido ao impacto desproporcionado dos sistemas algorítmicos nas mulheres e nas minorias, os níveis de decisão de tal estrutura devem ser diversificados e equilibrados em termos de género; frisa que os Estados-Membros devem desenvolver estratégias de gestão dos riscos para a IA no contexto das suas estratégias nacionais de fiscalização do mercado;

 

18. Insta a Comissão a propor medidas para a rastreabilidade dos dados, tendo em conta tanto a legalidade da aquisição de dados como a proteção dos direitos dos consumidores e dos direitos fundamentais; salienta que os conjuntos de dados, os algoritmos e os processos utilizados no desenvolvimento e na utilização de sistemas algorítmicos, incluindo os processos de recolha de dados e rotulagem de dados, devem ser documentados de acordo com a norma do setor; observa que é essencial que a documentação relativa à avaliação de risco e aos programas informáticos, os algoritmos e os conjuntos de dados utilizados ou produzidos pela inteligência artificial, pela robótica e pelas tecnologias conexas sejam acessíveis e transparentes para as autoridades de fiscalização do mercado, respeitando, ao mesmo tempo, o direito da União e os segredos comerciais; observa ainda que essa documentação deve ser armazenada pelas pessoas que intervêm nas diferentes fases do desenvolvimento de sistemas algorítmicos; observa que devem ser atribuídas às autoridades de fiscalização do mercado prerrogativas adicionais nessa matéria; considera que poderá ser necessário proceder a uma análise da atual legislação em matéria de fiscalização do mercado para evitar a sua obsolescência e garantir que responde de forma ética à emergência da AI, da robótica e das tecnologias conexas;

 

19. Solicita que cada Estado-Membro designe uma autoridade nacional competente para controlar a aplicação das disposições relacionadas com os sistemas algorítmicos, atribuindo-lhe financiamento suficiente; salienta a necessidade de reforçar as autoridades nacionais de fiscalização do mercado em termos de capacidades, aptidões e competências em matéria de IA, bem como de conhecimentos sobre os riscos específicos da IA;

 

20. Apela a uma forte coordenação das autoridades dos Estados-Membros e à criação de um comité europeu de fiscalização do mercado para sistemas algorítmicos, composto por autoridades nacionais, para garantir supervisão efetiva e condições de concorrência equitativas a nível europeu e evitar a fragmentação do mercado interno;

 

21. Reconhece os valiosos contributos dados pelo grupo de peritos de alto nível sobre a inteligência artificial, em particular as «Orientações éticas para uma inteligência artificial de confiança»; propõe que esse grupo, composto por representantes do meio académico, da sociedade civil e da indústria, bem como da Aliança Europeia de IA, possa proporcionar conhecimentos especializados ao comité europeu de fiscalização do mercado para sistemas algorítmicos;

 

22. Observa que, nos domínios das relações entre as empresas e os consumidores, em especial, os sistemas devem centrar-se no utilizador e ser concebidos por forma a permitir que todas as pessoas utilizem os produtos ou serviços de IA, independentemente da sua idade, do seu género, das suas capacidades ou das suas características; observa que a acessibilidade a esta tecnologia por pessoas com deficiência se reveste de particular importância; assinala que os sistemas de IA não devem seguir uma abordagem única para todos os casos e devem tomar em consideração os princípios de conceção universal, que visam abranger a maior variedade possível de utilizadores, respeitando as normas de acessibilidade pertinentes; salienta que tal permitirá que todas as pessoas tenham um acesso equitativo e uma participação ativa em atividades humanas existentes e emergentes apoiadas por computadores e em tecnologias de apoio.

 


INFORMAÇÕES SOBRE A APROVAÇÃO NA COMISSÃO ENCARREGADA DE EMITIR PARECER

Data de aprovação

7.7.2020

 

 

 

Resultado da votação final

+:

–:

0:

39

1

4

Deputados presentes no momento da votação final

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Suplentes presentes no momento da votação final

Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin


 

VOTAÇÃO NOMINAL FINAL NA COMISSÃO ENCARREGADA DE EMITIR PARECER

39

+

PPE

S&D

RENEW

Verts/ALE

ECR

GUE/NGL

NI

Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, MariaManuel LeitãoMarques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

Andrus Ansip, VladMarius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie YonCourtin

David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kimvan Sparrentak

Adam Bielan, Carlo Fidanza, Eugen Jurzyca, Beata Mazurek

Kateřina Konečná, AnneSophie Pelletier

Marco Zullo

 

1

-

ID

Hynek Blaško

 

4

0

ID

Alessandra Basso, Markus Buchheit, Virginie Joron, JeanLin Lacapelle

 

Legenda dos símbolos utilizados:

+ : votos a favor

- : votos contra

0 : abstenções

 

 


 

 

PARECER DA COMISSÃO DOS TRANSPORTES E DO TURISMO (16.7.2020)

dirigido à Comissão dos Assuntos Jurídicos

com recomendações à Comissão no quadro dos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas

(2020/2012(INL))

Relator de parecer: Valter Flego

(*) Comissões associadas – Artigo 57.º do Regimento

 

(Iniciativa – Artigo 47.º do Regimento)

 

 

SUGESTÕES

A Comissão dos Transportes e do Turismo insta a Comissão dos Assuntos Jurídicos, competente quanto à matéria de fundo, a incorporar as seguintes sugestões na proposta de resolução que aprovar:

A. Considerando que a inteligência artificial (IA) é um tipo de tecnologia de importância estratégica para o setor dos transportes e que deverá beneficiar os cidadãos e a sociedade melhorando a qualidade de vida, aumentando o nível de segurança de todos os meios de transporte e criando novas oportunidades de emprego e modelos empresariais mais sustentáveis; que a IA tem potencial para transformar a sociedade de forma significativa, em particular, se for amplamente disponibilizada e acessível;

B. Considerando que o pleno potencial da IA no setor dos transportes só pode ser explorado se os utilizadores estiverem cientes dos eventuais benefícios e desafios que uma tal tecnologia acarreta; que é necessário abordar esta questão no contexto da educação e da formação, nomeadamente em termos de promoção da inclusão social, assim como efetuar campanhas de informação à escala da União com uma representatividade precisa de todos os aspetos inerentes do desenvolvimento da IA;

C. Considerando que uma abordagem europeia da IA, da robótica e das tecnologias conexas tem de estar em conformidade com os princípios éticos, a fim de assegurar que a IA, a robótica e as tecnologias conexas se centrem no ser humano, reforcem o bem-estar humano, a segurança, o bem-estar da sociedade e do ambiente, abordem os dilemas éticos pertinentes, respeitem plenamente os direitos, valores e princípios fundamentais da União e estejam plenamente em conformidade com a legislação da União em matéria de privacidade e proteção de dados; que esta abordagem terá igualmente de abordar questões relativas à qualidade dos conjuntos de dados utilizados nos sistemas algorítmicos, bem como nos próprios algoritmos e nas normas relativas aos dados e à agregação;

D. Considerando que, para ser fiável, a IA deve basear-se em quatro princípios éticos: respeito da autonomia humana, prevenção dos danos, equidade e inteligibilidade; que o respeito desses princípios requer a adoção de regras específicas para o setor dos transportes da União;

E. Considerando que o erro humano continua presente em cerca de 95% da totalidade de acidentes de viação na União; que a UE tinha como objetivo reduzir em 50% até 2020 o número de vítimas mortais em acidentes rodoviários na União, em comparação com 2010, mas que, tendo em conta a estagnação dos progressos, renovou os seus esforços no quadro da política de segurança rodoviária para 2021-2030 – próximas etapas para uma «Visão Zero»; que, neste sentido, a IA, a automatização e outras novas tecnologias possuem um grande potencial e são de uma importância vital para o aumento da segurança rodoviária mediante a redução das possibilidades de erros humanos;

F. Considerando que a IA, a automatização e outras novas tecnologias podem também contribuir para reduzir o congestionamento do tráfego e as emissões de gases com efeito de estufa e de poluentes atmosféricos;

G. Considerando que a produção de IA, robótica e tecnologias conexas eticamente responsáveis, centradas no ser humano e tecnologicamente sólidas no setor dos transportes proporciona às empresas da União, incluindo as PME, uma oportunidade de negócio para se tornarem líderes mundiais neste domínio;

H. Considerando que essas novas oportunidades de negócio podem contribuir para a recuperação da indústria da União após a atual crise económica e sanitária e para uma maior utilização da tecnologia de IA no setor dos transportes; que essas oportunidades criarão novos empregos, uma vez que a adoção da IA e das tecnologias conexas tem potencial para aumentar os níveis de produtividade das empresas e contribuir para ganhos de eficiência; que os programas de inovação neste domínio podem fazer com que aos agrupamentos regionais prosperem;

I. Considerando que uma abordagem europeia do desenvolvimento da IA, da robótica e das tecnologias conexas nos transportes tem potencial para aumentar a competitividade global e a autonomia estratégica da economia da União;

J. Considerando que, em setores como os transportes públicos, os sistemas de IA para sistemas de transporte inteligentes podem ser utilizados para minimizar as filas, otimizar a seleção de percursos, permitir que as pessoas com deficiência se tornem mais independentes, e aumentar a eficiência energética, reforçando assim os esforços de descarbonização e reduzindo a pegada ambiental;

1. Destaca o potencial da utilização da IA, da robótica e das tecnologias conexas em todos os meios autónomos de transporte rodoviário, ferroviário, marítimo e aéreo, bem como para impulsionar a transição modal e a intermodalidade, uma vez que essas tecnologias podem contribuir para encontrar uma combinação ótima de meios de transporte para o transporte de mercadorias e passageiros; salienta, além disso, o seu potencial para tornar os transportes, a logística e os fluxos de tráfego mais eficientes e todos os modos de transporte mais seguros, mais inteligentes e mais respeitadores do ambiente; Insiste em que uma abordagem ética da IA também pode ser vista como um sistema de alerta precoce, nomeadamente no que diz respeito à segurança e à eficiência dos transportes;

2. Destaca o facto de a concorrência mundial entre empresas e regiões económicas significar que a União necessita de promover o investimento e reforçar a competitividade internacional das empresas que operam no setor dos transportes, criando um ambiente favorável ao desenvolvimento e à aplicação de soluções de IA e outras inovações, no âmbito das quais as empresas sediadas na União se possam tornar líderes mundiais no desenvolvimento das tecnologias de IA;

3. Insiste em que o setor dos transportes da UE necessita de uma atualização do quadro regulamentar relativo a essas tecnologias emergentes e da sua utilização no setor dos transportes, assim como de um quadro ético claro para alcançar uma IA fiável, que inclua os aspetos da segurança, do respeito da autonomia humana, da supervisão e da responsabilidade, o que aumentará os benefícios partilhados por todos e será fundamental para impulsionar o investimento em investigação e inovação, o desenvolvimento de competências e a aceitação da IA pelos serviços públicos, as PME, as empresas em fase de arranque e as empresas em geral, garantindo simultaneamente a proteção de dados e a interoperabilidade, sem impor encargos administrativos desnecessários às empresas e aos consumidores; destaca que é fundamental garantir que qualquer atualização do quadro regulamentar relativo a estas tecnologias emergentes se baseie sempre numa necessidade real e respeite o princípio «legislar melhor», pelo que:

a) insta a Comissão a estabelecer um claro quadro regulamentar de princípios éticos para o desenvolvimento, a implantação e a utilização da IA, da robótica e das tecnologias conexas no setor dos transportes; quaisquer tecnologias de IA, robótica e tecnologias conexas no setor dos transportes devem ser desenvolvidas, implantadas e utilizadas em conformidade com esses princípios éticos;

b) recomenda a definição de orientações com vista a uma classificação harmonizada dos riscos inerentes às tecnologias assentes na IA em todos os modos de transporte, abrangendo as funções dos veículos atribuídas aos seres humanos e à IA, assim como clarificando as responsabilidades e os requisitos em matéria de segurança;

c) insta a Comissão a explorar a utilização da atual estrutura europeia de fiscalização do mercado para os sistemas algorítmicos, incluindo as disposições conexas em matéria de proteção de dados, facultando orientações e disponibilizando aconselhamento, pareceres e conhecimentos especializados às autoridades dos Estados-Membros, nomeadamente sobre interoperabilidade;

d) insta a Comissão a criar um sistema de classificação de risco da IA para os sistemas de transporte inteligentes, em conformidade com a avaliação de risco do Grupo de Peritos de Alto Nível, a fim de responder melhor às necessidades emergentes do setor dos transportes;

e) exorta a Comissão a prestar especial atenção à situação das PME e a conceber a legislação futura de modo a melhorar as oportunidades para essas empresas desenvolverem e utilizarem a tecnologia da IA;

f) considera necessário fornecer informações pormenorizadas aos utilizadores finais sobre o funcionamento dos sistemas de transporte e dos veículos baseados em IA;

4. Salienta que a abordagem europeia da tecnologia da IA deve assegurar a confiança das pessoas, servir o interesse público e reforçar a responsabilidade social partilhada; considera que o desenvolvimento de uma IA fiável, eticamente responsável e tecnicamente robusta é um elemento importante para uma mobilidade sustentável e inteligente, segura e acessível; neste contexto, insta a Comissão a continuar a promover a utilização da IA no setor dos transportes e a propor, para garantir o respeito dos direitos fundamentais da União, alterações correspondentes da legislação da União sem demora e em estreita cooperação com todas as partes interessadas do setor dos transportes;

5. Salienta que o desenvolvimento e a implantação da IA permite serviços de transporte seguros e acessíveis;

6. Recomenda o desenvolvimento de normas de IA fiáveis à escala da União para todos os modos de transporte, incluindo a indústria automóvel, no que respeita à segurança, à interoperabilidade, à robustez técnica, à possibilidade de reparação e de reciclagem do hardware conexo, nomeadamente para lidar com preocupações relacionadas com a eficiência dos recursos, a privacidade, a proteção de dados e a transparência, assim como o ensaio de veículos com IA integrada e dos produtos e serviços conexos;

7. Insta a Comissão a colaborar de perto com os Estados-Membros na conceção, aplicação e execução de normas de IA fiáveis na União; regista que a União tem potencial para ser líder mundial no âmbito da promoção de uma abordagem socialmente responsável e sustentável da tecnologia da IA e respetiva utilização;

8. Insta a Comissão a estudar a possibilidade de confiar a uma ou várias agências, instituições ou organismos relevantes existentes a nível da União, os mecanismos de monitorização, aplicação e sanção, assim como a estudar a forma como os atuais instrumentos de supervisão e controlo no setor dos transportes podem ser equipados e utilizados na tomada de medidas, a fim de assegurar a supervisão a nível da União e permitir que a Comissão tome medidas se um sistema de IA utilizado nos transportes violar os direitos fundamentais ou o quadro ético e de segurança europeu;

9. Insta a Comissão a continuar a apoiar o desenvolvimento de sistemas de IA fiáveis, a fim de tornar os transportes mais seguros, eficientes, acessíveis, económicos e inclusivos, nomeadamente para as pessoas com mobilidade reduzida, em particular as pessoas com deficiência, tendo em conta a Diretiva (UE) 2019/882, do Parlamento Europeu e do Conselho[22], e a legislação da União relativa aos direitos dos passageiros;

10. Chama a atenção para o elevado valor acrescentado que os veículos autónomos representam para as pessoas com mobilidade reduzida, pois permite que tenham uma participação mais efetiva no transporte rodoviário individual, facilitando assim a sua vida quotidiana;

 

11. Salienta a importância da acessibilidade, especialmente na conceção dos sistemas MaaS (mobilidade enquanto serviço);

 

12. Realça a importância crucial da ciência dos dados para conceber sistemas de IA isentos de discriminação e impedir a utilização de dados danificados; recomenda, além disso, que sejam seguidos os procedimentos de tratamento de dados em conformidade com o RGPD e respeitados os princípios da confidencialidade e da não discriminação;

 

13. Observa que os sistemas de IA podem ajudar a reduzir significativamente o número de mortes na estrada, nomeadamente através de melhores tempos de reação e de um melhor cumprimento das regras; considera, no entanto, que será impossível a utilização de veículos autónomos resultar na eliminação de todos os acidentes e sublinha que isso torna ainda mais importante a explicabilidade das decisões da IA para justificar as lacunas e as consequências não intencionais das decisões da IA;

 

14. Considera que tem de ser sempre possível explicar em termos não técnicos as decisões da IA, bem como quaisquer dados relevantes subjacentes a essas decisões, aos utilizadores finais e a outras partes interessadas;

 

15. Observa que o desenvolvimento e a implementação da IA no setor dos transportes não será possível sem infraestruturas modernas, que constituem uma parte fundamental dos sistemas de transporte inteligentes; salienta que as persistentes divergências no nível de desenvolvimento entre os Estados-Membros geram o risco de que as regiões menos desenvolvidas e os seus habitantes sejam privados dos benefícios decorrentes do desenvolvimento da mobilidade autónoma; solicita uma avaliação dos desafios que o desenvolvimento de tecnologias de IA no setor dos transportes coloca ao futuro do mercado de trabalho, assim como a atribuição de financiamento adequado à modernização das infraestruturas na União, designadamente a sua integração na rede 5G.


INFORMAÇÕES SOBRE A APROVAÇÃO
NA COMISSÃO ENCARREGADA DE EMITIR PARECER

Data de aprovação

14.7.2020

 

 

 

Resultado da votação final

+:

–:

0:

49

0

0

Deputados presentes no momento da votação final

Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, István Ujhelyi, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski

Suplentes presentes no momento da votação final

Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti

 


 

VOTAÇÃO NOMINAL FINAL
NA COMISSÃO ENCARREGADA DE EMITIR PARECER

49

+

ECR Group

Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski

GUE/NGL Group

Leila Chaibi, Kateřina Konečná, Elena Kountoura

ID Group

Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo

NI

Dorien Rookmaker, Mario Furore,

PPE Group

Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian‑Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Elżbieta Katarzyna Łukacijewska

Renew Group

José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan‑Christoph Oetjen, Dominique Riquet

S&D Group

Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi

Verts/ALE Group

Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay-Grunenberg, Tilly Metz

 

0

-

 

 

 

0

0

 

 

 

Legenda dos símbolos utilizados:

+ : votos a favor

- : votos contra

0 : abstenções

 

 


 

 

PARECER DA COMISSÃO DAS LIBERDADES CÍVICAS, DA JUSTIÇA E DOS ASSUNTOS INTERNOS (22.9.2020)

dirigido à Comissão dos Assuntos Jurídicos

que contém recomendações à Comissão sobre o quadro dos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas

(2020/2012(INL))

Relatora de parecer (*): Assita Kanko

(*) Comissões associadas – Artigo 57.º do Regimento

 

 

(Iniciativa – artigo 47.º do Regimento)

 

 

SUGESTÕES

A Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos insta a Comissão dos Assuntos Jurídicos, competente quanto à matéria de fundo, a incorporar as seguintes sugestões na proposta de resolução que aprovar:

 Tendo em conta os artigos 2.º e 3.º do Tratado da União Europeia (TUE),

 Tendo em conta os artigos 10.º, 19.º, 21.º e 167.º do Tratado sobre o Funcionamento da União Europeia (TFUE),

 Tendo em conta o direito de petição consagrado nos artigos 20.º e 227.º do TFUE e no artigo 44.º da Carta dos Direitos Fundamentais da UE (CDFUE),

 Tendo em conta os artigos 21.º e 22.º da CDFUE,

 Tendo em conta o preâmbulo do TUE,

 Tendo em conta a Convenção‑Quadro para a Proteção das Minorias Nacionais do Conselho da Europa, o Protocolo n.º 12 à Convenção para a Proteção dos Direitos do Homem e das Liberdades Fundamentais e a Carta Europeia das Línguas Regionais ou Minoritárias,

 Tendo em conta a Diretiva 2000/43/CE do Conselho, de 29 de junho de 2000, que aplica o princípio da igualdade de tratamento entre as pessoas, sem distinção de origem racial ou étnica[23] (Diretiva «Igualdade Racial»),

 Tendo em conta a Diretiva 2000/78/CE do Conselho, de 27 de novembro de 2000, que estabelece um quadro geral de igualdade de tratamento no emprego e na atividade profissional[24] (Diretiva «Igualdade de Tratamento no Emprego»),

 Tendo em conta o Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados)[25], bem como a Diretiva (UE) 2016/680 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativa à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais pelas autoridades competentes para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou execução de sanções penais, e à livre circulação desses dados, e que revoga a Decisão‑Quadro 2008/977/JAI do Conselho[26],

 Tendo em conta a Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões, de 11 de dezembro de 2019, sobre o Pacto Ecológico Europeu,

 Tendo em conta a sua Resolução, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica[27],

 Tendo em conta a Recomendação do Conselho da OCDE sobre inteligência artificial, aprovada em 22 de maio de 2019,

A. Considerando que o desenvolvimento e a conceção da chamada «inteligência artificial», da robótica e das tecnologias conexas são feitos pelo ser humano e que as suas escolhas determinam o potencial da tecnologia para beneficiar a sociedade;

B. Considerando que a responsabilização algorítmica deve significar a implementação de medidas técnicas e operacionais que garantam a transparência e cadeias de responsabilidade claramente atribuídas, assim como a não discriminação através da tomada de decisões automatizada ou do cálculo das probabilidades de comportamento individual; que a transparência deve garantir aos cidadãos informações fiáveis sobre a lógica aplicada, a importância e as consequências previstas; que tal deve incluir informação sobre os dados utilizados para constituir a IA e permitir às pessoas compreender e controlar as decisões que as afetam;

C.  Considerando que existem sérias preocupações quanto ao facto de o atual quadro jurídico da UE, nomeadamente a legislação em matéria de defesa do consumidor, a legislação relativa à segurança dos produtos e à fiscalização do mercado, bem como a legislação contra a discriminação, nem sempre ser o adequado para combater eficazmente os riscos criados pela inteligência artificial, pela robótica e pelas tecnologias conexas;

D. Considerando que a inteligência artificial, a robótica e as tecnologias conexas podem ter graves implicações para os bens materiais e imateriais de indivíduos, de grupos e da sociedade no seu conjunto, e que estes danos individuais e coletivos devem ser tidos em conta nas respostas legislativas;

E. Considerando que as questões de governação relacionadas com a implantação da IA no setor público devem ser devidamente abordadas em termos das suas implicações para a democracia, em especial a legitimidade democrática, a responsabilização, um empenho público consequente e a supervisão;

F. Considerando que a análise de dados e a IA têm um impacto cada vez maior na informação disponibilizada aos cidadãos; que essas tecnologias, quando usadas indevidamente, podem pôr em perigo os direitos fundamentais à informação, assim como a liberdade dos meios de comunicação social e o pluralismo;

G. Considerando que orientações éticas, como os princípios adotados pelo grupo de peritos de alto nível sobre a inteligência artificial, constituem um bom ponto de partida, mas não são suficientes para assegurar que as empresas atuem de forma equitativa e garantam uma proteção eficaz das pessoas;

1. Sublinha que as perspetivas e as oportunidades oferecidas pela IA só poderão ser plenamente aproveitadas pelos cidadãos, pelos setores público e privado e pela comunidade académica e científica quando a confiança do público nestas tecnologias for assegurada por uma aplicação rigorosa dos direitos fundamentais, pelo cumprimento da legislação em vigor da UE em matéria de proteção de dados e pela segurança jurídica para todas as partes envolvidas; salienta que o tratamento de dados pessoais só pode ser efetuado em conformidade com as bases jurídicas previstas no artigo 6.º do Regulamento (UE) n.º 2016/679; considera que a transparência e uma informação adequada do público visado são essenciais para reforçar a confiança do público e proteger os direitos individuais;

2. Sublinha que o cumprimento da legislação em vigor em matéria de proteção de dados, juntamente com normas científicas, éticas e jurídicas sólidas e métodos de controlo democrático, é fundamental para gerar confiança e fiabilidade nas soluções de IA; realça, além disso, que as informações obtidas através da IA não proporcionam uma panorâmica imparcial de uma dada matéria e só são fiáveis na medida em que os dados subjacentes o permitam; salienta que uma análise preditiva baseada em IA apenas permite uma probabilidade estatística e, por conseguinte, nem sempre consegue prever com exatidão o comportamento individual; salienta, por conseguinte, que normas científicas, éticas e legais sólidas são fundamentais para a gestão da recolha de dados e a avaliação dos resultados de uma tal análise com IA;

3. Considera que qualquer quadro de princípios éticos para o desenvolvimento, a implantação e a utilização da IA, da robótica e das tecnologias conexas deve respeitar plenamente a Carta dos Direitos Fundamentais da UE e, dessa forma, respeitar a dignidade humana, a autonomia e a autodeterminação da pessoa em causa, prevenir danos, promover a equidade, a inclusão e a transparência, eliminar os preconceitos e a discriminação, também de grupos minoritários, respeitar os princípios de limitação das externalidades negativas da tecnologia utilizada e de explicabilidade das tecnologias, e garantir que as tecnologias existem para servir as pessoas e não para as substituir ou decidir por elas, com o objetivo último de aumentar o bem‑estar para todos os seres humanos;

4. Destaca a assimetria entre os que empregam tecnologias de IA e aqueles que interagem e estão sujeitos a essas tecnologias; salienta, neste contexto, que a confiança dos cidadãos na IA só pode ser conseguida com base num quadro de «ética por definição e desde a conceção» que garanta que toda e qualquer IA posta em funcionamento respeite plenamente a Carta dos Direitos Fundamentais da União Europeia, o direito da União e os Tratados; considera que tal deve ser consentâneo com o princípio da precaução que orienta a legislação da UE e deve estar no centro de qualquer quadro para a IA; requer, a este respeito, um modelo de governação claro e coerente que permita às empresas prosseguir o desenvolvimento da inteligência artificial, da robótica e das tecnologias conexas;

5. Insta a União Europeia e os Estados‑Membros a promoverem a sensibilização do público para os riscos e as oportunidades da utilização da IA como requisito ético;

6. Considera que o atual quadro jurídico da União, especialmente em matéria de proteção e privacidade dos dados pessoais, terá de ser plenamente aplicado à IA, à robótica e às tecnologias conexas, bem como ser regularmente revisto e controlado e atualizado sempre que necessário, a fim de combater eficazmente os riscos criados pela inteligência artificial, a robótica e as tecnologias conexas, podendo, a este respeito, beneficiar pelo facto de ser completado com sólidos princípios éticos orientadores; salienta que, nos casos em que a adoção de atos jurídicos se revele prematura, deve ser utilizado um quadro não vinculativo;

7. Confia em que a Comissão integrará um quadro ético sólido na próxima proposta legislativa, no seguimento do Livro Branco sobre a Inteligência Artificial, nomeadamente em matéria de segurança, responsabilidade e direitos fundamentais, que maximize as oportunidades e minimize os riscos das tecnologias de IA; confia em que a futura proposta legislativa inclua soluções políticas para os principais riscos reconhecidos da inteligência artificial, como sejam a recolha e a utilização éticas de grandes volumes de dados, a questão da transparência algorítmica e as distorções algorítmicas; insta a Comissão a desenvolver critérios e indicadores para a rotulagem das tecnologias de IA, a fim de estimular a transparência, a explicabilidade e a responsabilização e incentivar a adoção de medidas de precaução adicionais por parte dos promotores; salienta a necessidade de investir na integração de disciplinas não técnicas adaptadas ao contexto social no estudo e investigação sobre IA;

8. Recorda que, dependendo da forma como é desenvolvida, utilizada e aplicada, a IA tem potencial para criar e reforçar preconceitos, nomeadamente através de enviesamentos inerentes aos conjuntos de dados subjacentes, e, portanto, criar várias formas de discriminação automatizada, incluindo a discriminação indireta, relativamente a determinados grupos de pessoas com características semelhantes; insta a Comissão e os Estados‑Membros a tomarem todas as medidas possíveis para evitar tais distorções e assegurar a proteção plena dos direitos fundamentais;

9. Observa que o domínio da IA, da robótica e das tecnologias conexas é extremamente homogéneo e desprovido de diversidade; reconhece a necessidade de assegurar que as equipas responsáveis pela conceção, desenvolvimento, ensaio, manutenção, implementação e aquisição destes sistemas reflitam a diversidade das suas utilizações e da sociedade em geral, a fim de garantir que não sejam involuntariamente «incorporados» preconceitos nestas tecnologias;

10. Entende que só é possível estabelecer uma cooperação transfronteiriça e normas éticas eficazes se todas as partes interessadas procurarem assegurar a intervenção e a supervisão humanas, a solidez técnica e a segurança, a transparência e a responsabilização, a diversidade, a não discriminação e a equidade, o bem‑estar social e ambiental, e respeitarem os princípios estabelecidos em matéria de privacidade, governação e proteção dos dados ‑ especificamente os consagrados no Regulamento (UE) 2016/679 (Regulamento Geral sobre a Proteção de Dados);

11. Solicita uma abordagem orientada para os riscos e para o futuro em matéria de regulamentação da inteligência artificial, da robótica e das tecnologias conexas, incluindo normas tecnologicamente neutras em todos os setores, com normas setoriais específicas, se for caso disso; está firmemente convicto de que deve ser aplicado um quadro ético operacional à escala da UE a todos os que pretendam desenvolver ou operar aplicações de inteligência artificial na UE, a fim de evitar a fragmentação; insta a União a promover uma cooperação sólida e transparente e a partilha de conhecimentos entre os setores público e privado para criar boas práticas e identificar aplicações de IA de alto risco;

12. Advoga a responsabilidade digital das empresas numa base voluntária; considera que a União deve apoiar as empresas que optem por utilizar as tecnologias digitais e a IA de forma ética; entende que a União deve incentivar as empresas a tornarem‑se proativas, criando uma plataforma para que partilhem as suas experiências no domínio da digitalização ética, bem como coordenando as ações e estratégias das empresas participantes;

13. Salienta a importância da proteção das redes de IA e robótica interligadas e que devem ser tomadas medidas vigorosas para evitar violações da segurança, fugas de dados, contaminações de dados, ciberataques e utilizações indevidas de dados pessoais, para o que será necessário que as agências, os órgãos e as instituições pertinentes, tanto a nível europeu como local, colaborem entre si e com os utilizadores finais destas tecnologias; insta a Comissão e os Estados‑Membros a zelarem por que os valores europeus e o respeito dos direitos fundamentais sejam a todo o momento observados aquando do desenvolvimento e da implantação de tecnologias de IA, a fim de garantir a segurança e a resiliência da infraestrutura digital da UE;

14. Regista, a este respeito, as disposições previstas no Regulamento 2019/881 do Parlamento Europeu e do Conselho relativo à ENISA e no Regulamento Cibersegurança, em particular o papel da ENISA na promoção de campanhas de sensibilização e de educação do público dirigidas aos utilizadores finais, nomeadamente sobre potenciais ciberameaças e atividades criminosas em linha, bem como na promoção de medidas essenciais de proteção de dados; reconhece, neste contexto, o valor acrescentado desta agência da UE;

15. Salienta que a utilização maliciosa da IA pode representar um risco para os valores das nossas democracias e os direitos fundamentais dos cidadãos da União Europeia; insta a Comissão a propor um quadro que penalize aqueles que, ao utilizarem esta tecnologia, distorcem a perceção da realidade através de campanhas de desinformação ou provocam ciberataques para violar a cibersegurança digital;

16. Observa que a IA, a robótica e as tecnologias conexas no domínio da aplicação da lei e do controlo das fronteiras podem reforçar a segurança pública, mas também requerem um escrutínio público alargado e rigoroso e o mais elevado nível de transparência possível, tanto em termos de avaliação dos riscos de cada aplicação, como de uma panorâmica geral da forma como utilizam a IA, a robótica e as tecnologias conexas no domínio da aplicação da lei e do controlo das fronteiras;  considera que estas tecnologias comportam importantes riscos éticos que devem ser adequadamente abordados, tendo em conta os possíveis efeitos adversos para as pessoas, em particular para os seus direitos à privacidade, à proteção de dados e à não discriminação; salienta que a sua utilização abusiva pode tornar‑se uma ameaça direta para a democracia e que a sua implantação e utilização devem respeitar os princípios da proporcionalidade e da necessidade, a Carta dos Direitos Fundamentais, bem como o direito derivado pertinente da União, nomeadamente as regras da UE em matéria de proteção de dados; salienta que a IA jamais deverá substituir os seres humanos na emissão de decisões judiciais; que decisões como a de colocar em liberdade sob caução ou liberdade condicional, o julgamento em tribunal ou as decisões baseadas unicamente no tratamento automatizado que produzam efeitos jurídicos relativamente a pessoas ou que as afetem de forma significativa devem implicar sempre a avaliação profunda e decisão por um ser humano;

17. Adverte que, devido ao caráter intrusivo que as decisões e medidas tomadas pelas autoridades responsáveis pela aplicação da lei ‑ nomeadamente através do processamento de dados e da IA ‑ têm para a vida e os direitos dos cidadãos, é necessária a máxima cautela para evitar a discriminação ilegal e a seleção de certos indivíduos ou grupos de pessoas definidos por referência à raça, cor, origem étnica ou social, características genéticas, língua, religião ou crença, opinião política ou outra, propriedade, nascimento, deficiência, idade, género, expressão ou identidade de género, orientação sexual, estatuto de residência, saúde ou pertença a uma minoria nacional que é alvo frequente de perfilagem étnica ou controlo policial reforçado, bem como de pessoas que se distinguem por características específicas; apela a uma formação adequada para os coletores de dados em primeira linha e os utilizadores de informações obtidas a partir de IA;

18. Salienta que o facto de essas tecnologias permitirem que dados pessoais e não pessoais sejam utilizados para categorizar e «microdirecionar» indivíduos, identificar as suas vulnerabilidades ou explorar conhecimentos preditivos exatos, deve ser contrabalançado com medidas de proteção dos dados e princípios de privacidade efetivamente aplicados, como a minimização dos dados, o direito de oposição à definição de perfis e de controlo dos dados, o direito a uma explicação para uma decisão baseada no tratamento automatizado e a privacidade desde a conceção, bem como os princípios da proporcionalidade, da necessidade e da limitação baseada numa finalidade claramente definida; salienta que, não obstante alguns modelos de policiamento preditivo serem mais respeitadores da privacidade do que outros, como quando são feitas previsões probabilísticas acerca de locais ou eventos e não de pessoas individuais, os sistemas de policiamento preditivo demonstraram contribuir para exacerbar o policiamento excessivo baseado em preconceitos existentes, como a definição de perfis a partir de critérios raciais ou dos antecedentes de migrantes ou trabalhadores, mesmo quando tal não corresponde aos níveis reais de criminalidade;

19. Salienta que os cidadãos têm o direito de confiar na tecnologia que utilizam, assim como na tecnologia que é utilizada por outros; salienta que a IA e a robótica não estão imunes a cometer erros, salientando, por conseguinte, a importância do direito a uma explicação quando as pessoas são objeto de decisões algorítmicas, bem como a necessidade de os algoritmos serem transparentes, uma vez que a transparência quanto à lógica subjacente de um algoritmo é altamente relevante para as pessoas afetadas, a fim de garantir a proteção plena dos seus direitos fundamentais; considera necessário que os legisladores reflitam sobre a complexa questão da responsabilidade e que a responsabilidade em todas as aplicações de IA deve recair, sempre, numa pessoa, singular ou coletiva;

20. Sublinha que a inteligência artificial, a robótica e as tecnologias conexas são tecnologias globais e que estas normas têm de ser adotadas à escala global para assegurar que o seu desenvolvimento futuro seja conforme com os valores europeus e as normas éticas; insta a Comissão a empenhar‑se na diplomacia sobre IA nos fóruns internacionais com parceiros que partilhem os mesmos valores, como os Estados Unidos, o G7, o G20 e a OCDE, com vista a estabelecer normas e orientações éticas comuns para o desenvolvimento da IA, da robótica e das tecnologias conexas;

21 Salienta que deve ser criado um quadro claro para a utilização da IA nas plataformas das redes sociais, do mesmo modo que requisitos de transparência para os algoritmos utilizados e respetiva calibração, a fim de evitar a remoção excessiva de conteúdos e qualquer forma de filtragem ou de censura da Internet;

22 Observa que a IA pode ser utilizada para manipular características faciais e audiovisuais, frequentemente referidas como falsificações profundas («deepfakes»); recorda que esta técnica pode ser utilizada para manipular eleições, disseminar desinformação e outras ações indesejáveis; solicita, por conseguinte, à Comissão que utilize o seu quadro ético para impor a obrigação, para todos os materiais que constituem falsificações profundas ou vídeos de síntese feitos de forma realista, de declarar que não são originais, e que imponha uma limitação rigorosa da sua utilização para fins eleitorais;

23. Propõe a criação de um centro de especialização que reúna o meio académico, os investigadores, a indústria e peritos individuais a nível da União, enquanto parte integrante ou em associação com essa agência, a fim de promover o intercâmbio de conhecimentos e competências técnicas especializadas e facilitar a colaboração dentro e fora da UE;

24. Recorda a importância da diversidade linguística e cultural; solicita, por conseguinte, à Comissão que utilize o enquadramento ético para impedir que a IA reduza essa diversidade, continuando, ao invés, a proporcionar o acesso a uma ampla gama de conteúdos que não representem excessivamente uma única língua e/ou modelo cultural, e condene quaisquer tentativas de algoritmos para restringir essa diversidade ou oferecer conteúdos que correspondem a determinados padrões já existentes ou sejam suscetíveis de servir de «câmara de ressonância», impedindo o acesso a uma maior diversidade;

25. Recomenda que a Comissão demonstre claramente que reviu, avaliou e adaptou o seu plano coordenado em matéria de IA para fazer face às graves implicações da inteligência artificial em matéria de direitos fundamentais, indicando a forma como esses riscos serão atenuados na abordagem legislativa da UE e na aplicação das estratégias nacionais dos Estados‑Membros.

 


INFORMAÇÕES SOBRE A APROVAÇÃO NA COMISSÃO ENCARREGADA DE EMITIR PARECER

Data de aprovação

22.9.2020

 

 

 

Resultado da votação final

+:

–:

0:

55

5

7

Deputados presentes no momento da votação final

Magdalena Adamowicz, Malik Azmani, Katarina Barley, Pernando Barrena Arza, Pietro Bartolo, Nicolas Bay, Vladimír Bilčík, Vasile Blaga, Ioan‑Rareş Bogdan, Patrick Breyer, Saskia Bricmont, Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Damien Carême, Anna Júlia Donáth, Lena Düpont, Cornelia Ernst, Laura Ferrara, Nicolaus Fest, Jean‑Paul Garraud, Maria Grapini, Sylvie Guillaume, Andrzej Halicki, Balázs Hidvéghi, Evin Incir, Sophia in ‘t Veld, Patryk Jaki, Lívia Járóka, Marina Kaljurand, Assita Kanko, Fabienne Keller, Peter Kofod, Moritz Körner, Alice Kuhnke, Jeroen Lenaers, Juan Fernando López Aguilar, Nuno Melo, Roberta Metsola, Nadine Morano, Javier Moreno Sánchez, Maite Pagazaurtundúa, Nicola Procaccini, Paulo Rangel, Diana Riba i Giner, Ralf Seekatz, Michal Šimečka, Birgit Sippel, Sylwia Spurek, Tineke Strik, Ramona Strugariu, Annalisa Tardino, Tomas Tobé, Dragoş Tudorache, Milan Uhrík, Tom Vandendriessche, Bettina Vollath, Jadwiga Wiśniewska, Elena Yoncheva

Suplentes presentes no momento da votação final

Delara Burkhardt, Gwendoline Delbos‑Corfield, Kostas Papadakis, Kris Peeters, Anne‑Sophie Pelletier, Sira Rego, Rob Rooken, Paul Tang, Tomáš Zdechovský

Suplentes (art. 209.º, n.º 7) presentes no momento da votação final

Isabel Benjumea Benjumea

 


 

VOTAÇÃO NOMINAL FINAL NA COMISSÃO ENCARREGADA DE EMITIR PARECER

55

+

EPP

Magdalena Adamowicz, Isabel Benjumea Benjumea, Vladimír Bilčík, Vasile Blaga, Ioan‑Rareş Bogdan, Lena Düpont, Andrzej Halicki, Balázs Hidvéghi, Lívia Járóka, Jeroen Lenaers, Nuno Melo, Roberta Metsola, Nadine Morano, Kris Peeters, Paulo Rangel, Ralf Seekatz, Tomas Tobé, Tomáš Zdechovský

S&D

Katarina Barley, Pietro Bartolo, Delara Burkhardt, Maria Grapini, Sylvie Guillaume, Evin Incir, Marina Kaljurand, Juan Fernando López Aguilar, Javier Moreno Sánchez, Birgit Sippel, Sylwia Spurek, Paul Tang, Bettina Vollath, Elena Yoncheva

RENEW

Malik Azmani, Anna Júlia Donáth, Sophia In 'T Veld, Fabienne Keller, Moritz Körner, Maite Pagazaurtundúa, Michal Šimečka, Ramona Strugariu, Dragoş Tudorache

ID

Peter Kofod

GREENS/EFA

Patrick Breyer, Saskia Bricmont, Damien Carême, Gwendoline Delbos‑Corfield, Alice Kuhnke, Diana Riba I Giner, Tineke Strik

ECR

Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Assita Kanko, Nicola Procaccini, Jadwiga Wiśniewska

NI

Laura Ferrara

 

5

EUL/NGL

Pernando Barrena Arza, Cornelia Ernst, Anne‑Sophie Pelletier, Sira Rego

NI

Kostas Papadakis

 

7

0

ID

Nicolas Bay, Nicolaus Fest, Jean‑Paul Garraud, Annalisa Tardino, Tom Vandendriessche

ECR

Rob Rooken

NI

Milan Uhrík

 

Legenda dos símbolos utilizados:

+ : votos a favor

 : votos contra

0 : abstenções

 

 

 


 

 

PARECER DA COMISSÃO DO EMPREGO E DOS ASSUNTOS SOCIAIS (7.9.2020)

dirigido à Comissão dos Assuntos Jurídicos

que contém recomendações à Comissão sobre um quadro para os aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas

(2020/2012(INL))

Relatora de parecer: Lina Gálvez Muñoz

(Iniciativa – artigo 47.º do Regimento)

 

 

 

SUGESTÕES

A Comissão do Emprego e dos Assuntos Sociais insta a Comissão dos Assuntos Jurídicos, competente quanto à matéria de fundo, a incorporar as seguintes sugestões na proposta de resolução que aprovar:

A. Considerando que a aplicação da inteligência artificial (IA), da robótica e das tecnologias conexas na vida quotidiana e no local de trabalho está constantemente a aumentar, transformando de forma considerável as atuais estruturas socioeconómicas; que a IA deve beneficiar os cidadãos e a sociedade melhorando a qualidade de vida, criando novas oportunidades de emprego e reforçando a competitividade da União; que a IA constitui um elemento essencial da economia digital e, se for bem explorada, tem potencial para aumentar a prosperidade e facilitar a transição para uma economia sustentável;

B. Considerando que por IA se entende um sistema que apresenta um comportamento inteligente, que analisa o seu ambiente e toma decisões, com um certo grau de autonomia, para alcançar objetivos específicos; que os sistemas baseados na IA podem basear-se exclusivamente em programas informáticos, atuando no mundo virtual, por exemplo, sob a forma de assistentes de voz, programas de análise de imagens, motores de busca, sistemas de reconhecimento facial e de discurso, ou estar integrados em dispositivos físicos, por exemplo, sob a forma de robôs avançados, automóveis autónomos, veículos aéreos não tripulados ou aplicações da Internet das coisas[28];

C. Considerando que a IA constitui uma prioridade estratégica, cujo pleno potencial só pode ser explorado se os utilizadores e os consumidores estiverem cientes dos eventuais benefícios e desafios que acarreta; que, muitas vezes, as empresas, assim como os trabalhadores e os seus representantes não estão sensibilizados para as aplicações de IA nem para as funções e os dados subjacentes; que existem casos em que as aplicações de IA violam os regulamentos existentes, nomeadamente em matéria de proteção de dados;

D. Considerando que a IA pode oferecer benefícios económicos e sociais, para além de criar novas oportunidades tanto para as empresas como para os trabalhadores, suscitando ao mesmo tempo uma série de desafios éticos, jurídicos e relacionados com o emprego; que a aplicação da IA no local de trabalho pode contribuir para mercados de trabalho inclusivos e ter um impacto na saúde ocupacional e na segurança, podendo, ao mesmo tempo, ser utilizada para acompanhar, avaliar, prever e orientar o desempenho dos trabalhadores com consequências diretas e indiretas nas suas carreiras; que a IA deve ter um impacto positivo nas condições de trabalho e guiar-se pelo respeito dos direitos humanos, bem como pelos direitos e valores fundamentais da União; que a IA deve ser centrada no ser humano, reforçar o bem-estar das pessoas e da sociedade e contribuir para uma transição justa e equitativa;

E. Considerando que a IA tem um impacto acentuado no mercado de trabalho[29]; que a IA pode eventualmente substituir os trabalhadores que exercem atividades repetitivas, criar modelos de trabalho assentes na colaboração homem-máquina, aumentar a competitividade e a prosperidade e criar novas oportunidades de emprego para os trabalhadores qualificados; que o panorama laboral se encontra em rápida evolução e se estima que 65 % das crianças de hoje terão tipos de trabalho completamente diferentes; que é necessário requalificar e melhorar as competências dos trabalhadores, em particular no que diz respeito às competências digitais, a fim de garantir que ninguém é deixado para trás e que existe uma oferta suficiente de mão de obra especializada[30];

F. Considerando que, de acordo com o Cedefop, cerca de 43 % dos trabalhadores adultos da União viram-se confrontados com novas tecnologias no local de trabalho; que aproximadamente sete em cada dez trabalhadores da UE necessitam de, pelo menos, um nível moderado de competências digitais no seu trabalho[31]; que, em média, cerca de um quarto dos cidadãos da UE não tem quaisquer competências digitais ou tem um nível baixo de competências digitais; que a clivagem digital tem aspetos específicos de natureza socioeconómica e ligados ao género, à idade, à geografia e à acessibilidade que têm de ser abordados; que 42 % dos trabalhadores de empresas que aplicam a IA nos seus processos empresariais consideram que essas atividades suscitam questões de ética, às quais deve ser dada resposta; que 28 % das entidades patronais consideram que a aplicação da IA não se desenvolveu plenamente devido à falta de regras de ética neste domínio[32];

G. Considerando que a pandemia de COVID-19 evidenciou a importância das soluções digitais, incluindo o teletrabalho, bem como as suas implicações técnicas e sociais; que não existem disposições comuns a nível da União em matéria de aplicação da IA no local de trabalho, o que poderá conduzir a distorções do mercado e desvantagens concorrenciais; que a IA deve estar sujeita a um quadro regulamentar adequado;

H. Considerando que a OCDE elaborou recomendações sobre IA[33];

I. Considerando que o Conselho da União Europeia incentiva à promoção de uma abordagem ética e centrada no ser humano no que respeita à IA[34];

J. Considerando que os parceiros sociais a nível da União concluíram um acordo-quadro sobre a digitalização, que, nomeadamente, inclui um capítulo alusivo à inteligência artificial e à salvaguarda do princípio do controlo humano («human in control»)[35];

K. Considerando que alguns Estados-Membros já estabeleceram organismos especiais para acompanhar e avaliar a influência da IA no local de trabalho;

L. Considerando que os esforços que visam combater a desigualdade e os estereótipos de género são insuficientes; que a disparidade de género persiste em todos os domínios da tecnologia digital e, em especial no domínio da IA, solidificando, assim, uma trajetória que evidencia uma parcialidade em proveito dos homens no setor digital no futuro próximo;

1. Salienta a necessidade de avaliar exaustivamente as oportunidades e os desafios criados pelas aplicações de IA nas empresas públicas e privadas e na administração pública no que respeita aos empregos e aos trabalhadores, nomeadamente o seu impacto na conciliação da vida profissional com a vida privada, na organização do trabalho e nos fluxos de trabalho; considera indispensável que o diálogo social não seja contornado e que os trabalhadores e os seus representantes sejam consultados e recebam informações suficientes desde o início do processo de tomada de decisão; sublinha que a implantação da IA tem de ser transparente e que os sistemas de IA no local de trabalho devem respeitar a privacidade e a dignidade dos trabalhadores;

2. Salienta que, previamente ao desenvolvimento, à implantação e à aplicação de sistemas IA, deve ser realizada uma avaliação exaustiva dos riscos, que avalie o seu impacto nos direitos fundamentais e nas condições de trabalho, nomeadamente, em termos de saúde ocupacional e segurança, assim como as suas consequências sociais; realça que as avaliações devem incluir os riscos relacionados com a tomada de decisão por humanos e a discriminação social, bem como uma análise do surgimento de riscos ocupacionais;

3. Salienta que as soluções de IA têm potencial para melhorar as condições de trabalho e a qualidade de vida, nomeadamente melhorando a conciliação da vida profissional com a vida privada e aumentando a acessibilidade das pessoas com deficiência, para prever a evolução do mercado de trabalho, apoiar a gestão de recursos humanos e para prevenir a parcialidade humana; frisa, no entanto, que as soluções de IA podem também suscitar preocupações em matéria de privacidade e saúde ocupacional e de segurança, como o direito a desligar do trabalho, e conduzir a uma vigilância e uma monitorização desproporcionada e ilegal dos trabalhadores, violando a sua dignidade e privacidade, bem como a um tratamento discriminatório, nomeadamente nos processos de recrutamento, devido a algoritmos tendenciosos, nomeadamente em razão do género, da raça ou da etnia[36], e algoritmos que penalizam grupos vulneráveis; manifesta, além disso, a sua preocupação com a possibilidade de a IA comprometer a liberdade e a autonomia das pessoas e contribuir para problemas de saúde mental dos trabalhadores, como o esgotamento profissional, a tensão profissional, o «stress tecnológico», a sobrecarga psicológica e a fadiga; salienta que as soluções de IA no local de trabalho devem ser transparentes, justas e evitar quaisquer repercussões negativas nos trabalhadores;

4. Sublinha que as autoridades competentes deveriam ter acesso a todas as informações relativas aos dados utilizados na formação, aos modelos estatísticos e aos princípios teóricos relacionados com as soluções de IA, assim como à validade empírica dos seus resultados;

5. Considera que a IA pode ajudar a aproveitar melhor as aptidões e competências das pessoas com deficiência e que a aplicação da IA no local de trabalho pode contribuir para mercados de trabalho inclusivos e taxas de emprego mais elevadas para as pessoas com deficiência;

6. Salienta que as novas possibilidades tecnológicas, como a IA, e a avaliação da eficiência do trabalho não devem conduzir a uma desigualdade no reforço das capacidades tecnológicas e a um futuro digital desumanizado; sublinha que a ética da inovação deve seguir uma abordagem humanista;

7. Considera que deve ser obrigatório informar os utilizadores, incluindo os trabalhadores, e os consumidores sempre que um sistema utilize IA, em especial no que respeita a produtos ou serviços personalizados, e facultar-lhes informações relevantes, numa linguagem clara e simples, sobre todos os aspetos éticos das aplicações de IA que lhes digam respeito, para que possam tomar decisões informadas; salienta a importância de compreender a forma como os algoritmos processam e avaliam os dados e como este processo pode ser limitado ou interrompido; realça a necessidade de desenvolver competências através da formação e da educação dos trabalhadores e dos seus representantes no que diz respeito à IA no local de trabalho, a fim de melhor compreenderem as implicações das soluções de IA;

8. Sublinha que os candidatos e os trabalhadores têm de ser devidamente informados por escrito quando a IA é utilizada no decurso dos processos de recrutamento e na tomada de decisões no domínio dos recursos humanos, bem como sobre os meios disponíveis, nestes casos, para requerer uma revisão humana a fim de reverter uma decisão automatizada;

9. Salienta a necessidade de assegurar que os ganhos de produtividade decorrentes do desenvolvimento e da utilização da IA e da robótica não beneficiem apenas os proprietários das empresas e os acionistas, mas também as próprias empresas e os trabalhadores, através de melhores condições de trabalho e de emprego, incluindo melhores salários, o crescimento económico e o desenvolvimento, beneficiando igualmente a sociedade em geral, especialmente nos casos em que esses ganhos sejam obtidos em detrimento de postos de trabalho; insta os Estados-Membros a analisar atentamente o potencial impacto da IA no mercado de trabalho e nos sistemas de segurança social e a desenvolver estratégias para assegurar uma estabilidade a longo prazo, reformando os impostos e as contribuições sociais e adotando outras medidas para compensar o decréscimo das receitas públicas;

10. Sublinha a importância do investimento das empresas na formação formal e informal e na aprendizagem ao longo da vida, a fim de apoiar a transição justa para a economia digital; salienta, neste contexto, a responsabilidade das empresas que utilizam a IA de proporcionar a todos os trabalhadores em causa oportunidades em matéria de requalificação e melhoria das competências, a fim de aprenderem a utilizar as ferramentas digitais e a trabalhar com «cobôs» (robótica de colaboração inteligente) e outras tecnologias novas, adaptando-se assim à evolução das necessidades do mercado de trabalho e mantendo os seus postos de trabalho;

11. Apela à aplicação do princípio da precaução no que diz respeito às novas tecnologias baseadas na IA; sublinha o princípio fundamental de que os seres humanos devem manter sempre o controlo das máquinas e da IA e as decisões tomadas pela IA devem ser responsáveis, contestáveis e, se necessário, reversíveis; salienta que as normas de segurança e proteção da IA devem ser sempre respeitadas e sublinha a importância de efetuar controlos e verificações regularmente a este respeito para prevenir resultados erróneos da IA; realça, a este respeito, que a responsabilidade no que diz respeito à utilização de IA tem de ser claramente definida, tanto em caso de acidentes de trabalho como em caso de danos provocados a terceiros;

12. Sublinha que a IA deve ser centrada no ser humano, transparente, segura e protegida e deve respeitar os direitos fundamentais e cumprir a legislação e regulamentação aplicável, nomeadamente o Regulamento Geral sobre a Proteção de Dados (RGPD), em todo o ciclo de vida do sistema, em especial quando é aplicada no local de trabalho; apela ao desenvolvimento de um sistema de certificação sólido, baseado em procedimentos de ensaio e orientado pelo princípio da precaução, que permita às empresas demonstrar que os seus produtos de IA respeitam os direitos fundamentais e as normas da União;

13. Recorda que o acervo social e laboral da União se aplica plenamente à IA e insta a Comissão e os Estados-Membros a assegurar uma aplicação adequada e a colmatar quaisquer potenciais lacunas legislativas; assinala que a UE tem potencial para se tornar líder mundial na promoção de uma utilização socialmente responsável da IA;

14. Insiste na importância de uma abordagem europeia comum relativamente aos aspetos éticos da IA; sublinha que qualquer quadro regulamentar nesta matéria deve ser adequado e basear-se numa avaliação de impacto exaustiva por forma a não prejudicar a criação de emprego nem a inovação no futuro; solicita, neste contexto, um quadro regulamentar europeu sobre os aspetos éticos da IA, que seja proporcionado e tenha um enfoque especial no mundo do trabalho, incluindo os direitos dos trabalhadores e as condições de trabalho; considera que deve ser dada especial atenção às novas formas de trabalho, como os serviços pontuais e o trabalho nas plataformas digitais, resultantes da aplicação das novas tecnologias neste contexto; considera que um quadro legislativo que tenha por objetivo regulamentar as condições de teletrabalho em toda a União e assegurar condições dignas de trabalho e de emprego na economia digital deve também ter em conta o impacto da IA; insta a Comissão a consultar a este respeito os parceiros sociais, os criadores de IA, os investigadores e outras partes interessadas;

15. Sublinha que a IA e qualquer legislação conexa não devem de modo algum afetar o exercício dos direitos fundamentais reconhecidos pelos Estados-Membros e a nível da União, nomeadamente o direito à greve ou a tomar outras medidas abrangidas pelos sistemas específicos que regulam as relações industriais nos Estados-Membros, em conformidade com o direito e/ou as práticas nacionais, nem devem afetar o direito à negociação, celebração ou aplicação coerciva de convenções coletivas ou a iniciar ações coletivas, em conformidade com o direito e/ou as práticas nacionais;

16. Sublinha a necessidade de se prestar uma maior atenção aos dados recolhidos no local de trabalho com a ajuda da IA, em particular se forem utilizados para tomar decisões no domínio dos recursos humanos; insta os parceiros sociais ao nível das empresas a analisar e a acompanhar em conjunto a aplicação da IA; exorta a Comissão e os parceiros sociais a analisarem a necessidade de adotar disposições específicas em matéria de proteção de dados no local de trabalho no contexto da IA; salienta que os trabalhadores são os proprietários dos seus dados, mesmo após o termo da relação laboral;

17. Considera que a Agenda de Competências para a Europa deve abordar os desafios de adaptação e aquisição de qualificações e conhecimentos, com vista à transição ecológica e digital, nomeadamente os aspetos éticos da IA; sublinha a necessidade de tornar os aspetos éticos da IA e o desenvolvimento de competências éticas uma parte integrante de todo o ensino e formação profissional dos criadores da IA e das pessoas que com ela trabalham; relembra que os criadores, os programadores, os decisores e as empresas que trabalham com a IA têm de ser sensibilizadas para a sua responsabilidade ética; considera igualmente importante assegurar que os utilizadores finais e os consumidores recebam informações completas e que haja intercâmbios regulares entre todas as partes interessadas a este respeito;

18. Reitera a importância da educação e da aprendizagem contínua para desenvolver as qualificações necessárias na era digital e para combater a exclusão digital; insta os Estados-Membros a investir em sistemas de ensino, formação profissional e aprendizagem ao longo da vida de elevada qualidade, reativos e inclusivos, bem como em políticas de requalificação e de melhoria das competências para os trabalhadores dos setores em que a IA pode ter repercussões mais graves; salienta a necessidade de dotar a mão de obra atual e futura das necessárias competências em literacia, numeracia e literacia digital, bem como de competências nos domínios da ciência, tecnologia, engenharia e matemática (CTEM) e de competências sociais transversais, como o pensamento crítico, a criatividade e o empreendedorismo; sublinha que deve ser dada especial atenção à inclusão de grupos desfavorecidos a este respeito;

19. Sublinha que a IA não deve reforçar os estereótipos e a desigualdade de género, transformando as parcialidades e os preconceitos analógicos em parcialidades e os preconceitos digitais por meio de algoritmos;

20. Destaca a necessidade de assegurar que o desenvolvimento e a implantação e utilização da IA abranjam pessoas de contextos diversos, nomeadamente as mulheres, os jovens, as pessoas de cor e as pessoas com deficiência; recorda que as tecnologias baseadas em IA no local de trabalho devem ser acessíveis a todos, com base no princípio da conceção para todos os utilizadores;

21. Realça que o acesso a soluções de IA está estreitamente ligado ao acesso à Internet de alta velocidade e que, por conseguinte, a cobertura da banda larga deve ser uma prioridade, a fim de evitar a discriminação e a desigualdade de acesso a estas tecnologias;

22. Observa que as oportunidades relativas às soluções de IA dependem dos megadados, sendo necessário desenvolver uma massa crítica de dados para treinar os algoritmos e afinar os resultados; saúda, a este respeito, a proposta da Comissão relativa à criação de um espaço comum de dados na União para reforçar o intercâmbio de dados e apoiar a investigação, respeitando plenamente as regras europeias em matéria de proteção de dados.

 


INFORMAÇÕES SOBRE A APROVAÇÃO NA COMISSÃO ENCARREGADA DE EMITIR PARECER

Data de aprovação

7.9.2020

 

 

 

Resultado da votação final

+:

–:

0:

46

6

1

Deputados presentes no momento da votação final

Atidzhe Alieva-Veli, Abir Al-Sahlani, Marc Angel, Dominique Bilde, Gabriele Bischoff, Vilija Blinkevičiūtė, Andrea Bocskor, Milan Brglez, Sylvie Brunet, David Casa, Leila Chaibi, Margarita de la Pisa Carrión, Özlem Demirel, Klára Dobrev, Jarosław Duda, Estrella Durá Ferrandis, Lucia Ďuriš Nicholsonová, Rosa Estaràs Ferragut, Nicolaus Fest, Loucas Fourlas, Cindy Franssen, Heléne Fritzon, Elisabetta Gualmini, France Jamet, Agnes Jongerius, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Katrin Langensiepen, Miriam Lexmann, Elena Lizzi, Radka Maxová, Kira Marie Peter-Hansen, Dragoș Pîslaru, Manuel Pizarro, Dennis Radtke, Elżbieta Rafalska, Guido Reil, Daniela Rondinelli, Mounir Satouri, Monica Semedo, Beata Szydło, Eugen Tomac, Romana Tomc, Yana Toom, Marie-Pierre Vedrenne, Nikolaj Villumsen, Marianne Vind, Maria Walsh, Stefania Zambelli, Tomáš Zdechovský

Suplentes presentes no momento da votação final

Lina Gálvez Muñoz, Eugenia Rodríguez Palop

 


VOTAÇÃO NOMINAL FINAL NA COMISSÃO ENCARREGADA DE EMITIR PARECER

46

+

ECR

Lucia Ďuriš Nicholsonová, Elżbieta Rafalska, Beata Szydło, Margarita de la Pisa Carrión

GUE/NGL

Leila Chaibi, Özlem Demirel, Eugenia Rodríguez Palop, Nikolaj Villumsen

NI

Daniela Rondinelli

PPE

Andrea Bocskor, David Casa, Jarosław Duda, Rosa Estaràs Ferragut, Loucas Fourlas, Cindy Franssen, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Miriam Lexmann, Dennis Radtke, Eugen Tomac, Romana Tomc, Maria Walsh, Tomáš Zdechovský

Renew

Abir Al‑Sahlani, Atidzhe Alieva‑Veli, Sylvie Brunet, Dragoș Pîslaru, Monica Semedo, Yana Toom, Marie‑Pierre Vedrenne

S&D

Marc Angel, Gabriele Bischoff, Vilija Blinkevičiūtė, Milan Brglez, Klára Dobrev, Estrella Durá Ferrandis, Heléne Fritzon, Lina Gálvez Muñoz, Elisabetta Gualmini, Agnes Jongerius, Manuel Pizarro, Marianne Vind

Verts/ALE

Katrin Langensiepen, Kira Marie Peter‑Hansen, Mounir Satouri

 

6

-

ID

Dominique Bilde, Nicolaus Fest, France Jamet, Elena Lizzi, Guido Reil, Stefania Zambelli

 

1

0

Renew

Radka Maxová

 

Legenda dos símbolos utilizados:

+ : votos a favor

- : votos contra

0 : abstenções

 

 

 


 

 

PARECER DA COMISSÃO DO AMBIENTE, DA SAÚDE PÚBLICA E DA SEGURANÇA ALIMENTAR (16.9.2020)

dirigido à Comissão dos Assuntos Jurídicos

que contém recomendações à Comissão sobre um quadro para os aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas

(2020/2012(INL))

Relator de parecer: Adam Jarubas

(Iniciativa – artigo 47.º do Regimento)

 

 

SUGESTÕES

A Comissão do Ambiente, da Saúde Pública e da Segurança Alimentar insta a Comissão dos Assuntos Jurídicos, competente quanto à matéria de fundo:

 a incorporar as seguintes sugestões na proposta de resolução que aprovar:

A. Considerando que a União se baseia nos valores consagrados no artigo 2.º do Tratado da União Europeia e no respeito pelo princípio da precaução consagrado no artigo 191.º, n.º 2, do Tratado sobre o Funcionamento da União Europeia;

B. Considerando que o artigo 16.º do TFUE prevê que todas as pessoas têm direito à proteção dos seus dados pessoais; que o artigo 22.º do Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho[37] se refere à situação em que os dados apenas são utilizados para tratamento automatizado e reconhece o direito do titular dos dados a não ficar sujeito a nenhuma decisão tomada exclusivamente com base no tratamento automatizado;

C. Considerando que a concorrência mundial pela liderança no desenvolvimento da inteligência artificial (IA), que afetará a fonte de normas e valores éticos que moldam o setor a nível mundial, está a acelerar e a União Europeia deve dar o exemplo ao resto do mundo, com um quadro regulamentar adequado que previna nomeadamente um potencial nivelamento por baixo da regulamentação nacional;

D. Considerando que esta concorrência mundial não deve ser separada das normas e dos valores éticos;

E.  Considerando que um avanço rápido da investigação e inovação suscitou várias questões éticas, jurídicas e sociais importantes que afetam a relação entre a ciência e a sociedade; que esta investigação e inovação deve respeitar os princípios éticos e a legislação nacional, da União e internacional pertinente, nomeadamente a Carta dos Direitos Fundamentais da União Europeia e a Convenção Europeia para a Proteção dos Direitos Humanos e das Liberdades Fundamentais, de acordo com o que dispõem os programas de investigação europeus;

F. Considerando que a integração dos megadados e das tecnologias de IA nos sistemas de saúde públicos e noutros setores deve ser acompanhada por regras, normas e legislação adequadas que protejam os direitos fundamentais das pessoas e resolvam estes novos desafios éticos;

G. Considerando que existe atualmente um défice significativo em termos de patentes e investimentos na União em comparação com outros pontos do mundo;

H. Considerando que a IA e outras soluções digitais emergentes podem beneficiar a sociedade nos domínios da transição ecológica, da proteção do ambiente e da biodiversidade, do aumento da eficiência da agricultura, da gestão dos resíduos, da economia circular, da atenuação e adaptação às alterações climáticas, da ecologização de vários processos industriais, da gestão e eficiência energética e dos transportes, da qualidade da água e do ar (por exemplo, redes inteligentes e eletromobilidade), da gestão dos riscos e da observação da Terra, em que o programa Copernicus da União é um dos melhores, entre outros;

I. Considerando que a IA pode ser aplicada a praticamente todos os domínios da medicina: na investigação biomédica, como exemplificado pelo antibiótico Halicin, descoberto pela IA, ou pelas contribuições da IA para a prevenção do cancro, no diagnóstico mais precoce e mais preciso e nas novas terapias com métodos como a medicina preditiva ou genómica, no ensino da medicina, na assistência aos cuidadores, no apoio aos cuidados a idosos, na monitorização do estado dos doentes, no desenvolvimento mais eficiente de medicamentos, em tratamentos mais específicos, na tomada de decisões clínicas, na medicina personalizada, no diagnóstico e no tratamento psiquiátricos, na revolução a nível das próteses robóticas e dos sistemas de apoio, na telemedicina, na telecirurgia e no reforço da eficiência e interoperabilidade geral dos sistemas de saúde;

J.  Considerando que o progresso digital requer uma formação e preparação adequadas dos profissionais de saúde e do pessoal administrativo para evitar um fosso digital, tendo simultaneamente em conta o envelhecimento das nossas sociedades e os potenciais desafios para os sistemas de saúde;

K. Considerando que existem sérias preocupações éticas com a autonomia das máquinas;

L. Considerando que a saúde digital não deve desumanizar os cuidados e não deve diminuir a relação médico‑doente, mas prestar assistência aos médicos para diagnósticos e/ou tratamentos mais eficazes dos doentes;

M. Considerando que as tecnologias de IA acelerarão a transformação digital da indústria e desempenharão um papel essencial no êxito da economia digital num mundo cada vez mais conectado;

N. Considerando que o quadro jurídico e as orientações éticas atuais da União geriram já alguns desafios éticos relacionados com as aplicações da IA, indicados no Livro Branco da Comissão sobre a inteligência artificial, por exemplo, os processos de avaliação dos riscos das soluções de saúde baseadas na inteligência artificial instituídos no mercado único; que outras áreas estão atrasadas em relação aos desafios éticos que importa identificar e mitigar, dada a capacidade enorme da IA de pôr em causa as preferências, a segurança e a privacidade do doente; que é necessário definir as fronteiras entre o papel dos profissionais de saúde e profissionais de prestação de cuidados e o papel das máquinas nos cuidados prestados aos doentes, incluindo o princípio da autonomia supervisionada dos robôs; que é necessário educar tanto os profissionais de saúde como os doentes;

O. Considerando que as regras da União em matéria de proteção de dados devem ser adaptadas a fim de ter em conta a crescente complexidade e interconectividade dos robôs de prestação de cuidados e dos robôs médicos, que podem ser levados a gerir informações pessoais e dados de saúde altamente sensíveis e devem respeitar o requisito da privacidade desde a conceção, conforme previsto pelo Regulamento (UE) 2016/679 relativo à proteção de dados;

P. Considerando que as soluções que salientam a necessidade de incluir a investigação científica como base para as estratégias de desenvolvimento, criando repositórios de dados médicos (por exemplo, dados neurológicos e cardíacos) e partilhando os dados desta investigação, podem produzir benefícios sociais tangíveis no contexto da segurança e da saúde públicas;

Q. Considerando que as soluções de IA podem beneficiar a sociedade no domínio da segurança alimentar, por exemplo, reduzindo a utilização de pesticidas, apoiando a agricultura de precisão ou, mais geralmente, a Agricultura 2.0, em que a União está entre os líderes em aplicações de IA (por exemplo, ajustamentos automatizados das máquinas de acordo com as previsões meteorológicas ou para a identificação de doenças), que permitirão combinar uma produção mais eficaz com normas ambientais mais elevadas e uma melhor utilização dos recursos, especialmente nas áreas onde os recursos hídricos são escassos e as alterações climáticas têm impactos graves, como é necessário de acordo com as prioridades do Pacto Ecológico;

R. Considerando que o âmbito desse enquadramento deve ser adequado, proporcional e avaliado de forma exaustiva; que deve abranger uma vasta gama de tecnologias e os respetivos componentes, incluindo os algoritmos, o software e os dados utilizados ou produzidos pela IA; que é necessária uma abordagem direcionada baseada no conceito de alto risco, para não impedir as inovações futuras de proporcionar aos cidadãos os benefícios das aplicações da IA, por exemplo, nos domínios dos cuidados de saúde, da proteção do ambiente e da qualidade dos alimentos;

S. Considerando que é essencial identificar meios para garantir que as tecnologias digitais são de confiança, permitindo colher os seus benefícios e, simultaneamente, proteger os direitos fundamentais e incentivar o desenvolvimento de sociedades informais, abertas, tolerantes e justas; que isto é particularmente importante no caso dos sistemas híbridos de inteligência humana/artificial;

T. Considerando que as máquinas robóticas esbatem as fronteiras entre os seres humanos e os objetos tecnológicos; que as máquinas robóticas não só têm implicações para a sociedade que têm de ser avaliadas do ponto de vista ético, mas também desafiam os próprios quadros éticos com base nos quais hão de ser avaliadas; que, como recorda o relatório da Comissão Mundial de Ética do Conhecimento Científico e das Tecnologias (COMEST), importa prestar especial atenção à utilização de robôs médicos, robôs enfermeiros, robôs cuidadores de idosos e robôs de companhia;

U. Considerando que a utilização de robôs sociais e de robôs de companhia está a aumentar rapidamente no domínio dos cuidados de saúde e, sobretudo, no domínio dos cuidados às pessoas idosas; considerando que os robôs cuidadores de idosos e os robôs de companhia podem assumir um papel funcional e emocional; que esses robôs podem ter um papel a desempenhar para reduzir a solidão das pessoas idosas, prevenir os comportamentos associados à demência, estimular as atividades cognitivas das pessoas com uma doença neurodegenerativa ou executar determinadas tarefas do quotidiano que são difíceis para as pessoas idosas; que os robôs de companhia podem, assim, provocar sentimentos falsos, ilusórios e não recíprocos, enganando e infantilizando as pessoas idosas;

V. Considerando que os robôs de companhia podem cada vez mais ser utilizados para fins sexuais; que a utilização de robôs sexuais que têm a aparência de crianças ou que estão programados para serem abusados tem implicações éticas particularmente preocupantes;

Um quadro jurídico e ético para a IA:

1. Salienta que a União deve tomar todas as medidas necessárias para garantir que os seus valores éticos, tal como consagrados no acervo, sejam efetivamente aplicados no seu território a todos os domínios da IA e para promover as suas normas em todo o mundo; salienta, neste contexto, que a evolução tecnológica no domínio da IA deve ser sempre para o benefício da humanidade;

2. Sublinha que a União deve tomar todas as medidas necessárias para aumentar a confiança da sociedade no desenvolvimento e na aplicação da IA, da robótica e das tecnologias conexas, por causa do impacto significativo que estas tecnologias podem ter nos cidadãos; solicita à Comissão que siga as orientações em matéria de ética sobre uma IA de confiança e proponha medidas adequadas para garantir que essas tecnologias não produzam resultados injustamente parciais para os cidadãos;

3. Salienta que um ecossistema de IA de confiança, baseado na lei, no que se refere quer às aplicações de proteção ambiental, quer às de saúde ou de segurança alimentar, facultado pelo quadro ético da União em matéria de IA, reforçará a segurança jurídica e a previsibilidade, incentivará a participação das partes interessadas, aumentará o volume de dados cedidos e a aceitação do mercado, permitirá economias de escala e apoiará um ecossistema de excelência nesses setores; considera que tal reforçará a competitividade global do setor da IA da União e o potencial para promover os valores e as normas da União;

4 Observa que, devido ao facto de as regulamentações jurídicas responderem melhor aos desafios bem definidos atuais e devido ao desenvolvimento rápido da IA, que cria uma incerteza quanto ao futuro, um quadro ético comum da União para a IA, bem ancorado do ponto de vista jurídico e com meios de coerção, expandirá um ecossistema de confiança para todas as partes interessadas, tal como definido no Livro Branco da Comissão, em particular, no que se refere às aplicações nos domínios da proteção ambiental ou da saúde pública, da criação de ambientes mais saudáveis, de melhores recursos e serviços de cuidados de saúde ou da segurança alimentar, apoiando assim o ecossistema de excelência na segurança jurídica e na previsibilidade e dando uma resposta eficaz aos desafios ainda não definidos, por exemplo, nos tribunais, nas reuniões de administração ou nos laboratórios científicos;

5. Observa que a definição de IA exige mais trabalho; sublinha, por conseguinte, a importância de uma abordagem centrada no ser humano e de uma revisão periódica dos progressos em matéria de IA e do quadro ético, para promover uma regulamentação pró‑ativa e garantir a sua aplicabilidade no tempo e com a evolução nesta área; sublinha que existem muitos níveis de risco que evoluem ao longo do tempo com o progresso das tecnologias de IA; salienta a necessidade de um quadro legislativo proporcionado, que deve evoluir de acordo com a rapidez do progresso tecnológico; salienta que o programa Copernicus pode ser uma referência de boas práticas no que respeita ao desenvolvimento de grandes conjuntos de dados de alta qualidade para introduzir nos modelos de IA;

6. Salienta a necessidade de um quadro regulamentar que estipule os princípios éticos a aplicar à conceção, ao desenvolvimento, à implementação e ao funcionamento desta tecnologia – desde o acesso aos dados até à monitorização rigorosa dos resultados;

7. Sublinha que deve encontrar‑se uma abordagem equilibrada em relação à regulamentação, garantindo antes de mais que os nossos valores não sejam comprometidos e, simultaneamente, evitando criar encargos administrativos desnecessários, especialmente para as PME e as «startups»; salienta, a este respeito, que a concorrência mundial no domínio da IA nem sempre segue os mesmos princípios éticos que a União; salienta que a IA e as tecnologias associadas não devem ser remetidas apenas para uma autorregulação «leve»; considera essencial que seja necessário um quadro legislativo da União proporcionado e incentivador; salienta que muitos países terceiros estão a trabalhar no seu quadro ético e que existem múltiplas propostas a nível mundial; está ciente de que a principal dificuldade em relação aos princípios éticos pode residir na sua aplicação e não na sua existência;

8. Partilha a opinião de que os sete requisitos em matéria de IA identificados nas Orientações éticas para uma IA fiável do Grupo de Peritos de Alto Nível em Inteligência Artificial constituem uma base sólida para um quadro ético comum da União no domínio da IA, com uma base jurídica adequada, que, por exemplo, regule os aspetos éticos das aplicações de IA no domínio do ambiente, da saúde e da proteção alimentar; solicita que se melhore o acervo em matéria de transparência, rastreabilidade e supervisão humana, que foram assinaladas como áreas a melhorar nos comentários feitos por 350 organizações a propósito das Orientações; incentiva, além disso, que o quadro ético para a IA da União seja criado com um espírito de abertura ao trabalho dos outros parceiros internacionais que partilham dos valores da União, por exemplo, a ONU, o Conselho da Europa com as suas Linhas Diretrizes sobre a inteligência artificial e a proteção de dados de 2019[38], a carta ética europeia sobre a utilização da inteligência artificial no âmbito dos sistemas judiciais e o trabalho do seu centro de investigação jurídica, o Comité Ad Hoc sobre a Inteligência Artificial (CAHAI), os Princípios em matéria de IA[39] assinados pelos membros da OCDE em maio de 2019, a Declaração Ministerial do G20 de 2019 sobre o comércio e a economia digital, cujo anexo contém os princípios em matéria de IA, e a Iniciativa Global IEEE para Considerações Éticas em Inteligência Artificial e Sistemas Autónomos[40];

9.  Apoia resolutamente a Comissão na criação de um quadro ético comum da União em matéria de IA para colmatar as lacunas causadas pela fragmentação do mercado interno da IA, incluindo no que se refere à investigação, inovação e capacidade técnica em matéria de aplicações nos domínios do ambiente, da saúde pública, dos cuidados de saúde e da segurança alimentar, e para impedir a duplicação das normas nos Estados‑Membros para a IA desenvolvida na União e fora da União, nomeadamente em domínios como a gestão dos dados dos consumidores, a proteção e a privacidade nas redes inteligentes, a gestão de resíduos, a igualdade de acesso aos serviços e às tecnologias, as normas de relacionamento doente‑médico, a legislação em matéria de proteção de dados e privacidade, incluindo a sua interação com as atividades de investigação e o desenvolvimento de fármacos, a responsabilidade civil na prestação de cuidados de saúde públicos assistidos por IA, a responsabilidade civil relativamente a veículos ou máquinas autónomos; observa que, a nível nacional, a legislação dos Estados‑membros não contém regras harmonizadas em matéria de responsabilidade que sejam aplicáveis em caso de dano ou lesão resultante de tecnologias digitais e comportamentais; solicita uma ancoragem e um posicionamento jurídicos adequados desse quadro ético da União em matéria de IA;

10. Recorda, neste contexto, que a Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, sobre disposições de Direito Civil sobre Robótica[41], solicitou à Comissão que ponderasse a criação de uma Agência Europeia da Robótica e da Inteligência Artificial que, nomeadamente, assegure uma abordagem harmonizada a nível da União, desenvolva critérios comuns e um processo de candidatura relacionado com a atribuição de um certificado europeu de conformidade ética e dê resposta às novas oportunidades e aos novos desafios, principalmente de natureza transfronteiriça, derivados da evolução tecnológica em curso; solicita à Comissão que reflita sobre se os organismos e instituições da União existentes são suficientes para essas funções ou se é necessário criar um novo organismo para a inteligência artificial;

11. Considera que importa garantir, na União, o mesmo nível de proteção para todas as aplicações de IA, quer sejam desenvolvidas na União, quer fora da União, tal como acontece com todas as outras tecnologias, incluindo vias de recurso judicial para as partes negativamente afetadas pelos sistemas de IA, sendo simultaneamente necessário permitir que a inovação tecnológica continue a desenvolver‑se; considera, além disso, que esta área de risco da IA é crucial, por exemplo, para os serviços de saúde, os transportes em veículos autónomos e a segurança alimentar; solicita uma repartição clara das obrigações, dos direitos e das responsabilidades entre os operadores económicos envolvidos na entrega de aplicações de IA, atribuindo cada obrigação ao(s) interveniente(s) mais bem posicionado(s) para resolver eventuais riscos, quer se trate do programador, do responsável pela instalação, do produtor, do distribuidor ou importador, do prestador de serviços ou do utilizador profissional ou privado, e solicita, neste contexto, uma revisão adequada da legislação da UE pertinente, por exemplo, a Diretiva Responsabilidade dos Produtos, bem como a harmonização da legislação nacional; apoia a posição da Comissão expressa no Livro Branco de que, devido à complexidade dos sistemas de IA, a garantia de um nível eficaz de proteção e de recurso poderá exigir uma adaptação do ónus da prova exigido pelas regras nacionais em matéria de responsabilidade pelos danos causados pelo funcionamento de aplicações de IA; considera que a clareza em relação à responsabilidade jurídica no setor da IA reforçará a aplicação dos valores éticos da União integrados no seu acervo, a segurança jurídica e a previsibilidade, bem como a aceitação social, apoiando o desenvolvimento de um ecossistema de IA da União de excelência através de uma congregação de investidores e do aumento da aceitação do mercado;

12. Salienta que muitas das propostas apresentadas por países que não são membros da União e por organizações Internacionais giram em torno de princípios ou conceitos comuns da IA, nomeadamente: IA centrada no ser humano, fiabilidade, respeito pela autonomia humana, prevenção de danos, equidade e «não deixar ninguém para trás», bem como explicabilidade; considera que seria altamente desejável um quadro de ética internacional em torno destes princípios; manifesta a sua preocupação de que o progresso e as inovações no domínio da IA levem a desigualdades sociais caso não sejam tomadas medidas; solicita, por conseguinte, à Comissão e aos Estados‑Membros que adotem as medidas necessárias para não deixar ninguém para trás na transição para uma Europa digital e garantam um acesso justo, económico e equitativo a estas inovações, sobretudo em domínios como os cuidados de saúde;

13. Recomenda que a abordagem baseada no risco seja complementada por uma avaliação do impacto algorítmico com base em informações, por exemplo, da análise do impacto regulamentar, do procedimento de avaliação do risco do RGPD e da avaliação do impacto nos direitos humanos, e que os resultados sejam publicamente consultáveis;

14. Congratula‑se com o facto de a metodologia da abordagem baseada no risco definida no Livro Branco da Comissão de 19 de fevereiro de 2020[42] reconhecer os cuidados de saúde, os transportes e a energia como setores de risco elevado por definição, introduzindo uma lista de requisitos em matéria de IA superiores às regras da União existentes nesses setores, a menos que a forma como a IA é utilizada não comporte riscos significativos; salienta que o quadro ético da União em matéria de IA deve tratar em especial dos setores de alto risco acima referidos;

15. Solicita procedimentos claros, objetivos e transparentes a nível da União para o estabelecimento de um catálogo público de aplicações de IA de alto risco, que implica um mecanismo de revisão e atualização periódicas; solicita que se pondere, nestes procedimentos, para todas as aplicações de IA em todos os domínios, colocar o ónus da prova na entidade que pretende desenvolver ou disponibilizar o sistema de IA, a fim de manter o catálogo aberto à inovação e de evitar ignorar o risco de classificar as aplicações de IA como aplicações que não são de alto risco;

16. Considera que existem riscos de parcialidade e discriminação no desenvolvimento, na disponibilização e na utilização da inteligência artificial, da robótica e das tecnologias conexas de alto risco, incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias; recorda que, em todas as circunstâncias, essas tecnologias devem respeitar a dignidade humana e garantir a igualdade de tratamento para todos; considera que essa eventual parcialidade pode ser resolvida definindo regras relativas ao tratamento de dados e instituindo salvaguardas adequadas contra a parcialidade e a discriminação com base em fatores sociais, económicos, étnicos, raciais, sexuais, de género, de deficiência ou outros; adverte contra uma possível utilização abusiva das aplicações de diagnóstico de IA e solicita salvaguardas de capacidade e motivacionais da IA;

17 Congratula‑se com a iniciativa de rotulagem voluntária para AI que não é de alto risco;

18. Recomenda a adoção de medidas para incentivar a participação de todas as partes interessadas na ética da IA do setor privado, dos grupos de consumidores e das universidades na formulação de um código de ética adaptado à evolução tecnológica, social e política;

19. Salienta que os robôs utilizam, para tomar decisões, algoritmos que integram valores e quadros de ética e que a sua introdução tem implicações éticas significativas nos domínios dos cuidados de saúde e das relações sociais; está particularmente preocupado com a utilização de robôs de companhia para fins de pedofilia e de abuso sexual; entende que a conceção de tecnologias de robótica deve ter em conta os aspetos de ética; solicita que o processo de desenvolvimento destas máquinas tenha as questões de ética em consideração, baseando‑se numa abordagem como a da conceção sensível aos valores, nomeadamente no que diz respeito aos robôs cuidadores de idosos e aos robôs de companhia; sublinha que esta abordagem deve também ser adaptada para ter em conta o bem‑estar dos animais;

20. Sublinha que, para além de requisitos regulamentares claros em matéria de prestação de contas e responsabilidade, é também necessário assegurar a transparência algorítmica, para que seja possível identificar o momento em que «as coisas correram mal» e permitir a intervenção oportuna de peritos; entende que a transparência algorítmica é crucial para prevenir situações em que as decisões médicas sejam tomadas num ambiente de tipo «caixa negra»; sublinha que os algoritmos de tipo caixa negra que tomam decisões inexplicáveis são inaceitáveis em qualquer setor, mas que, num contexto em que as decisões tomadas por IA têm impacto em decisões sobre a vida ou a morte, as consequências de falhas algorítmicas podem ser graves; solicita à Comissão e aos Estados‑Membros que encetem um diálogo com as principais partes interessadas das áreas da medicina, da informática, da matemática, da física, da tecnologia de dados médicos, da psicologia clínica, da bioengenharia e do setor farmacêutico, para criar plataformas propícias ao diálogo e avaliar o impacto na relação médico‑doente e a questão da desumanização dos cuidados médicos;

21. Apela a iniciativas orientadoras da União que promovam algoritmos interpretáveis, a IA eXplicável (xAI), a IA com raciocínio simbólico e as técnicas de teste de IA de caixa branca, demonstrando que estas tecnologias podem ser combinadas com redes neurais profundas e apresentando as suas vantagens jurídicas, éticas e muitas vezes comerciais, e que promovam também métodos de determinação dos riscos associados a diferentes opções tecnológicas, utilizando, por exemplo, a experiência da autoridade britânica de proteção dos dados («Information Commissioner's Office») e as orientações de «The Alan Turing Institute» intituladas «Explaining decisions made with AI» (Explicação de decisões tomadas por meio de IA), demonstrando que até mesmo os sistemas neurais de IA altamente complexos podem ser suficientemente interpretados;

22. Solicita que se garanta a transparência, a responsabilidade, a auditabilidade, a previsibilidade e a prestação de contas, dado que os cidadãos, os doentes e os utilizadores devem ser informados, sempre que interajam com um sistema que utilize inteligência artificial, através de explicações claras e compreensíveis dos dados utilizados, do funcionamento do algoritmo, da sua finalidade, dos seus resultados e dos seus potenciais perigos; sublinha que a transparência e a explicabilidade são essenciais para garantir a confiança nestas tecnologias; considera que a explicação deve ser complementada pela auditabilidade e rastreabilidade, uma vez que o respeito destes princípios é uma maneira de garantir a prestação de contas; salienta que as aplicações de IA podem ter um desempenho superior ao do ser humano em tarefas específicas limitadas, falhando em análises mais globais; apela à supervisão humana, à responsabilidade profissional e à previsibilidade dos sistemas, com a capacidade para se sobrepor ao sistema de IA;

23. Entende que qualquer pessoa singular ou coletiva deve poder recorrer de uma decisão proferida com recurso a IA, robótica ou tecnologia conexa de alto risco que lhe seja desfavorável, e que qualquer decisão tomada por IA deve ser sujeita a verificação humana rigorosa e a um processo equitativo; sugere que se introduza salvaguardas relacionadas com a utilização de inteligência artificial, robótica e tecnologias conexas de alto risco no âmbito das decisões dos poderes públicos, incluindo a avaliação periódica e a eventual revisão do quadro regulamentar para acompanhar a evolução tecnológica; sugere a elaboração de orientações vinculativas sobre a metodologia da avaliação da conformidade a seguir pelas autoridades nacionais de supervisão e a criação de orientações não vinculativas dirigidas aos programadores, aos responsáveis pela instalação e aos utilizadores;

24. Congratula‑se com uma estratégia europeia para os dados que aborde os desafios que a União tem por diante neste domínio tão essencial para os progressos da IA e que procure oportunidades europeias de assegurar vantagens concorrenciais na nova economia dos dados, sobretudo no setor crescente dos dados descentralizados e não pessoais provenientes da indústria, das empresas e do setor público, bem como de dispositivos situados no perímetro da rede, que deverá constituir 80 % de 175 zettabytes em 2025 e inverter as proporções atuais;

25. Solicita que se garanta um financiamento suficiente para a transformação da União no domínio da IA; apoia a ambição expressa no Livro Branco da Comissão de, nos próximos 10 anos, atrair 200 mil milhões de euros em investimento público e privado para a IA na União; congratula‑se com a atenção dada aos défices em ecossistemas de IA nas regiões menos desenvolvidas e às necessidades das PME e das «startups»; solicita à Comissão que identifique os défices de infraestruturas públicas e facilite o financiamento da IA nos domínios da atenuação e adaptação às alterações climáticas, das energias renováveis e da saúde e facilite um acesso geograficamente equilibrado a todos os fundos para a IA, nomeadamente para as PME e as «startups»; salienta que os novos objetivos da União não devem diminuir o empenho da União nas suas prioridades permanentes, como a PAC, a política de coesão, o Pacto Ecológico e o Plano de Recuperação da COVID‑19 «Next Generation EU»;

26 Insta a Comissão a promover e financiar o desenvolvimento de inteligência artificial, robótica e tecnologias conexas centradas no ser humano que respondam aos desafios ambientais e climáticos e garantam a igualdade de acesso e o usufruto dos direitos fundamentais através da utilização de incentivos fiscais, de incentivos na área da contratação pública ecológica ou outros incentivos;

Pegada de carbono da IA:

27. Observa que, no seu pacote digital publicado em 19 de fevereiro de 2020, a Comissão afirma que as TIC são responsáveis, atualmente, por 5 % a 9 % do consumo de eletricidade a nível mundial e por 2 % das emissões de CO2 e que o volume de dados transferidos e armazenados continuará a aumentar exponencialmente nos próximos anos, e que são necessárias soluções nesta matéria; observa ainda que o estudo de 2018 do Centro Comum de Investigação intitulado «Artificial Intelligence/A European Perspective» [Inteligência artificial – Uma perspetiva europeia] estima que os centros de dados e a transmissão de dados poderão ser responsáveis por 3 % a 4 % de todo o consumo de energia da União;

28. Congratula‑se com o facto de a estratégia digital europeia propor medidas de transformação ecológica para os setores digitais;

29. Salienta que, apesar da elevada pegada de carbono atual da aprendizagem profunda e da IA elas mesmas, essas tecnologias podem contribuir para a redução da pegada ambiental atual do setor das TIC e para o desenvolvimento da IA, da robótica, das decisões automatizadas e da aprendizagem automática; sublinha que essas e outras tecnologias conexas devidamente regulamentadas deverão ser fatores determinantes para atingir os objetivos do Pacto Ecológico, os Objetivos de Desenvolvimento Sustentável das Nações Unidas e o Acordo de Paris em muitos setores diferentes e deverão potenciar o impacto das políticas de proteção do ambiente, por exemplo, no que se refere à redução de resíduos e à degradação ambiental;

30. Insta a Comissão a realizar um estudo sobre o impacto da pegada carbónica das tecnologias de IA e sobre os impactos positivos e negativos da transição para utilização das tecnologias de IA pelos consumidores;

31. Observa que, dado o desenvolvimento crescente de aplicações de IA, que exigem recursos computacionais, de armazenamento e energéticos, o impacto ambiental dos sistemas de IA deve ser analisado ao longo do respetivo ciclo de vida;

Impacto da IA no setor da saúde e nos direitos dos doentes:

32. Reconhece o papel importante que a IA pode ter na área da saúde e salienta que as aplicações de IA na área da saúde devem ter sempre por objetivo maximizar as oportunidades que delas podem advir, por exemplo, a melhoria da saúde dos doentes e do desempenho dos sistemas de saúde públicos dos Estados‑Membros, sem baixar as normas de ética e sem comprometer a privacidade ou a segurança dos cidadãos;

33. Congratula‑se com o compromisso da Comissão, expresso no Livro Branco, de examinar os desafios em matéria de segurança e responsabilidade que são específicos do setor dos cuidados de saúde, por exemplo, os sistemas de IA que fornecem informações médicas especializadas aos médicos ou diretamente aos doentes ou os sistemas de IA que executam eles mesmos diretamente tarefas médicas num doente; solicita um exame correspondente dos outros setores enumerados que são, por definição, setores de alto risco;

34. Entende que, em domínios como a saúde, a responsabilidade deve caber, em última instância, a uma pessoa singular ou coletiva; salienta a necessidade de dados rastreáveis e publicamente disponíveis para treinar os algoritmos;

35. Insta a Comissão a iniciar um diálogo setorial aberto e transparente que dê prioridade aos cuidados de saúde, a fim de apresentar um plano de ação para facilitar o desenvolvimento, a testagem e a introdução da IA na investigação e na inovação e a sua ampla aplicação nos serviços públicos de saúde;

36. Adverte contra tentativas de atribuir às máquinas qualquer tipo de «personalidade» que possa resultar na exclusão da responsabilidade humana em caso de erros de tratamento;

37. Apoia firmemente a criação de um espaço europeu de dados de saúde[43], conforme proposto pela Comissão, que visa promover o intercâmbio de dados de saúde e apoiar a investigação no pleno respeito da proteção dos dados, incluindo o tratamento de dados com tecnologias de IA, e que reforça e alarga a utilização e a reutilização dos dados de saúde; solicita que se intensifique o intercâmbio transfronteiras de dados de saúde, a sua ligação e a sua utilização, através de repositórios federados, seguros, de tipos específicos de informações de saúde, tais como os registos de saúde europeus, as informações genómicas e imagens médicas digitais, para facilitar bases de dados ou registos interoperáveis a nível europeu em domínios como a investigação, a ciência e a saúde;

38. Salienta que os doentes devem saber quando estão a interagir com um profissional humano e quando não estão; insiste que os doentes devem ter a liberdade de decidir sobre esta interação, devendo ser‑lhes oferecida uma alternativa de igual qualidade;

39. Considera que, sobretudo no setor da saúde, as aplicações móveis podem ajudar a monitorizar as doenças e é útil a presença de robôs para apoiar o trabalho dos médicos e dos auxiliares de saúde, a fim de melhorar o diagnóstico e o tratamento, assegurando simultaneamente que a prática da medicina e as práticas de prestação de cuidados aos doentes não sejam desumanizadas;

40. Solicita uma interoperabilidade normalizada das aplicações de saúde em linha na União e a criação de um acesso comum europeu aos dados para as receitas, os diagnósticos e os relatórios médicos, acessível de forma simples a todos os cidadãos da União e em todos os Estados‑Membros;

41. Reitera que as oportunidades e os riscos inerentes a estas tecnologias têm uma dimensão global que exige uma abordagem harmonizada e coerente a nível internacional; solicita à Comissão que trabalhe nos contextos bilaterais e multilaterais para defender e garantir a conformidade ética;

42. Realça os benefícios da IA para a prevenção, o tratamento e o controlo de doenças, exemplificados pela previsão da epidemia de COVID‑19 pela IA antes da OMS; insta a Comissão a dotar adequadamente o ECDC do quadro jurídico e dos recursos para recolher, de forma independente em articulação com os Estados‑Membros, os dados de saúde globais em tempo real anonimizados necessários para, por exemplo, resolver os problemas revelados pela pandemia de COVID‑19;

43. Salienta que a utilização de tecnologias de localização e de rastreio de contactos pelos poderes públicos durante a pandemia de COVID‑19 e outras potenciais emergências sanitárias pode ser incompatível com a proteção de dados; recorda, neste contexto, a Comunicação da Comissão, de 17 de abril de 2020, intitulada «Orientações respeitantes a aplicações móveis de apoio à luta contra a pandemia de COVID‑19 na perspetiva da proteção de dados»[44] e a necessidade de observar os requisitos de proporcionalidade, limitação temporal, alinhamento com os valores europeus e respeito da dignidade humana e dos direitos fundamentais;

44. Considera que a IA e a robótica podem proporcionar melhorias consideráveis no controlo dos dispositivos médicos e facilitar o trabalho quotidiano dos profissionais de saúde; considera que, no caso dos dispositivos médicos críticos, é necessário dispor de um sistema de salvaguarda que monitorize e salvaguarde a funcionalidade do dispositivo numa eventual situação de interferência, e que é necessário ter em consideração e atenuar possíveis ciberameaças ao controlo desses dispositivos; salienta que, para além dos piratas informáticos e das ameaças externas, as ciberameaças também podem ter origem em erros humanos ou erros de sistema, e que é necessário dispor de sistemas de salvaguarda adequados e operacionais; considera, além disso, que a União deve criar um roteiro para o desenvolvimento de sistemas de salvaguarda de IA para resolver os possíveis problemas resultantes da ocorrência de erros nos controlos dos sistemas de IA;

45. Salienta que as normas de segurança estabelecidas no Regulamento (UE) 2017/745 do Parlamento Europeu e do Conselho[45] podem não ser suficientes para os desafios dos sistemas de IA; solicita à Comissão que monitorize os desafios neste domínio e apresente as propostas que sejam necessárias;

46. Salienta a necessidade de garantir que os dispositivos médicos baseados na IA cumpram os requisitos de segurança e de desempenho previstos no Regulamento (UE) 2017/745; solicita à Comissão e aos Estados‑Membros que garantam que o Regulamento (UE) 2017/745 seja aplicado no que respeita a estas tecnologias; considera que são necessárias novas orientações e especificações para a avaliação da segurança e da eficácia dos dispositivos que funcionam à base de software, IA e aprendizagem profunda ao longo de todo o ciclo de utilização;

47. Solicita que se garanta um domínio de competências mais claro e um financiamento suficiente da EMA e das autoridades nacionais competentes responsáveis pelos medicamentos, para apoiar a inovação e os aspetos de saúde pública relacionados com a IA no ciclo de vida dos medicamentos, nomeadamente para recolher e analisar dados de saúde reais que possam gerar evidências adicionais sobre os medicamentos, para apoiar a I&D e otimizar a utilização segura e eficaz dos medicamentos existentes, no interesse dos doentes e dos sistemas de saúde europeus;

48. Insiste em que nem as companhias de seguros nem qualquer outro tipo de prestador de serviços sejam autorizados a utilizar dados de sistemas de saúde em linha para praticar discriminações na fixação dos preços, uma vez que isto é contrário ao direito fundamental ao nível de saúde mais elevado possível;

IA e proteção de dados:

49.  Congratula‑se com a revisão[46] recentemente publicada pela Comissão do Regulamento (UE) 2016/679, e observa que a legislação dos Estados‑Membros segue abordagens diferentes, ao aplicar as derrogações à proibição geral do tratamento de categorias especiais de dados pessoais, no que se refere ao nível de especificação e às salvaguardas, nomeadamente para fins de saúde; afirma, pois, que, em última instância, a responsabilidade pela decisão deve ser humana, sobretudo em setores em que está muito em jogo e os riscos são elevados, como o da saúde;

50. Congratula‑se com a intenção da Comissão de acompanhar a aplicação do Regulamento (UE) 2016/679 às novas tecnologias, nomeadamente em possíveis iniciativas futuras no domínio da inteligência artificial e no âmbito da Estratégia para os Dados, e apoia o pedido da Comissão ao Comité Europeu para a Proteção de Dados para publicar orientações sobre a aplicação do Regulamento (UE) 2016/679 nos domínios da investigação científica, da IA, da tecnologia de cadeia de blocos e de outras eventuais evoluções tecnológicas;

51. Solicita que se capacite os cidadãos e os doentes relativamente aos seus dados pessoais e se garanta o pleno respeito e uma interpretação uniforme do quadro jurídico da União em matéria de proteção de dados e privacidade, especialmente no que se refere às aplicações de IA no domínio da saúde e a outros dados sensíveis, para respeitar plenamente o «direito a ser esquecido», previsto no artigo 17.º do  Regulamento (UE) 2016/679 e para reforçar o «direito a uma explicação», previsto no artigo 22.º do Regulamento (UE) 2016/679, e se imponha requisitos de interpretabilidade mais elevados para a IA de alto risco;

52. Salienta que o quadro ético em matéria de IA deve incluir o direito de as pessoas que sejam objeto de uma decisão baseada num tratamento automatizado obterem uma explicação dessa decisão;

53. Solicita um equilíbrio correto entre a privacidade e a proteção dos dados e a utilidade dos dados; considera que é importante, para o progresso científico, garantir a possibilidade de partilhar e tratar os dados de saúde com uma profundidade e um detalhe suficientes; solicita que se garanta a anonimização dos dados, evitando simultaneamente uma minimização excessiva dos dados; solicita bases de dados, registos e repositórios adequados, interoperáveis, a nível da UE, para facilitar a utilização dos dados de saúde nos setores da saúde, do ambiente e da segurança alimentar;

54. Sublinha a necessidade de assegurar a proteção dos dados de saúde e dos dados pertencentes a grupos vulneráveis e salienta que, na medida em que as aplicações de IA efetuam o tratamento dos dados de saúde com base no consentimento do titular dos dados, as condições estabelecidas no artigo 7.º do Regulamento (UE) 2016/679 têm de ser cumpridas;

55. Salienta que os dados gerados não podem de forma alguma contribuir para qualquer tipo de discriminação; solicita garantias de que a recolha e a acessibilidade dos dados estejam sempre em conformidade com o quadro jurídico da União;

56. Salienta que o risco de uma alteração e uma manipulação maliciosas dos dados e de um eventual ataque de piratas informáticos ou do roubo dos dados pode ser particularmente grave no setor da saúde e que tais atos podem ser utilizados para causar dano às pessoas, para as desacreditar ou para lucrar com elas; salienta que devem ser estabelecidas as normas mais elevadas de cibersegurança para as redes relevantes;

Impacto da IA nos contextos laboral e social:

57. Assinala que o quadro de ética da OCDE tem em conta as convulsões no mercado de trabalho; salienta que a automatização combinada com a IA aumentará a produtividade e, por conseguinte, a produção; assinala que, tal como em revoluções tecnológicas anteriores, alguns empregos serão substituídos; salienta que uma maior utilização da robótica e da IA deve também reduzir a exposição humana a condições nocivas e perigosas e ajudar a criar mais empregos dignos e de qualidade e a melhorar a produtividade; assinala o trabalho da OCDE, que sublinha que a automatização pode permitir à sociedade optar por reduzir o número de horas trabalhadas, melhorando assim as condições de vida e de saúde dos trabalhadores;

58. Chama ainda a atenção para as recomendações da OCDE que pedem aos governos que trabalhem em estreita colaboração com as partes interessadas para promover a utilização responsável da IA no trabalho, para reforçar a segurança dos trabalhadores e a qualidade dos empregos, e que tenham como objetivo assegurar que os benefícios da IA sejam ampla e equitativamente partilhados; sublinha, neste contexto, que a diversidade na composição das equipas de programadores e engenheiros, que trabalhem em conjunto com os principais intervenientes, pode contribuir para evitar parcialidades de género e culturais e assegurar que o bem‑estar físico e mental dos trabalhadores seja respeitado nos algoritmos, sistemas e aplicações de IA;

59. Salienta que o desenvolvimento de aplicações de IA pode fazer baixar os custos e aumentar o volume de serviços disponíveis, por exemplo, serviços de saúde, transportes públicos e Agricultura 2.0, tornando‑os economicamente mais acessíveis para um espetro mais alargado da sociedade; salienta que as aplicações de IA podem também resultar num aumento do desemprego, numa maior pressão sobre os sistemas de assistência social e num aumento da pobreza; salienta, em conformidade com os valores consagrados no artigo 3.º do Tratado da União Europeia, a necessidade de adaptar a transformação da União no domínio da IA às capacidades socioeconómicas, a uma proteção social adequada, à educação e à criação de empregos alternativos; solicita que se considere a criação de um Fundo da União de Ajustamento à IA, com base na experiência do Fundo Europeu de Ajustamento à Globalização (FEG) ou do Fundo para uma Transição Justa, atualmente em desenvolvimento;

60. Salienta também a importância do diálogo social para permitir uma transição justa e inclusiva dos trabalhadores para as novas realidades do trabalho afetadas pela IA e a necessidade de as empresas investirem na formação e na requalificação da sua força de trabalho;

61. Solicita aos Estados‑Membros que adequem a educação dos profissionais dos setores da proteção do ambiente, da saúde e da segurança alimentar à evolução da IA e que procedam a uma consciencialização acerca dos riscos e dos desafios éticos associados à IA;

62. Congratula‑se com os requisitos propostos no Livro Branco relativos aos dados para treinar a IA de alto risco, que têm em conta tanto a segurança – dados suficientemente amplos para abranger todos os cenários relevantes, para evitar situações perigosas – como a discriminação – dados suficientemente representativos para refletir bem o ambiente social ao qual serão aplicados;

63. Salienta que o setor público deve concentrar‑se em resolver os problemas sociais e não em favorecer a aceitação da IA em si mesma; solicita uma melhoria da regulamentação e das orientações da União em matéria de contratos públicos, nomeadamente dos contratos públicos ecológicos da União Europeia, para que, nos procedimentos de avaliação relevantes das propostas a concurso, se tenha em conta se um determinado problema exige uma aplicação de IA, e se permita seguir uma via alternativa de disponibilização, caso a avaliação indique que uma solução sem IA resolve melhor o problema social em causa;


INFORMAÇÕES SOBRE A APROVAÇÃO
NA COMISSÃO ENCARREGADA DE EMITIR PARECER

Data de aprovação

10.9.2020

 

 

 

Resultado da votação final

+:

–:

0:

77

2

2

Deputados presentes no momento da votação final

Nikos Androulakis, Bartosz Arłukowicz, Margrete Auken, Simona Baldassarre, Marek Paweł Balt, Traian Băsescu, Aurelia Beigneux, Monika Beňová, Sergio Berlato, Alexander Bernhuber, Malin Björk, Simona Bonafè, Delara Burkhardt, Pascal Canfin, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Nathalie Colin‑Oesterlé, Miriam Dalli, Esther de Lange, Christian Doleschal, Marco Dreosto, Bas Eickhout, Eleonora Evi, Agnès Evren, Fredrick Federley, Pietro Fiocchi, Andreas Glück, Catherine Griset, Jytte Guteland, Teuvo Hakkarainen, Martin Hojsík, Pär Holmgren, Jan Huitema, Yannick Jadot, Adam Jarubas, Petros Kokkalis, Athanasios Konstantinou, Ewa Kopacz, Joanna Kopcińska, Ryszard Antoni Legutko, Peter Liese, Sylvia Limmer, Javi López, César Luena, Fulvio Martusciello, Liudas Mažylis, Joëlle Mélin, Tilly Metz, Silvia Modig, Dolors Montserrat, Alessandra Moretti, Dan‑Ștefan Motreanu, Ville Niinistö, Ljudmila Novak, Jutta Paulus, Stanislav Polčák, Jessica Polfjärd, Luisa Regimenti, Frédérique Ries, María Soraya Rodríguez Ramos, Sándor Rónai, Rob Rooken, Silvia Sardone, Christine Schneider, Günther Sidl, Ivan Vilibor Sinčić, Linea Søgaard‑Lidell, Nicolae Ştefănuță, Nils Torvalds, Edina Tóth, Véronique Trillet‑Lenoir, Alexandr Vondra, Mick Wallace, Pernille Weiss, Michal Wiezik, Tiemo Wölken, Anna Zalewska

Suplentes presentes no momento da votação final

Michael Bloss, Manuel Bompard, Christel Schaldemose

 


VOTAÇÃO NOMINAL FINAL
NA COMISSÃO ENCARREGADA DE EMITIR PARECER

77

+

#PPE#

Bartosz Arłukowicz, Alexander Bernhuber, Traian Băsescu, Nathalie Colin‑Oesterlé, Christian Doleschal, Agnès Evren, Adam Jarubas, Ewa Kopacz, Peter Liese, Fulvio Martusciello, Liudas Mažylis, Dolors Montserrat, Dan‑Ștefan Motreanu, Ljudmila Novak, Jessica Polfjärd, Stanislav Polčák, Christine Schneider, Edina Tóth, Pernille Weiss, Michal Wiezik, Esther de Lange

S&D

Nikos Androulakis, Marek Paweł Balt, Monika Beňová, Simona Bonafè, Delara Burkhardt, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Miriam Dalli, Jytte Guteland, César Luena, Javi López, Alessandra Moretti, Sándor Rónai, Christel Schaldemose, Günther Sidl, Tiemo Wölken

Renew

Pascal Canfin, Fredrick Federley, Andreas Glück, Martin Hojsík, Jan Huitema, Frédérique Ries, María Soraya Rodríguez Ramos, Linea Søgaard‑Lidell, Nils Torvalds, Véronique Trillet‑Lenoir, Nicolae Ştefănuță

ID

Simona Baldassarre, Aurelia Beigneux, Marco Dreosto, Catherine Griset, Joëlle Mélin, Luisa Regimenti, Silvia Sardone

Verts/ALE

Margrete Auken, Michael Bloss, Bas Eickhout, Pär Holmgren, Yannick Jadot, Tilly Metz, Ville Niinistö, Jutta Paulus

ECR

Sergio Berlato, Pietro Fiocchi, Joanna Kopcińska, Ryszard Antoni Legutko, Alexandr Vondra, Anna Zalewska

GUE/NGL

Malin Björk, Manuel Bompard, Petros Kokkalis, Silvia Modig, Mick Wallace

NI

Eleonora Evi, Athanasios Konstantinou

 

2

ID

Sylvia Limmer

ECR

Rob Rooken

 

2

0

ID

Teuvo Hakkarainen

NI

Ivan Vilibor Sinčić

 

Legenda dos símbolos utilizados:

+ : votos a favor

 : votos contra

0 : abstenções

 

 


 

 

PARECER DA COMISSÃO DA CULTURA E DA EDUCAÇÃO (3.9.2020)

dirigido à Comissão dos Assuntos Jurídicos

com recomendações à Comissão no quadro dos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas

(2020/2012(INL))

Relator de parecer: Łukasz Kohut

(Iniciativa – Artigo 47.º do Regimento)

 

 

SUGESTÕES

A Comissão da Cultura e da Educação insta a Comissão dos Assuntos Jurídicos, competente quanto à matéria de fundo:

- a incorporar as seguintes sugestões na proposta de resolução que aprovar:

1. Relembra que o desenvolvimento, a implantação e a utilização de inteligência artificial (IA) nos setores culturais e criativos e nos domínios da educação, dos meios de comunicação social, da juventude e da política de informação não só têm o potencial de suscitar como suscitam, e continuarão a suscitar, um vasto leque de questões éticas às quais é necessário dar resposta; salienta que a União deve abrir caminho para a criação de IA ética, assente nos valores europeus, assegurando a proteção da dignidade humana e dos direitos fundamentais numa Europa democrática, justa e sustentável; insta as instituições da UE a empenharem-se numa reflexão a longo prazo sobre o impacto da IA nos nossos debates democráticos, nas nossas sociedades e na própria natureza do ser humano, de modo a que possam preparar o caminho para tecnologias de IA que respeitem a nossa liberdade e não perturbem a inovação ou reduzam a liberdade de expressão;

2. Expressa a firme convicção de que é necessário analisar a forma como os quadros e as obrigações em matéria de direitos humanos podem orientar as ações e políticas relacionadas com as tecnologias digitais novas e emergentes, de molde a garantir uma abordagem antropocêntrica e a acessibilidade dos seus benefícios a todos; reconhece a necessidade de assegurar que o desenvolvimento, a implantação e a utilização da IA sejam livres de discriminação e de perfis tendenciosos, bem como que esta espelhe todos os elementos essenciais da sociedade; reconhece que a IA e a automatização podem ter um efeito na economia globalizada que venha a reforçar as desigualdades existentes;

3. Salienta a necessidade de desenvolver critérios adaptados para o desenvolvimento, a implantação e a utilização da IA na educação, na comunicação social, na juventude, na investigação e nos setores culturais e criativos, através do desenvolvimento de parâmetros de referência e da definição de princípios de utilização eticamente responsáveis e aceitáveis das tecnologias de IA nestes domínios, nomeadamente um regime de responsabilização clara pelos produtos resultantes do recurso à IA; sublinha que esses critérios devem ser adaptáveis e constantemente ajustados aos progressos nas tecnologias de IA, a fim de também contribuir, de forma responsável, para explorar todo o potencial dessas tecnologias; destaca, em particular, a necessidade de dar resposta às questões relativas à recolha de dados pessoais dos utilizadores e à privacidade, bem como às questões de responsabilização nos casos em que os processos automatizados conduzam a resultados indesejáveis; recorda que, para conferir a esses critérios uma base sólida, é necessário exigir que sejam respeitados os princípios da conformidade de um sistema com as suas especificações, transparência, boa fé e equidade, em consulta com as comissões de ética competentes responsáveis por ajudar a lançar as bases em conformidade com os valores culturais e as disposições do quadro jurídico da União Europeia; assinala que os sistemas de IA são baseados em software, apresentando um comportamento inteligente segundo a análise do seu ambiente; frisa que esta análise tem por base modelos estatísticos dos quais os erros constituem uma parte inevitável; sublinha a necessidade de assegurar a existência de sistemas e métodos que permitam a verificação e a inteligibilidade do algoritmo, bem como o acesso a recursos legais; destaca a necessidade de assegurar a existência de regras vinculativas que garantam a preservação dos princípios da transparência, da responsabilização e da não discriminação; reitera as Orientações éticas de 2019 para uma IA fiável e os sete requisitos essenciais para a fiabilidade da IA;

4. Releva que todas as crianças gozam do direito a uma educação pública de qualidade a todos os níveis; apela, por conseguinte, ao desenvolvimento, à implantação e à utilização de sistemas de IA de qualidade que facilitem e proporcionem instrumentos educativos de qualidade para todos, a todos os níveis, e salienta que a implantação de novos sistemas de IA nas escolas não deve conduzir a uma maior disparidade digital na sociedade;

5. Constata que o recurso a sistemas de aprendizagem personalizados de IA é cada vez mais frequente nas escolas e universidades, o que provoca uma alteração gradual do papel dos professores no processo de aprendizagem; frisa que esta mudança deve ser avaliada de forma exaustiva, refletida nos programas curriculares em conformidade e assente em valores centrados no ser humano; reconhece o enorme contributo potencial que a IA e a robótica podem dar à educação; observa que os sistemas de aprendizagem personalizados de IA não devem substituir as relações educativas que envolvem professores e que as formas tradicionais de educação não devem ser deixadas para trás, salientando simultaneamente que deve ser prestado apoio financeiro, tecnológico e educativo, designadamente formação especializada em tecnologias da informação e da comunicação, aos professores que procurem adquirir as competências adequadas para se adaptarem às mudanças tecnológicas, não apenas explorando o potencial da IA, mas também compreendendo as suas limitações;

6. Destaca que, nos casos em que a aprendizagem automática é utilizada nos procedimentos de seleção de potenciais estudantes, devem ser aplicadas salvaguardas adequadas, nomeadamente informando os requerentes sobre esses procedimentos e sobre os seus direitos a esse respeito; observa que os algoritmos pertinentes têm de ser treinados com base em conjuntos de dados alargados, a fim de evitar que os algoritmos discriminem injustamente determinados grupos; entende que as decisões pertinentes tomadas com a ajuda de processos automatizados têm de ser explicáveis, inclusivamente, se necessário, aos estudantes rejeitados;

7. Apela ao desenvolvimento, a nível da União, de uma estratégia de IA, robótica e tecnologias conexas, para ajudar a transformar e a atualizar os nossos sistemas educativos, a preparar os nossos estabelecimentos de ensino a todos os níveis e a equipar os professores e os alunos com as competências e aptidões necessárias; defende que é necessário um quadro de ética no domínio da educação; recomenda a participação da sociedade civil, das universidades, dos sindicatos e das associações patronais no processo de elaboração desse quadro; assinala que os sistemas de IA desenvolvidos, implantados e utilizados na União devem refletir a sua diversidade cultural e o seu multilinguismo; salienta que deve ser prestado um apoio especial aos programadores de tecnologias, bem como aos beneficiários das tecnologias que pertençam a grupos desfavorecidos e às pessoas com deficiência;

8. Entende que deve ser dada especial atenção e proteção ao respeito dos direitos dos menores, tendo em conta a influência particular do ensino no seu futuro, especificamente o direito à privacidade e o acesso a uma educação de qualidade, garantindo a igualdade de oportunidades em todos os casos; realça que as instituições de ensino só devem utilizar sistemas de IA para fins educativos que tenham sido auditados e certificados como éticos, benéficos e atuando em conformidade com os princípios dos direitos humanos; insta a Comissão e os Estados-Membros a promoverem a cooperação entre os setores público e privado e o meio académico, tendo em vista reforçar a partilha de conhecimentos e a utilização de fontes abertas;

9. Observa que é necessário clarificar o conceito de artes e obras culturais e criativas, bem como o papel dos seres humanos enquanto criadores e artistas; frisa que as oportunidades proporcionadas pela digitalização e pelas novas tecnologias não devem causar uma perda global de postos de trabalho nos setores culturais e criativos, nem dar origem a que a conservação dos originais seja negligenciada, nem à relativização da importância do acesso tradicional ao património cultural, que deve igualmente ser incentivado;

10. Reconhece o potencial crescente da IA nos domínios da informação, dos meios de comunicação social e das plataformas em linha, nomeadamente como um instrumento poderoso para combater a desinformação; manifesta, contudo, a sua preocupação com o potencial de utilização abusiva da IA para manipular a opinião pública em linha; salienta que, se não for regulamentada, a IA poderá também ter efeitos eticamente nocivos, explorando enviesamentos nos dados e algoritmos que possam conduzir à disseminação de desinformação, criando bolhas de informação e explorando enviesamentos introduzidos nos algoritmos de IA; recorda que uma educação adequada é uma condição necessária para salvaguardar os direitos dos cidadãos no que se refere à liberdade de informação, de opinião e de expressão, e apela à utilização ética das tecnologias de IA no domínio dos meios de comunicação social; alerta para os riscos da censura baseada na tecnologia e para a necessidade de um quadro ético que proteja a liberdade de expressão;

11. Considera que a utilização de determinados tipos de IA, tais como os sistemas de reconhecimento facial e de deteção de emoções e comportamentos, pode ter um efeito nocivo, nomeadamente no papel dos meios de comunicação social e dos jornalistas enquanto guardiões da democracia e, por conseguinte, no processo democrático; sublinha, por conseguinte, que a utilização desses sistemas em espaços públicos deve ser restringida ou proibida sempre que necessário; destaca a necessidade de prosseguir a luta contra as notícias falsas, nomeadamente técnicas como os «deepfakes», contra a censura e a vigilância automatizada;

12. Realça a necessidade de aumentar a sensibilização e a compreensão do público em geral quanto ao papel e o impacto da IA através da educação formal e não formal, designadamente estudos sobre humanidade, em especial sobre a utilização de algoritmos e o seu impacto, entre outros, no emprego e a privacidade, a compreensão do lugar ocupado pelos sistemas informáticos na seleção, interpretação, armazenamento e representação de dados; defende o estabelecimento de instrumentos de literacia digital em todos os níveis de ensino e insta, por conseguinte, os Estados-Membros e as instituições da UE a investirem na informação e na literacia mediática, na educação e na formação; entende que a informação e as competências relativas aos meios de comunicação social são cruciais para todos os cidadãos, nomeadamente os grupos sociais vulneráveis, para que possam avaliar de forma crítica e compreender novos desenvolvimentos, inclusive compreender o funcionamento da IA e das suas tendências inerentes, e assim desenvolver novas formas de pensamento crítico; recomenda que a Comissão promova formatos de educação e formação contínua relacionados com a IA, a robótica e a tecnologia;

13. Assinala a importante distinção entre a transparência dos algoritmos e a transparência no seu uso; salienta a importância da transparência e da responsabilização no que se refere aos algoritmos utilizados pelas plataformas de partilha de vídeos, bem como pelas plataformas de transmissão em direto, a fim de garantir o acesso a conteúdos culturais e linguísticos variados e evitar privilégios; entende que todos os utilizadores devem ser devidamente informados sobre a utilização de algoritmos para recomendar conteúdos, devendo ser capazes de os otimizar de acordo com as suas escolhas, e que tais algoritmos não devem restringir as escolhas de um utilizador; considera que qualquer utilizador deve também poder desativar a recomendação de conteúdos feita por IA; frisa que esses algoritmos devem ser concebidos de forma a refletirem a diversidade cultural das nossas sociedades, assegurando uma verdadeira abertura cultural e garantindo a liberdade de criação; insiste em que os dados dos utilizadores recolhidos pela IA, a saber, as preferências culturais ou o desempenho escolar, não devem ser transmitidos nem utilizados sem o conhecimento do titular dos dados;

14. Observa que o mundo do desporto sempre aderiu com entusiasmo à inovação tecnológica; considera, no entanto, que a utilização de tecnologias de IA, que se propaga rapidamente nas competições desportivas, suscita cada vez mais questões relativas à concorrência leal no desporto, sendo que as equipas com mais recursos financeiros podem adquirir a melhor tecnologia, o que lhes confere potencialmente uma vantagem desleal; sublinha que estes desenvolvimentos têm de ser acompanhados de perto e salienta que este domínio necessita de um quadro regulamentar que aplique critérios éticos e centrados no ser humano para o desenvolvimento e a utilização de tecnologias de IA; solicita a plena transparência dos algoritmos e das tecnologias utilizados no desporto, de forma a garantir condições de concorrência equitativas.

 

 

 

INFORMAÇÕES SOBRE A APROVAÇÃO NA COMISSÃO ENCARREGADA DE EMITIR PARECER

Data de aprovação

31.8.2020

 

 

 

Resultado da votação final

+:

–:

0:

28

0

2

Deputados presentes no momento da votação final

Isabella Adinolfi, Christine Anderson, Ilana Cicurel, Gilbert Collard, Gianantonio Da Re, Laurence Farreng, Tomasz Frankowski, Romeo Franz, Hannes Heide, Irena Joveva, Petra Kammerevert, Niyazi Kizilyürek, Predrag Fred Matić, Dace Melbārde, Victor Negrescu, Peter Pollák, Marcos Ros Sempere, Andrey Slabakov, Massimiliano Smeriglio, Michaela Šojdrová, Sabine Verheyen, Salima Yenbou, Milan Zver

Suplentes presentes no momento da votação final

Isabel Benjumea Benjumea, Christian Ehler, Ibán García Del Blanco, Bernard Guetta, Marcel Kolaja, Elżbieta Kruk, Martina Michels

 

 


VOTAÇÃO NOMINAL FINAL NA COMISSÃO ENCARREGADA DE EMITIR PARECER

 

28

+

PPE

Isabel Benjumea Benjumea, Christian Ehler, Tomasz Frankowski, Peter Pollák, Michaela Šojdrová, Sabine Verheyen, Milan Zver

S&D

Ibán García del Blanco, Hannes Heide, Petra Kammerevert, Predrag Fred Matić, Victor Negrescu, Marcos Ros Sempere, Massimiliano Smeriglio

RENEW

Ilana Cicurel, Laurence Farreng, Bernard Guetta, Irena Joveva

ID

Gilbert Collard

VERTS/ALE

Romeo Franz, Marcel Kolaja, Salima Yenbou

ECR

Elżbieta Kruk, Dace Melbārde, Andrey Slabakov

GUE/NGL

Niyazi Kizilyürek, Martina Michels

NI

Isabella Adinolfi

 

0

-

-

-

 

2

0

ID

Christine Anderson, Gianantonio Da Re

 

Legenda dos símbolos utilizados:

+ : votos a favor

- : votos contra

0 : abstenções

 

 

 


 

 

INFORMAÇÕES SOBRE A APROVAÇÃO NA COMISSÃO COMPETENTE QUANTO À MATÉRIA DE FUNDO

Data de aprovação

1.10.2020

 

 

 

Resultado da votação final

+:

–:

0:

20

0

4

Deputados presentes no momento da votação final

Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, Raffaele Stancanelli, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos

Suplentes presentes no momento da votação final

Patrick Breyer, Evelyne Gebhardt

 


VOTAÇÃO NOMINAL FINAL NA COMISSÃO COMPETENTE QUANTO À MATÉRIA DE FUNDO

20

+

EPP

Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos

S&D

Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken

RENEW

Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara

VERTS/ALE

Patrick Breyer, Marie Toussaint

ECR

Angel Dzhambazki, Raffaele Stancanelli

NI

Mislav Kolakušić

 

0

-

 

 

 

 

 

4

0

ID

Gunnar Beck, Jean Paul Garraud, Gilles Lebreton

GUE/NGL

Manon Aubry

 

Legenda dos símbolos utilizados:

+ : votos a favor

- : votos contra

0 : abstenções

 

Última actualização: 19 de Outubro de 2020
Aviso legal - Política de privacidade