Resolução do Parlamento Europeu, de 20 de janeiro de 2021, sobre a inteligência artificial: questões de interpretação e de aplicação do direito internacional na medida em que a UE é afetada nos domínios da utilização civil e militar e da autoridade do Estado fora do âmbito da justiça penal (2020/2013(INI))
O Parlamento Europeu,
– Tendo em conta o preâmbulo do Tratado da União Europeia e os seus artigos 2.º, 3.º, 10.º, 19.º, 20.º, 21.º, 114.º, 167.º, 218.º, 225.º e 227.º,
– Tendo em conta o direito de petição previsto pelos artigos 20.º e 227.º do Tratado sobre o Funcionamento da União Europeia
– Tendo em conta a Carta dos Direitos Fundamentais da União Europeia,
– Tendo em conta a Diretiva 2000/43/CE do Conselho, de 29 de junho de 2000, que aplica o princípio da igualdade de tratamento entre as pessoas, sem distinção de origem racial ou étnica(1) (Diretiva «Igualdade Racial»),
– Tendo em conta a Diretiva 2000/78/CE do Conselho, de 27 de novembro de 2000, que estabelece um quadro geral de igualdade de tratamento no emprego e na atividade profissional(2) (Diretiva «Igualdade de Tratamento no Emprego»),
– Tendo em conta o Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados)(3) (RGPD), bem como a Diretiva (UE) 2016/680 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativa à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais pelas autoridades competentes para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou execução de sanções penais, e à livre circulação desses dados, e que revoga a Decisão‑Quadro 2008/977/JAI do Conselho(4),
– Tendo em conta o Regulamento (UE) 2018/1488 do Conselho, de 28 de setembro de 2018, que cria a Empresa Comum para a Computação Europeia de Alto Desempenho(5),
– Tendo em conta a proposta de regulamento do Parlamento Europeu e do Conselho, de 6 de junho de 2018, que cria o programa Europa Digital para o período de 2021‑2027 (COM(2018)0434),
– Tendo em conta a sua resolução, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica(6),
– Tendo em conta a sua resolução, de 1 de junho de 2017, sobre a digitalização da indústria europeia(7),
– Tendo em conta a sua resolução, de 12 de setembro de 2018, sobre sistemas de armamento autónomos(8),
– Tendo em conta a sua resolução, de 11 de setembro de 2018, sobre a igualdade linguística na era digital(9),
– Tendo em conta a sua resolução, de 12 de fevereiro de 2019, sobre uma política industrial europeia completa no domínio da inteligência artificial e da robótica(10),
– Tendo em conta a Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões, de 11 de dezembro de 2019, sobre o Pacto Ecológico Europeu (COM(2019)0640),
– Tendo em conta o Livro Branco da Comissão, de 19 de fevereiro de 2020, sobre a inteligência artificial – Uma abordagem europeia virada para a excelência e a confiança (COM(2020)0065),
– Tendo em conta a Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões, de 19 de fevereiro de 2020, intitulada «Uma estratégia europeia para os dados» (COM(2020)0066),
– Tendo em conta a Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões, de 19 de fevereiro de 2020, intitulada «Construir o futuro digital da Europa» (COM(2020)0067),
– Tendo em conta o relatório, de 8 de abril de 2019, intitulado «Orientações éticas para uma IA de confiança», elaborado pelo Grupo de peritos de alto nível sobre a inteligência artificial criado pela Comissão em junho de 2018,
– Tendo em conta a Convenção‑Quadro para a Proteção das Minorias Nacionais do Conselho da Europa, o Protocolo n.º 12 à Convenção para a Proteção dos Direitos do Homem e das Liberdades Fundamentais e a Carta Europeia das Línguas Regionais ou Minoritárias,
– Tendo em conta a Carta ética europeia sobre a utilização da inteligência artificial nos sistemas judiciais e nos respetivos ambientes, aprovada pelo Grupo de Trabalho sobre a Eficiência da Justiça (CEPEJ‑GT‑QUAL) do Conselho da Europa em dezembro de 2018,
– Tendo em conta a Recomendação do Conselho da OCDE sobre inteligência artificial, aprovada em 22 de maio de 2019,
– Tendo em conta o artigo 54.º do seu Regimento,
– Tendo em conta os pareceres da Comissão dos Assuntos Externos, da Comissão do Mercado Interno e da Proteção dos Consumidores, da Comissão dos Transportes e do Turismo e da Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos,
– Tendo em conta o relatório da Comissão dos Assuntos Jurídicos (A9‑0001/2021),
Introdução
A. Considerando o desenvolvimento muito rápido da inteligência artificial (IA), da robótica e das tecnologias conexas e o seu impacto direto em todos os aspetos das nossas sociedades, incluindo os princípios e valores sociais e económicos básicos;
B. Considerando que a IA está a provocar uma revolução na doutrina e no equipamento militares através duma mudança profunda no modo de funcionamento dos exércitos, principalmente devido à integração e utilização de novas tecnologias e capacidades autónomas;
C. Considerando que o desenvolvimento e a conceção da chamada «inteligência artificial», da robótica e das tecnologias conexas são feitos pelo ser humano e que as suas escolhas determinam o potencial da tecnologia para beneficiar a sociedade;
D. Considerando que um quadro comum da União deve imperativamente abranger o desenvolvimento, a implantação e a utilização da IA, da robótica e das tecnologias conexas, bem como assegurar o respeito pela dignidade humana e pelos direitos humanos, tal como consagrados na Carta dos Direitos Fundamentais da União Europeia;
E. Considerando que a União e os seus Estados‑Membros têm a responsabilidade especial de garantir que a IA, a robótica e as tecnologias conexas, dado que podem ser utilizadas além‑fronteiras, são centradas no ser humano – ou seja, essencialmente destinadas a serem utilizadas ao serviço da humanidade e do bem comum – de modo a contribuírem para o bem‑estar e o interesse geral dos seus cidadãos; considerando que a União deve ajudar os Estados‑Membros a alcançar este objetivo, nomeadamente os que começaram a refletir sobre o possível desenvolvimento de normas jurídicas ou alterações legislativas neste domínio;
F. Considerando que os cidadãos europeus poderiam beneficiar duma abordagem regulamentar adequada, eficaz, transparente e coerente ao nível da União, que defina condições suficientemente claras para que as empresas desenvolvam aplicações e planeiem os seus modelos empresariais, assegurando simultaneamente que a União e os seus Estados‑Membros mantenham o controlo sobre a regulamentação a estabelecer, para que não sejam obrigados a adotar ou aceitar normas estabelecidas por terceiros;
G. Considerando que orientações éticas, como os princípios adotados pelo grupo de peritos de alto nível sobre a inteligência artificial, constituem um bom ponto de partida, mas não são suficientes para assegurar que as empresas atuem de forma equitativa e garantam uma proteção eficaz das pessoas;
H. Considerando que esta responsabilidade específica implica examinar as questões relativas à interpretação e à aplicação do direito internacional relacionadas com a participação ativa da UE nas negociações internacionais, na medida em que a UE seja afetada pela utilização civil e militar da IA, da robótica e das tecnologias conexas e as questões relativas à autoridade do Estado sobre estas tecnologias estejam fora do âmbito da justiça penal;
I. Considerando que é essencial providenciar um quadro jurídico adequado e abrangente para os aspetos éticos destas tecnologias, bem como para a responsabilidade, a transparência e a responsabilização (especialmente no que se refere à IA, à robótica e às tecnologias conexas consideradas de alto risco); considerando que este quadro tem de refletir o facto de os valores humanistas intrinsecamente europeus e universais serem aplicáveis a toda a cadeia de valor no desenvolvimento, aplicação e utilização da IA; considerando que este quadro ético deve imperativamente aplicar‑se ao desenvolvimento (incluindo a investigação e a inovação), à implantação e à utilização da IA, no pleno respeito do direito da União e dos valores consagrados na Carta dos Direitos Fundamentais da União Europeia;
J. Considerando que este exame tem por objetivo avaliar em que medida as normas do direito internacional, tanto público como privado, se adaptam a estas tecnologias e pôr em evidência os desafios que estas colocam à autoridade do Estado, de modo a que possam ser geridas de forma adequada e proporcionada;
K. Considerando que a Comissão não pondera os aspetos militares da utilização da IA no seu Livro Branco;
L. Considerando que, para uma abordagem harmonizada destes problemas, é necessário adotar uma definição comum de IA e garantir o respeito dos princípios da Carta dos Direitos Fundamentais da União Europeia e a legislação internacional relativa aos direitos humanos;
M. Considerando que a IA oferece oportunidades sem precedentes para melhorar o desempenho do setor dos transportes, abordando os desafios do aumento da procura por viagens, da segurança e das preocupações ambientais, tornando, ao mesmo tempo, todos os modos de transporte mais inteligentes, eficientes e confortáveis;
N. Considerando que estudar como a IA pode ser utilizada na defesa a nível europeu é indispensável para o desenvolvimento das capacidades da UE neste setor;
Definição de inteligência artificial
1. Considera que é necessário adotar um quadro jurídico europeu comum com definições harmonizadas e princípios éticos comuns, incluindo a utilização da IA para fins militares; portanto, insta a Comissão a adotar as seguintes definições:
—
«Sistema de IA»: um sistema baseado em software ou integrado em dispositivos de físicos e que apresenta um comportamento que simula inteligência, nomeadamente recolhendo e tratando dados, analisando e interpretando o seu ambiente e tomando medidas – com um determinado nível de autonomia – para atingir objetivos específicos;
—
«Autónomo»: um sistema de IA que funciona interpretando certos dados e utilizando um conjunto de instruções predeterminadas, sem estar limitado a essas instruções, apesar de o comportamento do sistema estar limitado pelo objetivo que lhe foi atribuído e que está destinado a realizar e por outras escolhas de conceção tomadas por quem o desenvolveu;
2. Salienta que as políticas de segurança e defesa da União Europeia e dos seus Estados‑Membros são norteadas pelos princípios consagrados na Carta Europeia dos Direitos Fundamentais e na Carta da ONU – na última das quais se exorta todos os Estados a que se abstenham de recorrer à ameaça ou ao uso de força – e do direito internacional, pelos princípios dos direitos humanos e do respeito pela dignidade humana e por um entendimento comum dos valores universais dos direitos invioláveis e inalienáveis da pessoa humana, da liberdade, da democracia, da igualdade e do Estado de direito; destaca que todas as atividades relacionadas com a defesa no quadro da União devem respeitar estes valores universais promovendo, em simultâneo, a paz, a estabilidade, a segurança e o progresso na Europa e no mundo;
Direito internacional público e utilização militar da inteligência artificial
3. Considera que a IA utilizada num contexto militar e civil deve imperativamente estar sujeita a um controlo humano significativo, de modo a que um ser humano disponha, em qualquer altura, dos meios para a corrigir, parar ou desativar no caso de comportamento imprevisto, intervenção acidental, ciberataques ou interferência por terceiros com tecnologias baseadas na IA ou no caso de terceiros adquirem essa tecnologia;
4. Considera que o respeito do direito internacional público – em particular, o direito humanitário, que se aplica inequivocamente a todos os sistemas de armamento e aos seus operadores – é uma exigência fundamental que os Estados‑Membros têm de respeitar, especialmente quando se trata de proteger a população civil ou de tomar medidas cautelares em caso de ataque, como uma agressão militar ou a ciberguerra;
5. Salienta que a IA e as tecnologias conexas também podem desempenhar um papel na guerra irregular ou não convencional; sugere que a investigação, o desenvolvimento e a utilização da IA em tais casos sejam subordinados às mesmas condições que a utilização em conflitos convencionais;
6. Salienta que a utilização da IA constitui uma oportunidade para reforçar a segurança da União Europeia e dos seus cidadãos e que é essencial que a UE adote uma abordagem integrada em futuros debates internacionais sobre este tema;
7. Insta a comunidade de investigação no domínio da IA a integrar este princípio em todos os sistemas assentes na IA destinados a fins militares acima referidos; entende que nenhuma autoridade pode criar uma exceção a esses princípios ou certificar um sistema assente na IA;
8. Reitera que a tomada de decisões autónoma não deve isentar os seres humanos da responsabilidade e que as pessoas devem ter sempre a responsabilidade final pelos processos de tomada de decisão, a fim de se poder identificar o ser humano responsável pela decisão;
9. Frisa que aquando da utilização da IA num contexto militar, os Estados, as partes em conflito e os indivíduos têm de cumprir sempre as suas obrigações nos termos do direito internacional aplicável e de assumir a responsabilidade pelas ações resultantes da utilização de tais sistemas; sublinha que, em todas as circunstâncias, as ações e efeitos previstos, acidentais ou indesejáveis dos sistemas baseados na IA têm de ser considerados da responsabilidade dos Estados‑Membros, das partes em conflito e dos indivíduos;
10. Acolhe favoravelmente as possibilidades de utilização dos sistemas de IA para a formação e os exercícios, cujo potencial não deve ser subestimado, especialmente tendo em conta que a UE realiza exercícios de dupla natureza civil e militar;
11. Salienta que durante as fases de conceção, desenvolvimento, ensaio, implantação e utilização de sistemas baseados na IA é imperativo ter em devida conta os riscos potenciais em qualquer altura – especialmente no que se refere a vítimas e ferimentos civis acidentais, perda acidental de vidas e danos causados a infraestruturas civis, bem como riscos relacionados com o envolvimento involuntário, a manipulação, a proliferação, os ciberataques, a interferência por terceiros com tecnologias baseadas na IA ou no caso de terceiros adquirem essa tecnologia;
12. Recorda que, segundo o parecer consultivo do Tribunal Internacional de Justiça, de 8 de julho de 1996, o princípio da originalidade não pode ser invocado em apoio de qualquer derrogação relativa ao cumprimento das atuais normas do direito internacional humanitário;
13. Considera que, para além das operações de apoio, a IA beneficiará também o pessoal em serviço das forças armadas através do tratamento em massa dos seus dados de saúde e da expansão da vigilância médica, identificará os fatores de risco relacionados com o seu ambiente e condições de trabalho e proporá salvaguardas adequadas para limitar os impactos na saúde do pessoal em serviço;
14. Reitera que os esforços regulamentares têm de ser apoiados por sistemas de certificação e vigilância significativos e ainda por mecanismos claros de auditoria, explicabilidade, responsabilização e rastreabilidade, de modo a que o quadro regulamentar não fique desatualizado em resultado da evolução tecnológica;
15. Salienta a importância, num mundo hiperconectado, da participação da União Europeia na criação de um quadro jurídico internacional para reger a utilização da IA; insta a UE a tomar a liderança e a assumir – juntamente com as Nações Unidas e a comunidade internacional – um papel ativo na promoção deste quadro global para reger a utilização da IA para fins militares e outros, assegurando que essa utilização se mantenha dentro dos limites estritos definidos pelo direito internacional e pelo direito internacional humanitário e, em particular, as Convenções de Genebra de 12 de agosto de 1949; salienta que este quadro nunca poderá violar ou permitir violações dos ditados da consciência pública e da humanidade, tal como referido na cláusula Martens, e tem de estar em conformidade com as regras de segurança e os requisitos de proteção dos consumidores; insta a UE e os Estados‑Membros a definirem sistemas sólidos de vigilância e avaliação para o desenvolvimento de tecnologias de IA, em particular, as utilizadas para fins militares em Estados autoritários;
16. Salienta que a robótica não só permitirá que o pessoal militar permaneça à distância, mas também proporcionará uma melhor autoproteção, por exemplo, em operações em ambientes contaminados, no combate a incêndios, na desminagem em terra ou no mar e na defesa contra os enxames de drones;
17. Salienta que o desenvolvimento, a implantação, a utilização e a gestão da IA devem respeitar os direitos, os valores e as liberdades fundamentais consagrados nos Tratados da UE e solicita que os Estados‑Membros se abstenham de implantar sistemas de IA de elevado risco que constituam uma ameaça para os direitos fundamentais; toma conhecimento da publicação do Livro Branco da Comissão sobre a inteligência artificial e defende uma investigação mais profunda sobre os potenciais riscos para os direitos fundamentais decorrentes da utilização da IA pelas autoridades do Estado e pelas agências, organismos e instituições da União Europeia;
18. Insta a Comissão a promover a investigação e o debate sobre as oportunidades de utilização da IA na assistência em caso de catástrofe, na prevenção de crises e na manutenção da paz;
19. Congratula‑se com a criação de um grupo de peritos governamentais (GPG) no âmbito das Nações Unidas para promover um comportamento responsável dos Estados no ciberespaço no contexto da segurança internacional e exorta a UE a participar plenamente nos seus trabalhos;
20. Insta o Vice‑Presidente da Comissão / Alto Representante da União para os Negócios Estrangeiros e a Política de Segurança (VP/AR) a preparar o caminho para negociações a nível mundial com vista à criação de um regime de controlo das armas assentes na IA e a atualizar todos os tratados em matéria de controlo de armas, desarmamento e não proliferação, a fim de ter em conta os sistemas assentes na IA em situações de guerra; solicita que a posição comum do Conselho que define normas comuns aplicáveis ao controlo das exportações de tecnologia e equipamento militares tenha plenamente em conta e contemple os sistemas de armas baseados na IA;
21. Reitera que estas normas devem respeitar sempre os princípios, referidos na Convenção de Roma de 17 de julho de 1998, relativos à proibição de crimes de genocídio, crimes contra a humanidade e crimes de guerra;
22. Sublinha os riscos evidentes implicados nas decisões tomadas pelos seres humanos quando se baseiam unicamente em dados, perfis e recomendações gerados pelas máquinas; sublinha que a conceção global dos sistemas de IA deve incluir também orientações sobre a supervisão e a monitorização humanas; solicita que seja imposta uma obrigação em matéria de transparência e de explicação das aplicações de IA e da necessidade de intervenção humana, para além de outras medidas, como auditorias independentes e testes de esforço específicos para facilitar e assegurar o cumprimento; salienta que essas auditorias devem ser realizadas periodicamente por uma autoridade independente que supervisione as aplicações de IA de alto risco utilizadas pelas autoridades estatais ou pelos militares;
23. Salienta a importância de verificar a forma como as tecnologias de IA chegam às decisões; recorda que os princípios da não discriminação e da proporcionalidade devem ser respeitados e as questões da causalidade, da responsabilidade, da transparência, da explicabilidade e da responsabilização devem ser clarificadas para determinar se, ou em que medida, o Estado – enquanto interveniente no direito internacional público, mas também no exercício da sua própria autoridade – pode atuar com a ajuda de sistemas baseados na IA com uma certa autonomia, sem violar as obrigações decorrentes do direito internacional, como o direito a um processo equitativo;
24. Insiste na importância de investir em competências humanas, incluindo competências digitais, para uma adaptação ao progresso científico que envolve soluções baseadas na IA para as pessoas que exercem profissões regulamentadas, nomeadamente atividades relacionadas com o exercício da autoridade do Estado, como a administração da justiça; insta os Estados‑Membros e a Comissão a terem devidamente em conta este aspeto no contexto da aplicação da Diretiva 2005/36/CE(11);
25. Insiste em que os sistemas de IA devem imperativamente respeitar sempre os princípios da responsabilidade, equidade, governabilidade, precaução, responsabilização, imputabilidade, previsibilidade, rastreabilidade, fiabilidade, transparência, explicabilidade, capacidade para detetar eventuais alterações nas circunstâncias e no ambiente operacional, distinção entre combatentes e não‑combatentes e proporcionalidade; realça que este último princípio subordina a legalidade duma ação militar ao respeito dum equilíbrio entre o objetivo e os meios utilizados e que a avaliação desta proporcionalidade tem de ser sempre feita por um ser humano;
26. Salienta que a utilização de sistemas assentes na IA no âmbito da segurança e da defesa exige o pleno conhecimento da situação por parte do operador, a previsibilidade, a fiabilidade e a resiliência do sistema assente na IA, bem como a capacidade do operador humano de detetar eventuais alterações nas circunstâncias e no ambiente operacional e a sua capacidade de intervir ou de pôr termo a um ataque, a fim de garantir que os princípios do direito internacional humanitário – nomeadamente a distinção, a proporcionalidade e a precaução no ataque – sejam plenamente aplicados em toda a cadeia de comando e controlo; sublinha que os sistemas assentes na IA devem imperativamente permitir aos seres humanos no comando exercer um controlo significativo, assumir a plena responsabilidade pelos sistemas e responder por quaisquer utilizações em todas as circunstâncias; insta a Comissão a promover o diálogo, uma cooperação mais estreita e sinergias entre os Estados‑Membros, os investigadores, os académicos, os intervenientes da sociedade civil, o setor privado – em particular, as empresas líderes – e os militares, para que se dotem de processos de elaboração de políticas inclusivas no que se refere à regulamentação em matéria de IA relacionada com a defesa;
27. Salienta que o Parlamento solicitou a elaboração e adoção urgente duma posição comum sobre sistemas de armas letais autónomos (SALA) que impeça o desenvolvimento, a produção e a utilização de SALA capazes de atacar sem um controlo humano significativo, bem como o início de negociações eficazes para a sua proibição; neste contexto, recorda a sua resolução, de 12 de setembro de 2018, sobre sistemas de armamento autónomos; recorda que o termo «sistemas de armas letais autónomos» se refere a sistemas de armas sem controlo humano significativo relativamente às funções fundamentais de alvejar e atacar alvos individuais; salienta que a decisão de selecionar um alvo e tomar medidas letais com recurso a sistemas de armas com um certo grau de autonomia tem sempre de ser tomada por operadores humanos que exerçam um controlo e uma supervisão significativos e disponham do julgamento necessário em consonância com os princípios da proporcionalidade e da necessidade; salienta que não se pode permitir que os sistemas assentes na IA sejam, qualquer que seja a circunstância, autorizados a substituir‑se à decisão humana neste domínio;
28. Observa, além disso, que os sistemas de armas autónomos – uma categoria particular da IA no domínio militar – devem ser debatidos e acordados a nível internacional, especificamente no fórum da Convenção da ONU sobre Certas Armas Convencionais (CCAC); chama a atenção para o debate internacional em curso sobre os SALA visando regular as tecnologias militares emergentes, o qual, até à data, não conseguiu chegar a acordo; salienta que a UE só recentemente acordou em debater os efeitos da evolução da IA e da digitalização no setor da defesa; considera que a UE pode desempenhar um papel fundamental ajudando os Estados‑Membros a harmonizarem a sua abordagem à IA militar, a fim de liderar os debates internacionais.
29. Insiste na necessidade duma estratégia à escala da UE contra os SALA e a proibição dos chamados «robôs assassinos»;
30. Salienta que a IA utilizada num contexto militar tem de cumprir um conjunto mínimo de requisitos, nomeadamente: deve ser capaz de distinguir entre combatentes, não combatentes e combatentes no campo de batalha; reconhecer quando um combatente se rende ou está fora de combate; não ter efeitos indiscriminados; não causar sofrimento humano desnecessário; não ser tendenciosa ou treinada com base em dados intencionalmente incompletos; e respeitar os princípios do direito humanitário internacional, da proporcionalidade no uso da força e da precaução antes da intervenção;
31. Considera que a utilização de SALA levanta questões éticas e jurídicas fundamentais sobre a capacidade dos seres humanos para controlar esses sistemas e exige que a tecnologia baseada na IA não possa tomar decisões autónomas que envolvam os princípios jurídicos da distinção, proporcionalidade e precaução;
32. Apela à adoção de medidas transparentes e de redução dos riscos a nível internacional no que diz respeito ao desenvolvimento e à utilização da IA para fins militares, em particular no que se refere aos princípios da integridade territorial, da não intervenção e da utilização da força; salienta a importância de ter em conta os aspetos militares no momento de abordar as questões jurídicas e éticas no quadro europeu em matéria de IA; recorda a sua posição sobre a proibição do desenvolvimento, produção e utilização de SALA; lamenta que não existam convenções explícitas à escala mundial sobre a utilização destas armas;
33. Reconhece que a moderna dinâmica da corrida ao armamento em resultado do desenvolvimento de SALA pelos principais Estados militares está a ultrapassar o progresso e a aplicação universal e efetiva de regras e quadros jurídicos comuns, uma vez que as informações sobre o desenvolvimento e a implantação destes sistemas são confidenciais e os Estados têm interesse na criação de capacidades ofensivas tão rápidas e eficazes quanto possível, independentemente dos quadros ou princípios jurídicos vigentes ou futuros;
34. Considera que os SALA só devem ser utilizados como último recurso e só são legais se estiverem sujeitos a um controlo humano rigoroso, com um ser humano capaz de assumir o comando em qualquer momento, uma vez que a intervenção e supervisão humanas significativas são essenciais no processo de tomada de decisões letais e que os seres humanos devem ser sempre responsáveis quando se decide entre a vida e a morte; considera que os sistemas sem qualquer controlo humano («human off the loop») e a supervisão humana devem imperativamente ser proibidos, sem exceções e em todas as circunstâncias;
35. Exorta o VP/AR, os Estados‑Membros e o Conselho Europeu a elaborarem e adotarem urgentemente uma posição comum sobre os SALA que assegure um controlo humano significativo sobre as funções críticas dos sistemas de armas, inclusivamente durante a sua implantação, bem como a falarem a uma só voz nos fóruns relevantes e a agirem em conformidade; neste contexto, insta o VP/AR, os Estados‑Membros e o Conselho a partilharem boas práticas e a recolherem o contributo de peritos, académicos e da sociedade civil, tal como refletido na posição de 12 de setembro de 2018 sobre sistemas de armas autónomos, segundo a qual os ataques devem ser sempre realizados com uma intervenção humana significativa;
36. Insta todos os Estados a avaliarem se e de que forma os dispositivos autónomos militares contribuíram para a sua segurança nacional, bem como a efetuarem uma avaliação das eventuais vantagens dos sistemas de armamento assentes na IA para os seus sistemas nacionais de segurança, em particular o potencial dessas tecnologias para apoiar e reforçar a tomada de decisões humana, em conformidade com o direito internacional humanitário e respetivos princípios; recorda que quaisquer SALA ou armas com um elevado grau de autonomia podem funcionar mal devido a um código mal escrito ou a um ciberataque perpetrado por um Estado inimigo ou por um interveniente não público;
37. Insiste em que os SALA só devem ser utilizados em casos claramente definidos e de acordo com procedimentos de autorização previamente detalhados em documentos relativamente aos quais o Estado em causa – independentemente de ser ou não membro da Organização do Tratado do Atlântico Norte – garanta o acesso público ou, pelo menos, do seu parlamento nacional;
38. Considera que os SALA devem respeitar as disposições da Convenção sobre Certas Armas Convencionais, de 10 de outubro de 1980, incluindo a proibição de produzir «efeitos traumáticos excessivos»;
39. Sugere que, para impedir a sua proliferação não controlada, os SALA sejam incluídos na lista de armas sujeitas às disposições do Tratado de Comércio de Armas de 2 de abril de 2013, que figura no artigo 2.º deste Tratado;
40. Solicita a proibição da antropomorfização dos SALA para evitar qualquer possibilidade de confundir seres humanos e robôs;
41. Congratula‑se com o acordo entre o Conselho e o Parlamento no sentido de excluir as armas letais autónomas «sem possibilidade de exercer um controlo humano significativo sobre as decisões de seleção de alvos e de intervenção, ao proceder a ataques» das ações financiadas ao abrigo do Fundo Europeu de Defesa (FED); recorda a sua posição segundo a qual a utilização, o desenvolvimento ou a produção de SALA sem um controlo humano significativo não são elegíveis para financiamento ao abrigo do FED;
42. Insta a Comissão a apoiar a investigação, o desenvolvimento, a implantação e a utilização da IA para preservar a paz e prevenir conflitos;
43. Observa que o ecossistema mundial da IA é dominado pelos gigantes digitais americanos e chineses, que estão a desenvolver as capacidades nacionais e a adquirir muitas empresas promissoras; manifesta, portanto, a firme convicção de que para evitar ficar para trás na tecnologia da inteligência artificial, a UE tem de avançar no sentido de um melhor equilíbrio entre a investigação fundamental e as aplicações industriais, desenvolvendo simultaneamente vantagens estratégicas comparativas através do reforço do seu potencial e recursos próprios;
44. Salienta que, na medida em que sejam abrangidos pela definição de «máquina» constante da Diretiva 2006/42/CE(12), os robôs devem ser concebidos e montados em conformidade com as normas e as medidas de segurança nela previstas;
45. Recorda a ambição da UE de constituir um interveniente a nível mundial em prol da paz, exorta a UE desempenhar um papel alargado nos esforços envidados a nível mundial em matéria de desarmamento e de não‑proliferação e solicita que as ações e políticas da UE visem garantir a preservação da paz e da segurança internacionais, assegurando o respeito pelo direito internacional humanitário e pelo direito internacional em matéria de direitos humanos, bem como a proteção dos civis e das infraestruturas civis;
46. Salienta a necessidade de analisar o potencial impacto da IA enquanto fator estratégico para a política comum de segurança e defesa (PCSD) da UE, especialmente em missões e operações militares e civis, e para o desenvolvimento das capacidades da UE;
47. Recorda que os nossos aliados, a nível nacional ou no âmbito da OTAN ou da UE, estão a integrar a IA nos seus sistemas militares; entende que é imperativo preservar a interoperabilidade com os nossos aliados, através de normas comuns, que são essenciais para realizar operações em coligação; recorda, ademais, que a cooperação no domínio da IA deve ocorrer num quadro europeu, que é o único quadro pertinente para gerar sinergias verdadeiramente fortes, como proposto pela estratégia da UE em matéria de IA;
48. Considera que a UE tem de acompanhar e ponderar atentamente as implicações dos progressos da IA para a defesa e a guerra – incluindo os desenvolvimentos e mobilizações potencialmente desestabilizadores – e orientar a investigação e conceção éticas, garantindo a integridade dos dados pessoais e o acesso e controlo individuais, além de ter em conta as questões económicas e humanitárias;
49. Recorda a sua posição, de 12 de setembro de 2018, sobre os sistemas de armas autónomos, na qual se declara que os ataques não devem ser realizados sem uma intervenção humana significativa; exorta o VP/AR, os Estados‑Membros e o Conselho Europeu a adotarem uma posição comum sobre os sistemas de armas autónomos que assegure um controlo humano significativo sobre as funções críticas dos sistemas de armas, nomeadamente durante a sua implantação; reitera o seu apoio ao trabalho sobre os SALA do GPG da ONU e das Altas Partes Contratantes da CCAC, que continua a ser o fórum internacional pertinente para as discussões e negociações sobre os desafios jurídicos colocados pelos sistemas de armas autónomas; apela à intensificação de todos os esforços multilaterais atuais, a fim de evitar que os quadros legislativos e regulamentares sejam ultrapassados pelo desenvolvimento tecnológico e pelos novos métodos de guerra; insta o VP/AR – no âmbito dos debates em curso sobre a regulamentação internacional dos SALA pelos Estados partes na CCAC – a manter o seu compromisso e a contribuir para impulsionar sem demora os esforços atinentes à elaboração de um novo quadro normativo mundial e de um instrumento juridicamente vinculativo centrado nas definições, nos conceitos e nas caraterísticas das novas tecnologias emergentes no âmbito dos sistemas de SALA, nas questões éticas e jurídicas do controlo humano, nomeadamente no que respeita a funções críticas, como a seleção e o ataque de alvos, a manutenção da responsabilidade e a prestação de contas por humanos e o grau necessário de interação homem/máquina, incluindo o conceito de controlo e discernimento humanos; insta a que estes esforços garantam o cumprimento do direito internacional humanitário e do direito em matéria de direitos humanos durante as diferentes fases do ciclo de vida de uma arma baseada na IA, a fim de se alcançar um acordo em relação a recomendações tangíveis sobre a clarificação, tomada em consideração e desenvolvimento de aspetos do quadro normativo e operacional relativo a tecnologias emergentes no domínio dos SALA;
50. Considera que é da maior importância para a segurança mundial haver um mecanismo eficaz de aplicação das regras em matéria de não proliferação de SALA e de quaisquer futuras tecnologias ofensivas baseadas na IA;
Autoridade do Estado: exemplos dos domínios civis, incluindo a saúde e a justiça
51. Salienta que os Estados‑Membros têm de agir eficazmente para reduzir a sua dependência de dados estrangeiros e – sem distorcer significativamente o mercado – assegurar que a posse de tecnologias de IA altamente sofisticadas por grupos privados poderosos não faça com que a autoridade do Estado seja contestada ou mesmo usurpada por entidades privadas, especialmente se elas forem propriedade de um país terceiro fora da União Europeia;
52. Salienta que a utilização de sistemas de IA no processo decisório das autoridades públicas pode resultar em decisões tendenciosas que afetem negativamente os cidadãos e, portanto, deve estar sujeita a rigorosos critérios de controlo no que diz respeito à sua segurança, transparência, responsabilização, não discriminação, responsabilidade social e ambiental, entre outros; insta os Estados‑Membros a avaliarem os riscos relacionados com as decisões baseadas na IA relacionadas com o exercício da autoridade do Estado e a preverem salvaguardas, como uma supervisão humana significativa, requisitos de transparência e a possibilidade de contestar tais decisões;
53. Insta os Estados‑Membros a avaliarem os riscos associados às tecnologias baseadas na IA antes de procederem à automatização de atividades relacionadas com o exercício da autoridade do Estado, como a administração da justiça; insta os Estados‑Membros a ponderarem a necessidade de garantir salvaguardas, como a supervisão por um profissional qualificado e regras severas relativas à deontologia profissional;
54. Salienta a importância de tomar medidas a nível europeu para ajudar a promover os tão necessários investimentos, as infraestruturas de dados, a investigação – incluindo a investigação sobre a utilização da IA pelas autoridades públicas – e um quadro ético comum;
55. Salienta que a União Europeia tem de se esforçar por alcançar resiliência estratégica – de modo a nunca mais estar despreparada perante uma crise – e que essa resiliência assume uma importância crucial especialmente no que se refere à IA e às suas aplicações militares; frisa que as cadeias de abastecimento de sistemas militares assentes na IA que podem conduzir à dependência tecnológica devem ser revistas e que tais dependências devem ser gradualmente eliminadas; apela a um maior investimento na IA europeia para a defesa e nas infraestruturas críticas que a sustentam;
56. Insta a Comissão a avaliar as consequências de uma moratória sobre a utilização de sistemas de reconhecimento facial e, em função dos resultados dessa avaliação, a ponderar uma moratória sobre a utilização desses sistemas pelas autoridades públicas nos espaços públicos e nos estabelecimentos de ensino e de prestação de cuidados de saúde, bem como sobre a utilização de sistemas de reconhecimento facial pelas autoridades de aplicação da lei em espaços semipúblicos como os aeroportos, até que as normas técnicas possam ser consideradas plenamente conformes aos direitos fundamentais, os resultados obtidos não sejam tendenciosos nem discriminatórios e sejam criadas salvaguardas rigorosas para prevenir a má utilização que garantam a necessidade e a proporcionalidade na utilização de tais tecnologias;
57. Salienta a importância da cibersegurança para a IA, tanto em cenários ofensivos como defensivos; observa, a este respeito, a importância da cooperação internacional e da publicação e partilha de vulnerabilidades e soluções em matéria de segurança informática; apela à cooperação internacional em matéria de cibersegurança para uma utilização e implantação eficazes da IA, bem como à criação de salvaguardas para prevenir a utilização abusiva da IA e os ciberataques; constata, ademais, a dupla utilização inerente aos sistemas informáticos (ou seja, a sua utilização para fins civis e militares) e à IA e apela à adoção de regulamentação eficaz nesta matéria;
58. Considera que os Estados‑Membros devem promover tecnologias de IA que trabalhem para as pessoas e que as pessoas que sejam objeto duma decisão tomada por uma autoridade pública com base nas informações dum sistema de IA devem ser informadas desse facto, receber sem demora as informações referidas no número anterior, ter a possibilidade de recorrer dessa decisão e optar por que este recurso seja resolvido sem a intervenção dum sistema de IA; insta os Estados‑Membros a ponderarem a necessidade de instituir salvaguardas, como as previstas na Diretiva (UE) 2018/958(13), como a supervisão por um profissional qualificado e regras relativas à deontologia profissional;
59. Sublinha que a realização de previsões com base na partilha de dados, no acesso aos dados e na sua utilização tem de ser regida pelos requisitos de qualidade, integridade, transparência, segurança, privacidade e controlo; salienta a necessidade de ao longo do desenvolvimento, implantação e utilização da IA, da robótica e das tecnologias conexas se respeitar o quadro jurídico da UE em matéria de proteção de dados e privacidade, a fim de aumentar a segurança dos cidadãos e a sua confiança nessas tecnologias;
60. Observa o rápido desenvolvimento de aplicações de IA que reconhecem elementos característicos únicos, como características faciais, movimentos e comportamentos; alerta para as questões de violação de privacidade, de não discriminação e de proteção de dados pessoais relacionadas com a utilização de aplicações de reconhecimento automatizado;
61. Realça que qualquer decisão sobre uma pessoa singular que se baseie exclusivamente no tratamento automatizado de dados, incluindo a definição de perfis, e que produza efeitos jurídicos adversos na pessoa em causa ou que a afete de forma significativa é proibida nos termos do RGPD, a menos que tal seja autorizado pelo direito da União ou pela legislação do Estado‑Membro, sob reserva de medidas adequadas que salvaguardem os direitos, as liberdades e os interesses legítimos da pessoa em causa;
62. Apela à explicação dos algoritmos, à transparência e à supervisão regulamentar sempre que a IA for utilizada pelas autoridades públicas, bem como à realização de avaliações de impacto antes de os instrumentos que usam tecnologias de IA serem implantados pelas autoridades estatais; insta a Comissão e o Comité Europeu para a Proteção de Dados a apresentarem orientações e recomendações e a conceberem melhores práticas, a fim de especificar os critérios e as condições aplicáveis às decisões baseadas na definição de perfis e à utilização da IA pelas autoridades públicas;
63. Constata que a IA desempenha um papel cada vez mais importante na saúde, nomeadamente graças aos algoritmos de ajuda ao diagnóstico, à cirurgia assistida por robôs, às próteses inteligentes, aos tratamentos personalizados baseados na modelização tridimensional do corpo de cada doente, aos robôs sociais destinados a prestar assistência a idosos, às terapias digitais concebidas para melhorar a autonomia de certos doentes mentais, à medicina preditiva e ao software para a antecipação de epidemias;
64. Insiste, contudo, em que todas as utilizações da IA no domínio da saúde pública devem respeitar a proteção dos dados pessoais dos doentes e evitar a divulgação descontrolada dos mesmos;
65. Insta a que todas as utilizações da IA na saúde pública respeitem o princípio da igualdade de tratamento dos doentes em termos de acesso a cuidados de saúde, mantenham a relação entre o doente e o médico e respeitem sempre o juramento de Hipócrates, de modo a que o médico possa sempre afastar‑se da solução sugerida pela IA, mantendo assim a responsabilidade por qualquer decisão;
66. Observa que a utilização da IA na luta contra a criminalidade e a cibercriminalidade pode proporcionar uma vasta gama de possibilidades e oportunidades; afirma, ao mesmo tempo, que deve continuar a prevalecer o princípio de que aquilo que é ilegal fora de linha é ilegal em linha;
67. Assinala que a IA é cada vez mais utilizada no domínio da justiça, a fim de permitir tomar decisões mais racionais, mais consentâneas com a legislação em vigor e mais rápidas; congratula‑se com o facto de se esperar que a utilização da IA acelere os processos judiciais;
68. Considera que é necessário clarificar se é adequado delegar parcialmente as decisões de aplicação da lei na IA, mantendo simultaneamente o controlo humano sobre a decisão final;
69. Sublinha que a utilização da IA na justiça poderia melhorar a análise e recolha de dados e a proteção das vítimas e que tal poderia ser explorado no âmbito da investigação e desenvolvimento e da realização de avaliações de impacto, nomeadamente no que diz respeito à salvaguarda de um processo equitativo e à luta contra os preconceitos e a discriminação, assegurando a aplicação do princípio da precaução; recorda, no entanto, que tal não substitui a participação humana na definição de sentenças ou na tomada de decisões;
70. Recorda a importância dos princípios de governação, transparência, imparcialidade, responsabilização, equidade e integridade intelectual na utilização da IA na justiça penal;
71. Insta os Estados‑Membros a avaliarem os riscos associados às tecnologias baseadas na IA antes de procederem à automatização de atividades relacionadas com o exercício da autoridade do Estado, em particular no domínio da justiça; insta os Estados‑Membros a ponderarem a necessidade de garantir salvaguardas, como a supervisão por um profissional qualificado e regras relativas à deontologia profissional;
72. Observa que algumas tecnologias de IA permitem a automatização do tratamento de informação e das ações de informação a uma dimensão sem precedentes, como a vigilância civil e militar em larga escala, o que constitui uma ameaça para os direitos fundamentais e abre caminho para intervenções ilícitas na soberania nacional; apela ao controlo das atividades de vigilância em larga escala no âmbito da jurisdição do direito internacional, inclusivamente no que respeita às questões de jurisdição e de execução; manifesta a sua grave preocupação com o desenvolvimento de algumas aplicações de classificação social altamente intrusivas, uma vez que põem gravemente em perigo o respeito dos direitos fundamentais; apela a uma proibição explícita da utilização da classificação social em massa por parte das autoridades públicas como forma de restringir os direitos dos cidadãos; apela ao reforço da responsabilização dos intervenientes privados ao abrigo do direito internacional, tendo em conta a hegemonia e o controlo exercidos por certos intervenientes privados no desenvolvimento destas tecnologias; neste contexto, insta a Comissão, o Conselho e os Estados‑Membros a prestarem especial atenção aquando da negociação, celebração e ratificação de acordos internacionais relacionados com litígios familiares transfronteiriços, como o rapto internacional de crianças, e a assegurarem que, neste contexto, os sistemas de IA serão sempre utilizados sendo objeto duma verificação humana eficaz e respeitam as garantias processuais na UE e nos países signatários desses acordos;
73. Solicita que o público seja informado sobre a utilização da IA no domínio da justiça e que essa utilização não dê origem a discriminações resultantes de programação tendenciosa; salienta que o direito de qualquer pessoa a ter acesso a um funcionário público tem de ser respeitado, bem como o direito do funcionário responsável a tomar a decisão pessoalmente e a afastar‑se das informações recebidas da IA, quando o considerar necessário à luz dos pormenores da questão em causa; salienta o direito do arguido de recorrer da decisão em conformidade com a legislação nacional, sem nunca eliminar a responsabilidade final do poder judicial;
74. Solicita, por isso, que todas estas utilizações públicas e administrativas sejam consideradas informações do domínio público e que se evitem discriminações resultantes de programação tendenciosa;
75. Salienta a importância de permitir a implantação e utilização adequadas da IA; insta os Estados‑Membros a ministrarem formação adequada ao seu pessoal civil e militar, a fim de permitir que procedam a uma identificação exata, evitando discriminações e preconceitos nos conjuntos de dados;
76. Manifesta a sua profunda preocupação com as tecnologias de falsificação profunda («deepfake») que permitem a produção de fotos, gravações de áudio e vídeo falsificadas cada vez mais realistas, que podem ser utilizadas para chantagem, para gerar notícias falsas ou para minar a confiança dos cidadãos e influenciar o discurso público; entende que estas práticas são suscetíveis de desestabilizar os países, difundir desinformação e influenciar as eleições; solicita, portanto, que seja imposta a obrigação de todos os materiais que constituem falsificações profundas ou vídeos de síntese feitos de forma realista serem rotulados como não originais pelo seus criadores, estabelecendo uma limitação estrita da sua utilização para fins eleitorais e prevendo medidas de aplicação sólidas; apela a uma investigação adequada neste domínio, a fim de assegurar que as tecnologias destinadas a combater estes fenómenos acompanhem o ritmo da utilização mal‑intencionada da IA;
Transportes
77. Assinala o potencial económico significativo das aplicações de IA, nomeadamente para a otimização do desempenho a longo prazo, a manutenção, a previsão de falhas e o planeamento da construção de infraestruturas de transportes e edifícios, bem como para a segurança, a eficiência energética e os custos; insta, portanto, a Comissão a continuar a promover a investigação no domínio da IA e o intercâmbio de boas práticas nos transportes;
78. Salienta a necessidade de promover a IA com vista a fomentar a multimodalidade, a interoperabilidade e a eficiência energética de todos os modos de transporte, de modo a aumentar a eficiência na organização e gestão dos fluxos de tráfego de mercadorias e de passageiros, a utilizar melhor as infraestruturas e os recursos na rede transeuropeia de transportes (RTE‑T) e a eliminar os obstáculos à criação de um verdadeiro espaço único europeu dos transportes;
79. Recorda os benefícios do Sistema Europeu de Gestão do Tráfego Ferroviário (ERTMS), um sistema automático contínuo de proteção dos comboios, e apoia o desenvolvimento e a definição de normas internacionais em matéria de automatização das operações ferroviárias;
80. Congratula‑se com o trabalho do projeto de Investigação sobre a Gestão do Tráfego Aéreo no Céu Único Europeu (SESAR) acerca dos sistemas de aeronaves não tripuladas e dos sistemas de gestão do tráfego aéreo, tanto civis como militares;
81. Recorda que os veículos autónomos têm um grande potencial para melhorar a mobilidade e a segurança e trazer benefícios ambientais e insta a Comissão e os Estados‑Membros a assegurarem a cooperação entre os reguladores e todas as partes interessadas relevantes para a implantação de veículos rodoviários automatizados na UE;
82. Refere que o setor mundial dos transportes marítimos mudou consideravelmente graças à integração da IA nos últimos anos; recorda os atuais debates exaustivos na Organização Marítima Internacional sobre a integração efetiva de tecnologias novas e emergentes, como os navios autónomos, no seu quadro regulamentar;
83. Salienta que os sistemas de transporte inteligentes podem atenuar o congestionamento do tráfego, aumentar a segurança e a acessibilidade e contribuir para melhorar a gestão dos fluxos de tráfego, a eficiência e as soluções de mobilidade; chama a atenção para o aumento da exposição das redes de transporte tradicionais às ciberameaças; recorda a importância de haver recursos suficientes e mais investigação sobre os riscos de segurança para garantir a segurança dos sistemas automatizados e dos seus dados; congratula‑se com a intenção da Comissão de incluir a cibersegurança como um ponto regular da ordem do dia do debate nas organizações internacionais relacionadas com os transportes;
84. Congratula‑se com os esforços destinados a introduzir sistemas de IA no setor público e apoia a continuação do debate sobre a implantação da IA nos transportes; insta a Comissão a realizar uma avaliação da utilização da IA e de tecnologias semelhantes no setor dos transportes e a elaborar uma lista não exaustiva de segmentos de alto risco nos sistemas de IA que substituem as decisões no âmbito de prerrogativas públicas nesse domínio;
85. Sublinha que o Fundo Europeu de Defesa e a cooperação estruturada permanente devem estimular a cooperação entre os Estados‑Membros e as indústrias de defesa europeias, a fim de desenvolver novas capacidades de defesa europeias na IA e garantir a segurança do aprovisionamento, tendo em conta considerações éticas; salienta a necessidade de evitar a fragmentação através da criação de contactos entre os vários intervenientes e domínios de aplicação, promovendo a compatibilidade e a interoperabilidade a todos os níveis e centrando‑se no trabalho conjunto nas soluções de plataforma e de arquitetura; recorda, além disso, que o próximo Mecanismo Interligar a Europa, que também promove as infraestruturas inteligentes, vai prever um fundo para a adaptação e o desenvolvimento de infraestruturas de transportes de dupla utilização civil ou militar na RTE‑T, a fim de aumentar as sinergias entre as necessidades civis e de defesa e com vista a melhorar a mobilidade civil e militar na União; salienta, portanto, a necessidade de mais investimento, investigação e liderança europeus em tecnologias com elevado impacto no crescimento económico e um potencial significativo de dupla utilização;
86. Sublinha que muitos investimentos em novas tecnologias nos transportes e na mobilidade são baseados nas necessidades do mercado mas que as tecnologias e os produtos comerciais de dupla utilização prontos a utilizar são frequentemente utilizados de forma inovadora para fins militares; salienta, por isso, que o potencial de dupla utilização das soluções assentes em IA deve ser tido em conta na elaboração de normas para a utilização de IA em vários domínios dos setores comercial e militar; solicita que sejam incluídas normas e políticas éticas elevadas no desenvolvimento de tecnologias, produtos e princípios de funcionamento da defesa;
87. Refere que o transporte eficaz de material, munição, armamento e tropas é uma componente essencial das operações militares bem‑sucedidas; salienta que se espera que a IA desempenhe um papel essencial e crie inúmeras aplicações na logística e no transporte militares; assinala que países de todo o mundo, incluindo os Estados‑Membros, estão a integrar armas com IA e outros sistemas nas plataformas terrestres, navais e aéreas; recorda que as aplicações de IA no setor dos transportes podem proporcionar novas capacidades e permitir novas táticas, nomeadamente a combinação de muitos sistemas como drones, barcos não tripulados ou tanques numa operação independente e coordenada;
Direito internacional privado
88. Observa que – dado o número crescente de litígios relacionados com o direito internacional privado causados pela internacionalização das atividades humanas, tanto em linha como no mundo real – a IA pode ajudar a resolvê‑los, criando modelos que permitam não apenas determinar a jurisdição competente e a lei aplicável em cada caso, mas também identificar os conflitos de leis mais delicados e propor soluções para os resolver;
89. Considera, no entanto, que o público tem de ser adequadamente informado sobre as utilizações da IA no direito internacional privado, que essas utilizações não podem resultar em discriminações devido à programação – o que levaria a favorecer sistematicamente a legislação de um Estado em detrimento de outro – e que elas têm de respeitar os direitos do tribunal predeterminado por lei, permitir recursos em conformidade com a legislação aplicável e permitir a qualquer juiz ignorar a solução sugerida pela IA;
90. Sublinha que a circulação de veículos autónomos na União Europeia – que pode dar origem a um número particularmente elevado de litígios no âmbito do direito internacional privado – deve ser objeto de regulamentação europeia específica que determine o regime jurídico aplicável em caso de danos transfronteiras;
91. Refere que a UE está a enfrentar concorrência forte, tendo em conta a crescente importância da investigação e do desenvolvimento no setor privado e os enormes investimentos de países terceiros; apoia, por isso, os esforços da UE destinados a continuar a desenvolver as suas vantagens competitivas e considera que a UE deve procurar ser um modelo em matéria de IA num mundo hiperconectado, adotando uma estratégia eficaz em relação aos seus parceiros externos, incrementando os esforços para estabelecer modelos éticos globais em matéria de IA a nível internacional de acordo com as normas de segurança e de proteção dos consumidores, bem como com os valores europeus e os direitos dos cidadãos, incluindo os direitos fundamentais; considera que tal é também fundamental para a competitividade das empresas europeias; insta a Comissão e os Estados‑Membros a reforçarem a cooperação com os países terceiros e as organizações internacionais – nomeadamente a ONU, a OECD, o G7 e o G20 – e a empenharem‑se num diálogo mais amplo para fazer face aos desafios decorrentes do desenvolvimento desta tecnologia em rápida mutação; entende que estes esforços devem visar, em especial, estabelecer normas comuns e melhorar a interoperabilidade dos sistemas assentes na IA; insta a Comissão a promover o diálogo, uma cooperação mais estreita e sinergias entre os Estados‑Membros, os investigadores, os académicos, os intervenientes da sociedade civil e o setor privado, em particular as empresas líderes, e os militares, de modo a que se dotem de processos de elaboração de políticas inclusivas no que se refere à regulamentação em matéria de IA relacionada com a defesa;
Princípios orientadores
92. Considera que as tecnologias e os sistemas de rede de inteligência artificial devem ter como objetivo proporcionar a segurança jurídica dos cidadãos; sublinha, portanto, que as regras em matéria de conflitos de leis e de jurisdições devem continuar a ser aplicáveis, tendo simultaneamente em conta os interesses dos cidadãos, bem como a necessidade de reduzir o risco da busca do foro mais favorável; recorda que a IA não pode substituir os seres humanos no processo judicial quando se trata de proferir sentenças ou tomar qualquer tipo de decisão final, uma vez que tais decisões devem imperativamente ser sempre tomadas por um ser humano e ser estritamente subordinadas a verificação humana e a um processo equitativo; insiste em que, quando utilizarem provas fornecidas por tecnologias assistidas pela IA, as autoridades judiciais devem ter a obrigação de fundamentar as suas decisões;
93. Recorda que a IA é um progresso científico que não pode comprometer o direito mas, pelo contrário, tem de ser regido pelo mesmo – na União Europeia pelo direito que emana das suas instituições e dos seus Estados‑Membros – e que a IA, a robótica e as tecnologias conexas não podem, em circunstância alguma, contrariar os direitos fundamentais, a democracia e o Estado de direito;
94. Salienta que a IA utilizada para fins de defesa deve ser responsável, equitativa, rastreável, fiável e governável;
95. Considera que a IA, a robótica e as tecnologias conexas – incluindo o software, os algoritmos e os dados utilizados ou produzidos por essas tecnologias, independentemente do domínio em que são utilizadas – devem ser desenvolvidas de forma segura e rigorosa do ponto de vista técnico;
o o o
96. Encarrega o seu Presidente de transmitir a presente resolução ao Conselho e à Comissão.
Diretiva 2005/36/CE do Parlamento Europeu e do Conselho, de 7 de setembro de 2005, relativa ao reconhecimento das qualificações profissionais (JO L 255 de 30.9.2005, p. 22).
Diretiva 2006/42/CE do Parlamento Europeu e do Conselho, de 17 de maio de 2006, relativa às máquinas e que altera a Diretiva 95/16/CE (JO L 157 de 9.6.2006, p. 24).
Diretiva (UE) 2018/958 do Parlamento Europeu e do Conselho, de 28 de junho de 2018, relativa a um teste de proporcionalidade a realizar antes da aprovação de nova regulamentação das profissões (JO L 173 de 9.7.2018, p. 25).