Lei da UE sobre IA: primeira regulamentação de inteligência artificial

A utilização da inteligência artificial na UE é regulada pela Lei da IA, a primeira lei abrangente do mundo sobre a IA. Sabe como esta lei te protege.

Texto do Parlamento Europeu sobre inteligência artificial. Na imagem, um homem enfrenta uma figura gerada por um computador com a linguagem de programação em segundo plano
Esta ilustração de inteligência artificial foi de fato gerada pela IA

No âmbito da sua estratégia digital, a União Europeia (UE) decidiu regulamentar a inteligência artificial (IA) para garantir melhores condições para o desenvolvimento e a utilização desta tecnologia inovadora.

A IA pode trazer muitos benefícios, como melhores cuidados de saúde, transportes mais seguros e mais limpos, produções mais eficientse e energia mais barata e mais sustentável.

Regular a inteligência artificial na Europa: o primeiro quadro abrangente

Em abril de 2021, a Comissão Europeia propôs a primeira lei da UE sobre inteligência artificial, estabelecendo um sistema de classificação de IA baseado no risco. Os sistemas de IA, que podem ser aplicados em diferentes domínios, são analisados e classificados de acordo com o risco que representam para os utilizadores. Os níveis de risco também não ditar a necessidade de respeitar mais ou menos crítérios de conformidade de inteligência artificial.

O que o Parlamento quis ver refletido na legislação sobre IA

A prioridade do Parlamento Europeu consistiu em garantir que os sistemas de IA utilizados na UE sejam seguros, transparentes, rastreáveis, não discriminatórios e respeitadores do ambiente. Os sistemas de IA devem ser supervisionados por pessoas, em vez de serem automatizados, para evitar resultados prejudiciais.

O Parlamento quis também estabelecer uma definição uniforme e neutra em termos tecnológicos para a IA, de modo a ser aplicada em futuros sistemas de IA.



Lei da inteligência artificial: regras diferentes consoante os níveis de risco

As novas regras estabelecem obrigações para os fornecedores e utilizadores em função da classificação do nível de risco da IA. Embora muitos sistemas de IA representem um risco mínimo, é necessário avaliá-los.

Risco inaceitável

As aplicações de IA proibidas na UE incluem:

  • manipulação cognitivo-comportamental de pessoas ou grupos vulneráveis específicos: por exemplo, brinquedos ativados por voz que incentivam comportamentos perigosos nas crianças;

  • inteligência artificial para pontuação social: classificação de pessoas com base no comportamento, estatuto socioeconómico, caraterísticas pessoais;

  • identificação biométrica e categorização de pessoas singulares;

  • sistemas de identificação biométrica em tempo real e à distância, como o reconhecimento facial em espaços públicos.

Podem ser permitidas algumas exceções para fins de aplicação da lei. Os sistemas de identificação biométrica remota "em tempo real" serão permitidos num número limitado de casos considerados graves, enquanto sistemas de “pós-identificação” biométrica à distância, em que a identificação ocorre após um atraso significativo, só serão permitidos para a repressão de crimes graves e após aprovação do tribunal.



Risco elevado

Os sistemas de IA que afetam negativamente a segurança ou os direitos fundamentais serão considerados de elevado risco e serão divididos em duas categorias.

1. Sistemas de IA que são utilizados em produtos abrangidos pela legislação da UE em matéria de segurança dos produtos. Isto inclui brinquedos, aviação, automóveis, dispositivos médicos e elevadores.

2. Sistemas de IA que se enquadram em áreas específicas que terão de ser registados numa base de dados da UE:

  • gestão e funcionamento de infraestruturas essenciais,

  • educação e formação profissional,

  • emprego, gestão dos trabalhadores e acesso ao trabalho por conta própria,

  • acesso e usufruto de serviços privados essenciais e de serviços e benefícios públicos,

  • aplicação da lei,

  • gestão da migração, do asilo e do controlo das fronteiras,

  • assistência na interpretação jurídica e na aplicação da lei.



Todos os sistemas de IA de risco elevado serão avaliados tanto antes de serem colocados no mercado como durante todo o seu ciclo de vida. Os cidadãos terão o direito de apresentar queixas contra os sistemas de IA junto das autoridades nacionais competentes.



Requisitos de transparência


A inteligência artificial generativa, tal como o ChatGPT, não será classificada como sendo de risco elevado mas terá de cumprir os requisitos de transparência e a legislação da UE em matéria de direitos de autor, ou seja:

  • divulgar que o conteúdo foi gerado pela IA;

  • conceber o modelo para evitar que este gere conteúdos ilegais;

  • publicar resumos dos dados protegidos por direitos de autor utilizados para a formação.

Os modelos de inteligência artificial de uso geral de alto impacto que possam representar risco sistémico, como o modelo de IA mais avançado GPT-4, teriam de ser submetidos a avaliações exaustivas e comunicar a ocorrência de quaisquer incidentes graves à Comissão Europeia.

O conteúdo que é gerado ou modificado com recurso à inteligência artificial como, por exemplo as imagens, os arquivos de áudio ou vídeos (como é o caso dos deepfakes), precisa de ser claramente rotulado como sendo gerado através de inteligência artificial para que os utilizadores tenham consciência disso quando se veem confrontados com conteúdo desse género.

Encorajar a inovação e as start-ups de inteligência artificial na Europa

A lei visa apoiar a inovação e as start-ups de IA na Europa, permitindo que as empresas desenvolvam e testem modelos de IA de uso geral antes da sua divulgação pública.

E é por esse motivo que as regras exigem que as autoridades nacionais forneçam às empresas a possibilidade de efetuar testes de simulação de inteligência artificial com condições aproximadas às do mundo real. Tal oportunidade ajudará as pequenas e médias empresas (PME) a competir no crescente mercado de inteligência artificial da UE.

Implementação

O Parlamento criou um grupo de trabalho para supervisionar a implementação e a aplicação do regulamento sobre a inteligência artificial, uma vez que os eurodeputados querem garantir que as regras de IA adotadas contribuam para o desenvolvimento do setor digital na Europa.

O grupo coopera com o Gabinete da Comissão Europeia para a IA na UE, que foi criado para esclarecer as disposições-chave da legislação nesta matéria.

Calendário de cumprimento da lei de inteligência artificial da UE

Em junho de 2024, a UE adotou as primeiras regras mundiais sobre a inteligência artificial. O Regulamento relativo à Inteligência Artificial será aplicável na íntegra 24 meses após a sua entrada em vigor. Algumas das suas disposições serão aplicáveis antes desse período, incluindo:

  • a proibição dos sistemas de IA que apresentem riscos inaceitáveis começou a ser a partir de 2 de fevereiro de 2025;
  • os códigos de prática serão aplicáveis nove meses após a entrada em vigor da legislação;
  • as regras sobre sistemas de IA de uso geral que precisam de cumprir os requisitos de transparência serão aplicáveis 12 meses após a entrada em vigor.

Os sistemas de risco elevado dispõem de mais tempo para cumprir os requisitos, uma vez que as obrigações que lhes dizem respeito serão aplicáveis 36 meses após a entrada em vigor da legislação sobre inteligência artificial.

Mais sobre a ação digital da UE:


- Os perigos da criptomoeda e as vantagens da legislação da UE
- Luta contra a cibercriminalidade: explicação da nova legislação da UE em matéria de cibersegurança
- Aumentar a partilha de dados na UE: quais são os benefícios?
- Lei dos Mercados Digitais e Lei dos Serviços Digitais da UE
- Cinco formas de o Parlamento Europeu proteger os jogadores de vídeo em linha