Processo : 2020/2022(INI)
Ciclo de vida em sessão
Ciclo relativo ao documento : A9-0172/2020

Textos apresentados :

A9-0172/2020

Debates :

PV 19/10/2020 - 18
CRE 19/10/2020 - 15
CRE 19/10/2020 - 18

Votação :

Textos aprovados :

P9_TA(2020)0274

<Date>{01/10/2020}1.10.2020</Date>
<NoDocSe>A9-0172/2020</NoDocSe>
PDF 225kWORD 85k

<TitreType>RELATÓRIO</TitreType>

<Titre>sobre o ato legislativo sobre os serviços digitais e questões relacionadas com os direitos fundamentais</Titre>

<DocRef>(2020/2022(INI))</DocRef>


<Commission>{LIBE}Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos</Commission>

Relator: <Depute>Kris Peeters</Depute>

PROPOSTA DE RESOLUÇÃO DO PARLAMENTO EUROPEU
 EXPOSIÇÃO DE MOTIVOS
 PARECER DA COMISSÃO DO MERCADO INTERNO E DA PROTEÇÃO DOS CONSUMIDORES
 PARECER DA COMISSÃO DA CULTURA E DA EDUCAÇÃO
 INFORMAÇÕES SOBRE A APROVAÇÃO NA COMISSÃO COMPETENTE QUANTO À MATÉRIA DE FUNDO
 VOTAÇÃO NOMINAL FINAL NA COMISSÃO COMPETENTE QUANTO À MATÉRIA DE FUNDO

PROPOSTA DE RESOLUÇÃO DO PARLAMENTO EUROPEU

sobre o ato legislativo sobre os serviços digitais e questões relacionadas com os direitos fundamentais

(2020/2022(INI))

O Parlamento Europeu,

 Tendo em conta o Tratado da União Europeia (TUE), nomeadamente o seu artigo 2.º,

 Tendo em conta o Tratado sobre o Funcionamento da União Europeia (TFUE), nomeadamente os artigos 16.° e 114.°,

 Tendo em conta a Carta dos Direitos Fundamentais da União Europeia, nomeadamente os artigos 6.º, 7.º, 8.º, 11.º, 13.º, 21.º, 22.º, 23.º, 24.º, 26.º, 38.º e 47.º.

 Tendo em conta a Diretiva 2000/31/CE do Parlamento Europeu e do Conselho de 8 de junho de 2000 relativa a certos aspetos legais dos serviços da sociedade de informação, em especial do comércio eletrónico, no mercado interno (Diretiva sobre o comércio eletrónico)[1],

 Tendo em conta o Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados, RGPD)[2], ,

 Tendo em conta a Diretiva 2002/58/CE do Parlamento Europeu e do Conselho, de 12 de julho de 2002, relativa ao tratamento de dados pessoais e à proteção da privacidade no sector das comunicações eletrónicas (Diretiva relativa à privacidade e às comunicações eletrónicas)[3],

 Tendo em conta a Diretiva (UE) 2018/1808 do Parlamento Europeu e do Conselho, de 14 de novembro de 2018, que altera a Diretiva 2010/13/UE relativa à coordenação de certas disposições legislativas, regulamentares e administrativas dos Estados-Membros respeitantes à oferta de serviços de comunicação social audiovisual (Diretiva Serviços de Comunicação Social Audiovisual), para a adaptar à evolução das realidades do mercado[4],

 Tendo em conta a Diretiva (UE) 2019/790 do Parlamento Europeu e do Conselho, de 17 de abril de 2019, relativa aos direitos de autor e direitos conexos no mercado único digital e que altera as Diretivas 96/9/CE e 2001/29/CE (Diretiva relativa aos direitos de autor)[5],

 Tendo em conta a recomendação da Comissão, de 1 de março de 2018, sobre medidas destinadas a combater eficazmente os conteúdos ilegais em linha[6],

  Tendo em conta a avaliação, realizada pela Europol, da ameaça da criminalidade organizada dinamizada pela internet (IOCTA), de 18 de setembro de 2018,

  Tendo em conta a jurisprudência pertinente do Tribunal de Justiça da União Europeia,

 Tendo em conta o artigo 54.º do seu Regimento,

 Tendo em conta os pareceres da Comissão do Mercado Interno e da Proteção dos Consumidores e da Comissão da Cultura e da Educação,

 Tendo em conta o relatório da Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos (A9-0172/2020),

A. Considerando que os direitos fundamentais, como a proteção da privacidade e dos dados pessoais, o princípio da não discriminação ou a liberdade de expressão e de informação devem constituir o cerne de uma política europeia bem-sucedida e sustentável em matéria de serviços digitais; considerando que tais direitos devem estar presentes, tanto na letra da lei como no espírito da sua aplicação;

B. Considerando que os tipos de serviços digitais e o papel dos prestadores de serviços digitais mudaram drasticamente desde a adoção da diretiva relativa ao comércio eletrónico, há 20 anos;

C. Considerando que apenas é possível ganhar a confiança dos utilizadores através de serviços digitais respeitadores dos seus direitos fundamentais, garantindo assim quer a adesão a esses serviços, quer uma vantagem concorrencial e modelos de negócio estáveis para as empresas;

D. Considerando que as regras de proteção de dados aplicáveis a todos os prestadores de serviços que oferecem serviços digitais no território da UE foram recentemente atualizadas e harmonizadas em toda a UE através do Regulamento Geral sobre a Proteção de Dados; considerando que as regras em matéria de privacidade no que toca às comunicações eletrónicas, que são um subconjunto dos serviços digitais, são abrangidas pela diretiva relativa à privacidade e às comunicações eletrónicas e são atualmente revistas;

E. Considerando que o volume partilhado de todos os tipos de conteúdos gerados pelos utilizadores e a quantidade de serviços prestados através de plataformas em linha, incluindo serviços em nuvem, aumentou exponencialmente e a um ritmo nunca visto graças às tecnologias avançadas; considerando que tal inclui conteúdos ilegais, como imagens de pornografia infantil em linha e conteúdo que, embora seja legal, pode ser prejudicial para a sociedade e a democracia, como a desinformação em matéria de tratamentos para a COVID-19;

F. Considerando que o discurso do ódio e a desinformação em linha se generalizaram nos últimos anos, uma vez que agentes desestabilizadores utilizam as capacidades das plataformas em linha para intensificar a polarização, que é utilizada para fins políticos; considerando que as mulheres, as pessoas de cor, as pessoas pertencentes ou vistas como pertencendo a minorias étnicas ou linguísticas e as pessoas LGBTIQ são muitas vezes alvo, em linha, de discurso do ódio discriminatório, assédio e ameaças ou tratadas como bodes expiatórios;

G. Considerando que esta tendência foi facilitada pelas plataformas em linha, cujo modelo de negócios se baseia na recolha e na análise de dados de utilizadores para gerar mais tráfico e cliques e, por sua vez, mais dados para a definição de perfis e, assim, mais lucros; considerando que tal resulta num aumento do alcance de conteúdos sensacionalistas; considerando que o discurso de ódio e a desinformação prejudicam o interesse público, minando o discurso público respeitador e honesto, e que representam uma ameaça para a saúde pública, pois incentivam à violência no mundo real; considerando que a luta contra este tipo de conteúdos é essencial para garantir o respeito pelos direitos fundamentais e para defender o Estado de Direito e a democracia na UE;

H. Considerando que as redes sociais e outras plataformas de distribuição de conteúdos recorrem a técnicas de definição de perfis para direcionar e distribuir os seus conteúdos, bem como a publicidade; considerando que os dados recolhidos através de rastos digitais podem ser explorados de forma a permitir a inferência, com grande rigor, de informações pessoais extremamente íntimas, sobretudo quando tais dados são combinados com outros conjuntos de dados; considerando que os escândalos Cambridge Analytica e Facebook revelaram o perigo inerente às operações de tratamento de dados pouco transparentes das plataformas em linha, demonstrando de que modo os dados dos utilizadores foram utilizados para direcionar para determinados eleitores, com grande especificidade, publicidade política e, por vezes até, mensagens de desinformação direcionadas;

I. Considerando que os algoritmos automatizados que determinam o tratamento, a prioridade, a distribuição e a supressão de conteúdos de terceiros nas plataformas em linha, incluindo durante as campanhas políticas e eleitorais, reproduzem frequentemente os padrões de discriminação existentes na sociedade, conduzindo assim a um elevado risco de discriminação para as pessoas já afetadas; considerando que a utilização generalizada de algoritmos para efeitos remoção e bloqueio de conteúdos também suscita preocupações relacionadas com o Estado de Direito, bem como questões relacionadas com a legalidade, legitimidade e proporcionalidade;

J. Considerando que um pequeno número de prestadores de serviços – sobretudo não europeus – têm um peso significativo no mercado e influenciam os direitos e as liberdades das pessoas, das nossas sociedades e das nossas democracias, através do controlo da forma como a informação, os serviços e os produtos são apresentados, o que lhes confere uma enorme influência sobre o funcionamento de todos os países da União e sobre os seus cidadãos; considerando que as decisões destas plataformas podem ter vastas consequências no que se refere à liberdade de expressão e de informação e à liberdade e ao pluralismo dos meios de comunicação;

K. Considerando que, até à data, a abordagem política para o combate aos conteúdos ilegais em linha na UE incidiu principalmente na cooperação voluntária e em remoções de conteúdos ordenadas pelos tribunais, mas que um número crescente de Estados-Membros têm vindo a adotar, de forma não harmonizada, legislação nacional adicional para combater os conteúdos ilegais; considerando que foram incluídas na legislação setorial recente a nível da UE disposições destinadas a lidar com determinados tipos de conteúdos;

L. Considerando que uma abordagem puramente autorreguladora das plataformas não garante a transparência, responsabilização e supervisão adequadas; considerando que não proporciona informações pertinentes às autoridades públicas, à sociedade civil e aos utilizadores sobre a forma como as plataformas abordam os conteúdos e as atividades ilegais e os conteúdos que violam os seus termos e condições, nem sobre a forma como gerem os conteúdos em geral;

M. Considerando que tal abordagem não garante o respeito dos direitos fundamentais e cria uma situação em que as responsabilidades jurisdicionais são transferidas para partes privadas, o que gera um risco de interferência no direito de liberdade de expressão;

N. Considerando que o controlo regulamentar e a supervisão são realizados, na UE, em relação a setores específicos; considerando que seria benéfica uma coordenação reforçada e mais abrangente entre os diferentes organismos de supervisão em toda a UE;

O. Considerando que a falta de dados públicos sólidos e comparáveis sobre a prevalência de conteúdos ilegais e lesivos em linha, as notificações e a remoção ordenada pelos tribunais e a remoção autorregulada, bem como sobre o seguimento dado pelas autoridades competentes, são elementos que suscitam um défice de transparência e de responsabilização, tanto no setor privado como no setor público; considerando a falta de informação sobre os algoritmos utilizados pelas plataformas e os sítios Web e a forma como as plataformas abordam a questão da remoção por erro de conteúdos;

P. Considerando que a exploração sexual de crianças em linha é um dos tipos de conteúdos ilegais facilitadas pela evolução tecnológica; considerando que a grande quantidade de material pedo-pornográfico que circula em linha coloca sérios desafios nos domínios da deteção, da investigação e, sobretudo, da identificação de vítimas; considerando que, segundo a Europol, as denúncias de partilha em linha de material pedo-pornográfico à CNCDE aumentaram 106 % no ano passado;

Q. Considerando que, segundo a jurisprudência do Tribunal de Justiça da União Europeia (TJUE), os conteúdos devem ser suprimidos na sequência de uma decisão de um Estado-Membro; considerando que os prestadores de serviços de alojamento virtual podem recorrer a ferramentas e tecnologias de pesquisa automatizada para detetar e remover os conteúdos idênticos a conteúdos anteriormente declarados ilegais, mas que não devem ser obrigados a uma vigilância geral das informações por eles conservadas, ou a uma procura ativa de factos ou circunstâncias que indiciem ilicitudes, conforme disposto no artigo 15.º, n.º 1, da Diretiva 2000/31;

R. Considerando que uma identificação eletrónica de confiança é um elemento crucial para garantir a segurança do acesso aos serviços digitais e para efetuar transações eletrónicas de modo mais seguro; considerando que, atualmente, só 15 Estados-Membros comunicaram à Comissão as informações relativas aos seus sistemas de identificação digital para reconhecimento transfronteiriço no âmbito do Regulamento (UE) n.º 910/2014[7];

S. Considerando que a Internet e as plataformas da Internet continuam a ser fundamentais para as atividades dos grupos terroristas e são utilizadas como ferramenta de propaganda, recrutamento e promoção das suas atividades;

1. Acredita nos benefícios sociais e económicos claros de um mercado único digital funcional para a UE e os seus Estados-Membros; saúda esses benefícios, e em especial a melhoria do acesso à informação e o reforço da liberdade de expressão; salienta a importância da obrigação de assegurar um ecossistema digital justo, em que os direitos fundamentais, consagrados nos Tratados e na Carta dos Direitos Fundamentais da União Europeia, nomeadamente a liberdade de expressão e de informação, a não discriminação, a liberdade e o pluralismo dos meios de comunicação social, a privacidade e a proteção de dados sejam respeitados e a segurança dos utilizadores seja garantida em linha; salienta que as intervenções legislativas e outras intervenções regulamentares no mercado único digital destinadas a garantir o cumprimento desta obrigação se devem limitar estritamente ao necessário; recorda que os mecanismos de eliminação de conteúdos utilizados fora do âmbito de aplicação das garantias de um processo equitativo violam o artigo 10.º da Convenção Europeia dos Direitos Humanos;

2. Exorta a Comissão a adotar uma abordagem regulamentar adaptada para resolver a questão das diferenças persistentes entre o mundo em linha e o mundo real e fazer face a todos os desafios colocados pela diversidade de intervenientes e serviços existentes em linha; considera, a este respeito, que é fundamental optar por abordagens regulamentares diferentes para os conteúdos ilegais e legais; salienta que os conteúdos ilegais e os crimes com recurso a meios informáticos devem ser combatidos com o mesmo rigor e com base nos mesmos princípios jurídicos que os conteúdos e comportamentos ilegais fora de linha, proporcionando as mesmas garantias aos cidadãos; recorda que a Diretiva sobre o comércio eletrónico constitui o quadro jurídico para os serviços em linha no mercado interno e regula a gestão de conteúdos;

3. Considera necessário eliminar os conteúdos ilegais de forma rápida e coerente, a fim de combater os crimes e as violações dos direitos fundamentais; considera que os códigos de conduta voluntários resolvem apenas parcialmente a questão;

4. Apela a que os prestadores de serviços digitais retirem conteúdos da Internet de forma diligente, proporcionada e não discriminatória, tendo em devida conta, em todas as circunstâncias, os direitos fundamentais dos utilizadores, bem como a importância fulcral da liberdade de expressão e de informação no seio de uma sociedade democrática, com vista a evitar a eliminação de conteúdos que não sejam ilegais. solicita que os prestadores de serviços digitais que, por iniciativa própria, pretendam limitar determinados conteúdos legais dos seus utilizadores, ponderem a opção de rotular tais conteúdos em vez de os retirarem da Internet, dando assim aos utilizadores a possibilidade de, sob a sua responsabilidade, acederem aos mesmos;

5. Considera que as medidas de remoção de conteúdos legalmente impostas previstas no ato relativo aos serviços digitais só devem dizer respeito a conteúdos ilegais, tal como definido no direito da UE e no direito nacional, e que a legislação não deve incluir conceitos e termos indefinidos, uma vez que tal criaria insegurança jurídica para as plataformas em linha e colocaria em risco os direitos fundamentais e a liberdade de expressão;

6. Reconhece, no entanto, que o atual ecossistema digital também incentiva comportamentos problemáticos, tais como o microdirecionamento de conteúdos com base em características que expõem vulnerabilidades físicas ou psicológicas, a propagação de discursos de ódio, de conteúdos racistas e da desinformação, questões emergentes como o abuso organizado de múltiplas plataformas, a criação de contas ou a manipulação de conteúdos em linha por algoritmos; observa, com preocupação, que alguns modelos empresariais se baseiam na apresentação de conteúdo sensacionalista e polarizante aos utilizadores, com o objetivo de aumentar o seu tempo de ligação e, por conseguinte, os lucros das plataformas em linha; sublinha os efeitos negativos de tais modelos empresariais nos direitos fundamentais dos indivíduos e na sociedade em geral; apela à transparência no que respeita às políticas de monetização das plataformas em linha;

7. Salienta, por conseguinte, que a propagação de tais conteúdos nocivos deve ser contida; mostra-se firmemente convicto de que, neste contexto, as competências de literacia mediática, o controlo por parte dos utilizadores quanto ao conteúdo proposto e o acesso do público a conteúdos e educação de elevada qualidade são cruciais; saúda, por conseguinte, a iniciativa da Comissão no sentido de criar um Observatório Europeu dos Meios de Comunicação Digitais, para apoiar serviços independentes de verificação dos factos, reforçar os conhecimentos do público sobre a desinformação em linha e ajudar as autoridades públicas encarregadas da monitorização dos meios de comunicação digitais;

8. Insta a Comissão e os Estados-Membros a apoiarem os meios de comunicação social independentes e públicos e as iniciativas educativas em matéria de literacia mediática e campanhas de sensibilização específicas na sociedade civil; assinala que deve ser dada especial atenção aos conteúdos nocivos no caso dos menores que utilizam a Internet, em particular no que toca à sua exposição a ciberassédio, assédio sexual, pornografia, violência e automutilação;

9. Observa que uma vez que as atividades em linha de um indivíduo permitem obter perceções aprofundadas acerca da sua personalidade, bem como manipulá-lo, a recolha generalizada e indiscriminada de dados pessoais sobre todas as utilizações de um serviço digital interfere de forma desproporcional com o direito à privacidade e a proteção dos dados pessoais; regista o potencial impacto negativo da publicidade microdirecionada e comportamental e das avaliações dos indivíduos, especialmente de menores e de outros grupos vulneráveis, interferindo na vida privada das pessoas, o que suscita questões quanto à recolha e utilização dos dados para personalizar a referida publicidade, oferecer produtos ou serviços ou definir preços; confirma que o direito dos utilizadores de não estarem sujeitos a um controlo generalizado das suas atividades aquando da utilização de serviços digitais foi incluído no RGPD e deve ser devidamente aplicado em toda a UE; observa que, na sua proposta de um novo regulamento relativo ao respeito pela vida privada e à proteção dos dados pessoais nas comunicações eletrónicas (2017/0003 (COD)), a Comissão propôs subordinar o tratamento específico dos conteúdos a uma manifestação de consentimento;

10. Entende que a publicidade de carácter político enganadora ou dissimulada constitui uma categoria especial de ameaça em linha, dado que influencia os mecanismos básicos que possibilitam o funcionamento da nossa sociedade democrática, sobretudo quando tais conteúdos são promovidos por terceiros, incluindo por agentes estrangeiros; sublinha que quando a definição de perfis é utilizada em maior escala, para efeitos de microdirecionamento político com vista a manipular os comportamentos eleitorais, tal pode minar os alicerces da democracia; insta, por conseguinte, os prestadores de serviços digitais a tomarem as medidas necessárias para identificar e rotular os conteúdos carregados por bots sociais e espera que a Comissão forneça orientações sobre a utilização dessas tecnologias digitais persuasivas nas campanhas eleitorais e na política relativa à publicidade de caráter político; insta, nesse sentido, à definição de rigorosos requisitos de transparência relativos à exibição de publicidade de carácter político paga;

11. Considera necessário eliminar os conteúdos ilegais de forma coerente e sem atrasos injustificados para resolver a questão das infrações (em especial em matéria de conteúdos relacionados com crianças e com terrorismo) e das violações dos direitos fundamentais, com as salvaguardas necessárias, como, por exemplo, a transparência do processo e o direito de contestar a decisão, incluindo através de um recurso judicial efetivo; considera que os códigos de conduta voluntários e as cláusulas contratuais gerais não são adequadamente aplicados e demonstraram só resolver parcialmente a questão; salienta que a responsabilidade final por fazer cumprir a legislação, por tomar uma decisão sobre a legalidade das atividades e por ordenar aos prestadores de serviços de alojamento virtual que removam conteúdos ilegais ou desativem o acesso a esses conteúdos incumbe a autoridades competentes independentes;

12. Reconhece que, embora a natureza ilegal de determinados tipos de conteúdos possa ser facilmente demonstrada, a decisão é mais difícil para outros tipos de conteúdos, pois requer contextualização; alerta para o facto de os atuais instrumentos automatizados não serem capazes de analisar de forma crítica e de compreender adequadamente a importância do contexto de determinados conteúdos, o que pode provocar numa remoção desnecessária e prejudicar a liberdade de expressão e o acesso a informações diferentes, nomeadamente sobre opiniões políticas, o que resultaria em censura; salienta que a análise, por humanos, de relatórios automatizados dos prestadores de serviços ou dos seus contratantes não resolve totalmente este problema, especialmente se for subcontratada a pessoal privado que não dispõe de independência, qualificação e responsabilização suficientes;

13. Observa, com preocupação, que os conteúdos ilegais em linha podem ser facilmente e rapidamente multiplicados e o seu impacto negativo amplificado num período de tempo muito curto; considera, no entanto, que o ato legislativo sobre os serviços digitais não deve prever a obrigação de os prestadores de serviços de alojamento virtual ou outros intermediários técnicos utilizarem instrumentos automatizados de moderação de conteúdos;

14. Recorda que os conteúdos ilegais em linha não devem apenas ser eliminados pelas plataformas em linha, mas que a remoção também deve ser acompanhada de intervenções dos serviços responsáveis pela aplicação da lei e do sistema judicial, nos casos que envolvem atos criminosos; insta a Comissão a ponderar a possibilidade de obrigar as plataformas em linha a comunicarem crimes graves à autoridade competente logo que tenham conhecimento de tais crimes; considera, a este respeito, que um dos principais problemas em alguns Estados-Membros não é o facto de existirem casos não resolvidos, mas também casos que nunca foram declarados; apela à supressão dos obstáculos à apresentação de queixas junto das autoridades competentes; mostra-se convicto de que, dada a natureza sem fronteiras da Internet e a rápida difusão de conteúdos ilegais em linha, a cooperação entre os prestadores de serviços e as autoridades nacionais competentes deve ser melhorada – como o deve também ser a cooperação transfronteiriça entre autoridades nacionais competentes – e basear-se nos princípios da necessidade e da proporcionalidade; salienta, a este respeito, a necessidade de respeitar o ordenamento jurídico da UE e os princípios consagrados da cooperação transfronteiriça e da confiança mútua; insta os Estados-Membros a dotarem as suas autoridades policiais e judiciais das competências, dos recursos e dos instrumentos necessários para lhes permitir lidar de forma eficaz e eficiente com o número crescente de casos que envolvem conteúdos ilegais em linha e com a resolução de litígios sobre a remoção de conteúdos, bem como para melhorar o acesso à justiça no domínio dos serviços digitais;

15. Sublinha que um determinado elemento pode ser considerado ilegal num Estado-Membro, mas estar protegido pelo direito à liberdade de expressão noutro Estado-Membro; realça que, a fim de proteger a liberdade de expressão, evitar conflitos de leis, prevenir bloqueios geográficos injustificados e ineficazes e visar um mercado único digital harmonizado, os prestadores de serviços de alojamento virtual não devem ser obrigados a remover informações ou a desativar o acesso a informações que sejam legais no Estado-Membro em que estão estabelecidos, ou onde o seu representante legal designado reside ou está estabelecido; recorda que as autoridades nacionais só podem executar ordens de remoção impostas por autoridades competentes independentes a prestadores de serviços estabelecidos no seu território; considera necessário reforçar os mecanismos de cooperação entre os Estados-Membros, com o apoio da Comissão e das agências pertinentes da União; apela a um diálogo estruturado entre os Estados-Membros, para avaliar o risco associado a tipos específicos de conteúdos e identificar potenciais diferenças entre Estados-Membros no que respeita à avaliação de tais riscos;

16. Sublinha que os conteúdos ilegais devem ser removidos no local onde se encontram alojados, e que os intermediários que procedem ao seu simples transporte não devem ser obrigados a bloquear o acesso a conteúdos;

17. Acredita firmemente que o atual quadro jurídico da UE que rege os serviços digitais deve ser atualizado, com vista a enfrentar os desafios colocados pela fragmentação existente entre os Estados-Membros e pelas novas tecnologias, tais como a prevalência da definição de perfis e da tomada de decisões algorítmicas que permeiam todos os domínios da vida, bem como para garantir, no futuro, a clareza jurídica e o respeito pelos direitos fundamentais, em especial a liberdade de expressão e o direito à privacidade, tendo em conta o rápido desenvolvimento da tecnologia;

18. Congratula-se com o compromisso da Comissão de introduzir uma abordagem harmonizada para as obrigações impostas aos fornecedores de serviços digitais, incluindo intermediários em linha, a fim de evitar a fragmentação do mercado interno e uma aplicação inconsistente da regulamentação; exorta, ademais, a Comissão a propor, em vez disso, as soluções mais eficientes e eficazes para o mercado interno na sua globalidade, procurando evitar criar novos encargos administrativos e manter o mercado único digital aberto, justo, seguro e competitivo para todos os seus participantes; salienta que o regime de responsabilidade aplicável aos prestadores de serviços deve ser proporcionado, não devendo prejudicar os pequenos e médios prestadores de serviços nem limitar inutilmente a inovação e o acesso à informação;

19. Considera que a reforma deve assentar na base sólida da atual legislação da UE e no seu pleno cumprimento, em especial do Regulamento Geral sobre a Proteção de Dados e da Diretiva Privacidade e Comunicações Eletrónicas, atualmente sujeita a revisão, bem como no respeito do primado de outros instrumentos específicos deste setor, como a Diretiva Serviços de Comunicação Social Audiovisual; sublinha que a modernização das regras do comércio eletrónico pode afetar os direitos fundamentais; apela assim a que a Comissão se mantenha extremamente atenta no que se refere à sua abordagem, e que integre também na sua revisão normas internacionais em matéria de direitos humanos;

20. Sublinha que a capacidade prática dos utilizadores individuais para compreender e destrinçar a complexidade dos ecossistemas é extremamente reduzida, como o é também a sua capacidade de identificar se as informações que lhes são fornecidas e os serviços que utilizam lhes estão a ser disponibilizados em condições idênticas às aplicáveis a outros utilizadores; insta, por conseguinte, a Comissão a fazer da transparência e da não discriminação elementos centrais do ato legislativo sobre os serviços digitais;

21. Reitera que o ato legislativo sobre os serviços digitais deve visar a garantia de um elevado nível de transparência no que respeita o funcionamento dos serviços em linha, bem como um ambiente digital sem discriminação; salienta que, para além do atual quadro regulamentar sólido que protege a privacidade e os dados pessoais, é necessário prever a obrigação de as plataformas em linha garantirem a utilização legítima de algoritmos; insta, por conseguinte, a Comissão a desenvolver um sistema baseado na Diretiva relativa ao comércio eletrónico que defina claramente a responsabilidade dos prestadores de serviços no sentido de abordar os riscos enfrentados pelos seus utilizadores e proteger os seus direitos e a prever uma obrigação de transparência e de explicação dos algoritmos, sanções para fazer cumprir essas obrigações, a possibilidade de intervenção humana e outras medidas, como auditorias independentes anuais e testes de esforço específicos para prestar assistência e garantir o cumprimento;

22. Realça que alguns prestadores de serviços digitais têm de ser capazes de identificar os utilizadores sem equívocos e a mesma forma que em matéria de serviços fora de linha; assinala a recolha desnecessária de dados pessoais, como números de telemóvel, por plataformas em linha aquando do registo para um serviço, muitas vezes devido ao recurso a sistemas que permitem o início de sessão único; sublinha que o RGPD descreve de forma clara o princípio da minimização dos dados, limitando assim a recolha de dados aos dados que são estritamente necessários para a finalidade em questão; recomenda que as plataformas em linha permitam a utilização de um sistema de início de sessão único com uma quota de mercado dominante também sejam obrigadas a utilizar pelo menos um sistema de identidades aberto, baseado num quadro descentralizado, interoperável e de uso livre;

23. Sublinha que, para cada tipo de identificação oficial exigida fora de linha, é necessário criar um sistema seguro de identificação eletrónica em linha equivalente; acredita que a identificação eletrónica pode ser melhorada através da aplicação, na União Europeia, da interoperabilidade transfronteiriça da identificação eletrónica, prevista no Regulamento eIDAS[8]; solicita à Comissão que pondere a criação de um sistema de início de sessão único europeu, enquanto alternativa aos sistemas privados de início de sessão único, e que introduza a obrigação de os serviços digitais oferecerem sempre uma opção de início de sessão manual, por defeito; sublinha que esse serviço deve ser desenvolvido de forma a que a recolha de dados identificáveis de início de sessão seja tecnicamente impossível para o prestador de serviço do início de sessão e que sejam recolhidos apenas os dados absolutamente essenciais; recomenda, por conseguinte, que a Comissão explore igualmente a criação de um sistema de verificação para utilizadores de serviços digitais, a fim de assegurar a proteção dos dados pessoais e a confirmação da idade, sobretudo dos menores, sistemas estes que não devem ser utilizados para fins comerciais ou para controlar a atividade dos utilizadores nos sítios Web; salienta que estes sistemas de início de sessão e de verificação se devem aplicar apenas aos serviços digitais que exijam a identificação, a autenticação ou a verificação da idade de cada utilizador; recorda que os Estados-Membros e as instituições da União têm de garantir que as identificações eletrónicas sejam seguras, transparentes, se cinjam apenas aos dados necessários para a identificação do utilizador e sejam utilizadas apenas para fins legítimos e não para fins comerciais, nem para restringir o acesso geral à Internet ou controlar a atividade dos utilizadores nos sítios Web;

24. Considera indispensável uma harmonização e clarificação plenas das regras em matéria de responsabilidade a nível da UE, a fim de garantir o respeito pelos direitos fundamentais e pelas liberdades dos utilizadores em toda a UE; entende que tais regras devem continuar a prever uma isenção de responsabilidade para os intermediários que não tenham conhecimento efetivo de atividades ou informações ilegais nas suas plataformas; manifesta a sua preocupação pelo facto de a legislação nacional recente, destinada a combater o discurso de ódio e a desinformação, resultar numa fragmentação crescente das regras e num enfraquecimento da proteção dos direitos fundamentais na UE;

25. Apela, para o efeito, a propostas legislativas que preservem o caráter aberto e concorrencial do mercado único digital, apresentando requisitos harmonizados para que os prestadores de serviços digitais apliquem procedimentos e garantias processuais eficazes, coerentes, transparentes e justos para gerir os conteúdos ilegais, em consonância com as legislações nacionais e europeias, inclusive através de um procedimento de notificação e ação harmonizado;

26. Considera, a este respeito, que é fundamental que as plataformas em linha disponham de regras, requisitos e garantias claros no que respeita à responsabilidade por conteúdos de terceiros; propõe a criação de um quadro regulamentar comum, a fim de identificar e eliminar de forma eficiente os conteúdos ilegais;

27. Frisa que as regras sobre os mecanismos de notificação e ação devem ser complementadas por requisitos para que as plataformas tomem medidas específicas que sejam proporcionais ao seu alcance, bem como às suas capacidades técnicas e operacionais, a fim de fazer eficazmente face ao aparecimento de conteúdos ilegais nos seus serviços; reconhece, por conseguinte, quando tecnologicamente possível, com base em ordens suficientemente fundamentadas das autoridades públicas competentes independentes, e tendo plenamente em conta o contexto específico do conteúdo, que os prestadores de serviços digitais possam ser obrigados a realizar pesquisas periódicas por diferentes conteúdos que um tribunal já tenha declarado ilegal, desde que a monitorização e a pesquisa das informações objeto de tal medida inibitória se limitem a informações que transmitam uma mensagem cujo conteúdo permanece essencialmente inalterado em relação ao conteúdo que deu origem à declaração de ilegalidade e que contenha os elementos especificados na injunção, que, em conformidade com o acórdão do Tribunal de Justiça de 3 de outubro de 2019 no processo C-18/18[9], sejam idênticos ou equivalentes, na medida em que não exijam que o prestador de serviços de alojamento proceda a uma avaliação independente desse conteúdo;

28. Defende que a escolha das medidas específicas deve ser deixada às plataformas; apoia uma abordagem equilibrada, baseada num diálogo com as partes interessadas, e uma avaliação dos riscos enfrentados pelas plataformas, bem como uma cadeia de responsabilidades clara, a fim de evitar encargos regulamentares desnecessários para as plataformas e restrições desnecessárias e desproporcionadas dos direitos fundamentais, em especial da liberdade de expressão, do acesso à informação (incluindo em termos de ideias políticas) e do direito à privacidade; salienta que determinadas obrigações podem ser especificadas mais pormenorizadamente através de legislação setorial; salienta que qualquer medida implementada para este efeito não pode constituir, de jure ou de facto, um requisito geral de monitorização;

29. Salienta a necessidade de salvaguardas adequadas e de obrigações em matéria de garantias processuais, incluindo um requisito de supervisão e verificação humanas, em complemento dos procedimentos de notificação, para permitir que os proprietários de conteúdos e os responsáveis pelo carregamento possam defender os seus direitos de forma adequada e atempada e que as decisões de remoção ou de bloqueio sejam legais, rigorosas e bem fundamentadas e respeitem os direitos fundamentais; frisa que as pessoas que apresentam, sistemática e reiteradamente, notificações indevidas ou abusivas devem ser penalizadas; recorda que, além dos procedimentos de contranotificação e da resolução extrajudicial de litígios pelas plataformas em conformidade com o sistema interno de reclamações, a possibilidade de recurso judicial efetivo deve permanecer disponível, a fim de satisfazer o direito a um recurso efetivo;

30. Apoia a manutenção do atual quadro relativo à responsabilidade limitada no que se refere ao conteúdo e ao princípio do país de origem, mas considera essencial uma melhor coordenação entre as autoridades nacionais competentes no que respeita aos pedidos de remoção; sublinha que os conteúdos ilegais devem ser removidos de onde se encontram;  salienta que os referidos pedidos devem estar sujeitos a garantias jurídicas, a fim de evitar abusos e assegurar o pleno respeito dos direitos fundamentais; frisa que os pedidos de remoção das autoridades competentes devem ser específicos e indicar de forma clara a base jurídica para essa remoção; salienta que deve ser aplicado um mecanismo eficaz de supervisão e execução, que inclua sanções proporcionadas, tendo em conta as suas capacidades técnicas e operacionais, aos prestadores de serviços que não apliquem decisões legais;

31. Recorda que os prestadores de serviços digitais não devem ser legalmente obrigados a conservar dados dos seus utilizadores ou assinantes para efeitos de aplicação da lei, exceto se a conservação seletiva de dados for ordenada por uma autoridade pública competente independente, em conformidade com o direito da União e com a jurisprudência do TJUE; recorda, além disso, que essa conservação de dados deve ser limitada ao estritamente necessário em termos de categorias de dados a conservar, meios de comunicação afetados, pessoas em causa e período de conservação adotado;

32. Considera que, para salvaguardar os direitos fundamentais, o ato legislativo sobre os serviços digitais deve prever regras destinadas a garantir que as cláusulas de serviço dos prestadores de serviços digitais sejam claras, transparentes e justas e colocadas à disposição dos utilizadores num formato acessível e fácil de compreender; lamenta que as cláusulas de serviço de algumas plataformas de conteúdos obriguem os agentes responsáveis pela aplicação da lei a utilizar contas pessoais para investigar determinadas queixas, o que constitui uma ameaça tanto para estas investigações como para a sua segurança pessoal, e apela a uma coordenação mais eficiente entre os Estados-Membros no que respeita ao seguimento dado pelos responsáveis pela aplicação da lei aos conteúdos ilegais assinalados; relembra que as ordens de remoção emitidas por autoridades competentes independentes devem ter sempre por fundamento a lei, e não as cláusulas de serviço dos prestadores de serviços;

33. Insta a Comissão a garantir que os utilizadores disponham de acesso a conteúdos em linha variados e de qualidade, como forma de assegurar que os cidadãos estejam devidamente informados; espera que o ato legislativo sobre os serviços digitais garanta a facilidade de pesquisa e de acesso a conteúdos mediáticos de qualidade em plataformas de terceiros e que as remoções de conteúdos respeitem as normas em matéria de direitos humanos e se limitem a conteúdos que sejam inequivocamente ilegais ou que uma autoridade competente independente tenha declarado como tal; salienta que os conteúdos legais não devem ser sujeitos a remoções ou obrigações de bloqueio judiciais;

34. Apoia o diálogo reforçado entre Estados-Membros, autoridades competentes e partes interessadas relevantes, com o objetivo de desenvolver, avaliar e melhorar as abordagens não vinculativas, como o Código de Conduta sobre Desinformação da UE, a fim de continuar a resolver as questões relacionadas com as várias categorias de conteúdos legais, incluindo a desinformação; espera que a Comissão publique orientações que incluam regras de transparência reforçadas sobre a moderação dos conteúdos ou a política relativa à publicidade, no quadro de um instrumento que acompanhe o ato sobre os serviços digitais, a fim de assegurar que as remoções e o bloqueio de conteúdos lesivos com base nas cláusulas de serviço se limitem ao estritamente necessário; insta ainda a Comissão a criar um quadro que proíba que as plataformas apliquem um segundo nível de controlo sobre conteúdos fornecidos sob a responsabilidade de um prestador de serviços mediáticos e que estejam sujeitos a normas e supervisão específicas;

35. Frisa, ademais, que os utilizadores devem poder escolher e controlar o conteúdo que visionam, nomeadamente dispondo de mais opções no que se refere à forma como o conteúdo é classificado e à possibilidade de optarem por não beneficiar da gestão de conteúdos; está firmemente convicto de que a conceção e o desempenho dos sistemas de recomendação devem ser conviviais e ser total transparentes;

36. Considera que a responsabilização, tanto no setor público como privado, e a elaboração das políticas com base em dados exigem dados sólidos sobre a prevalência e a luta contra atividades ilegais e a remoção de conteúdos ilegais em linha, bem como dados sólidos sobre os algoritmos de gestão de conteúdos usados pelas plataformas em linha;

37. Apela, neste contexto, a uma obrigação de apresentação anual, abrangente e coerente de relatórios públicos por parte das plataformas, proporcional ao seu alcance e às suas capacidades operacionais, mais concretamente sobre os respetivos procedimentos de moderação de conteúdos, incluindo informações sobre as medidas adotadas contra as atividades ilegais em linha e dados normalizados sobre a quantidade de conteúdos removidos e os motivos e bases jurídicas subjacentes à remoção, o tipo e a justificação dos pedidos de remoção recebidos, o número de pedidos indeferidos e as razões para tal indeferimento; salienta que esses relatórios, que incidem nas medidas tomadas num determinado ano, devem ser apresentados até ao final do primeiro trimestre do ano seguinte;

38. Apela, além disso, a uma obrigação de as autoridades nacionais fornecerem anualmente informações ao público, incluindo dados normalizados sobre o número de pedidos de remoção e as respetivas bases jurídicas, o número de pedidos de remoção objeto de recursos administrativos ou judiciais, o desfecho desses processos, com indicação dos casos em que os conteúdos e as atividades foram identificados como ilegais por erro, e o número total de decisões no âmbito das quais foram impostas sanções, incluindo uma descrição do tipo sanção imposta;

39. Manifesta a sua preocupação com a fragmentação e a falta documentada de recursos financeiros e humanos necessários para que os organismos de supervisão e controlo; apela a uma maior cooperação entre Estados-Membros em matéria de supervisão regulamentar dos serviços digitais;

40. Considera que, para garantir a devida aplicação do ato legislativo sobre os serviços digitais, a supervisão do cumprimento dos procedimentos, das garantias processuais e das obrigações de transparência estabelecidas no referido ato deve ser harmonizada no âmbito do mercado único digital; apoia, neste contexto, uma aplicação rigorosa por parte de uma estrutura de supervisão independente da UE, dotada de competências para aplicar coimas com base numa avaliação de um conjunto de fatores claramente definidos, tais como a proporcionalidade, medidas técnicas e organizativas, e em caso de negligência; considera que tal deve incluir a possibilidade de as coimas se basearem numa percentagem do volume de negócios global anual da empresa;

41. Salienta que as auditorias das políticas internas e dos algoritmos dos prestadores de serviços digitais devem ser realizadas respeitando o direito da União, em particular os direitos fundamentais dos utilizadores dos serviços, tendo em conta a importância da não discriminação e da liberdade de expressão e de informação numa sociedade aberta e democrática, e sem publicar dados comercialmente sensíveis; insiste na necessidade de avaliar, com base em queixas ou por iniciativa dos organismos de supervisão, se e de que forma os prestadores de serviços digitais aumentam o alcance de conteúdos, por exemplo, através de motores de recomendação e de características de otimização como o autopreenchimento e o trending (colocação de conteúdos no topo das listas de tendências);

42. Considera que os relatórios sobre transparência elaborados pelas plataformas e pelas autoridades competentes nacionais devem ser disponibilizados ao público e analisados para a identificação de tendências estruturais no que se refere à remoção de conteúdos a nível da UE;

43. Sublinha a importância de habilitar os utilizadores a fazerem valer os seus direitos fundamentais em linha, nomeadamente através de procedimentos de reclamação facilmente acessíveis, imparciais, transparentes, eficientes e gratuitos, mecanismos de notificação de conteúdos ilegais e de comportamentos criminosos de indivíduos e empresas, vias de recurso, medidas educativas e de sensibilização em matéria de proteção de dados e segurança das crianças em linha;

44. Acredita que a experiência passada demonstrou a eficácia de permitir que modelos de negócio inovador floresçam e reforcem o mercado único digital, eliminando os obstáculos à livre circulação dos serviços digitais e impedindo a introdução de novas barreiras nacionais injustificadas, e que a prossecução desta abordagem reduziria a fragmentação do mercado interno; considera, além disso, que o ato legislativo sobre os serviços digitais pode oferecer oportunidades para desenvolver os conhecimentos e as competências dos cidadãos no domínio da digitalização e garantir simultaneamente um elevado nível de proteção dos consumidores, nomeadamente salvaguardando a segurança em linha;

45. Salienta que as normas acordadas em matéria de segurança essencial do ciberespaço são indispensáveis para que os serviços digitais proporcionem aos cidadãos todos os benefícios que lhes estão associados; assinala, por conseguinte, a necessidade premente de os Estados-Membros tomarem medidas coordenadas, nomeadamente de natureza legislativa, para garantir uma ciber-higiene básica e para prevenir perigos evitáveis no ciberespaço;

46. Encarrega o seu Presidente de transmitir a presente resolução ao Conselho e à Comissão. 


EXPOSIÇÃO DE MOTIVOS

O impacto dos serviços digitais no nosso dia a dia e a quantidade de conteúdos gerados por utilizadores aumentaram drasticamente desde a adoção da diretiva sobre o comércio eletrónico, há 20 anos. Embora a medida tenha servido de base para o crescimento dos serviços digitais em toda a União, a atual prevalência de conteúdos ilegais em linha e a falta de verdadeira transparência na forma como os prestadores de serviços digitais lidam com o problema demonstram que é necessária uma reforma.

A alternativa da cooperação voluntária e da autorregulação foi explorada com algum êxito, mas tem-se revelado insuficiente por si só, tal como ilustrado pelo número crescente de Estados-Membros que adotam legislação nacional para combater os conteúdos ilegais, com base no facto de o quadro existente não dar respostas suficientemente satisfatórias às preocupações da sociedade.

Por conseguinte, o relator congratula-se com o compromisso da Comissão no sentido de apresentar um novo ato relativo aos serviços digitais. O presente relatório visa fornecer informações sobre os elementos que devem ser incluídos no ato relativo aos serviços digitais do ponto de vista dos direitos fundamentais e da proteção de dados.

A este respeito, o relator considera que o respeito pelos direitos fundamentais e a proteção de dados nos obrigam a abordar os conteúdos ilegais em linha com o mesmo rigor que os conteúdos fora de linha, sem restrições desproporcionadas à liberdade de expressão. Este direito à liberdade de expressão pode abranger conteúdos específicos num Estado-Membro, mas não noutro e, em muitos casos, a apreciação requer uma contextualização ponderada. Esta responsabilidade implica, inevitavelmente, uma interpretação da lei que não deve ser delegada a empresas privadas. Salientando que não é viável que as autoridades públicas discutam cada elemento do conteúdo publicado, terá de ser encontrada uma abordagem de corregulação adequada.

O relator considera que o ato relativo aos serviços digitais deve ter por base e respeitar plenamente a legislação da União em vigor, nomeadamente o RGPD e a Diretiva relativa à privacidade e às comunicações eletrónicas. No que diz respeito às atuais regras estabelecidas na Diretiva relativa ao comércio eletrónico, o relator recomenda que se mantenham a proibição de uma obrigação geral de monitorização, a responsabilidade limitada pelos conteúdos e a cláusula relativa ao mercado interno, a fim de evitar um nível de conformidade demasiado elevado e encargos regulamentares desnecessários. Para combater os conteúdos ilegais de forma mais eficaz, devem ser introduzidas obrigações legais para os prestadores de serviços digitais em matéria de transparência efetiva, procedimentos harmonizados e garantias processuais, responsabilização pela moderação de conteúdos, bem como medidas proactivas para fazer face ao aparecimento de conteúdos ilegais nos serviços que os prestadores proporcionam. Deve ser criado um organismo da União independente para exercer a supervisão dos esforços processuais dos prestadores de serviços digitais, analisar se estes ou os algoritmos que utilizam amplificam os conteúdos ilegais, impor sanções proporcionadas quando necessário e fornecer uma análise estruturada da remoção de conteúdos ilegais a nível da União.

Os conteúdos ilegais devem não só ser eliminados como, também, sujeitos a um acompanhamento por parte das autoridades responsáveis pela aplicação da lei e pelo sistema judiciário. A este respeito, o relator apela a uma melhor cooperação entre os prestadores de serviços digitais e as autoridades competentes em toda a União.


 

 

 

PARECER DA COMISSÃO DO MERCADO INTERNO E DA PROTEÇÃO DOS CONSUMIDORES (9.7.2020)

<CommissionInt>dirigido à Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos</CommissionInt>


<Titre>sobre o ato legislativo sobre os serviços digitais e questões suscitadas em matéria de direitos fundamentais</Titre>

<DocRef>(2020/2022(INI))</DocRef>

Relator de parecer: <Depute>Adam Bielan</Depute>

 

SUGESTÕES

A Comissão do Mercado Interno e da Proteção dos Consumidores insta a Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos, competente quanto à matéria de fundo, a incorporar as seguintes sugestões na proposta de resolução que aprovar:

1. Congratula-se com o compromisso da Comissão de introduzir uma abordagem harmonizada para as obrigações impostas aos fornecedores de serviços digitais, incluindo intermediários em linha, a fim de evitar a fragmentação do mercado interno e uma aplicação inconsistente da regulamentação; salienta que quaisquer novas medidas introduzidas pelo ato legislativo sobre os serviços digitais devem ter em conta o possível impacto no funcionamento do mercado interno, e respeitar plenamente os direitos e as liberdades fundamentais dos utilizadores em toda a União; exorta, além disso, a Comissão a evitar a «exportação» de regulamentações nacionais e propor, em vez disso, as soluções mais eficientes e eficazes para o mercado interno na sua globalidade, procurando evitar criar novos encargos administrativos e manter o mercado único digital aberto, justo, seguro e competitivo para todos os seus participantes;

2. Entende que o ato legislativo sobre os serviços digitais deve respeitar o quadro geral dos direitos fundamentais dos utilizadores e consumidores no mercado interno, como a proteção da vida privada, a não discriminação e a dignidade, e sobretudo não deve fragilizar a liberdade de expressão; recorda, além disso, que a utilização de mecanismos de remoção de conteúdos sem garantias processuais constitui uma violação do artigo 10.º da Convenção Europeia dos Direitos do Homem;

3. Reconhece a necessidade de modernizar a legislação, sempre que necessário, a fim de responder melhor aos desafios colocados pela evolução das tecnologias; afirma, no entanto, que as disposições relativas à responsabilidade limitada previstas na Diretiva sobre o comércio eletrónico[10] devem ser mantidas e reforçadas no ato legislativo sobre os serviços digitais, incluindo o princípio de longa data que proíbe as obrigações gerais de monitorização, nomeadamente a fim de proteger os direitos fundamentais, incluindo a liberdade de expressão, e manter a liberdade de prestação de serviços; sublinha a importância destas proteções para reforçar ainda mais a confiança e defender ainda melhor os consumidores em linha, assim como para promover o crescimento das empresas europeias e, em particular, das PME e microempresas;

4. Reconhece que os intermediários em linha, incluindo as PME, as microempresas e os grandes intervenientes, têm diferentes capacidades no que diz respeito à moderação dos conteúdos; alerta para que não se sobrecarreguem as empresas com novas obrigações desproporcionadas que possam dificultar ainda mais o crescimento das PME e impedi‑las de entrarem no mercado; exorta, por conseguinte, a Comissão a garantir a abertura e a competitividade do mercado único digital;

5. Recorda que a Diretiva sobre o comércio eletrónico constitui o quadro jurídico para os serviços em linha no mercado interno e regula a gestão de conteúdos; sublinha que deve evitar-se uma fragmentação injustificada desse quadro decorrente da revisão da Diretiva sobre o comércio eletrónico por intermédio do pacote do ato legislativo sobre os serviços digitais; observa que o pacote do ato legislativo sobre os serviços digitais também deve contemplar um instrumento ex ante que imponha obrigações às plataformas que constituam uma ameaça para a igualdade das condições de concorrência, a fim de resolver as deficiências do mercado e os comportamentos abusivos, proteger os direitos fundamentais dos consumidores e reforçar a liberdade de prestação de serviços, em especial das PME;

6. Regista as diferenças significativas entre os serviços digitais e apela, por conseguinte, a que se evite uma abordagem única, entendendo que a Comissão deve analisar mais aprofundadamente, utilizando designadamente a consulta pública lançada antes da sua proposta legislativa relativa ao ato sobre os serviços digitais, a possibilidade de serem necessárias diferentes disposições para lidar com diferentes serviços digitais, circunstâncias e situações;

7. Recorda que a desinformação e os conteúdos erróneos ou  nocivos nem sempre são ilegais; recorda que os tipos de conteúdos ilegais podem variar de um Estado-Membro para outro; apela, por conseguinte, ao estabelecimento de um processo de notificação e ação bem definido, harmonizado e transparente no quadro dos atuais princípios de responsabilidade limitada, sem deixar de ter em conta as diferenças significativas entre os prestadores de serviços digitais em termos de escala do seu alcance e capacidades operacionais, de modo a evitar encargos regulamentares desnecessários; apoia a intensificação do diálogo entre os Estados-Membros, autoridades competentes e partes interessadas relevantes, com o objetivo de desenvolver, avaliar e melhorar abordagens não vinculativas, como o Código de Conduta sobre Desinformação da UE, a fim de continuar a combater a desinformação e outras categorias de conteúdos nocivos;

8. Assinala a proliferação de notícias falsas e de desinformação com conteúdos falsos ou enganosos, bem como de burlas aos consumidores através de produtos não seguros ou contrafeitos; salienta que o ato legislativo sobre os serviços digitais deve distinguir os conteúdos «ilegais» dos conteúdos «nocivos» e outros; considera que os conteúdos nocivos não devem ser regulados ou definidos no ato legislativo sobre os serviços digitais;

9. Apela à introdução das salvaguardas adequadas, obrigações em matéria de garantias processuais e instrumentos de contranotificação para que os proprietários de conteúdos e responsáveis pelo seu carregamento possam defender os seus direitos de forma adequada e atempada, inclusive sob supervisão humana,  quando notificados de qualquer retirada de conteúdos; sublinha a sua opinião de que a delegação da responsabilidade pela definição de limites à liberdade de expressão das empresas privadas é inaceitável e cria riscos, tanto para os cidadãos como para as empresas. considera que a remoção de conteúdos ilegais deve ser seguida, sempre que necessário, pela aplicação da lei ou supervisão judicial e que, se um procedimento de recurso judicial ou de contranotificação estabelecer que a atividade ou as informações em questão não são ilegais, o intermediário em linha deve repor o conteúdo removido sem demora injustificada;

10. Acredita que a experiência passada demonstrou a eficácia de permitir que um modelo de negócio inovador floresça e reforce o mercado único digital, eliminando os obstáculos à livre circulação dos serviços digitais e impedindo a introdução de novas barreiras nacionais injustificadas, e que a prossecução desta abordagem reduziria a fragmentação do mercado interno; considera, além disso, que o ato legislativo sobre os serviços digitais pode oferecer oportunidades para desenvolver os conhecimentos e as competências dos cidadãos no domínio da digitalização e garantir simultaneamente um elevado nível de proteção dos consumidores, nomeadamente salvaguardando a segurança em linha;

11. Exorta a Comissão a avaliar, com base na legislação existente e em novos dados de apoio provenientes, entre outras fontes, das suas consultas públicas, em que medida o ato legislativo sobre os serviços digitais deve dar resposta aos desafios associados aos algoritmos e a outros instrumentos automatizados, especialmente no que diz respeito à transparência desses sistemas, ou alternativamente definir qual a legislação que deve tratar estas questões; salienta a importância do acesso indiscriminado a diversos conteúdos e pareceres, bem como o facto de as redes e o acesso à rede não deverem ser entravados sem justificação legal.


INFORMAÇÕES SOBRE A APROVAÇÃO NA COMISSÃO ENCARREGADA DE EMITIR PARECER

Data de aprovação

7.7.2020

 

 

 

Resultado da votação final

+:

–:

0.

41

0

3

Deputados presentes no momento da votação final

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Suplentes presentes no momento da votação final

Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin

 


 

VOTAÇÃO NOMINAL FINAL NA COMISSÃO ENCARREGADA DE EMITIR PARECER

41

+

ECR

Adam Bielan, Carlo Fidanza, Eugen Jurzyca, Beata Mazurek

PPE

Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth; Marion Walsmann

Verts/ALE

David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kim Van Sparrentak

ID

Alessandra Basso, Markus Buchheit, Virginie Joron, Jean‑Lin Lacapelle

NI

Marco Zullo

RENEW

Andrus Ansip, Vlad‑Marius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie Yon‑Courtin

S&D

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, Maria‑Manuel Leitão‑Marques, Adriana Maldonado López; Leszek Miller, Christel Schaldemose

 

0

-

 

 

 

3

0

GUE/NGL

Kateřina Konečná, Anne‑Sophie Pelletier

ID

Hynek Blaško

 

 

 

Legenda dos símbolos utilizados:

+ : votos a favor

- : votos contra

0 : abstenções

 

 


 

 

PARECER DA COMISSÃO DA CULTURA E DA EDUCAÇÃO (20.7.2020)

<CommissionInt>dirigido à Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos</CommissionInt>


<Titre>sobre o ato legislativo sobre os serviços digitais e questões relacionadas com os direitos fundamentais</Titre>

<DocRef>(2020/2022(INI))</DocRef>

Relatora de parecer: <Depute>Petra Kammerevert</Depute>

 

 


SUGESTÕES

A Comissão da Cultura e da Educação insta a Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos, competente quanto à matéria de fundo, a incorporar as seguintes sugestões na proposta de resolução que aprovar:

1. Assinala que os direitos fundamentais formam um conjunto objetivo de valores que garantem que as liberdades fundamentais no domínio da comunicação, tais como o direito à privacidade das comunicações, a liberdade e o pluralismo de expressão e a liberdade de informação, assim como as artes, a ciência e os meios de comunicação e o direito à propriedade e à sua proteção, não são derrogáveis, devendo haver uma ponderação entre eles, nomeadamente por acordos de direito privado ou condições comerciais;

2. Sublinha que o ato legislativo sobre os serviços digitais deve cumprir plenamente o objetivo de assegurar a proteção dos direitos fundamentais, bem como a proteção dos consumidores, a segurança dos utilizadores, a possibilidade de anonimato em linha e a liberdade de expressão e a proteção da propriedade; destaca que os direitos fundamentais não se aplicam apenas enquanto defesa contra o Estado, mas também aos que exercem o seu poder através da sua infraestrutura técnica, limitando assim o seu poder; salienta que os direitos fundamentais devem, por conseguinte, também ser vinculativos para os que exercem o poder através da sua infraestrutura técnica; salienta que se deve ter em devida consideração o grau de domínio do mercado, uma posição dominante ou quase monopolística, o grau de confiança dos utilizadores na oferta e os respetivos interesses dos utilizadores, dos próprios intervenientes com poder e de outras partes terceiras;

3. Salienta a importância de ajudar os consumidores e os utilizadores a adquirirem um maior controlo e a assumirem a responsabilidade pelos seus próprios dados e identidade e insta a um elevado nível de proteção dos dados pessoais, reforçando, ao mesmo tempo, os níveis de transparência e de responsabilização dos serviços digitais;

4. Sublinha que os conteúdos legais e legalmente partilhados ao abrigo da legislação da União ou da legislação nacional devem permanecer em linha e que a remoção desse tipo de conteúdos não deve conduzir à identificação de utilizadores individuais ou ao tratamento de dados pessoais;

5. Destaca que o ecossistema dos meios de comunicação social está a ser afetado pelos efeitos perturbadores das plataformas em linha; salienta que as autoridades públicas têm a obrigação de adotar um quadro jurídico que favoreça o desenvolvimento de meios de comunicação social independentes e pluralistas;

6. Recorda a obrigação de as plataformas em linha e outros serviços em linha agirem rapidamente para remover conteúdos ilegais das suas plataformas e serviços e recorda que estas medidas de proteção obrigatórias funcionam no âmbito de um quadro legislativo e que estão sujeitas a um controlo judicial; considera que regras setoriais específicas podem garantir um acesso sem entraves a serviços e conteúdos dos meios de comunicação social, bem como fazer avançar a liberdade e o pluralismo dos meios de comunicação social;

7. Insta a que todas as medidas suscetíveis de afetar os direitos fundamentais continuem a basear-se na supervisão judicial e regulamentar e que não haja qualquer transferência de funções das autoridades públicas para empresas privadas ou indivíduos;

8. Insta a soluções equilibradas no que se refere à remoção de conteúdos, nomeadamente através da cooperação entre plataformas, autoridades reguladoras, titulares de direitos e utilizadores; sublinha que a partilha de dados em conformidade com o Regulamento Geral de Proteção de Dados sobre atividades ilícitas com autoridades responsáveis pela aplicação da lei e outras autoridades deve constituir uma prioridade para as plataformas, para além das suas próprias salvaguardas eficazes e adequadas;

9. Apela à transparência nos procedimentos que as plataformas sociais utilizam para remover conteúdos e à prevenção da remoção de conteúdos que não sejam ilegais; solicita regras claras para as grandes plataformas sociais que as obriguem a controlar os conteúdos assinalados e a responderem aos responsáveis pelo seu carregamento com uma decisão fundamentada em caso de bloqueio do seu conteúdo; apela, por conseguinte, a mecanismos eficientes de reclamação e de recurso para os utilizadores orientados para o ser humano, evitando, ao mesmo tempo, a utilização abusiva deste tipo de mecanismos;

10. Insta a Comissão a assegurar que os operadores das plataformas disponibilizem relatórios em matéria de transparência que contenham informações sobre o número de casos em que o conteúdo foi incorretamente identificado como ilegal ou ilegalmente partilhado e que as autoridades competentes forneçam informações sobre o número de casos em que a remoção tenha conduzido a uma investigação e à instauração de um processo penal;

11. Salienta que alguns conteúdos nocivos ou informações parcialmente exatas podem não ser necessariamente ilícitas; observa que ferramentas automáticas de filtragem são passíveis de levar à remoção de conteúdos legais; considera necessário assegurar que os proprietários de conteúdos possam defender os seus direitos de forma adequada nos casos em que o seu conteúdo tenha sido removido;

12. Salienta que qualquer controlo do seu conteúdo aplicado por plataformas em linha e por outros serviços deve ser submetido a normas rigorosas e transparentes, que devem ser do conhecimento dos utilizadores, e que permitam um direito efetivo de recurso contra decisões, em primeiro lugar em relação a plataformas ou serviços em linha, mas também em relação a uma autoridade pública;

13. Sugere que se preste particular atenção à proteção das crianças e dos jovens e que esta proteção seja igualmente assegurada ao abrigo da legislação em matéria de proteção de dados e insta a que os serviços em linha para a proteção das crianças e dos jovens sejam sujeitos às mais elevadas restrições ao abrigo da legislação em matéria de proteção de dados;

14. Salienta que medidas flexíveis adicionais ou de coordenação e apoio, como códigos de conduta ou a autorregulação e a co-regulação, podem constituir meios eficazes de regulação, desde que os organismos públicos controlem o seu impacto e que se tomem disposições legais para a regulação estatal sempre que tais medidas se revelem ineficazes, uma vez que amiúde permitem uma resposta rápida a novas circunstâncias, incluindo o envolvimento de participantes não pertencentes à UE;

15. Salienta que, em princípio, a aplicação, incluindo em casos transfronteiriços, é da responsabilidade das autoridades reguladoras nacionais e não deve ser transferida para o nível europeu sem um motivo justificado; considera, além disso, que a ideia do princípio do país de origem será reforçada se as autoridades reguladoras nacionais dispuserem de instrumentos de aplicação eficazes e de procedimentos eficazes de cooperação transfronteiriça; salienta que tal deve ser acompanhado, a nível europeu, por procedimentos rápidos e eficientes de resolução de litígios que garantam uma paz jurídica duradoura;

16. Exige que os serviços desenvolvidos e utilizados na União garantam uma privacidade e proteção de dados eficaz e abrangente e que o mais elevado nível possível de liberdade de expressão e de informação, a proteção da propriedade intelectual e a privacidade da comunicação, a promoção da opinião, a diversidade cultural e a neutralidade da rede num ambiente digital seguro representam vantagens na concorrência global que não devem ser subestimadas; insta a Comissão a promover sistematicamente o desenvolvimento destes serviços de forma mais orientada através de soluções claras e eficientes adequadas à era digital;

17. Insta ao respeito dos valores europeus, nomeadamente promovendo a diversidade de opiniões, a neutralidade da rede, a liberdade de expressão, a proteção da propriedade e o acesso à informação, assim como o pluralismo dos meios de comunicação social e a diversidade cultural e linguística; solicita regras claras e, tanto quanto possível, aplicáveis de modo uniforme sobre a responsabilidade pelas plataformas, conteúdos ilegais ou lesivos, a responsabilidade algorítmica, a publicidade transparente e a luta contra conteúdos nocivos, os discursos de ódio e a desinformação, bem como sobre a sua divulgação através de contas falsas ou bots, a fim de preservar os direitos fundamentais e a liberdade;

18. Salienta que todas as novas obrigações para as plataformas devem ser proporcionais à sua quota de mercado e capacidade financeira, a fim de promover uma concorrência leal e apoiar a inovação; acredita que este tipo de abordagem contribuiria para reforçar a pluralidade da informação e dos meios de comunicação social, assim como a diversidade cultural e linguística;

19. Insta a que a regulamentação setorial específica que sirva para alcançar objetivos para a sociedade no seu conjunto e que concretiza esses objetivos para determinados setores, como a Diretiva (UE) 2018/1808, a Diretiva “Serviços de Comunicação Social Audiovisual” (Diretiva SCSA) ou a Diretiva (UE) 2019/790, a Diretiva “Direitos de Autor", tenha precedência sobre regras gerais, por forma a garantir os direitos dos titulares de direitos no ambiente digital;

20. Salienta que qualquer disposição relativa à moderação de conteúdos para os prestadores de serviços deve garantir o pleno respeito pela liberdade de expressão, o que, de acordo com o artigo 11.° da Carta dos Direitos Fundamentais da União Europeia, inclui "a liberdade de opinião e a liberdade de receber e de transmitir informações ou ideias, sem que possa haver ingerência de quaisquer poderes públicos e sem consideração de fronteiras", e que o acesso a uma vasta gama de opiniões contribui para o desenvolvimento de sociedades abertas e democráticas, mesmo que essas opiniões sejam controversas ou desagradáveis;

21. Salienta a necessidade de os cidadãos disporem de um maior controlo sobre a forma como os seus dados pessoais são geridos e protegidos em linha, outorgando simultaneamente uma maior responsabilidade às empresas no que respeita às suas práticas de proteção de dados;

22. Insta a Comissão e os Estados-Membros a promoverem a cooperação entre os setores público e privado e o meio académico, tendo em vista reforçar a partilha de conhecimentos, a promoção da educação e da formação em matéria de segurança, a privacidade dos dados, as implicações éticas e o respeito dos direitos humanos em relação à utilização da tecnologia digital, da robótica e da inteligência artificial;

23. Considera que a responsabilidade das plataformas deve ser adaptada para respeitar o tamanho do operador e que se deve fazer uma distinção clara no que respeita à interação da plataforma com os conteúdos com base em critérios e aspetos claros e verificáveis, tais como as funções editoriais, os conhecimentos reais e um determinado grau de controlo; considera ainda que qualquer sistema proposto deve ser acompanhado de garantias sólidas em matéria de direitos fundamentais e de uma adequada supervisão pública independente e imparcial;

24. Salienta que, independentemente dos benefícios sociais proporcionados pelas novas tecnologias, pelos serviços digitais e pelas tecnologias orientadas para a informação, incluindo a inteligência artificial, a prioridade máxima deve ser a de abordar e analisar os potenciais riscos para os valores democráticos, o Estado de direito e os direitos fundamentais.

 


INFORMAÇÕES SOBRE A APROVAÇÃO NA COMISSÃO ENCARREGADA DE EMITIR PARECER

Data de aprovação

13.7.2020

 

 

 

Resultado da votação final

+:

–:

0:

28

0

2

Deputados presentes no momento da votação final

Asim Ademov, Christine Anderson, Andrea Bocskor, Vlad-Marius Botoş, Ilana Cicurel, Gilbert Collard, Gianantonio Da Re, Laurence Farreng, Tomasz Frankowski, Romeo Franz, Alexis Georgoulis, Hannes Heide, Irena Joveva, Petra Kammerevert, Niyazi Kizilyürek, Predrag Fred Matić, Dace Melbārde, Victor Negrescu, Niklas Nienaß, Peter Pollák, Marcos Ros Sempere, Domènec Ruiz Devesa, Andrey Slabakov, Massimiliano Smeriglio, Michaela Šojdrová, Sabine Verheyen, Milan Zver

Suplentes presentes no momento da votação final

Isabel Benjumea Benjumea, Marcel Kolaja

Suplentes (art. 209.º, n.º 7) presentes no momento da votação final

Angel Dzhambazki

 


VOTAÇÃO NOMINAL FINAL NA COMISSÃO ENCARREGADA DE EMITIR PARECER

28

+

PPE

Asim Ademov, Isabel Benjumea Benjumea, Andrea Bocskor, Tomasz Frankowski, Peter Pollák, Michaela Šojdrová, Sabine Verheyen, Milan Zver

S&D

Hannes Heide, Petra Kammerevert, Predrag Fred Matić, Victor Negrescu, Marcos Ros Sempere, Domènec Ruiz Devesa, Massimiliano Smeriglio

RENEW

Vlad-Marius Botoş, Ilana Cicurel, Laurence Farreng, Irena Joveva

ID

Gilbert Collard

VERTS/ALE

Romeo Franz, Marcel Kolaja, Niklas Nienaß

ECR

Angel Dzhambazki, Dace Melbārde, Andrey Slabakov

GUE/NGL

Alexis Georgoulis, Niyazi Kizilyürek

 

0

-

 

 

 

2

0

ID

Christine Anderson, Gianantonio Da Re

 

Legenda dos símbolos utilizados:

+ : votos a favor

- : votos contra

0 : abstenções

 

 

 

 


 

 

INFORMAÇÕES SOBRE A APROVAÇÃO NA COMISSÃO COMPETENTE QUANTO À MATÉRIA DE FUNDO

Data de aprovação

22.9.2020

 

 

 

Resultado da votação final

+:

–:

0:

50

6

11

Deputados presentes no momento da votação final

Magdalena Adamowicz, Malik Azmani, Katarina Barley, Pernando Barrena Arza, Pietro Bartolo, Nicolas Bay, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Patrick Breyer, Saskia Bricmont, Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Damien Carême, Anna Júlia Donáth, Lena Düpont, Cornelia Ernst, Nicolaus Fest, Jean-Paul Garraud, Maria Grapini, Sylvie Guillaume, Andrzej Halicki, Balázs Hidvéghi, Evin Incir, Sophia in ‘t Veld, Lívia Járóka, Marina Kaljurand, Assita Kanko, Fabienne Keller, Peter Kofod, Moritz Körner, Alice Kuhnke, Jeroen Lenaers, Juan Fernando López Aguilar, Nuno Melo, Roberta Metsola, Nadine Morano, Javier Moreno Sánchez, Maite Pagazaurtundúa, Nicola Procaccini, Paulo Rangel, Diana Riba i Giner, Ralf Seekatz, Michal Šimečka, Birgit Sippel, Sylwia Spurek, Tineke Strik, Ramona Strugariu, Annalisa Tardino, Tomas Tobé, Dragoş Tudorache, Milan Uhrík, Tom Vandendriessche, Bettina Vollath, Jadwiga Wiśniewska, Elena Yoncheva

Suplentes presentes no momento da votação final

Delara Burkhardt, Gwendoline Delbos-Corfield, Kostas Papadakis, Kris Peeters, Anne-Sophie Pelletier, Sira Rego, Rob Rooken, Paul Tang, Tomáš Zdechovský

Suplentes (art. 209.º, n.º 7) presentes no momento da votação final

Isabel Benjumea Benjumea

 


VOTAÇÃO NOMINAL FINAL NA COMISSÃO COMPETENTE QUANTO À MATÉRIA DE FUNDO

50

+

EPP

Magdalena Adamowicz, Isabel Benjumea Benjumea, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Lena Düpont, Andrzej Halicki, Balázs Hidvéghi, Lívia Járóka, Jeroen Lenaers, Nuno Melo, Roberta Metsola, Nadine Morano, Kris Peeters, Paulo Rangel, Ralf Seekatz, Tomas Tobé, Tomáš Zdechovský

S&D

Katarina Barley, Pietro Bartolo, Delara Burkhardt, Maria Grapini, Sylvie Guillaume, Evin Incir, Marina Kaljurand, Juan Fernando López Aguilar, Javier Moreno Sánchez, Birgit Sippel, Sylwia Spurek, Paul Tang, Bettina Vollath, Elena Yoncheva

RENEW

Malik Azmani, Anna Júlia Donáth, Sophia in 't Veld, Fabienne Keller, Moritz Körner, Maite Pagazaurtundúa, Michal Šimečka, Ramona Strugariu, Dragoş Tudorache

ID

Peter Kofod

ECR

Joachim Stanisław Brudziński, Assita Kanko, Jadwiga Wiśniewska

EUL/NGL

Pernando Barrena Arza, Cornelia Ernst, Anne-Sophie Pelletier, Sira Rego

NI

Laura Ferrara

 

6

-

ID

Nicolas Bay, Jean-Paul Garraud, Tom Vandendriessche

ECR

Rob Rooken

NI

Kostas Papadakis, Milan Uhrík

 

11

0

ID

Nicolaus Fest, Annalisa Tardino

GREENS/EFA

Patrick Breyer, Saskia Bricmont, Damien Carême, Gwendoline Delbos-Corfield, Alice Kuhnke, Diana Riba i Giner, Tineke Strik

ECR

Jorge Buxadé Villalba, Nicola Procaccini

 

Legenda dos símbolos utilizados:

+ : votos a favor

- : votos contra

0 : abstenções

 

[1] JO L 178 de 17.7.2000, p.1.

[2] JO L 119 4.5.2016, p. 1.

[3] JO L 201 de 31.7.2002, p. 37.

[4] OJ JO303 de 28.11.2018, p. 69.

[5] JO L 130 de 17.5.2019, p. 92.

[6] JO L 63 de 6.3.2018, p. 50.

[7] JO L 257 de 28.8.2014, p. 73.

[8] JO L 257 de 28.8.2014, p. 73.

[9] Acórdão do Tribunal de Justiça de 3 de outubro de 2019, Eva Glawischnig-Piesczek v Facebook Ireland Limited, C-18/18, ECLI:EU:C:2019:821.

[10] Diretiva 2000/31/CE do Parlamento Europeu e do Conselho, de 8 de junho de 2000, relativa a certos aspetos legais dos serviços da sociedade de informação, em especial do comércio eletrónico, no mercado interno («Diretiva sobre o comércio eletrónico») (JO L 178 de 17.7.2000, p. 1).

Última actualização: 19 de Outubro de 2020Aviso legal - Política de privacidade