RAPPORT contenant des recommandations à la Commission concernant une législation sur les services numériques: adaptation des règles de droit commercial et civil pour les entités commerciales opérant en ligne
5.10.2020 - (2020/2019(INL))
Commission des affaires juridiques
Rapporteur: Tiemo Wölken
(Initiative – article 47 du règlement intérieur)
- PROPOSITION DE RÉSOLUTION DU PARLEMENT EUROPÉEN
- ANNEXE À LA PROPOSITION DE RÉSOLUTION: RECOMMANDATIONS DÉTAILLÉES CONCERNANT LE CONTENU DE LA PROPOSITION DEMANDÉE
- EXPOSÉ DES MOTIFS
- AVIS DE LA COMMISSION DU MARCHÉ INTÉRIEUR ET DE LA PROTECTION DES CONSOMMATEURS
- AVIS DE LA COMMISION DE LA CULTURE ET DE L'ÉDUCATION
- INFORMATIONS SUR L’ADOPTION PAR LA COMMISSION COMPÉTENTE AU FOND
- VOTE FINAL PAR APPEL NOMINAL EN COMMISSION COMPÉTENTE AU FOND
PROPOSITION DE RÉSOLUTION DU PARLEMENT EUROPÉEN
contenant des recommandations à la Commission concernant une législation sur les services numériques: adaptation des règles de droit commercial et civil pour les entités commerciales opérant en ligne
Le Parlement européen,
– vu l’article 225 du traité sur le fonctionnement de l’Union européenne,
– vu l’article 11 de la charte des droits fondamentaux de l’Union européenne et l’article 10 de la convention européenne des droits de l’homme,
– vu le règlement (UE) 2019/1150 du Parlement européen et du Conseil du 20 juin 2019 promouvant l’équité et la transparence pour les entreprises utilisatrices de services d’intermédiation en ligne[1],
– vu la directive (UE) 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE[2],
– vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE[3] (ci-après, «règlement général sur la protection des données»),
– vu la directive 2010/13/UE du Parlement européen et du Conseil du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive «Services de médias audiovisuels»)[4],
– vu la directive 2008/52/CE du Parlement européen et du Conseil du 21 mai 2008 sur certains aspects de la médiation en matière civile et commerciale[5],
– vu la proposition de règlement du Parlement européen et du Conseil du 6 juin 2018 établissant le programme pour une Europe numérique pour la période 2021-2027 (COM(2018)0434),
– vu la recommandation (UE) 2018/334 de la Commission du 1er mars 2018 sur les mesures destinées à lutter, de manière efficace, contre les contenus illicites en ligne[6],
– vu la convention concernant la compétence judiciaire, la reconnaissance et l’exécution des décisions en matière civile et commerciale[7] et la convention pour la reconnaissance et l’exécution des sentences arbitrales étrangères, signée le 10 juin 1958 à New York,
– vu sa résolution du 3 octobre 2018 sur les technologies des registres distribués et les chaînes de blocs: renforcer la confiance par la désintermédiation[8],
– vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 19 février 2020 intitulée «Une stratégie européenne pour les données» (COM(2020)0066),
– vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 19 février 2020 intitulée «Façonner l’avenir numérique de l’Europe» (COM(2020)0067),
– vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 25 mai 2016 intitulée «Les plateformes en ligne et le marché unique numérique – Perspectives et défis pour l’Europe» (COM(2016)0288),
– vu les articles 47 et 54 de son règlement intérieur,
– vu les avis de la commission du marché intérieur et de la protection des consommateurs et de la commission de la culture et de l’éducation,
– vu le rapport de la commission des affaires juridiques (A9-0177/2020),
A. considérant que les services numériques, qui constituent une pierre angulaire de l’économie de l’Union européenne et le moyen de subsistance d’un grand nombre de ses citoyens, doivent être réglementés de manière à garantir les droits fondamentaux et les autres droits des citoyens tout en soutenant le développement et le progrès économique, l’environnement numérique et la confiance en ligne, en tenant compte des intérêts des utilisateurs et de tous les acteurs du marché, y compris les PME et les jeunes pousses;
B. considérant que certaines règles relatives aux fournisseurs de services de partage de contenus en ligne et aux services de médias audiovisuels ont récemment été mises à jour, notamment par la directive (UE) 2018/1808 et la directive (UE) 2019/790, qu’un certain nombre d’aspects clés du droit civil et commercial n’ont pas été pris en considération de manière satisfaisante dans le droit de l’Union ou le droit national, et que l’urgence de cette situation est exacerbée par la rapidité et l’accélération des progrès réalisés au cours des dernières décennies dans le domaine des services numériques, en particulier par l’émergence de nouveaux modèles économiques, de nouvelles technologies et de nouvelles réalités sociales; que dans ce contexte, il est indispensable de mettre entièrement à jour les dispositions clés du droit civil et commercial applicables aux entités commerciales en ligne;
C. considérant qu’en raison de puissants effets de réseau fondés sur les données, certaines entreprises proposant des services numériques jouissent d’un pouvoir de marché significatif qui leur permet d’imposer leurs pratiques commerciales aux utilisateurs, et qu’il est, par conséquent, de plus en plus difficile pour d’autres acteurs, notamment les jeunes pousses et les PME, de les concurrencer et même pour de nouvelles entreprises d’entrer sur le marché;
D. considérant que l’application ex post du droit de la concurrence ne peut, à elle seule, remédier efficacement aux effets qu’a le pouvoir de marché de certaines plateformes en ligne, notamment sur la concurrence équitable au sein du marché unique numérique;
E. considérant que les plateformes d’hébergement de contenu, qui ne servaient autrefois qu’à afficher du contenu, sont désormais des entités complexes et des acteurs du marché, ce qui est particulièrement vrai pour les réseaux sociaux qui collectent et exploitent les données d’utilisation; que les utilisateurs ont des motifs légitimes de s’attendre à des conditions équitables en matière d’accès, de transparence, de tarification et de résolution des litiges pour ce qui est de l’utilisation de ces plateformes et de l’utilisation que ces plateformes font des données des utilisateurs; que la transparence peut contribuer à accroître de manière significative la confiance dans les services numériques;
F. considérant que les plateformes d’hébergement de contenu peuvent décider du contenu qu’elles présentent à leurs utilisateurs, ce qui leur permet d’exercer une influence considérable sur la manière dont nous obtenons et communiquons des informations, à tel point que ces plateformes se sont de facto transformées en espaces publics au sein de la sphère numérique; que les espaces publics doivent être gérés de façon à protéger l’intérêt public et à respecter les droits fondamentaux et les droits de caractère civil des utilisateurs, en particulier le droit à la liberté d’expression et d’information;
G. considérant que le respect de la législation dans le monde numérique implique non seulement d’assurer l’application efficace des droits fondamentaux, et plus particulièrement la liberté d’expression et d’information, le respect de la vie privée, la sécurité et la sûreté, la non-discrimination, le respect de la propriété, y compris les droits de propriété et de propriété intellectuelle, mais aussi de garantir l’accès à la justice et le droit à un procès équitable; que la délégation des décisions concernant la légalité du contenu ou des pouvoirs d’exécution à des entreprises privées porte atteinte à la transparence et au droit à un procès équitable, ce qui donne lieu à une approche fragmentée; qu’une procédure juridique accélérée dotée de garanties suffisantes est dès lors nécessaire pour garantir l’existence de réelles voies de recours;
H. considérant que les outils automatiques sont pour l’heure incapables de faire la différence de manière fiable entre contenu illicite et contenu qui est licite dans un contexte donné; que, dès lors, les mécanismes de détection et de suppression automatiques de contenu peuvent donner lieu à des préoccupation légitimes du point de vue juridique, en particulier en ce qui concerne d’éventuelles restrictions de la liberté d’expression et d’information, protégée par l’article 11 de la charte des droits fondamentaux de l’Union européenne; que le recours à des mécanismes automatisés doit, dès lors, être proportionné, ne s’appliquer qu’à des cas où il se justifie et suivre des procédures transparentes;
I. considérant que l’article 11 de la charte des droits fondamentaux de l’Union européenne protège également la liberté et le pluralisme des médias, qui dépendent de plus en plus des plateformes en ligne pour toucher leur public;
J. considérant que les services numériques sont utilisés par la majorité des Européens quotidiennement, mais qu’ils sont soumis à un ensemble de règles toujours plus vaste dans les différents pays de l’Union, ce qui entraîne une importante fragmentation sur le marché, d’où découle une incertitude juridique pour les utilisateurs européens et les services prestés par-delà les frontières; que les régimes de droit civil régissant les pratiques des plateformes d’hébergement de contenu en matière de modération de contenu sont fondés sur certaines dispositions sectorielles à l’échelle de l’Union et à l’échelon national, avec des différences substantielles d’un régime à l’autre en ce qui concerne les obligations imposées ainsi que les mécanismes d’exécution déployés; que cette situation a donné lieu à un ensemble fragmenté de réglementations pour le marché unique numérique, qui nécessite une intervention au niveau de l’Union;
K. considérant que l’actuel modèle économique de certaines plateformes d’hébergement de contenu vise à promouvoir du contenu susceptible d’attirer l’attention des utilisateurs et donc de générer plus de données de profilage dans le but de proposer des publicités ciblées plus efficaces, et, de ce fait, à augmenter les profits; que ce profilage, conjugué à des publicités ciblées, peut conduire à amplifier le contenu destiné à susciter une réaction viscérale, ce qui favorise et encourage souvent le sensationnel dans les fils d’actualité et les systèmes de recommandation, élément susceptible d’entraîner une manipulation des utilisateurs;
L. considérant que les publicités contextuelles proposées aux utilisateurs nécessitent moins de données d’utilisation que les publicités comportementales ciblées et qu’elles sont donc moins intrusives;
M. considérant que le choix de la logique algorithmique qui sous-tend les systèmes de recommandation, les systèmes de comparaison, l’édition de contenu ou les annonces publicitaires revient également aux plateformes d’hébergement de contenu, laissant ainsi peu de place à la supervision publique, ce qui soulève des inquiétudes quant à la reddition de comptes et à la transparence;
N. considérant que les plateformes d’hébergement de contenu jouissant d’un pouvoir de marché significatif offrent la possibilité à leurs utilisateurs d’utiliser leurs profils pour se connecter à des sites web de tiers, ce qui leur permet de suivre les activités de ces utilisateurs même en dehors de leur propre environnement, possibilité qui leur offre un avantage concurrentiel en matière d’accès aux données pour les algorithmes d’édition de contenu;
O. considérant que les contrats dits «intelligents», qui s’appuient sur les technologies des registres distribués, y compris les chaînes de blocs, qui permettent une tenue des registres décentralisée et entièrement traçable et l’auto-exécution, sont utilisés dans plusieurs domaines et ce, en l’absence de tout cadre juridique approprié; qu’il existe des incertitudes quant à la valeur juridique de ces contrats et à leur force exécutoire dans les situations transnationales;
P. considérant que, dans les conditions générales des plateformes, qui sont non négociables, il est généralement fait référence tant à un droit applicable qu’à des juridictions compétentes en dehors de l’Union, ce qui est susceptible d’entraver l’accès à la justice; que le règlement (UE) nº 1215/2012 du Parlement européen et du Conseil du 12 décembre 2012 concernant la compétence judiciaire, la reconnaissance et l’exécution des décisions en matière civile et commerciale[9] énonce des règles en matière de compétence judiciaire; que le règlement général sur la protection des données clarifie le droit de la personne dont les données font l’objet d’un traitement à intenter une action d’exécution forcée à titre privé directement à l’encontre du responsable du traitement ou du sous-traitant, que le traitement ait lieu dans l’Union ou non et que le responsable du traitement soit établi dans l’Union ou non; que l’article 79 dudit règlement dispose que toute action contre un responsable du traitement ou un sous-traitant est intentée devant les juridictions de l’État membre dans lequel le responsable du traitement ou le sous-traitant dispose d’un établissement ou dans lequel la personne concernée a sa résidence habituelle;
Q. considérant que l’accès aux données à caractère non personnel et l’exploration de ces données constituent un facteur important de la croissance de l’économie numérique; que des normes juridiques appropriées et des garanties appropriées en matière de protection des données concernant l’interopérabilité des données peuvent, en supprimant les effets de verrouillage, fortement contribuer à garantir l’existence de conditions de marché équitables;
R. considérant qu’il importe d’évaluer la possibilité de confier à une entité européenne la responsabilité de garantir une approche harmonisée de la mise en œuvre de la législation sur les services numériques dans toute l’Union, de faciliter la coordination au niveau national ainsi que de se pencher sur les nouvelles possibilités et les nouveaux défis, notamment ceux de nature transnationale, résultant des évolutions technologiques en cours;
Législation sur les services numériques
1. demande à la Commission de présenter sans retard indu un ensemble de propositions législatives constituant une législation sur les services numériques jouissant d’un champ d’application matériel, personnel et territorial adéquat, définissant les concepts fondamentaux et comprenant les recommandations formulées dans l’annexe à la présente résolution; estime que, sans préjudice des éléments de détail des futures propositions législatives, l’article 114 du traité sur le fonctionnement de l’Union européenne devrait en constituer la base juridique;
2. propose que la législation sur les services numériques intègre un règlement établissant les droits contractuels en matière de gestion de contenu, fixant des normes et des procédures transparentes, équitables, contraignantes et uniformes en matière de modération de contenu, et garantissant un accès indépendant et abordable aux voies de recours juridictionnel; souligne que les propositions législatives doivent être fondées sur des données probantes et chercher à éliminer les obstacles actuels et prévenir les nouveaux obstacles potentiels injustifiés dans la prestation de services numériques par les plateformes en ligne, tout en renforçant la protection des consommateurs et des citoyens; estime que ces propositions législatives devraient avoir pour but de parvenir à une croissance durable et intelligente, de relever les défis technologiques et de garantir que le marché unique numérique soit équitable et sûr pour tous;
3. recommande en outre que les mesures proposées en matière de modération de contenu ne s’appliquent qu’aux contenus illicites plutôt qu’aux contenus qui sont seulement néfastes; recommande, à cette fin, que le règlement comprenne des critères universels visant à déterminer le pouvoir de marché des plateformes afin de définir clairement ce qu’est une plateforme dotée d’un pouvoir de marché significatif et de déterminer ainsi si certaines plateformes d’hébergement de contenu qui ne disposent pas d’un pouvoir de marché significatif peuvent être exemptées de certaines dispositions; souligne que le cadre établi par la législation sur les services numériques devrait être gérable pour les petites entreprises, les PME et les jeunes pousses et donc comprendre des obligations proportionnées pour tous les secteurs;
4. propose que la législation sur les services numériques fixe l’obligation, pour les fournisseurs de services numériques établis hors de l’Union européenne, de désigner un représentant légal vis-à-vis des utilisateurs au sein de l’Union, auquel des demandes pourraient être faites, par exemple en vue de ménager une voie de recours aux consommateurs en cas de publicité mensongère ou trompeuse, et de rendre les coordonnées dudit représentant visibles et accessibles sur le site internet du fournisseur de services numériques;
Droits en matière de modération de contenu
5. souligne que la responsabilité de veiller au respect de la législation doit incomber aux pouvoirs publics; estime que la décision définitive quant à la légalité du contenu généré par des utilisateurs doit être rendue par une autorité judiciaire indépendante, et non par une entité commerciale privée;
6. insiste sur le fait que le règlement doit interdire les pratiques de modération de contenu qui sont discriminatoires ou impliquent de l’exploitation et de l’exclusion, notamment à l’égard des personnes les plus vulnérables, et respecter en permanence les droits et les libertés fondamentales des utilisateurs, en particulier la liberté d’expression;
7. souligne la nécessité de mieux protéger les consommateurs en fournissant des informations fiables et transparentes sur des exemples de pratiques abusives, telles que les allégations trompeuses et les escroqueries;
8. recomande que l’application du règlement soit étroitement surveillée par une entité européenne chargée d’assurer le respect des dispositions du règlement par les plateformes d’hébergement de contenu, en particulier en surveillant le respect des normes applicables à la gestion de contenu sur la base de rapports de transparence et d’un contrôle des algorithmes utilisés par les plateformes d’hébergement de contenu aux fins de la gestion de contenu; demande à la Commission d’évaluer la possibilité de désigner une agence ou un organe européens nouveaux ou existants ou de coordonner elle-même un réseau d’autorités nationales (ci-après, «l’entité européenne») pour mener à bien ces tâches;
9. propose que les plateformes d’hébergement de contenu présentent régulièrement à l’entité européenne des rapports détaillés de transparence fondés sur une méthodologie constante et évalués à la lumière d’indicateurs de performance pertinents, notamment sur leurs politiques en matière de contenu et sur la conformité de leurs conditions générales avec les dispositions de la législation sur les services numériques; propose par ailleurs qu’elles mettent à disposition, de manière simple et accessible, ces rapports ainsi que leurs politiques en matière de gestion de contenu dans une base de données accessible au public;
10. demande aux plateformes d’hébergement de contenu disposant d’un pouvoir de marché significatif d’évaluer le risque que leurs politiques de gestion des contenus licites représentent pour la société, par exemple en matière de répercussions sur les droits fondamentaux, et de dialoguer deux fois par an avec l’entité européenne et les autorités nationales compétentes dans le cadre de la présentation des rapports de transparence;
11. recommande aux États membres de prévoir des organes indépendants de règlement des différends chargés de résoudre les litiges relatifs à la modération de contenu; estime qu’aux fins de la protection des publications anonymes et de l’intérêt général, les décisions relatives à la modération de contenu devraient pouvoir être contestées non seulement par l’utilisateur ayant mis en ligne le contenu objet du litige, mais également par un tiers, tel qu’un médiateur, qui a un intérêt légitime à agir; affirme le droit des utilisateurs à épuiser toutes les voies de recours qui s’offrent à eux, y compris devant les juridictions;
12. est fermement d’avis que la législation sur les services numériques doit s’abstenir de contraindre les plateformes d’hébergement de contenu à utiliser toute forme de système entièrement automatisé de contrôle ex ante du contenu, sauf indication contraire dans le droit de l’Union en vigueur; estime que les mécanismes utilisés de plein gré par les plateformes, ne doivent pas déboucher sur des mesures de contrôle ex ante s’appuyant sur des outils automatisés ni sur un filtrage des contenus au moment de leur mise en ligne, et qu’il doit être soumis au contrôle de l’entité européenne de manière à garantir le respect de la législation sur les services numériques;
13. insiste sur le fait que les plateformes d’hébergement de contenu doivent être transparentes en ce qui concerne le traitement des algorithmes et des données qui servent à entraîner ces derniers;
Droits en matière d’édition de contenu, de données et de publicités en ligne
14. considère que l’amplification de contenu ciblant les utilisateurs sur la base des opinions ou des points de vue que ce contenu présente est l’une des pratiques les plus préjudiciables de la société numérique, notamment lorsque la visibilité de ce contenu est renforcée en raison de l’interaction préalable des utilisateurs avec un autre contenu amplifié, dans le but d’optimiser leurs profils à des fins de publicités ciblées; est préoccupé par le fait que ces pratiques ont recours à un suivi omniprésent et à l’exploration de données; demande à la Commission d’analyser les incidences de telles pratiques et de prendre les mesures législatives qui s’imposent;
15. estime que l’utilisation de publicités ciblées doit être réglementée de manière plus stricte au profit de formes publicitaires moins intrusives ne nécessitant pas un suivi des interactions des utilisateurs avec du contenu et que l’affichage de publicités comportementales devrait être subordonnée au consentement libre, spécifique, informé et non équivoque des utilisateurs;
16. prend acte des dispositions en vigueur relatives à la publicité ciblée dans le règlement général sur la protection des données et dans la directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques (directive «vie privée et communications électroniques»)[10];
17. recommande par conséquent que la législation sur les services numériques fixe des limites claires et introduise des règles de transparence en ce qui concerne les modalités d’accumulation de données aux fins de ciblage publicitaire ainsi qu’en ce qui concerne le fonctionnement et la reddition de comptes de ce ciblage publicitaire, notamment lorsque les données proviennent de sites web de tiers; maintient que de nouvelles mesures établissant un cadre pour les relations entre les plateformes et les consommateurs sont nécessaires concernant les dispositions de transparence relatives à la publicité, à l’incitation numérique et au traitement de faveur; invite la Commission à évaluer les possibilités de réglementer le ciblage publicitaire, y compris par une phase de suppression progressive débouchant sur une interdiction totale;
18. souligne que, conformément au principe de minimisation des données et afin d’empêcher leur divulgation non autorisée, l’usurpation d’identité et d’autres formes d’abus de données à caractère personnel, la législation sur les services numériques devrait prévoir le droit d’utiliser les services numériques de manière anonyme à chaque fois que cela est techniquement possible; invite la Commission à exiger des plateformes d’hébergement qu’elles vérifient l’identité des annonceurs avec lesquels elles ont un lien commercial de façon à ce que les annonceurs soient tenus pour responsables en cas de promotion de contenus qui s’avèrent par la suite illicites; recommande dès lors que la législation sur les services numériques comprenne des dispositions juridiques qui empêchent les plateformes d’exploiter à des fins commerciales les données provenant de tiers lorsqu’elles sont en concurrence avec ces tiers;
19. regrette l’asymétrie des informations qui existe entre les plateformes d’hébergement de contenu et les pouvoirs publics et demande un échange rationalisé des informations nécessaires; souligne que, conformément à la jurisprudence sur les métadonnées de communications, il convient de ne rendre les métadonnées d’un utilisateur accessibles aux pouvoirs publics que dans le cadre d’une enquête sur des personnes soupçonnées d’infractions graves, moyennant une autorisation judiciaire préalable;
20. recommande que les fournisseurs qui assurent un service d’authentification unique et détiennent un pouvoir de marché significatif soient tenus de proposer aussi au moins un système d’identité ouvert et décentralisé s’appuyant sur un cadre non propriétaire; demande à la Commission de proposer des normes communes de l’Union pour les systèmes nationaux prévus par les États membres, en particulier en ce qui concerne les normes de protection des données et l’interopérabilité transnationale;
21. invite la Commission à évaluer la possibilité de définir des conditions contractuelles équitables visant à faciliter le partage des données et à améliorer la transparence dans le but de remédier aux déséquilibres concernant le pouvoir de marché; propose, à cette fin, d’étudier les différentes possibilités de faciliter l’interopérabilité, l’interconnectivité et la portabilité des données; fait remarquer que le partage de données devrait s’accompagner de garanties adéquates et appropriées, y compris une réelle anonymisation des données à caractère personnel;
22. recommande que la législation sur les services numériques impose aux plateformes dotées d’un pouvoir de marché significatif de proposer une interface de programmation permettant aux plateformes tierces et à leurs utilisateurs d’interopérer avec les principales fonctionnalités et les utilisateurs de la plateforme proposant l’interface de programmation, y compris des services tiers destinés à améliorer et à personnaliser l’expérience utilisateur, notamment par des services de personnalisation des paramètres de confidentialité ainsi que des préférences en matière d’édition de contenu; propose que les plateformes répertorient publiquement toutes les interfaces de programmation qu’elles mettent à disposition afin de permettre l’interopérabilité et l’interconnectivité des services;
23. insiste fortement, par ailleurs, sur le fait que les plateformes dotées d’un pouvoir de marché significatif qui proposent une interface de programmation ne doivent pas partager, conserver, monétiser ou utiliser les données qu’elles reçoivent dans le cadre de services tiers;
24. souligne que les obligations en matière d’interopérabilité et d’interconnectivité ne peuvent pas limiter, entraver ou retarder la capacité des plateformes d’hébergement de contenu à résoudre les problèmes de sécurité, la nécessité de régler des problèmes de sécurité ne devant pas non plus entraîner une suspension injustifiée de l’interface de programmation assurant l’interopérabilité et l’interconnectivité;
25. rappelle que les dispositions relatives à l’interopérabilité et à l’interconnectivité doivent respecter l’ensemble de la législation applicable en matière de protection des données; recommande, à cet égard, que les plateformes soient tenues, en vertu de la législation sur les services numériques, d’assurer la faisabilité technique des dispositions relatives à la portabilité des données énoncées à l’article 20, paragraphe 2, du règlement général sur la protection des données;
26. souhaite que les plateformes d’hébergement de contenu donnent la possibilité aux utilisateurs d’accepter ou de refuser réellement en amont l’affichage de publicités ciblées en fonction de l’interaction préalable des utilisateurs avec le contenu de ces mêmes plateformes d’hébergement de contenu ou de sites web de tiers; souligne que cette possibilité doit être présentée de manière claire et intelligible et que le refus de l’utilisateur de consentir à l’affichage de ces publicités ne doit pas entraîner la désactivation de l’accès aux fonctionnalités de la plateforme; insiste sur le fait que le consentement aux publicités ciblées ne doit pas être réputé libre et valable si l’accès au service est subordonné au traitement de données; rappelle qu’en vertu de la directive 2002/58/CE du Parlement européen et du Conseil[11], il est indispensable que l’utilisateur donne son consentement exprès aux publicités ciblées, qui sont sinon interdites; relève, sachant que les activités en ligne d’un particulier permettent de connaître son comportement et de le manipuler, que la collecte générale et indifférenciée de données à caractère personnel concernant chaque utilisation d’un service numérique porte atteinte de manière disproportionnée au droit au respect de la vie privée; réaffirme que les utilisateurs ont le droit de ne pas être soumis à un suivi omniprésent lorsqu’ils utilisent des services numériques;
27. demande à la Commission de veiller, dans le même esprit, à ce que les consommateurs puissent toujours utiliser un appareil connecté avec toutes ses fonctions même s’ils refusent de partager des données non opérationnelles avec le fabricant de l’appareil ou des tiers ou qu’ils retirent leur autorisation; réaffirme la nécessité d’assurer la transparence des conditions contractuelles en ce qui concerne la possibilité et la portée du partage de données avec des tiers;
28. demande en outre que les utilisateurs se voient garantir un niveau de transparence et d’influence approprié sur les critères en fonction desquels le contenu est édité et leur est proposé; affirme que les utilisateurs devraient également avoir la possibilité de s’opposer à toute édition de contenu autre que l’ordre chronologique; fait remarquer que les interfaces de programmation fournies par les plateformes devraient permettre aux utilisateurs de gérer le contenu à l’aide du logiciel ou des services de leur choix;
29. souligne qu’il importe que la législation sur les services numériques s’avère juridiquement solide et efficace du point de vue de la protection des enfants dans l’environnement en ligne, tout en s’abstenant d’imposer des obligations générales de surveillance ou de filtrage, en assurant une coordination totale et en évitant les doubles emplois avec le règlement général sur la protection des données et la directive «Services de médias audiovisuels»;
30. rappelle que les publicités payantes ou les placements payants de contenu sponsorisé devraient être identifiées comme tels de manière claire, concise et intelligente; propose que les plateformes divulguent l’origine des publicités payantes et du contenu sponsorisé; propose, à cette fin, que les plateformes d’hébergement de contenu publient l’ensemble du contenu sponsorisé et des publicités et les rendent clairement visibles par leurs utilisateurs dans une archive des publicités accessible au public, où soit indiqué qui les a financés et, le cas échéant, pour le compte de qui; souligne que cela devrait couvrir tant les paiements directs et indirects que toute autre rémunération reçue par les fournisseurs de services;
31. est convaincu que, si les données pertinentes montrent un écart important entre les plateformes établies dans l’Union et celles basées dans des pays tiers en ce qui concerne les pratiques publicitaires trompeuses et le respect de la législation, il demeure raisonnable d’envisager des mesures supplémentaires visant à renforcer le respect de la législation en vigueur dans l’Union; souligne qu’il est nécessaire de garantir des conditions de concurrence équitables entre les publicitaires établis dans l’Union et ceux établis dans des pays tiers;
Dispositions relatives aux conditions générales, aux contrats intelligents et chaînes de blocs et au droit international privé
32. observe l’augmentation des contrats dits «intelligents», à l’instar de ceux fondés sur les technologies des registres distribués, sans base juridique claire;
33. invite la Commission à apprécier l’évolution et l’utilisation des technologies des registres distribués, y compris des chaînes de blocs, et, en particulier, des contrats dits «intelligents», à fournir des lignes directrices afin d’apporter une sécurité juridique aux entreprises et aux consommateurs, en particulier sur les questions liées à la légalité et à l’exécution des contrats intelligents dans les situations transnationales, ainsi qu’aux exigences de notarisation le cas échéant, et à présenter des propositions concernant le cadre juridique approprié;
34. souligne que l’équité des conditions générales imposées par les intermédiaires aux utilisateurs de leurs services et leur conformité aux normes en matière de droits fondamentaux doivent être soumises à un contrôle juridictionnel; souligne que les conditions générales qui limitent indûment les droits fondamentaux des utilisateurs, comme le droit au respect de la vie privé et la liberté d’expression, ne peuvent pas être contraignantes;
35. demande à la Commission de se pencher sur des modalités qui permettraient de veiller à un équilibre et à une égalité satisfaisants entre les parties aux contrats intelligents en tenant compte des préoccupations propres à la partie faible ou des inquiétudes du public à l’égard des ententes notamment; insiste sur la nécessité de veiller à ce que les droits des créanciers soient respectés dans le cadre des procédures d’insolvabilité et de restructuration; recommande vivement que les contrats intelligents comprennent des mécanismes permettant de suspendre et d’annuler leur exécution et les paiements y afférents;
36. demande en particulier à la Commission de mettre à jour son document d’orientation existant sur la directive 2011/83/UE du Parlement européen et du Conseil du 25 octobre 2011 sur les droits des consommateurs[12] afin de préciser si elle considère que les contrats intelligents relèvent de l’exemption prévue à l’article 3, paragraphe 3, point l), et, dans l’affirmative, dans quelles circonstances, ainsi que de préciser la question du droit de rétractation;
37. souligne la nécessité d’utiliser les technologies de chaîne de blocs, en particulier les contrats intelligents, conformément aux obligations découlant des dispositions et des règlementations en matière d’abus de position dominante, notamment l’interdiction des ententes ou des pratiques concertées;
38. considère que des conditions générales standard ne peuvent pas entraver l’accès efficace à la justice dans les juridictions de l’Union, ni priver les citoyens et les entreprises de l’Union de leurs droits; invite la Commission à examiner si la protection des droits d’accès aux données en vertu du droit international privé est incertaine et défavorise les citoyens et les entreprises de l’Union;
39. souligne l’importance de veiller à ce que l’utilisation de services numériques dans l’Union soit pleinement régie par le droit de celle-ci et à ce qu’elle relève de la compétence de ses juridictions;
40. conclut par ailleurs que des solutions législatives à ces questions devraient être apportées au niveau de l’Union si l’adoption de mesures à l’échelon international semble impossible ou si ces mesures risquent de mettre trop de temps pour porter leurs fruits;
41. souligne que les fournisseurs de services établis dans l’Union ne peuvent être contraints de retirer des informations licites dans leur pays d’origine ou d’y empêcher l’accès;
o
o o
42. charge son Président de transmettre la présente résolution ainsi que les recommandations détaillées figurant en annexe à la Commission et au Conseil.
ANNEXE À LA PROPOSITION DE RÉSOLUTION: RECOMMANDATIONS DÉTAILLÉES CONCERNANT LE CONTENU DE LA PROPOSITION DEMANDÉE
A. PRINCIPES ET OBJECTIFS DE LA PROPOSITION DEMANDÉE
LES PRINCIPES ET OBJECTIFS CLÉS DE LA PROPOSITION:
• la proposition contient à la fois des actes qu’il convient d’inclure dans la législation sur les services numériques et des actes annexes à ladite législation;
• la proposition vise à renforcer les règles de droit civil et commercial applicables aux entités commerciales exerçant des activités en ligne dans le cadre de services numériques;
• la proposition vise à consolider et à clarifier les droits contractuels des utilisateurs liés à la modération et à l’édition de contenu;
• la proposition vise à mieux faire face aux abus ou aux inégalités découlant des conditions générales utilisées aux fins de services numériques;
• la proposition aborde la question des aspects de la collecte de données qui contreviennent aux droits contractuels équitables des utilisateurs, ainsi qu’aux règles en matière de protection des données et de confidentialité en ligne;
• la proposition porte sur l’importance d’appliquer les droits des utilisateurs de manière équitable en ce qui concerne l’interopérabilité et la portabilité;
• la proposition souligne l’importance des règles de droit international privé qui apportent une clarté juridique concernant les conditions générales non négociables des plateformes en ligne ainsi que la nécessité de garantir le droit d’accès aux données et l’accès à la justice;
• la proposition n’aborde pas les aspects liés à la réglementation des sites de marché en ligne, qui devraient néanmoins être pris en considération dans le cadre du paquet relatif à la législation sur les services numériques qui sera proposé par la Commission;
• la proposition fait valoir qu’il importe d’examiner la nécessité de réglementer de manière adéquate les aspects liés au droit civil et commercial dans le domaine des technologies des registres distribués, y compris des chaînes de blocs et, notamment, des contrats intelligents.
I. PROPOSITIONS À INCLURE DANS LA LÉGISLATION SUR LES SERVICES NUMÉRIQUES
Les éléments clés des propositions à inclure dans la législation sur les services numériques devraient être les suivants:
Un règlement sur les droits contractuels en matière de gestion de contenu répondant aux exigences suivantes:
• il devrait s’appliquer à la gestion, y compris la modération et l’édition, du contenu accessible dans l’Union;
• il devrait énoncer des principes proportionnés relatifs à la modération de contenu;
• il devrait établir des normes officielles et procédurales relatives à un mécanisme de notification et d’action qui soient proportionnées à la plateforme ainsi qu’à la nature et à l’incidence du préjudice, efficaces et à l’épreuve du temps;
• il devrait prévoir un mécanisme indépendant de règlement des différends dans les États membres qui ne limite pas l’accès aux recours juridictionnels;
• il devrait proposer un ensemble d’indicateurs clairs visant à définir le pouvoir de marché des plateformes d’hébergement de contenu afin de déterminer si certaines d’entre elles, qui ne disposent pas d’un pouvoir de marché important, peuvent être exemptées de certaines dispositions; ces indicateurs pourraient comprendre la taille du réseau (nombre d’utilisateurs), la solidité financière, l’accès aux données, le degré d’intégration verticale ou la présence d’un effet de verrouillage;
• il devrait prévoir des règles relatives à la responsabilité des plateformes d’hébergement de contenu au regard des biens vendus sur ces plateformes ou pour lesquels elles font de la publicité, en tenant compte des activités de soutien aux PME, afin de réduire autant que possible la charge qui pèse sur ces dernières lorsqu’elles s’adaptent à cette responsabilité;
• il devrait établir une distinction claire entre les contenus illicites et les contenus préjudiciables en vue de l’application des possibilités d’action appropriées; à cet égard, toute mesure établie par la législation sur les services numériques devrait uniquement s’appliquer aux contenus illicites tels que définis dans le droit national et de l’Union;
• il devrait reposer sur des principes établis aux fins de déterminer la législation applicable au respect du droit administratif et devrait, à la lumière de la convergence croissante des droits des utilisateurs, énoncer clairement que tous les aspects relevant de son champ d’application sont régis par ces principes;
• il devrait respecter pleinement la charte des droits fondamentaux de l’Union européenne et les règles de l’Union relatives à la protection des utilisateurs et de leur sécurité, de leur vie privée et de leurs données à caractère personnel, ainsi que les autres droits fondamentaux;
• il devrait prévoir un dialogue entre les plateformes d’hébergement de contenu dotées d’un pouvoir de marché important et l’entité européenne sur la gestion des risques liés à la gestion de contenus à caractère juridique.
La Commission devrait envisager la possibilité de créer une entité européenne chargée de veiller au respect des dispositions de la proposition au moyen des mesures suivantes:
• assurer un suivi régulier des algorithmes utilisés par les plateformes d’hébergement de contenu aux fins de la gestion de contenu;
• examiner périodiquement le respect par les plateformes d’hébergement de contenu des dispositions du règlement, à partir de rapports de transparence fournis par ces plateformes et de la base de données publique des décisions relatives au retrait de contenu qui sera établie par la législation sur les services numériques;
• travailler avec les plateformes d’hébergement de contenu sur les bonnes pratiques afin que leurs conditions générales répondent aux exigences en matière de transparence et d’obligation de rendre des comptes, ainsi que sur les bonnes pratiques relatives à la modération de contenu, et mettre en œuvre les procédures de notification et d’action;
• coopérer et se coordonner avec les autorités nationales des États membres aux fins de la mise en œuvre de la législation sur les services numériques;
• gérer un fonds créé spécialement en vue d’aider les États membres à financer les coûts de fonctionnement des organes indépendants de règlement des différends décrits dans le règlement, financé par des amendes infligées aux plateformes d’hébergement de contenu pour non-respect des dispositions de la législation sur les services numériques ainsi que par une contribution des plateformes d’hébergement de contenu dotées d’un important pouvoir de marché;
• infliger des amendes en cas de non-respect de la législation sur les services numériques; les amendes devraient alimenter le fonds spécial destiné à aider les États membres à financer les coûts de fonctionnement des organes de règlement des différends décrits dans le règlement; les cas de non-respect devraient inclure:
o l’incapacité à mettre en œuvre les dispositions du règlement,
o l’absence de conditions générales transparentes, accessibles, équitables et non discriminatoires,
o l’incapacité à garantir à l’entité européenne un accès aux algorithmes de gestion de contenu en vue de leur examen,
o l’incapacité à présenter des rapports de transparence à l’entité européenne;
• publier des rapports semestriels sur l’ensemble de ses activités et rendre compte de ces dernières aux institutions de l’Union.
Les rapports de transparence concernant la gestion de contenu devraient être établis comme suit:
La législation sur les services numériques devrait contenir des dispositions imposant aux plateformes d’hébergement de contenu de publier et de transmettre régulièrement des rapports de transparence à l’entité européenne. Ces rapports devraient englober tous les aspects, selon une méthode cohérente, et notamment comprendre:
• des informations sur les notifications traitées par la plateforme d’hébergement de contenu, y compris les éléments suivants:
o le nombre total de notifications reçues, ventilées par type de contenu, et les mesures prises en conséquence,
o le nombre de notifications reçues, ventilé par catégorie d’entité autrice (particuliers, autorités publiques, entreprises privées, etc.),
o le nombre total de demandes de retrait satisfaites et le nombre total de renvois de contenus aux autorités compétentes,
o le nombre total de contre-notifications ou de recours reçus ainsi que des informations sur la façon dont ces questions ont été résolues,
o le délai moyen entre la publication, la notification, la contre-notification et l’action;
• des informations sur le nombre de membres du personnel affectés à la modération de contenu, sur leur emplacement géographique, sur leur niveau d’instruction et sur leurs compétences linguistiques ainsi que sur tout algorithme utilisé pour prendre des décisions;
• des informations sur les demandes de renseignements émanant d’autorités publiques, telles que les autorités répressives, y compris sur le nombre de demandes pleinement satisfaites et de demandes non satisfaites, ou en partie seulement;
• des informations sur l’application des conditions générales et des informations sur les décisions de justice adoptées pour supprimer et / ou modifier les conditions générales jugées illégales par un État membre.
Les plateformes d’hébergement de contenu devraient en outre publier leurs décisions relatives au retrait de contenu dans une base de données accessible au public afin d’accroître la transparence pour les utilisateurs.
Les organes indépendants de règlement des différends devant être établis par le règlement devraient publier des rapports sur le nombre de saisines dont ils ont fait l’objet, y compris sur le nombre de renvois auxquels ils ont donné suite.
II. I. PROPOSITIONS ANNEXES À LA LÉGISLATION SUR LES SERVICES NUMÉRIQUES
Les mesures relatives à l’édition de contenu, aux données et aux publicités en ligne qui contreviennent aux droits contractuels équitables des utilisateurs devraient inclure les éléments suivants:
• des mesures visant à réduire autant que possible la quantité de données collectées par les plateformes d’hébergement de contenu, sur la base des interactions des utilisateurs avec le contenu hébergé sur ces plateformes, dans le but d’établir des profils publicitaires ciblés, notamment en imposant des conditions strictes quant à l’utilisation de publicités personnelles ciblées et en exigeant le consentement préalable, libre, spécifique, informé et univoque de l’utilisateur; le consentement relatif à l’utilisation de publicités ciblées n’est pas réputé libre et valable si l’accès au service est subordonné au traitement des données;
• les utilisateurs de plateformes d’hébergement de contenu sont informés qu’ils font l’objet de publicités ciblées, ont accès au profil établi par les plateformes d’hébergement de contenu à leur sujet, ont la possibilité de modifier celui-ci et peuvent accepter ou refuser de recevoir des publicités ciblées, ainsi que retirer leur consentement relatif à ces publicités;
les plateformes d’hébergement de contenu devraient mettre à disposition un fichier d’archive du contenu sponsorisé et des publicités qui ont été présentés à leurs utilisateurs, en précisant notamment:
O si le contenu sponsorisé ou le partenariat est actuellement actif ou inactif,
O la durée pendant laquelle la publicité était active,
O le nom et les coordonnées du sponsor ou de l’annonceur et, s’ils sont différents, au nom de qui la publicité ou le contenu sponsorisé a été placé,
O le nombre total d’utilisateurs atteints,
O des informations sur le groupe d’utilisateurs ciblé.
La trajectoire vers une mise en œuvre équitable des droits des utilisateurs en matière d’interopérabilité, d’interconnectivité et de portabilité devrait inclure:
• une évaluation de la possibilité de définir des conditions contractuelles équitables visant à faciliter le partage des données dans le but de remédier aux déséquilibres en matière de pouvoir de marché, notamment grâce à l’interopérabilité, à l’interconnectivité et à la portabilité des données;
• une obligation pour les plateformes dotées d’un pouvoir de marché important d’offrir une interface de programmation permettant aux plateformes tierces et à leurs utilisateurs d’interopérer avec les principales fonctionnalités et les utilisateurs de la plateforme offrant l’interface de programmation, comprenant des services de tiers destinés à améliorer et personnaliser l’expérience utilisateur, notamment par des services de personnalisation des paramètres de confidentialité ainsi que des préférences en matière d’édition de contenu;
• des dispositions garantissant que les plateformes dotées d’un pouvoir de marché important qui offrent une interface de programmation ne puissent pas partager, conserver, monétiser ou utiliser les données qu’elles reçoivent dans le cadre de services de tiers;
• des dispositions garantissant que les obligations en matière d’interopérabilité et d’interconnectivité ne puissent pas limiter, entraver ou retarder la capacité des plateformes d’hébergement de contenu à régler les problèmes de sécurité, la nécessité de régler lesdits problèmes ne devant pas non plus entraîner une suspension injustifiée de l’interface de programmation assurant l’interopérabilité et l’interconnectivité;
• des dispositions garantissant que les plateformes soient tenues, en vertu de la législation sur les services numériques, d’assurer la faisabilité technique des dispositions relatives à la portabilité des données énoncées à l’article 20, paragraphe 2, du règlement général sur la protection des données;
• des dispositions garantissant que les plateformes d’hébergement de contenu dotées d’un pouvoir de marché important répertorient publiquement toutes les interfaces de programmation qu’elles proposent pour permettre l’interopérabilité et l’interconnectivité des services.
La trajectoire vers une réglementation adéquate des aspects liés au droit civil et commercial des technologies des registres distribués, y compris des chaînes de blocs et, notamment, des contrats intelligents, devrait inclure:
• des mesures garantissant la mise en place du cadre législatif adéquat aux fins de l’élaboration et du déploiement de services numériques comprenant des technologies des registres distribués, comme des chaînes de blocs et des contrats intelligents;
• des mesures garantissant que les contrats intelligents disposent de mécanismes permettant de suspendre et renverser leur exécution, en particulier pour tenir compte des préoccupations propres à la partie faible ou des inquiétudes du public à l’égard des ententes, et pour veiller à ce que les droits des créanciers soient respectés dans le cadre des procédures d’insolvabilité et de restructuration;
• des mesures assurant un équilibre et une égalité adéquats entre les parties à des contrats intelligents, compte tenu en particulier des intérêts des petits entrepreneurs et des PME, pour lesquels la Commission devrait examiner les modalités possibles;
• une mise à jour du document d’orientation existant relatif à la directive 2011/83/UE visant à préciser si les contrats intelligents relèvent de l’exemption prévue à l’article 3, paragraphe 3, point i), de ladite directive, ainsi qu’à clarifier les questions relatives aux transactions transfrontalières, aux exigences de notarisation et au droit de rétractation.
La trajectoire vers des règles équitables de droit international privé ne privant pas les utilisateurs d’un accès à la justice devrait:
• garantir que les conditions générales types ne comportent pas de dispositions réglementant les questions de droit international privé au détriment de l’accès à la justice, notamment par l’application effective des mesures existantes à cet égard;
• inclure des mesures précisant les règles de droit international privé relatives aux activités des plateformes en matière de données, de sorte qu’elles ne portent pas atteinte aux membres de l’Union;
• être fondée sur le multilatéralisme et, si possible, faire l’objet d’un accord au sein des enceintes internationales pertinentes.
Les mesures appliquées dans l’Union ne devraient être proposées que lorsqu’il s’avère impossible de parvenir à une solution fondée sur le multilatéralisme dans des délais raisonnables et ce pour veiller à ce que l’utilisation des services numériques dans l’Union soit pleinement régie par le droit de l’Union et à ce qu’elle relève de la compétence des juridictions de l’Union.
B. TEXTE DE LA PROPOSITION LÉGISLATIVE DEMANDÉE
Proposition de
RÈGLEMENT DU PARLEMENT EUROPÉEN ET DU CONSEIL
concernant les droits contractuels en matière de gestion de contenu
vu le traité sur le fonctionnement de l’Union européenne, et notamment son article 114,
vu la proposition de la Commission européenne,
après transmission du projet d’acte législatif aux parlements nationaux,
vu l’avis du Comité économique et social européen,
statuant conformément à la procédure législative ordinaire,
considérant ce qui suit:
(1) Les conditions générales que les prestataires de services numériques appliquent dans leurs relations avec les utilisateurs sont souvent non négociables et peuvent être modifiées de façon unilatérale par ces prestataires. Des mesures doivent être prises au niveau législatif pour mettre en place des normes minimales applicables à ces conditions générales, notamment en ce qui concerne les règles de procédure relatives à la gestion de contenu.
(2) Les régimes de droit civil régissant les pratiques des plateformes d’hébergement de contenu en matière de modération de contenu sont fondés sur certaines dispositions sectorielles à l’échelle de l’Union ainsi que sur des lois adoptées par les États membres à l’échelon national, et il existe des différences substantielles en ce qui concerne les obligations imposées par ces régimes de droit civil aux plateformes d’hébergement de contenu ainsi que leurs mécanismes d’exécution.
(3) La fragmentation des régimes de droit civil régissant la modération de contenu par les plateformes d’hébergement de contenu qui en résulte entraîne non seulement des insécurités juridiques, lesquelles pourraient amener ces plateformes à adopter des pratiques plus strictes que nécessaire pour réduire au minimum les risques que l’utilisation de leur service engendre, mais également un morcellement du marché unique numérique, ce qui entrave la croissance et l’innovation et le développement des entreprises européennes sur le marché unique numérique.
(4) Compte tenu des effets préjudiciables du morcellement du marché unique numérique et de l’insécurité juridique qui en découle pour les entreprises et les consommateurs, de la dimension internationale de l’hébergement de contenu, du volume considéable de contenus nécessitant une modération et du pouvoir de marché significatif détenu par quelques plateformes d’hébergement de contenu établies en dehors de l’Union, les diverses questions qui se posent quant à l’hébergement de contenu doivent être réglementées de manière à assurer une harmonisation totale et, de ce fait, au moyen d’un règlement.
(5) En ce qui concerne les relations avec les utilisateurs, le présent règlement devrait établir des normes minimales en matière d’équité, de transparence et d’imputabilité des conditions générales des plateformes d’hébergement de contenu. En ce qui concerne la modération de contenu, les conditions générales devraient être claires, accessibles, intelligibles et univoques et inclure des normes et des procédures équitables, transparentes, contraignantes et uniformes, qui devraient garantir un accès indépendant et abordable aux voies de recours juridictionnel et respecter les droits fondamentaux.
(6) L’amplification de contenu ciblant les utilisateurs sur la base des opinions ou des points de vue que ce contenu présente est l’une des pratiques les plus préjudiciables de la société numérique, notamment lorsque la visibilité de ce contenu est renforcée en raison de l’interaction préalable des utilisateurs avec un autre contenu amplifié, dans le but d’optimiser leurs profils à des fins de publicités ciblées.
(7) Il y a lieu de rappeler que les algorithmes qui décident du classement des résultats de recherche influencent les communications et interactions individuelles et sociales et peuvent contribuer à la formation d’opinions, notamment dans le cas des contenus des médias.
(8) Afin de veiller, entre autres, à ce qu’ils puissent faire valoir leurs droits, les utilisateurs devraient se voir garantir un niveau de transparence et d’influence approprié sur l’édition du contenu qui leur est proposé, et notamment la possibilité de s’opposer à toute édition de contenu, exceptée l’édition par ordre chronologique. Plus précisément, ils ne devraient pas y être soumis sans leur consentement préalable libre, spécifique, éclairé et univoque. Le consentement relatif à l’utilisation de publicités ciblées ne doit pas être réputé libre et valable si l’accès au service est subordonné au traitement des données.
(9) Le consentement aux conditions générales des plateformes d’hébergement de contenu ou à toute autre description générale des règles relatives à la gestion de contenu par les plateformes d’hébergement de contenu, exprimé de manière générale par un utilisateur, ne devrait pas être considéré comme suffisant pour présenter automatiquement du contenu édité à cet utilisateur.
(10) Le présent règlement ne contraint pas les plateformes d’hébergement de contenu à utiliser des systèmes automatisés de contrôle ex ante du contenu, sous quelque forme que ce soit, sauf disposition contraire du droit de l’Union existant, et en disposant que les procédures de modération du contenu utilisées de plein gré par les plateformes ne conduisent pas à des mesures de contrôle ex ante du contenu reposant sur des outils automatisés ou le filtrage du contenu au moment de la mise en ligne.
(11) Le présent règlement devrait également inclure des dispositions visant à lutter contre les pratiques discriminatoires de modération de contenu et contre l’exploitation ou l’exclusion à des fins de modération de contenu, notamment lorsque le retrait de contenu généré par des utilisateurs est fondé sur l’apparence, l’origine ethnique, le sexe, l’orientation sexuelle, la religion ou les convictions, le handicap, l’âge, la grossesse ou l’éducation des enfants, la langue ou la classe sociale.
(12) Les personnes physiques ou morales, y compris les organismes publics, auxquelles du contenu est proposé par l’intermédiaire d’un site web ou d’une application devraient conserver le droit d’émettre une notification en vertu du présent règlement.
(13) Après qu’une notification a été émise, l’auteur du téléversement devrait être informé, par la plateforme d’hébergement, de son existence et, en particulier, du motif de la notification, ainsi que des dispositions à prendre, et obtenir des informations sur la procédure, y compris sur les modalités d’appel et de renvoi devant les organes indépendants de règlement des différends ainsi que sur les voies de recours disponibles en cas de fausses notifications. Ces informations ne devraient cependant pas être communiquées si la plateforme d’hébergement de contenu a été informée par les autorités publiques de la conduite d’enquêtes judiciaires. En pareil cas, il devrait incomber aux autorités concernées d’informer l’auteur du téléversement de l’émission d’une notification, conformément aux règles applicables.
(14) L’ensemble des parties concernées devraient être informées de la décision résultant d’une notification. Outre le résultat de la décision, les informations communiquées aux parties concernées devraient également inclure, à tout le moins, le motif de la décision, préciser si celle-ci a été prise par un être humain uniquement et contenir des renseignements pertinents sur les modalités de réexamen ou de recours.
(15) Un contenu devrait être réputé manifestement illégal s’il porte atteinte, indubitablement et sans qu’il soit nécessaire de procéder à un examen approfondi, aux dispositions légales régissant la légalité des contenus sur l’internet.
(16) Compte tenu de la nature immédiate de l’hébergement de contenu et de la finalité souvent éphémère du téléversement de contenu, il y a lieu d’établir des organes indépendants de règlement des différends pour assurer des voies de recours extrajudiciaire rapides et efficaces. Ces organes devraient être compétents pour statuer sur les différends relatifs à la légalité du contenu téléversé par des utilisateurs et à la bonne application des conditions générales. Cependant, une telle procédure ne devrait pas avoir pour effet d’empêcher l’utilisateur d’exercer son droit d’accès à la justice.
(17) La mise en place d’organes indépendants de règlement des différends pourrait alléger la charge pesant sur les tribunaux en assurant le règlement rapide des litiges portant sur les décisions de gestion de contenus sans préjudice du droit à un recours en justice. Étant donné que les plateformes d’hébergement de contenu qui jouissent d’un pouvoir de marché considérable peuvent tirer des bénéfices substantiels de la création d’organes indépendants de règlement des différends, il est souhaitable que lesdites plateformes contribuent au financement de ces organes. Ce fonds devrait être géré de manière indépendante par l’entité européenne afin d’aider les États membres à financer les frais de fonctionnement des organes indépendants de règlement des différends. Les États membres devraient veiller à ce que ces organes soient dotés des ressources suffisantes pour garantir leur compétence et leur indépendance.
(18) Les utilisateurs devraient avoir le droit de saisir un organe indépendant et équitable de règlement des différends, dans le cadre d’un mécanisme alternatif de règlement des différends, pour contester une décision prise par une plateforme d’hébergement de contenu à la suite d’une notification relative au contenu qu’ils ont téléversé. Les auteurs d’une notification devraient jouir de ce droit s’ils auraient la qualité pour agir dans un procès civil concernant le contenu en question.
(19) S’agissant de la compétence, l’organe indépendant de règlement des différends compétent devrait être celui qui est établi dans l’État membre où le contenu faisant l’objet du litige a été téléversé. Les personnes physiques devraient toujours avoir la possibilité de porter leurs réclamations devant l’organe indépendant de règlement des différends de leur État membre de résidence.
(20) L’alerte éthique contribue à éviter les violations du droit et à détecter les menaces ou les atteintes à l’intérêt général qui, autrement, continueraient de passer inaperçues. La mise en place d’une protection pour les lanceurs d’alerte contribue grandement à préserver la liberté d’expression, la liberté des médias et le droit d’accès à l’information du public. La directive (UE) 2019/1937 du Parlement européen et du Conseil[13] devrait par conséquent s’appliquer aux violations pertinentes du présent règlement et être modifiée en conséquence.
(21) Le présent règlement devrait inclure l’obligation de faire rapport sur sa mise en œuvre ainsi que l’obligation de le réexaminer dans un délai raisonnable. À cette fin, les organes indépendants de règlement des différends établis par les États membres conformément au présent règlement devraient publier des rapports sur le nombre de saisines dont ils ont fait l’objet, y compris le nombre de renvois traités, ainsi que sur les décisions prises - en procédant, s’il y a lieu, à l’anonymisation des données à caractère personnel -, les données relatives aux problèmes systémiques, les tendances et l’identification des plateformes qui ne se conforment pas aux décisions des organes indépendants de règlement des différends.
(22) Étant donné que l’objectif du présent règlement, à savoir établir un cadre réglementaire pour les droits contractuels en matière de gestion de contenu dans l’Union, ne peut pas être réalisé de manière suffisante par les États membres, mais peut en revanche, en raison de sa dimension et de ses effets, être mieux réalisé au niveau de l’Union, celle-ci peut adopter des mesures conformément au principe de subsidiarité consacré à l’article 5 du traité sur l’Union européenne. Conformément au principe de proportionnalité tel qu’énoncé audit article, le présent règlement n’excède pas ce qui est nécessaire pour atteindre cet objectif.
(23) La création d’une entité européenne chargée de contrôler et de garantir de manière adéquate le respect des dispositions du présent règlement par les plateformes d’hébergement de contenu renforcerait considérablement les actions entreprises à l’échelle de l’Union en vertu du présent règlement. À cette fin, la Commission devrait envisager la possibilité de désigner une agence ou un organe européen nouveau ou existant ou de coordonner un réseau d’autorités nationales afin de vérifier le respect des normes établies aux fins de la gestion des contenus sur la base de rapports de transparence et du suivi des algorithmes utilisés par les plateformes d’hébergement de contenu pour gérer les contenus (ci-après «l’entité européenne»).
(24) Afin d’assurer l’évaluation des risques associés à l’amplification de contenu, il convient d’instaurer, entre les plateformes d’hébergement de contenu dotées d’un pouvoir de marché important et l’entité européenne ainsi que les autorités nationales concernées, un dialogue semestriel sur l’incidence des politiques de gestion des contenus à caractère juridique ayant trait aux droits fondamentaux.
(25) Le présent règlement respecte l’ensemble des droits fondamentaux, ainsi que les libertés et principes reconnus par la charte des droits fondamentaux de l’Union européenne, tels que consacrés par les traités, en particulier la liberté d’expression et d’information et le droit à un recours effectif et à un procès équitable.
ONT ADOPTÉ LE PRÉSENT RÈGLEMENT:
Article premier
Objet
Le présent règlement a pour objet de contribuer au bon fonctionnement du marché intérieur en fixant les règles visant à garantir l’existence de droits contractuels équitables en matière de gestion de contenu ainsi qu’à créer des mécanismes indépendants de règlement des différends relatifs à la gestion de contenu.
Article 2
Champ d’application
1. Le présent règlement s’applique aux plateformes d’hébergement de contenu qui hébergent et gèrent des contenus accessibles au public sur des sites web ou par l’intermédiaire d’applications pour téléphones intelligents au sein de l’Union, indépendamment du lieu d’établissement ou d’immatriculation ou du siège d’exploitation principal desdites plateformes.
2. Le présent règlement ne s’applique pas aux plateformes d’hébergement de contenu qui:
a) sont dépourvues de tout caractère commercial; ou
b) comptent moins de [100 000][14] utilisateurs.
Article 3
Définitions
Aux fins du présent règlement, on entend par:
(1) «plateforme d’hébergement de contenu», un service de la société de l’information au sens de l’article 1er, paragraphe 1, point b), de la directive (UE) 2015/1535 du Parlement européen et du Conseil[15], dont l’objectif principal ou l’un des principaux objectifs est de permettre aux utilisateurs enregistrés ou non enregistrés de téléverser du contenu à afficher sur un site web ou une application accessibles au public;
(2) «plateforme d’hébergement de contenu dotée d’un pouvoir de marché important», une plateforme d’hébergement de contenu présentant au moins deux des caractéristiques suivantes:
(a) une capacité à développer ou à préserver une base d’utilisateurs grâce à des effets de réseau qui bloquent une partie considérable desdits utilisateurs, ou une capacité à créer une situation de dépendance économique grâce à la position occupée sur le marché en aval;
(b) une taille considérable sur le marché, qui peut être mesurée soit par le nombre d’utilisateurs actifs, soit par le chiffre d’affaires annuel global de la plateforme;
(c) l’intégration dans un environnement économique ou de réseau contrôlé par une société du même groupe ou par la société mère, permettant l’exploitation sur un marché adjacent du pouvoir de marché exercé sur un marché donné;
(d) un rôle de contrôleur d’accès pour une catégorie entière de contenus ou d’informations;
(e) l’accès à une quantité considérable de données à caractère personnel de haute qualité fournies par les utilisateurs ou déduites à partir de l’observation du comportement en ligne de ces derniers, ces données étant indispensables à la fourniture ou à l’amélioration d’un service similaire et difficiles à obtenir ou à reproduire pour des concurrents potentiels;
(3) «contenu», tout concept, idée, expression ou information dans tout format (textes, images, audio et vidéo);
(4) «contenu illicite», tout contenu contraire au droit de l’Union ou au droit de l’État membre dans lequel il est hébergé;
(5) «gestion de contenu», la modération et l’édition de contenu sur des plateformes d’hébergement de contenu;
(6) «modération de contenu», la pratique consistant à surveiller et à appliquer un ensemble préétabli de règles et de lignes directrices au contenu généré, publié ou partagé par des utilisateurs afin de faire en sorte que ledit contenu soit conforme aux exigences juridiques et réglementaires, aux lignes directrices communautaires et aux conditions générales ainsi qu’à toute mesure prise en conséquence par la plateforme, telle que le retrait du contenu ou la suppression ou la suspension du compte de l’utilisateur, par l’intermédiaire de systèmes automatisés ou d’opérateurs humains;
(7) «édition de contenu», la pratique consistant à sélectionner, à optimiser, à privilégier et à recommander du contenu sur la base du profil personnel des utilisateurs dans le but d’afficher ledit contenu sur un site web ou une application;
(8) «conditions générales», toutes les conditions générales ou spécifications, quelle que soit leur dénomination ou leur forme, qui régissent la relation contractuelle entre la plateforme d’hébergement de contenu et ses utilisateurs et qui sont déterminées unilatéralement par la plateforme d’hébergement de contenu;
(9) «utilisateur», une personne physique ou morale qui utilise les services fournis par une plateforme d’hébergement de contenu ou qui interagit avec le contenu hébergé sur cette plateforme;
(10) «auteur du téléversement», une personne physique ou morale qui ajoute du contenu sur une plateforme d’hébergement de contenu, indépendamment de sa visibilité pour les autres utilisateurs;
(11) «notification», une communication officialisée contestant la conformité du contenu avec les exigences juridiques et réglementaires, les lignes directrices communautaires et les conditions générales.
Article 4
Principes relatifs à la gestion de contenu
1. La gestion de contenu est effectuée de manière équitable, licite et transparente. Les pratiques de gestion de contenu sont appropriées, proportionnées à la nature et au volume du contenu, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles le contenu est géré. Les plateformes d’hébergement de contenu sont tenues responsables du fait que leurs pratiques de gestion du contenu sont équitables, transparentes et proportionnées.
2. Les utilisateurs ne sont pas soumis à des pratiques discriminatoires d’exploitation ou d’exclusion en matière de modération de contenu par les plateformes d’hébergement de contenu, telles que le retrait de contenu généré par des utilisateurs fondé sur l’apparence, l’origine ethnique, le sexe, l’orientation sexuelle, la religion ou les convictions, le handicap, l’âge, la grossesse ou l’éducation des enfants, la langue ou la classe sociale.
3. Les plateformes d’hébergement de contenu fournissent aux utilisateurs suffisamment d’informations sur leurs profils d’édition de contenu ainsi que sur les critères individuels selon lesquels les plateformes d’hébergement de contenu éditent le contenu pour eux, y compris en ce qui concerne l’utilisation éventuelle d’algorithmes et la finalité desdits algorithmes.
4. Les plateformes d’hébergement de contenu confèrent aux utilisateurs un niveau d’influence approprié sur l’édition du contenu qui leur est proposé, et notamment la possibilité de s’opposer à toute édition de contenu. Plus précisément, ils n’y sont pas soumis sans leur consentement préalable, libre, spécifique, éclairé et univoque.
Article 5
Dialogue structuré sur les risques liés à la gestion de contenu
Dans le cadre du dialogue structuré sur les risques mené avec l’entité européenne et les autorités nationales compétentes, les plateformes d’hébergement de contenu dotées d’un pouvoir de marché important présentent à l’entité européenne un rapport sur l’incidence sur les droits fondamentaux, sur la gestion des risques dans le cadre de leurs politiques de gestion de contenu et sur la manière dont ils atténuent ces risques.
Article 6
Obligation de transparence
1. Les prestataires de services numériques prennent les mesures nécessaires pour permettre la divulgation du financement de tout groupe d’intérêts auxquel les utilisateurs des services numériques fournis sont associés et d’informations détaillées sur la nature de la relation entre lesdits groupes d’intérêts et lesdits utilisateurs. Cette divulgation permet d’identifier la personne responsable sur le plan juridique.
2. Les prestataires de services numériques commerciaux qui sont établis en dehors de l’Union désignent un représentant légal dans l’intérêt des utilisateurs au sein de l’Union et rendent les coordonnées dudit représentant visibles et accessibles sur leur site internet.
Article 7
Éligibilité à l’émission de notifications
1. Toute personne physique ou morale ou tout organisme public ayant accès à du contenu par l’intermédiaire d’un site web, d’une application ou d’une autre forme de logiciel a le droit d’émettre une notification en vertu du présent règlement.
2. Les États membres prévoient des sanctions applicables aux personnes qui, agissant pour les besoins de leur commerce, de leur entreprise, de leur métier ou de leur profession, émettent de manière systématique et répétée de fausses notifications. Ces sanctions sont effectives, proportionnées et dissuasives.
Article 8
Procédures de notification
Les plateformes d’hébergement de contenu incluent dans leurs conditions générales des informations claires, accessibles, intelligibles et dépourvues d’ambiguïté relatives aux procédures de notification, notamment:
(a) le délai maximal dans lequel l’auteur du téléversement du contenu en question doit être informé de l’existence d’une procédure de notification;
(b) le délai dans lequel l’auteur du téléversement peut former un recours;
(c) le délai dont la plateforme d’hébergement de contenu dispose pour traiter promptement une notification et prendre une décision;
(d) le délai dont la plateforme d’hébergement de contenu dispose pour informer les deux parties du résultat de la décision, en motivant les mesures prises.
Article 9
Contenu des notifications
1. Une notification relative à du contenu comprend au moins les informations suivantes:
(a) un lien vers le contenu en question et, s’il y a lieu, dans le cas par exemple d’un contenu vidéo, un horodatage;
(b) le motif de la notification;
(c) des éléments de preuve à l’appui de la réclamation formulée dans la notification;
(d) une déclaration de bonne foi de l’auteur; et
(e) en cas de violation de droits de la personnalité ou de droits de propriété intellectuelle, l’identité de l’auteur.
2. Dans le cas des violations visées au paragraphe 1, point e), l’auteur est la personne concernée par la violation des droits de la personnalité, ou le titulaire des droits de propriété intellectuelle qui ont été violés, ou toute personne agissant en son nom.
Article 10
Informations fournies à l’auteur du téléversement
1. Dès l’émission d’une notification et avant qu’une décision ne soit prise concernant le contenu, l’auteur du téléversement du contenu en question reçoit les informations suivantes:
(a) le motif de la notification et les mesures susceptibles d’être prises par la plateforme d’hébergement de contenu;
(b) suffisamment d’informations sur la procédure à suivre;
(c) des informations sur le droit de réponse prévu au paragraphe 3; et
(d) des informations sur les voies de recours disponibles en cas de fausses notifications.
2. Les informations requises au titre du premier paragraphe ne sont pas communiquées si la plateforme d’hébergement de contenu a été informée par les autorités publiques de la conduite d’enquêtes judiciaires.
3. L’auteur du téléversement a le droit de répondre à la plateforme d’hébergement de contenu sous la forme d’une contre-notification. La plateforme d’hébergement de contenu tient compte de la réponse de l’auteur du téléversement lorsqu’elle prend une décision sur les mesures à prendre.
Article 11
Décisions relatives aux notifications
1. Les plateformes d’hébergement de contenu veillent à ce que les décisions relatives aux notifications soient prises sans retard indu par un personnel qualifié au terme des vérifications nécessaires.
2. À la suite d’une notification, les plateformes d’hébergement de contenu décident sans délai s’il convient de retirer, de supprimer ou de rendre inaccessible le contenu faisant l’objet de la notification si ledit contenu n’est pas conforme aux exigences juridiques. Sans préjudice de l’article 14, paragraphe 2, le fait qu’un contenu spécifique ait été déclaré non conforme par une plateforme d’hébergement de contenu n’implique en aucun cas que le contenu d’un autre utilisateur puisse être automatiquement retiré, supprimé ou rendu inaccessible.
Article 12
Informations relatives aux décisions
Lorsqu’une plateforme d’hébergement de contenu a pris une décision, elle en informe l’ensemble des parties concernées par la procédure de notification, en leur précisant en des termes clairs et simples:
(a) les motifs de la décision;
(b) si la décision a été prise par un être humain uniquement ou avec l’aide d’un algorithme;
(c) des informations concernant la possibilité d’un réexamen tel que visé à l’article 13 et, pour chaque partie, d’un recours juridictionnel.
Article 13
Réexamen des décisions
1. Les plateformes d’hébergement de contenu peuvent proposer un mécanisme permettant aux utilisateurs de demander un réexamen des décisions prises.
2. Les plateformes d’hébergement de contenu dotées d’un pouvoir de marché important prévoient le mécanisme de réexamen visé au paragraphe 1.
3. Dans tous les cas, la décision définitive du réexamen est prise par un être humain.
Article 14
Suppression de contenu
1. Sans préjudice des décisions judiciaires ou administratives relatives au contenu en ligne, le contenu faisant l’objet d’une notification reste visible tant que l’évaluation de sa légalité est en cours.
2. Les plateformes d’hébergement de contenu agissent promptement pour rendre indisponible ou supprimer les contenus manifestement illicites.
Article 15
Règlement indépendant des différends
1. Les États membres prévoient des organes indépendants de règlement des différends pour garantir des voies de recours extrajudiciaire rapides et efficaces lorsque des décisions relatives à la modération de contenu font l’objet d’un recours.
2. Les organes indépendants de règlement des différends sont composés d’experts juridiques indépendants ayant pour mission de statuer sur les différends qui opposent des plateformes d’hébergement de contenu et les utilisateurs concernant la conformité du contenu en question avec les exigences juridiques et réglementaires, les lignes directrices communautaires et les conditions générales.
3. Le renvoi d’un différend relatif à la modération de contenu devant un organe indépendant de règlement des différends ne fait pas obstacle à l’introduction ultérieure d’une action en justice par un utilisateur, à moins que le différend ait été réglé d’un commun accord.
4. Les plateformes d’hébergement de contenu dotées d’un pouvoir de marché important contribuent financièrement aux coûts de fonctionnement des organes indépendants de règlement des différends par l’intermédiaire d’un fonds spécifique géré par l’entité européenne, dans le but d’aider les États membres à financer ces organes. Les États membres veillent à ce que les organes indépendants de règlement des différends soient dotés des ressources suffisantes pour garantir leur compétence et leur indépendance.
Article 16
Règles de procédure relatives au règlement indépendant des différends
1. L’auteur du téléversement ainsi qu’un tiers, tel qu’un médiateur ayant un intérêt légitime à agir, ont le droit de renvoyer une affaire relative à la modération de contenus devant l’organe indépendant de règlement des différends compétent dans l’éventualité où une plateforme d’hébergement de contenu aurait décidé de retirer, de supprimer ou de rendre inaccessible le contenu ou d’agir d’une manière contraire à la volonté de l’auteur du téléversement telle qu’exprimée par celui-ci ou qui constitue une violation des droits fondamentaux.
2. Lorsque la plateforme d’hébergement de contenu a décidé de ne pas supprimer le contenu faisant l’objet d’une notification, l’auteur de la notification a le droit de renvoyer l’affaire devant l’organe indépendant de règlement des différends compétent, pour autant qu’il ait la qualité pour agir dans un procès civil concernant le contenu en question.
3. En ce qui concerne la compétence, l’organe indépendant de règlement des différends compétent est celui qui est établi dans l’État membre où le contenu faisant l’objet du différend a été téléversé. Les personnes physiques sont autorisées, dans tous les cas, à porter leurs réclamations devant l’organe indépendant de règlement des différends de leur État membre de résidence.
4. Lorsque l’auteur de la notification a le droit de renvoyer une affaire de modération de contenu devant un organe indépendant de règlement des différends conformément au paragraphe 2, il peut saisir l’organe indépendant de règlement des différends établi dans l’État membre de sa résidence habituelle ou de la résidence de l’auteur du téléversement, si ce dernier utilise le service à des fins non commerciales.
5. Lorsqu’une affaire de modération de contenu liée à la même question fait l’objet d’un renvoi devant un autre organe indépendant de règlement des différends, l’organe de règlement des différends peut suspendre la procédure en ce qui concerne le renvoi. Lorsqu’une question de modération de contenu a fait l’objet de recommandations de la part d’un organe indépendant de règlement des différends, l’organe indépendant de règlement des différends peut refuser de traiter un renvoi.
6. Les États membres fixent toutes les autres règles et procédures nécessaires qui s’appliquent aux organes indépendants de règlement des différends relevant de leur compétence.
Article 17
Données à caractère personnel
Tout traitement de données à caractère personnel en application du présent règlement est effectué conformément au règlement (UE) 2016/679 du Parlement européen et du Conseil[16] et à la directive 2002/58/CE du Parlement européen et du Conseil[17].
Article 18
Signalement de violations et protection des personnes qui signalent des violations
La directive (UE) 2019/1937 s’applique au signalement de violations du présent règlement ainsi qu’aux personnes qui signalent ces violations.
Article 19
Modifications de la directive (UE) 2019/1937:
La directive (UE) 2019/1937 est modifiée comme suit:
1) le point suivant est ajouté à l’article 2, paragraphe 1, point a):
«xi) gestion de contenu en ligne;»;
2) le point suivant est ajouté à la partie I de l’annexe:
«K. Article 2, paragraphe 1, point a) xi) – gestion de contenu en ligne.
Règlement [XXX] du Parlement européen et du Conseil concernant les droits contractuels en matière de gestion de contenu.».
Article 20
Rapports, évaluation et réexamen
1. Les États membres fournissent à la Commission l’ensemble des informations pertinentes relatives à la mise en œuvre et à l’application du présent règlement. Sur la base des informations fournies et de la consultation publique, la Commission, avant le... [trois ans à compter de l’entrée en vigueur du présent règlement], soumet au Parlement européen et au Conseil un rapport sur la mise en œuvre et l’application du présent règlement et examine la nécessité d’adopter des mesures supplémentaires, y compris, le cas échéant, des modifications au présent règlement.
2. Sans préjudice des obligations en matière de rapports prévues dans d’autres actes juridiques de l’Union, les États membres présentent chaque année les données chiffrées suivantes à la Commission:
FdR
(a) le nombre de différends dont les organes indépendants de règlement des différends ont été saisis et les types de contenus qui ont fait l’objet de différends;
(b) le nombre d’affaires réglées par les organes indépendants de règlement des différends, classées en fonction de l’issue.
Article 21
Entrée en vigueur
Le présent règlement entre en vigueur le vingtième jour suivant celui de sa publication au Journal officiel de l’Union européenne.
Il est applicable à partir du XX.
Le présent règlement est obligatoire dans tous ses éléments et directement applicable dans tout État membre.
EXPOSÉ DES MOTIFS
La nature des services numériques dans l’Union européenne évolue radicalement et à un rythme effréné. Le cadre juridique actuel applicable aux services numériques proposés sur le marché intérieur a été établi au cours de l’année 2000. Depuis lors, les modèles économiques, les technologies et les réalités sociales ont évolué dans des proportions qui nécessitent une mise à jour globale des règles et des législations régissant la fourniture de services numériques au sein de l’Union européenne.
Dans ses orientations politiques, la présidente de la Commission européenne a annoncé la création d’une législation sur les services numériques visant à adapter le cadre juridique de l’Union aux nouvelles réalités sociales et aux modèles économiques de l’économie numérique du XXIe siècle. La nécessité de cette initiative devient évidente lorsque l’on sait que plusieurs États membres commencent à adopter des mesures législatives à l’échelle nationale pour régler des questions directement liées à la fourniture de services numériques au sein de l’Union européenne. Cependant, lorsque des États membres prennent des mesures relatives à des questions de nature transfrontalière, la fragmentation des réglementations qui en résulte partout dans l’Union est non seulement inefficace, mais également particulièrement préjudiciable en ce sens qu’elle freine la croissance des entreprises européennes du marché unique numérique. Pour garantir le bon fonctionnement du marché unique des services numériques, tel que mentionné à l’article 114 du traité FUE, une mise à jour des règles de droit civil et commercial applicables aux entités commerciales exerçant des activités en ligne est nécessaire.
Au cours de la dernière décennie, un nombre croissant d’activités sociales et commerciales ont migré vers des plateformes en ligne, qui servent d’intermédiaires pour du contenu, des services et des biens. Par ailleurs, les réseaux sociaux et les services de l’économie collaborative brouillent les lignes de démarcation entre les fournisseurs et les consommateurs de contenu et de services, dont la fourniture est devenue horizontale et éparse plutôt que verticale et linéaire. Les plateformes d’hébergement de contenu s’affirmant comme le format dominant en ce qui concerne l’échange de contenu et de services, la question de la lutte contre les activités illicites est désormais au centre des préoccupations.
En outre, l’acquisition d’un pouvoir de marché significatif par les plateformes dominantes a donné lieu à une situation dans laquelle «le gagnant emporte la mise», et le marché est composé d’un petit nombre d’acteurs qui y occupent chacun une position dominante par rapport à leurs concurrents et qui imposent leurs pratiques commerciales aux utilisateurs. Les régimes juridiques en vigueur prévoient une surveillance réglementaire limitée de la manière dont les plateformes d’hébergement de contenu traitent les activités illicites. Il en résulte une situation où des entreprises privées conservent le contrôle de l’application des législations, d’une part, et de la protection des droits fondamentaux, de l’autre. La liberté d’expression étant protégée par l’article 11 de la charte des droits fondamentaux de l’Union européenne, la législation de l’Union doit garantir des procédures de modération de contenu transparentes qui garantissent à toutes les parties concernées l’accès à la justice.
Le rapporteur est d’avis que la législation sur les services numériques devrait rendre le principe de «notification et action» efficace et réalisable et qu’elle devrait ériger ce principe au rang de procédure type en matière de modération de contenu, à suivre partout dans l’Union. À cette fin, le rapporteur a défini deux manières dont la législation sur les services numériques pourrait renforcer l’efficacité des procédures de notification et action: 1) en établissant un cadre procédural clair pour les procédures de notification et action; et 2) en veillant à ce que ces procédures garantissent un recours juridictionnel effectif. Ces dispositions devraient être sans préjudice de l’application des règles en matière de responsabilité des prestataires de services intermédiaires prévues aux articles 12 à 15 de la directive 2000/31/CE.
Premièrement, la législation de l’Union devrait rendre obligatoire l’inclusion des procédures de notification et action dans les conditions générales des plateformes d’hébergement de contenu, en établissant des normes communes applicables à la manière dont les plateformes d’hébergement de contenu modèrent le contenu. En ce sens, une injonction émanant d’une juridiction ou une notification émise par un titulaire de droit devrait conduire une plateforme d’hébergement de contenu à prendre des mesures proportionnées en suivant une procédure claire établie par les dispositions adoptées dans le cadre du paquet législatif relatif aux services numériques. De cette manière, les procédures de notification et action pourront être renforcées et dotées d’un cadre procédural clair garantissant à l’ensemble des parties l’équité et la sécurité juridique.
Deuxièmement, l’établissement de normes claires concernant les procédures de notification et action permet également d’assurer des recours juridictionnels effectifs en cas de litiges. Des suppressions abusives, résultant de surblocages ou de fausses notifications, violent la liberté d’expression des utilisateurs, et la législation sur les services numériques doit indiquer clairement quelles sont les voies de recours juridictionnel effectifs dans de tels cas. Le rapporteur estime qu’il est préférable d’adopter cette approche plutôt que de demander aux plateformes d’hébergement de contenu de «prendre le relais» et de jouer un rôle plus actif, en particulier en cas d’urgence, ce qui pourrait entraîner des surblocages dans la pratique et laisser entièrement le soin à des entreprises privées de déterminer la légalité du contenu, ce qui aurait des effets néfastes sur l’exercice des droits fondamentaux en ligne et l’état de droit. À cette fin, la législation sur les services numériques ne doit contenir aucune disposition contraignant ou conduisant les plateformes d’hébergement de contenu à utiliser des mécanismes automatisés de contrôle préalable du contenu ou d’autres outils automatisés de modération ex ante du contenu. La décision définitive concernant la légalité du contenu ne peut, au contraire, être prise que par une autorité judiciaire indépendante. Pour cela, les pratiques de modération de contenu doivent reposer sur une coopération équilibrée entre les plateformes d’hébergement de contenu et les autorités publiques, ce qui implique l’établissement de règles et de procédures claires par la législation sur les services numériques.
Les recours juridictionnels doivent être effectifs et réalisables dans la pratique. Par conséquent, les différends en matière de modération de contenu ne devraient pas surcharger les systèmes judiciaires des États membres. Le rapporteur suggère, pour cette raison, d’établir dans les États membres des organes indépendants de règlement des différends, composés d’experts juridiques chargés de régler les litiges entre les plateformes d’hébergement de contenu et les utilisateurs concernant les décisions relatives à la modération de contenu. Cette voie de droit simplifiée serait conçue de sorte à être adaptée à la nature des différends en matière de modération de contenu, mais également à veiller à ce que les tribunaux nationaux ne soient pas surchargés par ces litiges. Étant donné que ces organes agiraient en tant que sous-système judiciaire, ils ne sauraient remplacer les juridictions traditionnelles, et l’introduction ultérieure d’actions en justice doit rester possible dans tous les cas. La charge financière liée à l’établissement et à la gestion de ces organes de règlement des différends ne devrait pas incomber aux contribuables. Le rapporteur suggère en revanche de mettre en place un fonds créé spécialement à cet effet, auquel les plateformes d’hébergement de contenu jouissant d’une position solide sur le marché devraient contribuer.
Afin de contrôler et de garantir le respect des dispositions de la législation sur les services numériques, le rapporteur propose de créer une agence européenne qui aurait la possibilité d’imposer des amendes aux plateformes d’hébergement de contenu qui ne respectent pas les normes requises dans le cadre de leurs pratiques de gestion de contenu. Les plateformes d’hébergement de contenu devraient transmettre régulièrement des rapports de transparence à cette agence, dans lesquels elles préciseraient leur conformité aux normes et aux procédures applicables aux procédures de notification et action en vertu de la législation sur les services numériques. Par ailleurs, les plateformes d’hébergement de contenu devraient publier dans une base de données accessible au public des informations sur les décisions qu’elles ont prises concernant le retrait de contenu, et ce, de sorte à permettre à des journalistes ou à des scientifiques de mener des recherches sur les effets du retrait de contenu, afin de mieux appréhender l’efficacité des pratiques de modération de contenu. Parallèlement, l’agence européenne devrait avoir pour mission de contrôler les algorithmes utilisés par les plateformes d’hébergement de contenu à des fins de modération et d’édition de contenu, notamment lorsque les plateformes d’hébergement de contenu utilisent volontairement des algorithmes à des fins de contrôle automatisé ex ante du contenu. L’agence européenne devrait également être habilitée à imposer des amendes en cas de non-respect, lesquelles pourraient alimenter le fonds susmentionné destiné aux organes indépendants de règlement des différends
En plus de fournir un cadre clair en matière de modération de contenu, le rapporteur estime nécessaire de se pencher sur certaines pratiques en matière d’édition de contenu. De nombreuses plateformes d’hébergement de contenu déterminent le contenu qui est le plus susceptible d’être présenté aux utilisateurs sur la base de profils élaborés grâce au suivi des interactions des utilisateurs avec des contenus, dans le but de proposer des publicités ciblées. En pratique, cette démarche donne lieu à la probable amplification d’un contenu qui, par nature, cherche à attirer l’attention et est sensationnaliste. Il en résulte non seulement une situation où le contenu «piège à clics» est plus susceptible d’apparaître en évidence dans les fils d’actualité et les systèmes de recommandation, mais plus fondamentalement, cela peut également avoir une incidence sur la liberté d’information des utilisateurs si ceux-ci n’ont que peu d’influence sur la manière dont le contenu est édité pour eux. Le rapporteur est d’avis qu’un modèle économique qui détermine la visibilité d’un contenu uniquement sur la base de la capacité dudit contenu à générer des recettes publicitaires est préjudiciable aux sociétés numériques. Par conséquent, il suggère, d’une part, que des mesures soient prises pour limiter la collecte de données visant à établir des profils publicitaires ciblés et, d’autre part, que les utilisateurs se voient accorder un degré de contrôle approprié sur les algorithmes d’édition de contenu qui déterminent leur expérience sur les réseaux sociaux. De même, les algorithmes utilisés par les plateformes d’hébergement de contenu pour éditer du contenu devraient faire l’objet de vérifications par l’agence européenne qui serait créée en vertu de la législation sur les services numériques.
Cette pratique se révèle particulièrement délétère compte tenu de la position dominante que certaines plateformes d’hébergement de contenu occupent sur marché. Les effets de «verrouillage» des utilisateurs sont imputables à la taille même des plateformes d’hébergement de contenu; peu d’entre elles disposent des ressources nécessaires pour proposer une infrastructure destinée à la vérification de l’identité pour accéder aux sites web de tiers et suivre ainsi les interactions des utilisateurs avec du contenu, même en dehors de leurs propres pages. Le rapporteur prie instamment la Commission de rechercher des solutions viables pour garantir des conditions de marché équitables à l’ensemble des acteurs, notamment d’étudier la possibilité de définir des conditions contractuelles équitables pour faciliter le partage de données entre les acteurs du marché.
Le rapporteur estime également que la législation sur les services numériques devrait inclure certaines dispositions visant à faciliter l’adoption d’instruments innovants fondés sur les technologies des registres distribués. Les contrats dits «intelligents», des protocoles auto-applicables fondés sur les chaînes de bloc, jouissent d’une popularité croissante. Cependant, l’adoption à grande échelle de cette technologie dépend de la sécurité juridique. La législation sur les services numériques offre l’occasion d’évaluer les exigences que les contrats intelligents doivent remplir pour avoir valeur légale. Le rapporteur estime notamment que les contrats intelligents doivent contenir des mécanismes permettant de suspendre leur exécution si le contrat est nul ou s’il convient de le résilier.
La législation sur les services numériques devrait avoir pour but de doter l’Union d’un écosystème réglementaire régissant la fourniture de tout service de la société de l’information. Cependant, la nature transfrontalière et internationale des services numériques implique que de nombreux fournisseurs de services numériques accessibles dans l’Union sont établis dans des pays tiers, ce qui peut poser des problèmes de compétence en ce qui concerne les conditions générales des services numériques. Par conséquent, le rapporteur invite la Commission à examiner les règles adéquates de droit international privé pour veiller à ce qu’aucun citoyen ou qu’aucune entreprise de l’Union ne soit privé de ses droits ou désavantagé par l’utilisation de services numériques, et à ce que l’utilisation de services numériques au sein de l’Union soit régie par la législation européenne et relève de la compétence des juridictions européennes.
AVIS DE LA COMMISSION DU MARCHÉ INTÉRIEUR ET DE LA PROTECTION DES CONSOMMATEURS (9.7.2020)
à l’intention de la commission des affaires juridiques
contenant des recommandations à la Commission concernant une législation sur les services numériques: adaptation des règles de droit commercial et civil pour les entités commerciales opérant en ligne
Rapporteure pour avis (*): Dita Charanzová
(Initiative – article 47 du règlement intérieur)
(*) Commission associée – article 57 du règlement intérieur
SUGGESTIONS
La commission du marché intérieur et de la protection des consommateurs invite la commission des affaires juridiques, compétente au fond:
– à incorporer dans la proposition de résolution qu’elle adoptera les suggestions suivantes:
A. considérant que la libre circulation des services, y compris les services numériques, constitue l’une des quatre libertés fondamentales consacrées par le traité sur le fonctionnement de l’Union européenne, qu’elle est essentielle au fonctionnement du marché intérieur, et qu’elle doit être renforcée par une protection accrue des consommateurs et une plus grande prospérité de ces derniers;
B. considérant que la directive 2000/31/CE[18] ( la «directive sur le commerce électronique») est le cadre juridique applicable aux services en ligne sur le marché intérieur et qu’elle régit la gestion du contenu par des intermédiaires d’hébergement; considérant qu’il convient d’éviter toute fragmentation de ce cadre juridique résultant de la révision de la directive sur le commerce électronique;
C. considérant que le rapport de la commission des affaires juridiques intitulé «Législation sur les services numériques: adaptation des règles de droit commercial et civil pour les entités commerciales opérant en ligne» ne traite pas des règles de la directive sur le commerce électronique, qui font l’objet d’un rapport que la commission du marché intérieur et de la protection des consommateurs est en train d’élaborer;
D. considérant que la directive (UE) 2019/2161[19], qui modifie la directive 2005/29/CE[20] («directive sur les pratiques commerciales déloyales»), ainsi que les directives (UE) 2019/770[21] («directive sur le contenu numérique») et (UE) 2019/771[22] relatives à certains aspects concernant respectivement les contrats de fourniture de contenus numériques et de services numériques et les contrats de vente de biens n’ont été adoptées que récemment;
E. considérant que le règlement (UE) 2017/2394[23] joue un rôle central dans le renforcement de la coopération entre les autorités nationales dans le domaine de la protection des consommateurs;
F. considérant que la législation sur les services numériques ne doit pas aller à l’encontre du règlement (UE) 2016/679[24] («RGPD») et du cadre juridique qu’il instaure pour protéger les données à caractère personnel;
G. considérant que la législation sur les services numériques ne doit pas aller à l’encontre de la directive 2002/58/CE[25], qui dispose que les États membres doivent garantir un haut degré de protection du droit à la vie privée en ce qui concerne le traitement des données à caractère personnel dans le secteur des communications électroniques;
H. considérant que, dans le contexte de la pandémie de COVID-19, la Commission s’est félicitée de l’approche positive adoptée par les plateformes en réponse à ses lettres, envoyées le 23 mars 2020, demandant leur coopération pour retirer les publicités frauduleuses affirmant de manière mensongère que le produit qu’elles exhibaient pouvait prévenir une infection par le coronavirus ou la guérir;
I. considérant que les mesures législatives proposées dans le cadre de la législation sur les services numériques devraient s’appuyer sur des données probantes et que la Commission devrait réaliser une analyse d’impact approfondie tenant compte des données, statistiques, analyses et études disponibles pour chacune des différentes options possibles;
1. salue le communiqué «CPC Common Position COVID-19»[26] publié par la Commission et les autorités des États membres chargées de la coopération en matière de protection des consommateurs (CPC) sur les escroqueries et les pratiques déloyales les plus récemment signalées en lien avec la pandémie de COVID-19;
2. souligne la nécessité de mieux protéger les consommateurs en fournissant des informations fiables et transparentes sur des exemples de pratiques abusives, telles que les allégations trompeuses et les escroqueries;
3. invite toutes les plateformes à coopérer avec la Commission et les autorités compétentes du réseau CPC, ainsi que les membres des centres européens des consommateurs (CEC), pour mieux repérer les pratiques illicites et déjouer les escroqueries; demande à la Commission de revoir en continu ses lignes directrices à destination des consommateurs et des commerçants afin de contribuer à empêcher la mise sur le marché, la vente ou l’achat de biens et services au contenu mensonger, trompeur ou indésirable pour les consommateurs et, lorsque cela est nécessaire, de prendre des mesures législatives;
4. estime que ces lignes directrices devraient viser non seulement à faire appliquer le droit national et de l’Union en matière de protection des consommateurs, mais aussi à anticiper en mettant en place les moyens de réagir rapidement à la crise qui touche le marché;
5. encourage à déployer des efforts pour renforcer la transparence concernant le fonctionnement et la redevabilité de la publicité en ligne et estime que davantage d’orientations sont nécessaires en ce qui concerne la diligence professionnelle et les obligations des plateformes en matière de publicité en ligne; souligne que de nouvelles mesures établissant un cadre pour les relations entre les plateformes et les consommateurs sont nécessaires concernant les dispositions de transparence relatives à la publicité, à l’incitation numérique et au traitement de faveur;
6. rappelle que les publicités payantes ou les placements payants dans un classement devraient être mis en évidence de manière claire, concise et intelligente; suggère que les plateformes devraient divulguer l’origine des publicités payantes, en particulier celles qui sont de nature politique;
7. indique que la publicité ciblée doit faire l’objet d’une réglementation plus stricte en faveur de formes moins intrusives de publicité, et que la législation sur les services numériques devrait établir des limites claires concernant les conditions permettant l’accumulation de données à cette fin, afin de mieux protéger les consommateurs;
8. est convaincu que, si les données pertinentes montrent un écart important entre les plateformes établies dans l’Union et celles basées dans des pays tiers en ce qui concerne les pratiques publicitaires trompeuses et le respect de la législation, il est raisonnable d’envisager d’autres options visant à renforcer le respect de la législation existante;
9. estime que les options visant à renforcer le respect de la législation existante devraient comprendre une obligation pour les publicitaires et les intermédiaires du secteur de la publicité établis dans un pays tiers de désigner un représentant légal établi dans l’Union, auquel il serait possible d’adresser une demande afin, par exemple, de permettre aux consommateurs de disposer d’un recours en cas de publicités mensongères ou trompeuses;
10. souligne qu’il est nécessaire de garantir des conditions de concurrence équitables entre les publicitaires établis dans l’Union et ceux établis dans des pays tiers; demande dès lors à la Commission d’évaluer les répercussions qu’aurait l’imposition réciproque d’obligations en réaction à la nouvelle législation européenne sur les entreprises de l’Union cherchant à fournir leurs services dans des pays tiers, tout en faisant savoir comment la législation en matière de protection des consommateurs s’applique aux publicitaires des pays tiers dans le marché de l’Union;
11. demande à la Commission de préciser à quelles sanctions ou autres restrictions ces intermédiaires de publicité et ces plateformes s’exposent, en application des législations nationales et de l’Union, s’ils acceptent sciemment des publicités mensongères ou trompeuses;
12. souligne l’importance de définir clairement ce qui constitue une publicité mensongère ou trompeuse; rappelle que les plateformes en ligne devraient prendre des mesures pour veiller à ne pas tirer profit de publicités mensongères ou trompeuses, y compris de communications d’influenceurs qui ne se présentent pas comme des contenus sponsorisés;
13. souligne que les exigences en matière de transparence devraient comprendre l’obligation de révéler qui paie pour la publicité, à la fois par des paiements directs et indirects ou par toute autre rémunération reçue par les fournisseurs de services, et protéger les consommateurs contre les communications non sollicitées en ligne;
14. souligne que les publicités pour des produits et services commerciaux, d’une part, et les publicités à caractère politique ou communications d’intérêt général, d’autre part, diffèrent de par leur forme et leur fonction et devraient donc obéir à des règles et à des lignes directrices différentes, mais complémentaires;
15. demande à la Commission, tout en ayant conscience des efforts qu’elle a déjà consentis, de réexaminer encore la pratique des clauses standardisées dans les conditions générales des contrats, qui ne font pas l’objet d’une négociation préalable, à l’instar des «contrats de licence utilisateur final» (CLUF) (ci-après les «conditions contractuelles»), et de chercher des moyens de les rendre plus justes et conformes au droit de l’Union, afin de faciliter la participation active des consommateurs, y compris dans le choix des clauses, et de permettre un consentement plus éclairé;
16. rappelle que les restrictions à l’utilisation des contenus et services numériques, comme les restrictions techniques, dont les restrictions en matière d’interopérabilité, ou les restrictions dues à des contrats de licence utilisateur final, peuvent constituer une violation du droit de l’Union si elles ne répondent pas aux attentes raisonnables du consommateur, protégées en vertu de la directive sur le contenu numérique;
17. relève que les utilisateurs acceptent souvent les conditions contractuelles sans les avoir lues; observe également que, lorsque les conditions contractuelles permettent aux utilisateurs de refuser certaines clauses, les fournisseurs de services peuvent obliger les utilisateurs à les refuser à chaque utilisation, pour les inciter à les accepter;
18. constate que la majorité des conditions contractuelles peuvent être modifiées unilatéralement par les plateformes sans que les consommateurs en soient informés, ce qui a des effets pernicieux en termes de protection des consommateurs, et appelle à une meilleure protection des consommateurs au moyen de mesures efficaces;
19. demande à la Commission de formuler des recommandations à l’intention des plateformes concernant la manière de mieux informer les consommateurs sur ces conditions contractuelles, par exemple sous la forme d’un message d’alerte contenant des informations essentielles à ce sujet;
20. estime qu’un résumé des conditions contractuelles rédigé dans un langage simple et clair, comprenant la possibilité de refuser facilement des clauses facultatives, devrait être affiché au début du texte de ces conditions; estime que la Commission devrait élaborer un modèle pour ces résumés;
21. souligne que les conditions contractuelles devraient garantir effectivement que l’utilisateur consent au partage de toutes les données avec des tiers à des fins de marketing, permettant ainsi d’établir un niveau élevé de protection des données et de sécurité;
22. recommande que tout recours en matière d’accès aux données ne soit imposé que pour remédier aux défaillances du marché, soit conforme au RGPD, donne aux consommateurs le droit de s’opposer au partage des données et fournisse aux consommateurs des solutions techniques pour les aider à contrôler et à gérer les flux de leurs informations personnelles et à disposer de moyens de recours;
23. demande à la Commission de veiller à ce que les consommateurs puissent toujours utiliser un appareil connecté avec toutes ses fonctions de base même s’ils refusent de partager des données non opérationnelles avec le fabricant de l’appareil ou des tiers ou qu’ils retirent leur autorisation; réaffirme la nécessité d’assurer la transparence des conditions contractuelles en ce qui concerne la possibilité et la portée du partage de données avec des tiers;
24. plaide en faveur d’une meilleure application du droit du consommateur à un consentement éclairé et à la liberté de choix lors de la transmission de données;
25. souligne que les directives (UE) 2019/2161, (UE) 2019/770 et (UE) 2019/771 doivent encore être dûment transposées et appliquées; demande à la Commission d’en tenir compte lorsqu’elle élaborera des mesures supplémentaires pour répondre à de nouvelles évolutions du marché;
26. observe l’augmentation des «contrats intelligents», à l’instar de ceux fondés sur les technologies des registres distribués, sans base juridique claire;
27. demande à la Commission d’apprécier l’évolution et l’utilisation des technologies des registres distribués, y compris des «contrats intelligents», et en particulier les questions liées à la légalité et l’exécution des contrats intelligents dans les situations transfrontalières, de fournir des lignes directrices à ce propos afin d’apporter une sécurité juridique aux entreprises et aux consommateurs, et de prendre l’initiative de mesures législatives si des lacunes concrètes sont détectées au cours de cet exercice;
28. demande en particulier à la Commission de mettre à jour son document d’orientation existant sur la directive 2011/83/UE[27] (la «directive relative aux droits des consommateurs») afin de préciser si elle considère que les contrats intelligents relèvent de l’exemption prévue à l’article 3, paragraphe 3, point l), et, dans l’affirmative, dans quelles circonstances, et de préciser la question du droit de rétractation;
29. demande des orientations sur les transactions transfrontalières et sur les règles existantes concernant les exigences de notarisation;
30. souligne que toute proposition législative future doit être fondée sur des données probantes et doit chercher à éliminer les obstacles injustifiés actuels dans la prestation de services numériques par les plateformes en ligne, et à empêcher de nouveaux obstacles potentiels, tout en renforçant la protection des consommateurs; estime que de telles propositions devraient avoir pour but de parvenir à une croissance durable et intelligente, de relever les défis technologiques et de garantir que le marché unique numérique est juste et sûr pour tous;
31. souligne en parallèle que les nouvelles obligations imposées par l’Union aux plateformes doivent être proportionnelles et claires pour éviter les charges réglementaires ou restrictions qui ne sont pas indispensables, être guidées par des objectifs de protection des consommateurs et de sécurité des produits, garantir des conditions de concurrence équitables pour les entreprises, y compris les petites et moyennes entreprises, et préserver la santé et la sécurité de nos citoyens; souligne la nécessité d’empêcher les pratiques de surréglementation en sus de la législation de l’Union par les États membres;
32. demande à la Commission d’étudier la possibilité de présenter, dans le cadre de la législation sur les services numériques, plusieurs propositions, notamment sur les droits contractuels dans le contexte de la fourniture de services numériques, comme indiqué dans les recommandations figurant en annexe.
ANNEXE À LA PROPOSITION DE RÉSOLUTION:
RECOMMANDATIONS DÉTAILLÉES CONCERNANT LE CONTENU DES PROPOSITIONS DEMANDÉES
A. PRINCIPES ET OBJECTIFS DES PROPOSITIONS DEMANDÉES DANS LE CADRE DE LA LÉGISLATION SUR LES SERVICES NUMÉRIQUES
La législation sur les services numériques devrait comprendre:
une proposition législative complète qui révise la directive sur le commerce électronique dans le but d’améliorer le fonctionnement du marché intérieur et la libre circulation des services numériques;
une proposition législative sur la réglementation ex ante des grandes plateformes afin de remédier aux défaillances du marché et de renforcer la transparence, s’appuyant sur le règlement relatif aux relations entre les plateformes et les entreprises;
des propositions sur les droits contractuels dans le cadre de la fourniture de services numériques, accessoires à la législation principale sur les services numériques, dans le cadre d’un train de mesures, sur la base des recommandations énoncées dans la présente annexe, après une analyse approfondie de la transposition et de la mise en œuvre des instruments juridiques récemment adoptés dans le domaine de la protection des consommateurs, ainsi qu’une révision du règlement (UE) nº 910/2014[28] (le «règlement sur l’identification électronique») à la lumière du développement des technologies d’identification virtuelle, afin d’améliorer l’efficacité des interactions électroniques entre les entreprises et les consommateurs.
B. RECOMMANDATIONS
Recommandation 1 Objet
Les propositions devraient viser à renforcer les règles de droit civil et commercial applicables aux entités commerciales opérant en ligne en ce qui concerne les services numériques, y compris, lorsqu’une analyse d’impact approfondie a mis en lumière des lacunes concrètes, les aspects de droit civil et commercial des technologies des registres distribués et, en particulier, les contrats intelligents.
Les propositions devraient également viser à rendre plus compréhensibles les conditions contractuelles, et à donner aux particuliers une réelle possibilité de se soustraire à certaines clauses ou de négocier des conditions individuelles.
Recommandation 2 Champ d’application
Les propositions sur les droits contractuels devraient se concentrer uniquement sur les aspects de droit civil et commercial et ne devraient pas affecter la directive sur le commerce électronique. Elles devraient être conformes aux règles relative à la publicité, énoncées par la directive sur les pratiques commerciales déloyales, et aux règles relatives aux contenus et services numériques, énoncées par la directive sur le contenu numérique.
Recommandation 3 Principes généraux
Principe de transparence
Toutes les conditions générales ou autres clauses d’utilisation devraient être facilement accessibles et faciles à comprendre et utiliser un langage clair et simple. Les consommateurs devraient recevoir des informations correctes et appropriées concernant les fonctionnalités et les restrictions techniques des contenus et services numériques, pour éviter toute publicité incorrecte ou trompeuse. Si un produit ou service connecté dépend d’un ou plusieurs services pour fonctionner, ou pour fonctionner de manière optimale, les publicitaires et intermédiaires de publicité devraient s’assurer que le consommateur comprenne que ce produit ou service ne peut être utilisé sans le service complémentaire. La Commission devrait élaborer un modèle de résumé des conditions contractuelles essentielles ou des contrats de licence utilisateur final (CLUF) qui devrait être affiché en début de texte, pour permettre aux consommateurs de repérer les points les plus importants et de comprendre les conséquences de leur consentement.
Principe d’équité
Toutes les conditions générales ou autres clauses d’utilisation qui ne sont pas strictement essentielles pour la prestation d’un service numérique ou requises par la loi devraient pouvoir être modifiées ou supprimées avant d’être acceptées par un utilisateur final.
Les entreprises devraient également avoir la possibilité de limiter certains services si un particulier choisissait cette option de refus, mais sans pouvoir lui en refuser complètement l’accès ni restreindre les éléments essentiels d’un service numérique ou d’un produit physique lié ou autrement connecté à un service numérique.
Principe de sécurité juridique
Il devrait être clairement établi que lorsque, entre autres, les conditions contractuelles et les contrats intelligents entrent dans la définition juridique d’un contrat, toutes les dispositions pertinentes en matière de protection des consommateurs énoncées dans la directive relative aux droits des consommateurs sont applicables.
Il conviendrait de préciser si le consentement éclairé peut être présumé par la simple acceptation des conditions générales ou si l’utilisation d’un service numérique peut se faire sans preuve qu’un utilisateur final a lu ces conditions générales ou d’autres clauses d’utilisation.
Application et sanctions
Les États membres devraient mieux appliquer le droit du consommateur à un consentement éclairé et à la liberté de choix lors de la transmission de données à des publicitaires ou intermédiaires de publicité. Les États membres devraient faire en sorte que les consommateurs disposent de moyens de recours, fixer les règles relatives aux sanctions applicables aux violations des règles sur les droits contractuels et prendre toutes les mesures nécessaires pour assurer leur mise en œuvre. Ces sanctions doivent être effectives, proportionnées et dissuasives.
INFORMATIONS SUR L’ADOPTION
PAR LA COMMISSION SAISIE POUR AVIS
Date de l’adoption |
7.7.2020 |
|
|
|
Résultat du vote final |
+: –: 0: |
39 1 4 |
||
Membres présents au moment du vote final |
Alex Agius Saliba, Andrus Ansip, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo |
|||
Suppléants présents au moment du vote final |
Pascal Arimont, Marco Campomenosi, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin |
VOTE FINAL PAR APPEL NOMINAL
EN COMMISSION SAISIE POUR AVIS
39 |
+ |
ECR PPE Verts/ALE ID NI RENEW S&D |
Adam Bielan, Carlo Fidanza, Eugen Jurzyca, Beata Mazurek Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kim Van Sparrentak Markus Buchheit, Marco Campomenosi, Virginie Joron, Jean-Lin Lacapelle Marco Zullo Andrus Ansip, Vlad-Marius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie Yon-Courtin Alex Agius Saliba, Biljana Borzan, Maria Grapini, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose |
1 |
- |
ID |
Hynek Blaško |
4 |
0 |
EUL/NGL S&D |
Kateřina Konečná, Anne-Sophie Pelletier Brando Benifei, Evelyne Gebhardt |
Légende des signes utilisés:
+ : pour
- : contre
0 : abstention
AVIS DE LA COMMISION DE LA CULTURE ET DE L'ÉDUCATION (20.7.2020)
à l’intention de la commission des affaires juridiques
contenant des recommandations à la Commission sur la législation relative aux services numériques: adaptation des règles de droit commercial et civil pour les entités commerciales opérant en ligne
Rapporteure pour avis: Petra Kammerevert
(Initiative – article 47 du règlement intérieur)
SUGGESTIONS
La commission de la culture et de l’éducation invite la commission des affaires juridiques, compétente au fond, à incorporer dans la proposition de résolution qu’elle adoptera les suggestions suivantes:
1. rappelle que des médias libres et pluralistes constituent l’épine dorsale des sociétés démocratiques; rappelle que les services de médias traditionnels font l’objet d’une réglementation très stricte pour que la liberté d’expression et la liberté éditoriale soient garanties en ce qui concerne les contenus qu’ils publient; demande, en particulier, que les contenus licites dont la responsabilité, y compris éditoriale, est reconnue ou qui sont produits par des journalistes, ainsi que tous les autres médias déjà soumis à un contrôle indépendant généralement reconnu, soient disponibles et accessibles sur d’autres plateformes ou dans d’autres services, de manière à ce que leur contenu ne fasse pas l’objet de contrôles supplémentaires, et que des règles claires et juridiquement contraignantes soient appliquées en matière de transparence et de responsabilité des plateformes en ce qui concerne la confidentialité des données, la sécurité en ligne et le respect des droits fondamentaux; observe, par conséquent, qu’il est nécessaire de mettre en place des cadres compatibles pour les environnements en ligne et hors ligne et que les décisions éditoriales et les processus algorithmiques des plateformes, ainsi que la suppression de contenus par les plateformes en ligne, peuvent avoir une forte incidence sur la liberté d’expression et l’accès aux informations;
2. estime qu’en raison des progrès technologiques rapides et du développement de nouveaux produits et services, toute nouvelle proposition législative relative à une législation sur les services numériques devrait proposer des solutions à long terme axées sur l’avenir pour améliorer et clarifier les règles en matière de responsabilité et de sécurité applicables aux plateformes, services et produits numériques, sans créer d’obstacles injustifiés qui empêchent la croissance des services numériques; souligne que toute nouvelle mesure devrait être proportionnée et que leur mise en œuvre pratique devrait tenir compte de la capacité financière et de la part de marché des fournisseurs concernés dans les États membres et dans l’Union afin de contribuer à garantir des conditions de concurrence équitables et à promouvoir la concurrence;
3. souligne que les contenus licites et partagés légalement en vertu du droit de l’Union ou du droit national doivent rester en ligne et que toute suppression de ces contenus ne doit pas entraîner l’identification des utilisateurs individuels ni le traitement de leurs données à caractère personnel;
4. rappelle que les obligations en matière de transparence auxquelles sont soumis les services et les plateformes de médias opérant en ligne devraient également s’appliquer à leurs propriétaires et à leurs sources de financement;
5. estime qu’il est essentiel de mettre en place un environnement approprié pour tirer pleinement parti du potentiel que présente le marché unique numérique; souligne que ce cadre approprié consisterait à gérer l’environnement en ligne de la même manière que l’environnement hors ligne, y compris en matière de publicité et d’imposition;
6. demande qu’un environnement numérique sûr assorti d’une approche équilibrée des droits fondamentaux soit mis en place afin de promouvoir la diversité des opinions, la neutralité de l’internet, la liberté d’expression et d’information, ainsi que la protection de la propriété; relève que la communication s’inscrit toujours dans un contexte donné et que, dans le même temps, il est nécessaire de prendre des mesures pour s’assurer que les contenus illicites soient rapidement supprimés et qu’ils ne réapparaissent pas; demande par conséquent que les procédures automatisées soient soumises aux principes éthiques, à la transparence, à la responsabilité, ainsi qu’à une surveillance et à un contrôle exercés par l’homme; souligne que ces procédures doivent être complétées par des mécanismes de réclamation et de recours efficaces destinés aux utilisateurs, garantissant que les réclamations sont traitées sans retard indu afin de protéger les libertés fondamentales de communication;
7. invite la Commission à veiller à ce que les opérateurs de plateformes mettent à disposition des rapports de transparence contenant des informations sur le nombre de cas dans lesquels des contenus ont été identifiés à tort comme illicites ou partagés illégalement, et à ce que les autorités compétentes mettent des informations à disposition sur le nombre de cas dans lesquels des suppressions ont conduit à des enquêtes et à des poursuites pénales;
8. demande que tous les moyens technologiques soient utilisés pour, d’une part, lutter contre les contenus illicites et, d’autre part, contrecarrer les contenus préjudiciables, la désinformation, la propagande et les discours de haine; souligne que le recours à ces moyens devrait se fonder sur un contrôle réglementaire et judiciaire; met l’accent sur le fait que ces mesures ne peuvent entraîner de mesures de contrôle ex ante ni de filtrage de contenus au moment de la mise en ligne qui ne soient pas conformes à l’article 15 de la directive 2000/31/CE du Parlement européen et du Conseil[29];
9. attire l’attention sur le fait que, outre les obligations en matière de transparence et de droits fondamentaux, des mesures efficaces portant sur la visibilité et la détectabilité des contenus et des restrictions en matière d’auto-référencement explicite peuvent avoir un effet extrêmement positif sur la diffusion des contenus licites, la promotion de l’information et du pluralisme des médias, la diversité culturelle et linguistique et l’accès à des contenus d’utilité publique de qualité; attire l’attention sur les bonnes pratiques en matière de corégulation et d’autorégulation qui renforcent la coopération entre les plateformes, les titulaires de droits, les vérificateurs de faits, les autorités et les utilisateurs, et qui permettent aux utilisateurs d’exercer un contrôle en leur offrant la possibilité de signaler un contenu douteux; attire l’attention sur le fait que les services de médias sociaux devraient signaler davantage les contenus trompeurs;
10. demande que les règles sectorielles qui servent à mettre en œuvre des objectifs sociétaux et à les rendre tangibles dans certains secteurs, comme la directive 2010/13/UE[30] et la directive (UE) 2019/790[31] du Parlement européen et du Conseil, prévalent sur les règles générales afin de garantir les droits des auteurs et des artistes dans l’environnement numérique;
11. demande à la Commission de tenir compte de la jurisprudence nationale récente fixant à 30 minutes le laps de temps octroyé aux prestataires de service pour retirer les contenus portant atteinte aux droits et de clarifier la notion d’action «prompte» en ce qui concerne les contenus en direct;
12. réaffirme que les systèmes proconcurrentiels d’accès aux données qui complètent l’application du droit de la concurrence devraient s’efforcer de décentraliser les données appartenant aux détenteurs de données tout en maintenant des mesures d’incitation à l’innovation au profit des consommateurs;
13. attire l’attention sur le fait que les libertés fondamentales, comme la liberté de parole, de choix des consommateurs et le droit à la vie privée, doivent être au cœur de la nouvelle réglementation pour que des conditions de concurrence équitables soient établies dans l’ensemble du secteur;
14. souligne l’importance que revêt la suppression des actuelles et potentielles nouvelles barrières, restrictions et charges qui pèsent sur la fourniture de services numériques, en particulier pour les PME et les jeunes pousses, en veillant en parallèle à ce que les plateformes aient un comportement responsable et non discriminatoire et que les obligations imposées soient proportionnées, tant en ligne que hors ligne;
15. est fermement convaincu de la nécessité de renforcer la responsabilité des plateformes lorsqu’il est question de produits illégaux et dangereux, et de renforcer ainsi le marché unique numérique; rappelle qu’en pareils cas, la responsabilité des plateformes devrait être en accord avec leur objectif, compte tenu des garanties mises en place pour les consommateurs, qui devraient être respectées à tout moment, et de la mise en place de mesures de recours concomitantes pour les détaillants et les consommateurs; estime que le système ne peut fonctionner que si les services répressifs disposent de pouvoirs, de ressources et d’outils suffisants pour faire appliquer les dispositions et coopérer efficacement dans les affaires qui revêtent une composante transnationale;
16. souligne qu’il convient de mettre à jour et de modifier les règles de l’Union et les règles nationales, ainsi que d’en accroître l’exhaustivité, la clarté et la transparence, plutôt que d’ajouter de nouvelles dispositions réglementaires, tout en supprimant celles qui sont superflues et obsolètes, et ce afin de tenir compte des progrès technologiques actuels.
INFORMATIONS SUR L’ADOPTION EN COMMISSION SAISIE POUR AVIS
Date de l’adoption |
13.7.2020 |
|
|
|
Résultat du vote final |
+: –: 0: |
27 1 2 |
||
Membres présents au moment du vote final |
Asim Ademov, Christine Anderson, Andrea Bocskor, Vlad-Marius Botoş, Ilana Cicurel, Gilbert Collard, Gianantonio Da Re, Laurence Farreng, Tomasz Frankowski, Romeo Franz, Alexis Georgoulis, Hannes Heide, Irena Joveva, Petra Kammerevert, Niyazi Kizilyürek, Predrag Fred Matić, Dace Melbārde, Victor Negrescu, Niklas Nienaß, Peter Pollák, Marcos Ros Sempere, Domènec Ruiz Devesa, Andrey Slabakov, Massimiliano Smeriglio, Michaela Šojdrová, Sabine Verheyen, Milan Zver |
|||
Suppléants présents au moment du vote final |
Isabel Benjumea Benjumea, Marcel Kolaja |
|||
Suppléants (art. 209, par. 7) présents au moment du vote final |
Angel Dzhambazki |
VOTE FINAL PAR APPEL NOMINAL EN COMMISSION SAISIE POUR AVIS
27 |
+ |
PPE |
Asim Ademov, Isabel Benjumea Benjumea, Andrea Bocskor, Tomasz Frankowski, Peter Pollák, Michaela Šojdrová, Sabine Verheyen, Milan Zver |
S&D |
Hannes Heide, Petra Kammerevert, Predrag Fred Matić, Victor Negrescu, Marcos Ros Sempere, Domènec Ruiz Devesa, Massimiliano Smeriglio |
Renew |
Vlad-Marius Botoş, Ilana Cicurel, Laurence Farreng, Irena Joveva |
ID |
Gilbert Collard |
Verts/ALE |
Romeo Franz, Niklas Nienaß |
ECR |
Angel Dzhambazki, Dace Melbārde, Andrey Slabakov |
GUE/NGL |
Alexis Georgoulis, Niyazi Kizilyürek |
1 |
- |
Verts/ALE |
Marcel Kolaja |
2 |
0 |
ID |
Christine Anderson, Gianantonio Da Re |
Légende des signes utilisés:
+ : pour
- : contre
0 : abstention
INFORMATIONS SUR L’ADOPTION PAR LA COMMISSION COMPÉTENTE AU FOND
Date de l’adoption |
1.10.2020 |
|
|
|
Résultat du vote final |
+: –: 0: |
22 1 1 |
||
Membres présents au moment du vote final |
Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, Raffaele Stancanelli, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos |
|||
Suppléants présents au moment du vote final |
Patrick Breyer, Evelyne Gebhardt |
VOTE FINAL PAR APPEL NOMINAL EN COMMISSION COMPÉTENTE AU FOND
22 |
+ |
PPE |
Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos |
S&D |
Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken |
RENEW |
Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara |
ID |
Jean-Paul Garraud, Gilles Lebreton |
Verts/ALE |
Patrick Breyer, Marie Toussaint |
ECR |
Angel Dzhambazki, Raffaele Stancanelli |
GUE/NGL |
Manon Aubry |
NI |
Mislav Kolakušić |
1 |
- |
ID |
Gunnar Beck |
1 |
0 |
PPE |
Geoffroy Didier |
Légende des signes utilisés:
+ : pour
- : contre
0 : abstention
- [1] JO L 186 du 11.7.2019, p. 57.
- [2] JO L 130 du 17.5.2019, p. 92.
- [3] JO L 119 du 4.5.2016, p. 1.
- [4] JO L 95 du 15.4.2010, p. 1.
- [5] JO L 136 du 24.5.2008, p. 3.
- [6] JO L 63 du 6.3.2018, p. 50.
- [7] JO L 339 du 21.12.2007, p. 3.
- [8] JO C 11 du 13.1.2020, p. 7.
- [9] JO L 351 du 20.12.2012, p. 1
- [10] JO L 201 du 31.7.2002, p. 37.
- [11] Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques (directive «vie privée et communications électroniques»), JO L 201 du 31.7.2002, p. 37.
- [12] JO L 304 du 22.11.2011, p. 64.
- [13] Directive (UE) 2019/1937 du Parlement européen et du Conseil du 23 octobre 2019 sur la protection des personnes qui signalent des violations du droit de l’Union (JO L 305, 26.11.2019, p. 17).
- [14] Lorsqu’elle détermine le nombre d’utilisateurs, la Commission devrait tenir compte du cas des PME et des jeunes pousses.
- [15] Directive (UE) 2015/1535 du Parlement européen et du Conseil du 9 septembre 2015 prévoyant une procédure d’information dans le domaine des réglementations techniques et des règles relatives aux services de la société de l’information (JO L 241, 17.9.2015, p. 1).
- [16] Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données) (JO L 119 du 4.5.2016, p. 1).
- [17] Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques (directive vie privée et communications électroniques) (JO L 201 du 31.7.2002, p. 37).
- [18] Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur («directive sur le commerce électronique») ( JO L 178 du 17.7.2000, p. 1).
- [19] Directive (UE) 2019/2161 du Parlement européen et du Conseil du 27 novembre 2019 modifiant la directive 93/13/CEE du Conseil et les directives 98/6/CE, 2005/29/CE et 2011/83/UE du Parlement européen et du Conseil en ce qui concerne une meilleure application et une modernisation des règles de l’Union en matière de protection des consommateurs (JO L 328 du 18.12.2019, p. 7).
- [20] Directive 2005/29/CE du Parlement européen et du Conseil du 11 mai 2005 relative aux pratiques commerciales déloyales des entreprises vis-à-vis des consommateurs dans le marché intérieur et modifiant la directive 84/450/CEE du Conseil et les directives 97/7/CE, 98/27/CE et 2002/65/CE du Parlement européen et du Conseil et le règlement (CE) nº 2006/2004 du Parlement européen et du Conseil («directive sur les pratiques commerciales déloyales») (JO L 149 du 11.6.2005, p. 22).
- [21] Directive (UE) 2019/770 du Parlement européen et du Conseil du 20 mai 2019 relative à certains aspects concernant les contrats de fourniture de contenus numériques et de services numériques (JO L 136 du 22.5.2019, p. 1).
- [22] Directive (UE) 2019/771 du Parlement européen et du Conseil du 20 mai 2019 relative à certains aspects concernant les contrats de vente de biens, modifiant le règlement (UE) 2017/2394 et la directive 2009/22/CE et abrogeant la directive 1999/44/CE (JO L 136 du 22.5.2019, p. 28).
- [23] Règlement (UE) 2017/2394 du Parlement européen et du Conseil du 12 décembre 2017 sur la coopération entre les autorités nationales chargées de veiller à l’application de la législation en matière de protection des consommateurs et abrogeant le règlement (CE) nº 2006/2004 (JO L 345 du 27.12.2017, p. 1).
- [24] Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données) (JO L 119 du 4.5.2016, p. 1).
- [25] Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques (directive vie privée et communications électroniques), JO L 201 du 31.7.2002, p. 37.
- [26] Commission européenne / Réseau de coopération en matière de protection des consommateurs (CPC), position commune des autorités chargées de la CPC intitulée «Stopping scams and tackling unfair business practices on online platforms in the context of the Coronavirus outbreak in the EU» («Mettre un terme aux escroqueries et aux pratiques commerciales déloyales sur les plateformes en ligne dans le contexte de la pandémie de coronavirus dans l’UE»).
- [27] Directive 2011/83/UE du Parlement européen et du Conseil du 25 octobre 2011 relative aux droits des consommateurs, modifiant la directive 93/13/CEE du Conseil et la directive 1999/44/CE du Parlement européen et du Conseil et abrogeant la directive 85/577/CEE du Conseil et la directive 97/7/CE du Parlement européen et du Conseil (JO L 304 du 22.11.2011, p. 64).
- [28] Règlement (UE) nº 910/2014 du Parlement européen et du Conseil du 23 juillet 2014 sur l’identification électronique et les services de confiance pour les transactions électroniques au sein du marché intérieur et abrogeant la directive 1999/93/CE (JO L 257 du 28.8.2014, p. 73).
- [29] Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur («directive sur le commerce électronique») (JO L 178 du 17.7.2000, p. 1).
- [30] Directive 2010/13/UE du Parlement européen et du Conseil du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive «Services de médias audiovisuels») (JO L 95 du 15.4.2010, p. 1).
- [31] Directive (UE) 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE (JO L 130 du 17.5.2019, p. 92).