Index 
Textes adoptés
Mardi 20 octobre 2020 - Bruxelles
Modification du règlement (UE) nº 168/2013 en ce qui concerne des mesures spécifiques relatives aux véhicules de catégorie L de fin de série, en réaction à l’épidémie de COVID-19 ***I
 Mobilisation du Fonds européen d’ajustement à la mondialisation: EGF/2020/001 ES/Galicia shipbuilding ancillary sectors – Espagne
 Décharge 2018: budget général de l’UE – Comité économique et social européen
 Décharge 2018: budget général de l’UE - Conseil européen et Conseil
 Législation sur les services numériques: améliorer le fonctionnement du marché unique
 Législation sur les services numériques: adaptation des règles de droit commercial et civil pour les entités commerciales exerçant des activités en ligne
 Législation sur les services numériques et questions liées aux droits fondamentaux
 Cadre pour les aspects éthiques de l’intelligence artificielle, de la robotique et des technologies connexes
 Un régime de responsabilité civile pour l’intelligence artificielle
 Les droits de propriété intellectuelle pour le développement des technologies liées à l’intelligence artificielle
 Recommandation au Conseil et au VP/HR concernant la mise en œuvre et la gouvernance de la coopération structurée permanente (CSP)
 Rapport sur la mise en œuvre de l’accord d’association entre l’Union européenne et la République de Moldavie

Modification du règlement (UE) nº 168/2013 en ce qui concerne des mesures spécifiques relatives aux véhicules de catégorie L de fin de série, en réaction à l’épidémie de COVID-19 ***I
PDF 118kWORD 42k
Résolution
Texte
Résolution législative du Parlement européen du 20 octobre 2020 sur la proposition de règlement du Parlement européen et du Conseil modifiant le règlement (UE) nº 168/2013 en ce qui concerne des mesures spécifiques relatives aux véhicules de catégorie L de fin de série, en réaction à l’épidémie de COVID-19 (COM(2020)0491 – C9-0285/2020 – 2020/0251(COD))
P9_TA(2020)0268A9-0190/2020

(Procédure législative ordinaire: première lecture)

Le Parlement européen,

–  vu la proposition de la Commission au Parlement européen et au Conseil (COM(2020)0491),

–  vu l’article 294, paragraphe 2, et l’article 114 du traité sur le fonctionnement de l’Union européenne, conformément auxquels la proposition lui a été présentée par la Commission (C9-0285/2020),

–  vu l’article 294, paragraphe 3, du traité sur le fonctionnement de l’Union européenne,

–  après consultation du Comité économique et social européen,

–  vu l’engagement pris par le représentant du Conseil, par lettre du 14 octobre 2020, d’approuver la position du Parlement européen, conformément à l’article 294, paragraphe 4, du traité sur le fonctionnement de l’Union européenne,

–  vu l’article 59 et l’article 52, paragraphe 1, de son règlement intérieur,

–  vu le rapport de la commission du marché intérieur et de la protection des consommateurs (A9-0190/2020),

1.  arrête la position en première lecture figurant ci-après;

2.  demande à la Commission de le saisir à nouveau, si elle remplace, modifie de manière substantielle ou entend modifier de manière substantielle sa proposition;

3.  charge son Président de transmettre la position du Parlement au Conseil et à la Commission ainsi qu’aux parlements nationaux.

Position du Parlement européen arrêtée en première lecture le 20 octobre 2020 en vue de l’adoption du règlement (UE) 2020/... du Parlement européen et du Conseil modifiant le règlement (UE) nº 168/2013 en ce qui concerne des mesures spécifiques relatives aux véhicules de catégorie L de fin de série, en réaction à la pandémie de COVID-19

P9_TC1-COD(2020)0251


(Étant donné l'accord intervenu entre le Parlement et le Conseil, la position du Parlement correspond à l'acte législatif final, le règlement (UE) 2020/1694.)


Mobilisation du Fonds européen d’ajustement à la mondialisation: EGF/2020/001 ES/Galicia shipbuilding ancillary sectors – Espagne
PDF 139kWORD 49k
Résolution
Annexe
Résolution du Parlement européen du 20 octobre 2020 sur la proposition de décision du Parlement européen et du Conseil relative à la mobilisation du Fonds européen d’ajustement à la mondialisation à la suite d’une demande de l’Espagne (EGF/2020/001 ES/Galicia shipbuilding ancillary sectors) (COM(2020)0485 – C9-0294/2020 – 2020/1996(BUD))
P9_TA(2020)0269A9-0192/2020

Le Parlement européen,

–  vu la proposition de la Commission au Parlement européen et au Conseil (COM(2020) 0485 – C9-0294/2020),

–  vu le règlement (UE) n° 1309/2013 du Parlement européen et du Conseil du 17 décembre 2013 relatif au Fonds européen d’ajustement à la mondialisation pour la période 2014-2020 et abrogeant le règlement (CE) n° 1927/2006(1) (ci-après dénommé «règlement FEM»),

–  vu le règlement (UE, Euratom) n° 1311/2013 du Conseil du 2 décembre 2013 fixant le cadre financier pluriannuel pour la période 2014-2020(2), et notamment son article 12,

–  vu l’accord interinstitutionnel du 2 décembre 2013 entre le Parlement européen, le Conseil et la Commission sur la discipline budgétaire, la coopération en matière budgétaire et la bonne gestion financière(3) (ci-après dénommé «accord interinstitutionnel du 2 décembre 2013»), et notamment son point 13,

–  vu la procédure de trilogue prévue au point 13 de l’accord interinstitutionnel du 2 décembre 2013,

–  vu les lettres de la commission de l’emploi et des affaires sociales et de la commission du développement régional,

–  vu le rapport de la commission des budgets (A9-0192/2020),

A.  considérant que l’Union a mis en place des instruments législatifs et budgétaires pour apporter une aide complémentaire aux travailleurs qui subissent les conséquences de modifications majeures de la structure du commerce mondial ou de la crise économique et financière mondiale et pour les accompagner dans leur réinsertion sur le marché du travail; que cette aide est fournie sous la forme d’un soutien financier accordé aux travailleurs et aux entreprises qui les employaient;

B.  considérant que l’Espagne a présenté la demande de contribution financière du FEM EGF/2020/001 ES/Galicia shipbuilding ancillary sectors à la suite de 960 licenciements(4) survenus dans les secteurs économiques relevant des divisions 24 «Métallurgie», 25 «Fabrication de produits métalliques, à l’exception des machines et des équipements», 30 «Fabrication d’autres matériels de transport», 32 «Autres industries manufacturières», 33 «Réparation et installation de machines et d’équipements» et 43 «Travaux de construction spécialisés» de la NACE Rév. 2, en Galice, région espagnole de niveau NUTS 2 (ES11);

C.  considérant que la demande se fonde sur les critères d’intervention énoncés à l’article 4, paragraphe 2, point a), du règlement FEM, qui dispose qu’une demande collective faisant intervenir des PME situées dans une région donnée peut concerner des entreprises opérant dans des secteurs économiques différents définis au niveau des divisions de la NACE Rév. 2, à condition que les PME constituent le principal ou le seul type d’entreprises dans cette région;

D.  considérant que les PME forment l’épine dorsale de l’économie de la région – 95 % des entreprises y comptent moins de 250 employés – et que les 38 entreprises concernées par la demande sont des PME; que la Galice fait partie de l’association de l’Axe Atlantique et que son économie repose majoritairement sur les entreprises et travailleurs transfrontaliers;

E.  considérant que la construction navale en Galice suit le modèle de sous-traitance du secteur européen de la construction navale, qui repose principalement sur des chantiers navals de taille moyenne ou petite et sur une très grande part de sous-traitance à la fois sur le plan du montant des contrats et de l’emploi;

F.  considérant que l’Espagne fait valoir que l’Europe a perdu, depuis 2004, son industrie de construction navale marchande(5) au profit de l’Asie de l’Est, et que la crise économique et financière qui a débuté en 2008 a entraîné une baisse significative des commandes, le développement de la construction navale en Asie et une forte concurrence mondiale(6);

G.  considérant que les politiques de subvention, les traitements fiscaux préférentiels tels que les aides d’État et le coût du travail plus bas dans les pays d’Asie de l’Est ont occasionné des pertes de marchés pour les chantiers navals de l’Union;

H.  considérant que les chantiers navals de Galice construisent des navires militaires, des pétroliers et des chimiquiers, des navires de recherche océanographique et sismique, des remorqueurs, des navires à passagers et des navires de pêche qui sont à la pointe de la technologie;

I.  considérant que la fermeture du chantier naval Factorías Vulcano en juillet 2019, ainsi que la demande de redressement judiciaire de HJ Barreras, en octobre 2019, ont conduit aux licenciements en question, dont la moitié faisant l’objet de cette demande ont eu lieu dans des sociétés créancières de HJ Barreras;

J.  considérant que les sous-traitants de Factorías Vulcano sont très spécialisés, donc très dépendants du chantier naval principal et interdépendants entre eux, et que les conséquences sur l’emploi dans les industries connexes à la construction navale sont les mêmes que si ces entreprises relevaient d’un seul et même secteur économique NACE;

1.  convient avec la Commission que les conditions fixées à l’article 4, paragraphe 2, du règlement FEM sont remplies et que l’Espagne a droit, au titre de ce règlement, à une contribution financière d’un montant de 2 054 400 EUR, ce qui représente 60 % du coût total de 3 424 000 EUR, somme correspondant aux dépenses pour les services personnalisés à concurrence de 3 274 000 EUR et aux dépenses pour financer les activités de préparation, de gestion, d’information et de publicité, ainsi qu’à celles de contrôle et de compte rendu, à concurrence de 150 000 EUR;

2.  constate que les autorités espagnoles ont présenté leur demande le 13 mai 2020 et que, après avoir reçu des informations complémentaires de leur part, la Commission a achevé son évaluation le 11 septembre 2020 et l’a communiquée au Parlement le même jour;

3.  constate que l’Espagne a commencé à fournir des services personnalisés aux bénéficiaires visés le 13 août 2020 et que, par conséquent, la période d’admissibilité au bénéfice d’une contribution financière du FEM s’étend du 13 août 2020 au 13 août 2022;

4.  souligne que l’Espagne a commencé à engager des dépenses administratives dès le 8 juin 2020 afin de mettre en œuvre l’intervention du FEM et que les dépenses pour financer les activités de préparation, de gestion, d’information et de publicité ainsi que celles de contrôle et de compte rendu qui ont été exposées du 8 juin 2020 au 13 février 2023 sont donc éligibles au titre de la contribution du FEM;

5.  se félicite que l’ensemble coordonné de services personnalisés ait été élaboré par l’Espagne en concertation avec les partenaires sociaux et que, grâce à un accord de collaboration, les partenaires sociaux soient également associés à la fourniture des services;

6.  salue la participation de l’ASIME et des syndicats CCOO(7) et UGT(8), les partenaires sociaux qui participent au dialogue social en Galice, dans l’élaboration de l’ensemble coordonné de services personnalisés et à la mise en œuvre des services; souligne que les partenaires sociaux devraient également être associés au suivi des mesures;

7.  prend en considération le fait qu’en 2018, le secteur de la construction navale et des industries connexes en Galice représentait un chiffre d’affaires annuel d’environ 2 000 millions d’euros et que 10 000 emplois directs et 25 000 emplois indirects dépendaient de ce secteur; que l’année dernière, ce chiffre d’affaires a chuté de 11 % et le nombre d’emplois de 20,8 % (environ 2000);

8.  souligne que ces licenciements interviennent dans un contexte de chômage élevé (11,7 % en 2019) en Galice; salue, par conséquent, les mesures de reconversion et de perfectionnement qui sont financées par le FEM pour renforcer à l’avenir la résilience et la compétitivité du secteur régional de la construction navale, de l’économie transfrontalière et du marché du travail en général;

9.  met l’accent sur le fait qu’une recherche, une spécialisation et une innovation technologique efficaces sont essentielles pour consolider l’industrie navale européenne et lui permettre d’entrer en concurrence sur le marché mondial avec des entreprises bénéficiant dans d’autres pays d’un coût du travail réduit, de politiques de subvention et d’un traitement fiscal préférentiel;

10.  souligne que les services personnalisés qui seront fournis aux travailleurs licenciés devront être précisément adaptés à chaque profil;

11.  note que 94 % des bénéficiaires visés sont des hommes et que 78,2 % d’entre eux ont entre 30 et 54 ans; indique que les services personnalisés qui seront fournis aux travailleurs licenciés comprennent: des sessions d’information et des ateliers préparatoires, une orientation professionnelle vers l’emploi salarié ou indépendant, des formations (une formation à l’entrepreneuriat sera proposée à ceux qui souhaitent exercer une activité indépendante), un suivi post-réinsertion professionnelle, une aide à la recherche intensive d’emploi et diverses mesures d’incitation;

12.  se félicite de l’inclusion d’incitations à la participation jusqu’à 400 EUR, de contributions aux frais de déplacement de 0,19 EUR/kilomètre plus les coûts supplémentaires tels que les péages et le prix du stationnement, de contributions aux dépenses des aidants de personnes dépendantes de 20 EUR par jour de participation, et d’incitations au reclassement des travailleurs dépendants ou indépendants qui recevront 200 EUR par mois, pendant une période maximale de six mois, afin de soutenir les bénéficiaires visés dans la recherche d’un emploi ou la participation à une formation, sous réserve de la participation active des bénéficiaires visés à ces activités;

13.  rappelle que les actions proposées constituent des mesures actives du marché du travail relevant des actions admissibles énoncées à l’article 7 du règlement FEM et qu’elles ne se substituent pas à des mesures passives de protection sociale;

14.  note que la contribution financière sera gérée et contrôlée par les mêmes organismes qui gèrent et contrôlent les interventions du Fonds social européen et que la Xunta de Galicia(9) servira d’intermédiaire à l’autorité de gestion;

15.  souligne que les autorités espagnoles ont confirmé que les actions admissibles ne bénéficiaient d’aucune aide provenant d’autres fonds ou instruments financiers de l’Union;

16.  rappelle que l’aide du FEM ne doit pas se substituer aux actions relevant de la responsabilité des entreprises en vertu de la législation nationale ou de conventions collectives;

17.  rappelle qu’en vertu des règles actuelles, le FEM peut être mobilisé pour apporter une aide aux travailleurs définitivement licenciés et aux indépendants dans le cadre de la crise mondiale provoquée par la COVID-19 sans devoir modifier le règlement FEM, l’Espagne étant l’un des États membres les plus gravement touchés par les conséquences de la pandémie;

18.  approuve la décision annexée à la présente résolution;

19.  charge son Président de signer cette décision avec le Président du Conseil et d’en assurer la publication au Journal officiel de l’Union européenne;

20.  charge son Président de transmettre la présente résolution, y compris son annexe, au Conseil et à la Commission.

ANNEXE

DÉCISION DU PARLEMENT EUROPÉEN ET DU CONSEIL

relative à la mobilisation du Fonds européen d’ajustement à la mondialisation à la suite d’une demande présentée par l’Espagne – EGF/2020/001 ES/Galicia shipbuilding ancillary sectors

(Le texte de la présente annexe n'est pas reproduit étant donné qu'il correspond à l'acte final, la décision (UE) 2020/1598.)

(1) JO L 347 du 20.12.2013, p. 855.
(2) JO L 347 du 20.12.2013, p. 884.
(3) JO C 373 du 20.12.2013, p. 1.
(4) Au sens de l’article 3 du règlement FEM.
(5) La construction navale marchande comprend la construction de pétroliers, de vraquiers et de porte-conteneurs.
(6) En 2018, la Chine s’était hissée au premier rang (35,5 %), suivie par le Japon (23,4 %) et la Corée du Sud (22,7 %), tandis que la part de marché de l’Europe n’était plus que de 6,8 %. Pour ce qui est du carnet de commandes en 2019, la part de la Chine, en tant que leader sur le marché, était de 34 %, contre 26 % pour la Corée du Sud et 15 % pour le Japon.
(7) Fédération de l’industrie des CCOO Galice.
(8) Fédération de la métallurgie, de la construction et des industries connexes de l’UGT (MCA-UGT).
(9) La «Xunta de Galicia» et en particulier la «Consellería de Facenda – Dirección General de política financiera, tesoro y fondos europeos / Servicio de inspección y control de fondos comunitarios», en collaboration avec la «Consellería de Economía, Emprego e Industria – Secretaría Xeral de Emprego / Subdirección Xeral de Relacións Laborais», servira d’intermédiaire à l’autorité de gestion.


Décharge 2018: budget général de l’UE – Comité économique et social européen
PDF 152kWORD 54k
Décision
Résolution
1. Décision du Parlement européen du 20 octobre 2020 concernant la décharge sur l’exécution du budget général de l’Union européenne pour l’exercice 2018, section VI – Comité économique et social européen (2019/2060(DEC))
P9_TA(2020)0270A9-0188/2020

Le Parlement européen,

–  vu le budget général de l’Union européenne pour l’exercice 2018(1),

–  vu les comptes annuels consolidés de l’Union européenne relatifs à l’exercice 2018 (COM(2019)0316 – C9-0055/2019)(2),

–  vu le rapport annuel du Comité économique et social européen à l’autorité de décharge sur les audits internes effectués en 2018,

–  vu le rapport annuel de la Cour des comptes sur l’exécution du budget relatif à l’exercice 2018, accompagné des réponses des institutions(3),

–  vu la déclaration d’assurance(4) concernant la fiabilité des comptes, ainsi que la légalité et la régularité des opérations sous‑jacentes, fournie par la Cour des comptes pour l’exercice 2018 conformément à l’article 287 du traité sur le fonctionnement de l’Union européenne,

–  vu sa décision du 13 mai 2020(5) ajournant la décision de décharge pour l’exercice 2018, ainsi que la résolution qui l’accompagne,

–  vu l’article 314, paragraphe 10, et les articles 317, 318 et 319 du traité sur le fonctionnement de l’Union européenne,

–  vu le règlement (UE, Euratom) nº 966/2012 du Parlement européen et du Conseil du 25 octobre 2012 relatif aux règles financières applicables au budget général de l’Union et abrogeant le règlement (CE, Euratom) nº 1605/2002 du Conseil(6), et notamment ses articles 55, 99, 164, 165 et 166,

–  vu le règlement (UE, Euratom) 2018/1046 du Parlement européen et du Conseil du 18 juillet 2018 relatif aux règles financières applicables au budget général de l’Union, modifiant les règlements (UE) nº 1296/2013, (UE) nº 1301/2013, (UE) nº 1303/2013, (UE) nº 1304/2013, (UE) nº 1309/2013, (UE) nº 1316/2013, (UE) nº 223/2014, (UE) nº 283/2014 et la décision nº 541/2014/UE, et abrogeant le règlement (UE, Euratom) nº 966/2012(7), et notamment ses articles 59, 118, 260, 261 et 262,

–  vu l’article 100 et l’annexe V de son règlement intérieur,

–  vu le deuxième rapport de la commission du contrôle budgétaire (A9-0188/2020),

1.  refuse la décharge au secrétaire général du Comité économique et social européen sur l’exécution du budget du Comité économique et social européen pour l’exercice 2018;

2.  présente ses observations dans la résolution ci-après;

3.  charge son Président de transmettre la présente décision, ainsi que la résolution qui en fait partie intégrante, au Comité économique et social européen, au Conseil européen, au Conseil, à la Commission et à la Cour des comptes, et d’en assurer la publication au Journal officiel de l’Union européenne (série L).

2. Résolution du Parlement européen du 20 octobre 2020 contenant les observations qui font partie intégrante de la décision concernant la décharge sur l’exécution du budget général de l’Union européenne pour l’exercice 2018, section VI – Comité économique et social européen (2019/2060(DEC))

Le Parlement européen,

–  vu sa décision concernant la décharge sur l’exécution du budget général de l’Union européenne pour l’exercice 2018, section VI – Comité économique et social européen,

–  vu l’article 100 et l’annexe V de son règlement intérieur,

–  vu le deuxième rapport de la commission du contrôle budgétaire (A9-0188/2020),

A.  considérant que, dans le contexte de la procédure de décharge, l’autorité de décharge tient à souligner qu’il est particulièrement important de renforcer davantage la légitimité démocratique des organes de l’Union en améliorant la transparence et la responsabilité et en appliquant les concepts de budgétisation axée sur les performances et de bonne gestion des ressources humaines;

B.  considérant que, sur la base des résultats et des recommandations de l’enquête menée par l’Office européen de lutte antifraude (OLAF), la commission du contrôle budgétaire du Parlement entend être informée par le Comité économique et social européen (ci-après «le Comité») des mesures adoptées pour sanctionner les actes répréhensibles;

1.  salue les améliorations apportées à la situation des crédits reportés de la ligne budgétaire «Membres de l’institution et délégués» en fixant un délai de six semaines pour la présentation des demandes de remboursement; salue le fait que, depuis le 1er janvier 2019, les crédits reportés ont diminué;

2.  relève qu’en raison de la publication d’un plus grand nombre d’avis et de rapports, ce qui a supposé une participation plus importante des membres à leur préparation, les frais de voyage et les autres remboursements ont été plus élevés;

3.  salue le fait que le Comité envisage une augmentation notable du budget informatique afin de rattraper son retard vis-à-vis des autres organes de l’Union et de poursuivre la mise en œuvre la stratégie numérique du Comité adoptée en juin 2019; prend acte des efforts nécessaires pour renforcer les capacités du réseau et le matériel des utilisateurs finaux afin que 100 % du personnel puisse télétravailler;

4.  relève que la nouvelle structure du Comité, en place depuis le 1er janvier 2020, a directement rattaché le service juridique au secrétaire général dans le but déclaré d’améliorer la visibilité et l’impact du service juridique et de lui permettre d’apporter une aide juridique sur une base horizontale; prend acte de la justification fournie par le Comité, mais se dit inquiet que l’autonomie et la pleine indépendance du service juridique ne s’en trouvent affectées; invite le Comité à veiller à associer officiellement et systématiquement le service juridique aux questions les plus importantes du Comité sans que la décision de son éventuelle consultation ne soit laissée à l’appréciation des divers services; salue le renforcement de la capacité juridique de l’unité des conditions de travail, ce qui permet de traiter les questions spécifiquement liées au statut des membres; prend acte des réflexions relatives à l’exemption du personnel spécialisé de la politique de mobilité du Comité, dont le personnel relevant du service juridique, et invite le Comité à communiquer les conclusions de ce processus à l’autorité de décharge;

5.  confirme que le Comité a reçu un certificat ASBESTOS SAFE pour le bâtiment VMA, qui indique l’absence de risque pour une utilisation normale du bâtiment; relève toutefois la présence d’une quantité limitée d’amiante, confirmée par une analyse supplémentaire; reconnaît que les quelques matériaux contenant des fibres d’amiante se trouvent en dehors des espaces de bureaux du bâtiment VMA et qu’il est prévu de les enlever pendant la durée des travaux de rénovation;

6.  appuie la demande du Comité de renforcer les efforts visant à respecter le contenu de l’accord de coopération entre le Parlement et le Comité; rappelle toutefois que, dans le cadre de l’accord de 2014, le Comité a transféré un total de 36 traducteurs au Parlement et n’a obtenu en échange que l’accès au service de recherche du Parlement européen; relève qu’en conséquence le Comité a dû recruter du personnel contractuel et externaliser son service de traduction; observe avec préoccupation que, pour compenser la réduction des effectifs de traduction, le Parlement a versé des fonds supplémentaires au Comité pour couvrir l’externalisation des services de traduction et que le Comité peut réaffecter ces fonds à d’autres domaines d’action s’ils ne sont pas entièrement utilisés pour la traduction externalisée, ce qui s’est produit ces dernières années; estime que cette disposition n’est pas conforme aux principes d’une gestion financière saine et prudente et qu’elle devrait être revue à l’avenir;

État des lieux

7.  rappelle que, dans son rapport de janvier 2020, l’OLAF conclut que le président de l’époque du groupe I du Comité est responsable d’actes de harcèlement à l’égard de deux membres du personnel, d’un comportement inapproprié (faute grave) à l’égard d’un membre du Comité et d’un membre du personnel et de fautes à l’égard d’autres membres du personnel travaillant au secrétariat du groupe I;

8.  rappelle que l’OLAF conclut que le président de l’époque du groupe I a enfreint les obligations découlant du règlement intérieur et du code de conduite du Comité; rappelle que l’OLAF recommande que le Comité engage les procédures applicables à l’égard du membre en question, ainsi que le prévoit l’article 8, quatrième partie, du règlement intérieur du Comité, et prenne toutes les mesures nécessaires pour éviter tout nouveau cas de harcèlement de la part du membre en question sur le lieu de travail;

9.  regrette que plusieurs membres du personnel aient été victimes d’actes de harcèlement moral de la part du président de l’époque du groupe I pendant une durée injustifiable; regrette que les mesures de prévention du harcèlement en vigueur au Comité ne soient pas parvenues à régler cette affaire plus tôt en raison de la position hiérarchique élevée du membre concerné; déplore que les mesures adoptées pour protéger les victimes jusqu’à la fin de l’enquête de l’OLAF aient probablement été improvisées et insuffisantes, compte tenu notamment de l’arrêt dans l’affaire F-50/15(8), FS/Comité économique et social européen (CESE), qui aurait dû servir de leçon au Comité; relève avec préoccupation que des lacunes dans les procédures internes ont abouti à l’inaction de l’administration du Comité, ce qui s’est traduit par une violation du devoir de sollicitude et de l’obligation de saisir l’OLAF; invite le Comité à en prendre connaissance dans le cadre de la révision des décisions en question qui a été engagée;

10.  note que le président du Comité a reçu le rapport et les recommandations de l’OLAF le 17 janvier 2020; note que l’affaire a été renvoyée au comité consultatif du Comité sur la conduite des membres le 23 janvier 2020; note également que le comité consultatif a remis ses conclusions le 28 avril 2020, que le membre concerné a été invité à présenter ses observations et que le président du Comité a invité la présidence élargie du Comité à y réagir;

11.  note que le bureau du Comité a décidé à la majorité de demander au membre concerné de démissionner de ses fonctions de président du groupe I et de retirer sa candidature au poste de président du Comité; note que le bureau a déchargé le membre concerné de toute activité de gestion ou d’administration du personnel; note que le bureau a chargé le secrétaire général de prendre les mesures nécessaires pour que, dans le cas où des poursuites seraient engagées par le parquet contre le membre en question, le Comité puisse se constituer partie civile; note que le bureau a chargé le secrétaire général de communiquer cette décision à l’OLAF et au Parlement; note que, le cas échéant, cette décision peut aussi être communiquée à d’autres institutions ou à d’autres organes des États membres;

12.  relève avec préoccupation que la décision du Bureau du Comité relative au président de l’époque du groupe I n’a pas pu être intégralement appliquée selon les procédures internes du Comité; relève que le membre concerné a décidé de retirer sa candidature au poste de président du Comité près de quatre mois après la décision du Bureau et uniquement de sa propre initiative; relève avec préoccupation que malgré les conclusions de l’OLAF et la décision du Bureau, le membre en question est en mesure d’imposer sa volonté et de rester président du groupe I jusqu’à la fin de son mandat; invite le Comité à poursuivre la révision du règlement intérieur et du code de conduite du Comité afin d’éviter qu’une telle situation ne se reproduise à l’avenir;

13.  note que l’OLAF a renvoyé l’affaire aux autorités belges et que le procureur belge a engagé des poursuites contre le membre concerné étant donné qu’en droit belge, le harcèlement moral est passible de poursuites; note que, lors de sa réunion de juillet 2020, la plénière du Comité a décidé de lever l’immunité du membre concerné afin de permettre au procureur belge de poursuivre les procédures judiciaires engagées;

14.  souligne que la faute commise par le Comité dans cette affaire s’est traduite par une perte matérielle de fonds publics en termes de services juridiques, de congés de maladie, de baisse de la productivité, de réunions du Bureau et d’autres organes, etc.; estime donc qu’il s’agit d’une situation inquiétante en termes de responsabilité, de contrôle budgétaire et de bonne gouvernance des ressources humaines au sein des institutions, organes et organismes de l’Union; rappelle, à cet égard, que dans son rapport spécial nº 13/2019 intitulé «Les cadres éthiques des institutions de l’UE auditées: des améliorations sont possibles», la Cour des comptes indique qu’une conduite éthique dans le secteur public contribue à améliorer la gestion financière et à renforcer la confiance du public et que tout comportement des agents et des membres des institutions et organes de l’Union contraire à l’éthique suscite un vif intérêt du public et sape la confiance dans les institutions de l’Union;

15.  se dit très étonné que le site internet du Comité comporte une déclaration du membre concerné en sa qualité de président du groupe I, qui n’est rien d’autre qu’un avis personnel qu’il exprime afin de se défendre, alors que, circonstance aggravante, les affaires sont soit en cours, soit sur le point de l’être devant les autorités judiciaires de l’Union et les autorités belges; déplore vivement que le désaccord entre la présidence du Comité et la présidence du Groupe I ait été rendu public de cette façon, ce qui a été extrêmement préjudiciable à la réputation et à la crédibilité des institutions, organes, organismes et agences de l’Union;

16.  salue le fait que le Comité ait engagé une réflexion et une évaluation approfondies sur le cadre global existant en faveur de sa politique de tolérance zéro à l’égard de tout comportement susceptible de porter atteinte à la dignité humaine; note que ce processus a pour but de mettre en évidence les lacunes potentielles et d’envisager de nouvelles améliorations dans l’intérêt de son personnel et de ses membres;

17.  invite le Comité à tenir l’autorité de décharge informée des enquêtes de l’OLAF en cours et de l’ouverture par l’OLAF de toute nouvelle enquête pour harcèlement ou pour un autre motif à l’encontre de membres ou d’agents du Comité;

18.  relève que les dispositions du statut ne s’appliquent pas aux membres du Comité étant donné qu’il ne s’agit pas de fonctionnaires ou d’agents, mais de membres désignés; fait observer que ce fait n’a pas empêché d’autres institutions, organes et organismes de l’Union de disposer de règles spécifiques, adéquates et utiles applicables à leurs membres; rappelle par exemple, à ce propos, que l’article 8, paragraphe 4, du code de conduite du Comité des régions interdit au membre qui enfreint le code d’être élu titulaire d’un mandat du Comité et qu’il entraîne, si le membre détient déjà ce mandat, la révocation de ces fonctions; salue le fait que le Comité soit prêt à envisager d’apporter d’autres améliorations à son système au terme d’une réflexion qui dure aujourd’hui depuis plus de deux ans; estime qu’il s’agit d’une durée excessive; déplore qu’au terme de cette période, le Comité ne puisse que suggérer des mesures de sensibilisation et de formation des membres alors qu’il faut manifestement d’autres mesures, comme l’indiquent le rapport du Médiateur européen sur la dignité au travail dans les institutions et agences de l’Union européenne (SI/2/2018/AMF) et les recommandations du Parlement;

19.  invite le Comité à informer l’autorité de décharge des procédures et processus que le Comité a engagés ou entend engager pour éviter que des cas de harcèlement ou des cas semblables à l’égard d’agents ne se reproduisent à l’avenir et n’entraînent plus les évolutions regrettables qui ont fait de la publicité négative pour le Centre et nui à sa réputation;

20.  salue l’augmentation du nombre de personnes de confiance, et ce afin d’améliorer la procédure informelle ainsi que la possibilité qui est offerte aux membres du personnel de partager leurs inquiétudes concernant toute situation perçue comme du harcèlement;

21.  se félicite des réflexions menées par le Comité, qui se traduiront par un plan d’action détaillé destiné à renforcer la politique de tolérance zéro à l’égard du harcèlement au sein du Comité afin que ce comportement ne puisse jamais être toléré; salue et soutient les mesures de révision en cours à propos du harcèlement, de la dénonciation des dysfonctionnements et des procédures disciplinaires, lesquelles permettront d’améliorer les mécanismes de dépôt de plaintes formelles pour harcèlement par le personnel et d’améliorer la solidité des structures juridiques pertinentes; rappelle néanmoins que cela fait des années que le Comité indique au Parlement que ce processus est en cours et que ce n’est qu’aujourd’hui que des mesures concrètes semblent être prises; salue la constitution d’un groupe de travail composé de représentants de l’administration et du comité du personnel afin de recueillir les propositions d’amélioration les plus larges; se dit déçu que le Comité n’ait réalisé que des progrès minimes au cours des dernières années malgré les recommandations précises du Parlement pressant le Comité de mettre en place des règles et des procédures pour les membres impliqués dans des cas de harcèlement;

22.  salue la poursuite de diverses initiatives de sensibilisation destinées à informer le personnel comme il se doit des suites réservées à la campagne Respect@work; salue l’organisation d’activités de formation destinées à faire en sorte que le personnel soit au courant des valeurs éthiques et organisationnelles pertinentes ainsi que des règles et des procédures qui s’y rapportent.

(1) JO L 57 du 28.2.2018.
(2) JO C 327 du 30.9.2018, p. 1.
(3) JO C 340 du 8.10.2019, p. 1.
(4) JO C 340 du 8.10.2019, p. 9.
(5) Textes adoptés de cette date, P9_TA(2020)0120.
(6) JO L 298 du 26.10.2012, p. 1.
(7) JO L 193 du 30.7.2018, p. 1.
(8) Arrêt du Tribunal de la fonction publique (troisième chambre) du 12 mai 2016, FS/Comité économique et social européen (CESE), F-50/15, ECLI:EU:F:2016:119.


Décharge 2018: budget général de l’UE - Conseil européen et Conseil
PDF 131kWORD 51k
Décision
Résolution
1. Décision du Parlement européen du 20 octobre 2020 concernant la décharge sur l’exécution du budget général de l’Union européenne pour l’exercice 2018, section II - Conseil européen et Conseil (2019/2057(DEC))
P9_TA(2020)0271A9-0189/2020

Le Parlement européen,

–  vu le budget général de l’Union européenne pour l’exercice 2018(1),

–  vu les comptes annuels consolidés de l’Union européenne relatifs à l’exercice 2018 (COM(2019)0316 – C9-0052/2019)(2),

–  vu le rapport annuel du Conseil à l’autorité de décharge sur les audits internes effectués en 2018,

–  vu le rapport annuel de la Cour des comptes sur l’exécution du budget relatif à l’exercice 2018, accompagné des réponses des institutions(3),

–  vu la déclaration d’assurance(4) concernant la fiabilité des comptes ainsi que la légalité et la régularité des opérations sous‑jacentes, fournie par la Cour des comptes pour l’exercice 2018 conformément à l’article 287 du traité sur le fonctionnement de l’Union européenne,

–  vu sa décision du 13 mai 2020(5) ajournant la décision de décharge pour l’exercice 2018, ainsi que la résolution qui l’accompagne,

–  vu l’article 314, paragraphe 10, et les articles 317, 318 et 319 du traité sur le fonctionnement de l’Union européenne,

–  vu le règlement (UE, Euratom) nº 966/2012 du Parlement européen et du Conseil du 25 octobre 2012 relatif aux règles financières applicables au budget général de l’Union et abrogeant le règlement (CE, Euratom) nº 1605/2002 du Conseil(6), et notamment ses articles 55, 99, 164, 165 et 166,

–  vu le règlement (UE, Euratom) 2018/1046 du Parlement européen et du Conseil du 18 juillet 2018 relatif aux règles financières applicables au budget général de l’Union, modifiant les règlements (UE) nº 1296/2013, (UE) nº 1301/2013, (UE) nº 1303/2013, (UE) nº 1304/2013, (UE) nº 1309/2013, (UE) nº 1316/2013, (UE) nº 223/2014, (UE) nº 283/2014 et la décision nº 541/2014/UE, et abrogeant le règlement (UE, Euratom) nº 966/2012(7), et notamment ses articles 59, 118, 260, 261 et 262,

–  vu l’article 100 et l’annexe V de son règlement intérieur,

–  vu le deuxième rapport de la commission du contrôle budgétaire (A9-0189/2020),

1.  refuse la décharge au secrétaire général du Conseil sur l’exécution du budget du Conseil européen et du Conseil pour l’exercice 2018;

2.  présente ses observations dans la résolution ci-après;

3.  charge son Président de transmettre la présente décision, ainsi que la résolution qui en fait partie intégrante, au Conseil européen, au Conseil, à la Commission et à la Cour des comptes, et d’en assurer la publication au Journal officiel de l’Union européenne (série L).

2. Résolution du Parlement européen du 20 octobre 2020 contenant les observations qui font partie intégrante de la décision concernant la décharge sur l’exécution du budget général de l’Union européenne pour l’exercice 2018, section II – Conseil européen et Conseil (2019/2057(DEC))

Le Parlement européen,

–  vu sa décision concernant la décharge sur l’exécution du budget général de l’Union européenne pour l’exercice 2018, section II - Conseil européen et Conseil,

–  vu l’article 100 et l’annexe V de son règlement intérieur,

–  vu le deuxième rapport de la commission du contrôle budgétaire (A9-0189/2020),

A.  considérant qu’en tant qu’institutions de l’Union, le Conseil européen et le Conseil devraient être démocratiquement responsables, devant tous les citoyens de l’Union, des fonds qui leur sont confiés pour l’exercice de leurs fonctions;

B.  considérant que le Parlement est la seule institution de l’Union élue au suffrage direct chargée d’octroyer la décharge sur l’exécution du budget général de l’Union européenne;

C.  considérant qu’une procédure de décharge ouverte et transparente est nécessaire pour protéger les intérêts financiers de l’Union, mener la lutte indispensable contre la fraude et garantir la transparence et la responsabilité démocratique envers les citoyens de l’Union, en vertu de laquelle chaque institution de l’Union est responsable du budget qu’elle exécute;

1.  souligne que, depuis dix ans sans exception, le Conseil refuse de collaborer à la procédure de décharge et oblige donc le Parlement à refuser d’octroyer la décharge; observe que, comme ce fut le cas pour les exercices précédents, la décision d’octroi de la décharge pour 2018 a été ajournée en mai 2020;

2.  souligne que cet état de fait n’est tenable pour aucune des deux institutions étant donné qu’en ce qui concerne le Conseil, aucune décision positive sur l’exécution du budget n’a plus été adoptée depuis 2009, et qu’en ce qui concerne le Parlement, il témoigne de l’absence de respect envers le rôle du Parlement en tant qu’autorité de décharge et garant de la transparence et de la responsabilité démocratique du budget de l’Union;

3.  affirme que cette situation nuit à la confiance de la population à l’égard de la gestion financière des institutions de l’Union; estime que la poursuite de la situation actuelle est préjudiciable à la responsabilité de l’Union et de ses institutions;

4.  rappelle qu’en vertu du traité sur le fonctionnement de l’Union européenne (traité FUE) et du règlement financier, le Parlement est la seule autorité de décharge de l’Union tout en reconnaissant pleinement le rôle du Conseil comme institution formulant des recommandations sur la procédure de décharge; demande au Conseil, à cet égard, de formuler des recommandations de décharge à l’égard des autres institutions de l’Union;

5.  rappelle que, selon le traité FUE, les institutions jouissent d’une autonomie administrative, que leurs dépenses font l’objet de parties séparées du budget et qu’elles sont individuellement responsables de l’exécution de leur budget;

6.  rappelle que le Parlement donne décharge à l’ensemble des institutions, organes et organismes de l’Union sur la base des dispositions de documents techniques, de réponses aux questions parlementaires et d’auditions; déplore que le Parlement rencontre systématiquement des difficultés pour obtenir les réponses du Conseil en raison d’un manque de coopération, ce qui s’est traduit par le refus de donner décharge pendant plus de dix ans;

7.  rappelle que le contrôle effectif de l’exécution du budget de l’Union passe par une coopération loyale entre les institutions; rappelle que le Parlement souhaite engager des négociations avec le Conseil en vue de la conclusion d’un accord satisfaisant pour les deux parties qui permettrait de sortir enfin de cette impasse;

8.  rappelle le courrier envoyé le 25 mai 2020 par la commission du contrôle budgétaire du Parlement au secrétaire général du Conseil afin de l’informer que la commission du contrôle budgétaire du Parlement a été chargée par la Conférence des présidents du Parlement de rouvrir les négociations avec le Conseil sur la procédure de décharge;

9.  fait savoir que l’équipe de négociation du Parlement se compose de Mme Monika Hohlmeier, présidente de la commission du contrôle budgétaire du Parlement, de M. Tomáš Zdechovský, rapporteur sur la décharge 2018 au Conseil, et de Mme Isabel García Muñoz, première vice-présidente de la commission du contrôle budgétaire du Parlement;

10.  fait savoir qu’une version révisée, proposée par l’équipe de négociation du Parlement le 20 février 2020, du document officieux sur la coopération entre le Parlement et le Conseil au cours de la procédure de décharge annuelle était jointe au courrier visé au paragraphe 8; souligne que le Parlement considère ce document officieux comme la base des négociations;

11.  fait savoir que ce document officieux reconnaît les rôles respectifs mais différents des deux institutions dans la procédure de décharge et conclut que le Parlement et le Conseil ont besoin d’une même base factuelle pour formuler une recommandation (Conseil) ou prendre une décision (Parlement);

12.  indique que le courrier visé au paragraphe 8 invite le Conseil à proposer une date appropriée pour le début des négociations; fait savoir que la tendance positive de ce processus a été interrompue par la pandémie de COVID-19;

13.  rappelle que tant qu’il n’y a pas de négociations entre les parties, la position du Parlement reste identique et que les négociations entre les parties sont une condition préalable à la résolution de la question;

14.  insiste pour que le budget du Conseil européen et celui du Conseil soient distincts afin de contribuer à une plus grande transparence, à davantage de responsabilité et à une plus grande efficacité des dépenses des deux institutions, comme le recommande le Parlement dans ses nombreuses résolutions de décharge depuis plusieurs années;

15.  souligne que l’action concertée visant à la conclusion d’un accord interinstitutionnel sur un registre de transparence obligatoire pour les représentants d’intérêts, accessible sous une forme lisible par une machine, est inévitable si l’on veut améliorer la transparence du processus décisionnel de l’Union et la responsabilité des institutions de l’Union; déplore vivement, une nouvelle fois, que le Conseil ne participe pas au projet de registre de transparence; invite le Conseil à continuer de participer aux discussions relatives à la mise en place d’un registre commun avec le Parlement, qui a accepté de reprendre les négociations en mars 2020, et la Commission afin que les représentants d’intérêts soient de facto dans l’obligation de s’enregistrer s’ils veulent rencontrer des décideurs de l’Union; demande une nouvelle fois à toutes les équipes de présidence des États membres de montrer l’exemple en refusant de tenir des réunions avec des groupes d’intérêts non enregistrés;

16.  salue la réponse positive du Conseil à la recommandation du Médiateur européen dans l’affaire 1069/2019/MIG concernant le parrainage commercial des présidences du Conseil de l’Union européenne; prend acte du projet d’orientations transmis par le secrétariat général du Conseil aux délégations des États membres le 29 juin 2020; rappelle que tout conflit d’intérêts réel ou supposé nuit à la réputation du Conseil et de l’Union dans son ensemble; invite le Conseil à réfléchir sur le caractère non contraignant des orientations; invite instamment le Conseil à donner suite sans tarder à cette question;

17.  souligne qu’il importe que les citoyens puissent suivre facilement le processus législatif de l’Union; rappelle au Conseil qu’il doit aligner ses méthodes de travail sur les normes d’une démocratie parlementaire, comme l’exigent les traités; rappelle au Conseil qu’il doit systématiquement donner suite à toutes les recommandations figurant dans la décision de la Médiatrice européenne dans l’enquête stratégique OI/2/2017/TE relative à la transparence du processus législatif du Conseil; rappelle que le Parlement a encouragé la Médiatrice européenne à continuer d’observer les suites réservées à l’enquête;

18.  invite le Conseil à renforcer ses efforts de transparence en publiant notamment les documents législatifs du Conseil, dont les procès-verbaux des réunions des groupes de travail, les documents relatifs aux trilogues et d’autres documents de travail importants, conformément aux recommandations du Médiateur européen; salue les améliorations apportées au site Internet du Conseil, notamment en matière de transparence et d’accès aux documents; salue la clarté des pages consacrées à la transparence législative, aux ordres du jour et au calendrier des réunions du Conseil ainsi qu’aux procès-verbaux et aux listes de vote; reconnaît que le Conseil a adopté des mesures pour encourager une culture de transparence plus marquée.

19.  réaffirme sa vive préoccupation concernant le parrainage, par des entreprises, des États membres qui assurent la présidence de l’Union, et relaie les préoccupations exprimées à ce sujet par les citoyens européens et les députés; s’inquiète vivement du risque d’une perte de confiance des citoyens européens envers l’Union, ses institutions et, en particulier, le Conseil, qui pourraient voir leur réputation entachée à cause de cette pratique; recommande par ailleurs vivement au Conseil de songer à inscrire les présidences au budget, demande au Conseil de transmettre cette préoccupation aux États membres, en particulier au trio de présidences actuel, et demande au trio de présidences actuel de prendre sérieusement en considération ces recommandations et de faire rapport au Parlement;

20.  réaffirme sa vive préoccupation à l’égard des conflits d’intérêts supposés d’une série de représentants des États membres qui participent à l’adoption des décisions politiques et budgétaires; invite le Conseil à veiller à ce que les représentants d’États membres bénéficiant personnellement de subventions de l’Union ne participent pas aux discussions et aux votes politiques ou budgétaires qui s’y rapportent.

(1) JO L 51 du 28.2.2017.
(2) JO C 327 du 30.9.2018, p. 1
(3) JO C 357 du 4.10.2018, p. 1.
(4) JO C 357 du 4.10.2018, p. 9.
(5) Textes adoptés de cette date, P9_TA(2020)0090.
(6) JO L 298 du 26.10.2012, p. 1.
(7) JO L 193 du 30.7.2018, p. 1.


Législation sur les services numériques: améliorer le fonctionnement du marché unique
PDF 260kWORD 92k
Résolution
Annexe
Résolution du Parlement européen du 20 octobre 2020 contenant des recommandations à la Commission sur la législation relative aux services numériques: améliorer le fonctionnement du marché unique (2020/2018(INL))
P9_TA(2020)0272A9-0181/2020

Le Parlement européen,

–  vu l’article 225 du traité sur le fonctionnement de l’Union européenne,

–  vu la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur («directive sur le commerce électronique»)(1),

–  vu le règlement (UE) 2019/1150 du Parlement européen et du Conseil du 20 juin 2019 promouvant l’équité et la transparence pour les entreprises utilisatrices de services d’intermédiation en ligne(2),

–  vu la directive (UE) 2019/770 du Parlement européen et du Conseil du 20 mai 2019 relative à certains aspects concernant les contrats de fourniture de contenus numériques et de services numériques(3),

–  vu la directive (UE) 2019/771 du Parlement européen et du Conseil du 20 mai 2019 relative à certains aspects concernant les contrats de vente de biens, modifiant le règlement (UE) 2017/2394 et la directive 2009/22/CE et abrogeant la directive 1999/44/CE(4),

–  vu la directive 2005/29/CE du Parlement européen et du Conseil du 11 mai 2005 relative aux pratiques commerciales déloyales des entreprises vis-à-vis des consommateurs dans le marché intérieur et modifiant la directive 84/450/CEE du Conseil et les directives 97/7/CE, 98/27/CE et 2002/65/CE du Parlement européen et du Conseil et le règlement (CE) nº 2006/2004 du Parlement européen et du Conseil («directive sur les pratiques commerciales déloyales»)(5),

–  vu le règlement (UE) 2019/1020 du Parlement européen et du Conseil du 20 juin 2019 sur la surveillance du marché et la conformité des produits, et modifiant la directive 2004/42/CE et les règlements (CE) nº 765/2008 et (UE) nº 305/2011(6),

–  vu la directive 2006/123/CE du Parlement européen et du Conseil du 12 décembre 2006 relative aux services dans le marché intérieur(7),

–  vu sa résolution du 21 septembre 2010 sur l’achèvement du marché intérieur en ce qui concerne le commerce en ligne(8),

–  vu sa résolution du 15 juin 2017 sur les plateformes en ligne et le marché unique numérique(9),

–  vu la communication de la Commission du 11 janvier 2012 intitulée "Un cadre cohérent pour renforcer la confiance dans le marché unique numérique du commerce électronique et des services en ligne" (COM(2011)0942),

–  vu la recommandation (UE) 2018/334 de la Commission du 1er mars 2018 sur les mesures destinées à lutter, de manière efficace, contre les contenus illicites en ligne(10) et la communication de la Commission, du 28 septembre 2017, intitulée «Lutter contre le contenu illicite en ligne. Pour une responsabilité accrue des plateformes en ligne» (COM(2017)0555),

–  vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions, du 26 avril 2018, intitulée «Lutter contre la désinformation en ligne: une approche européenne» (COM(2018)0236), qui porte sur les informations fausses ou trompeuses qui sont créées, présentées et diffusées dans un but lucratif ou dans l’intention délibérée de tromper le public et qui sont susceptibles de causer un préjudice public,

–  vu le protocole d’accord du 21 juin 2016 sur la vente de contrefaçons sur l’internet, et sa révision dans la communication de la Commission au Parlement européen, au Conseil et au Comité économique et social européen intitulée «Un système équilibré de contrôle du respect de la propriété intellectuelle pour relever les défis sociétaux d’aujourd’hui» (COM(2017)0707),

–  vu l’avis du Comité européen des régions (ECON-VI/048) du 5 décembre 2019 sur «un cadre européen pour apporter des réponses réglementaires à l’économie collaborative»,

–  vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données)(11),

–  vu la directive (UE) 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE(12),

–  vu la directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques (directive «vie privée et communications électroniques»)(13),

–  vu la directive 96/9/CE du Parlement européen et du Conseil du 11 mars 1996 concernant la protection juridique des bases de données(14), la directive 2001/29/CE du Parlement européen et du Conseil du 22 mai 2001 sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information(15) et la directive 2010/13/UE du Parlement européen et du Conseil du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive «Services de médias audiovisuels»)(16),

–  vu la communication de la Commission du 10 mars 2020 intitulée «Une stratégie axée sur les PME pour une Europe durable et numérique» (COM(2020)0103),

–  vu le livre blanc de la Commission européenne du 19 février 2020 intitulé «Intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance» (COM(2020)0065),

–  vu la communication de la Commission du 19 février 2020 intitulée «Façonner l’avenir numérique de l’Europe» (COM(2020)0067),

–  vu les engagements pris par la Commission dans ses «Orientations politiques pour la prochaine Commission européenne 2019-2024»,

–  vu l’étude du service de recherche du Parlement européen intitulée «Évaluer le coût de la non-Europe 2019-2024», qui montre que le gain susceptible de découler de la réalisation du marché unique numérique des services pourrait atteindre 100 milliards d’euros,

–  vu l’étude réalisée par le Département thématique des politiques économiques, scientifiques et de la qualité de la vie du Parlement intitulée «The e-commerce Directive as the cornerstone of the Internal Market» («la directive sur le commerce électronique, clé de voûte du marché intérieur»), laquelle définit quatre priorités pour améliorer la directive sur le commerce électronique,

–  vu les études réalisées par le Département thématique des politiques économiques, scientifiques et de la qualité de la vie pour l’atelier «Commerce électronique: des règles adaptées à l’ère du numérique» organisé par la commission du marché intérieur et de la protection des consommateurs (IMCO),

–  vu l’étude intitulée «Digital Services Act: European Added Value Assessment» («Législation sur les services numériques: valeur ajoutée européenne»), réalisée par le Service de recherche du Parlement européen(17),

–  vu le vade-mecum relatif à la directive 98/48/CE qui instaure un mécanisme de transparence réglementaire pour les services de la société de l’information,

–  vu les articles 47 et 54 de son règlement intérieur,

–  vu les avis de la commission des transports et du tourisme, de la commission de la culture et de l’éducation, de la commission des affaires juridiques et de la commission des libertés civiles, de la justice et des affaires intérieures,

–  vu le rapport de la commission du marché intérieur et de la protection des consommateurs (A9-0181/2020),

A.  considérant que le commerce électronique influence la vie quotidienne des personnes, des entreprises et des consommateurs dans l’Union européenne et qu’il peut, dans des conditions de concurrence équitables et réglementées, contribuer à libérer le potentiel du marché unique numérique, à renforcer la confiance des consommateurs et à ouvrir aux entreprises qui entrent sur le marché, notamment aux microentreprises et aux PME, de nouveaux débouchés commerciaux pour une croissance et des emplois durables;

B.  considérant que la directive 2000/31/CE (ci-après la «directive sur le commerce électronique») est l’un des textes législatifs les plus réussis de l’Union européenne qui a façonné le marché unique numérique tel que nous le connaissons aujourd’hui; que la directive sur le commerce électronique a été adoptée il y a 20 ans et que la législation sur les services numériques devrait tenir compte de la transformation et de l’expansion rapides du commerce électronique sous toutes ses formes, avec sa multitude de nouveaux services, produits, prestataires et enjeux ainsi que les diverses législations sectorielles applicables; que depuis l’adoption de la directive sur le commerce électronique, la Cour de justice de l’Union européenne (ci-après, la «Cour») a prononcé plusieurs arrêts y ayant trait;

C.  considérant qu’à l’heure actuelle, la démarche des États membres au regard du contenu illicite en ligne est fragmentée; que, par conséquent, les prestataires de services concernés peuvent être soumis à différentes exigences juridiques au contenu et à la portée variables; que la mise en application et la coopération entre les États membres semblent défaillantes, et que le cadre juridique existant pose des problèmes;

D.  considérant que les services numériques doivent respecter pleinement les droits fondamentaux consacrés par les traités et la charte des droits fondamentaux de l’Union européenne (ci-après, la «charte»), en particulier le respect de la vie privée et la protection des données à caractère personnel, la non-discrimination, la liberté d’expression et d’information, le pluralisme des médias et la diversité culturelle, ainsi que les droits de l’enfant;

E.  considérant que dans sa communication intitulée «Façonner l’avenir numérique de l’Europe», la Commission s’est engagée à adopter, dans le cadre de la législation sur les services numériques, de nouvelles règles révisées pour les plateformes en ligne et les prestataires de services d’information, à renforcer la surveillance des politiques des plateformes en matière de contenus dans l’Union, et à envisager la mise en place de règles ex ante;

F.  considérant que la pandémie de COVID-19 a engendré des problématiques sociales et économiques qui ont de profondes répercussions sur les citoyens et l’économie; que, dans le même temps, la pandémie de COVID-19 a mis au jour la résilience du secteur du commerce électronique et son potentiel en tant que moteur de la relance de l’économie européenne; que la pandémie a également révélé les défaillances du cadre réglementaire actuel, au regard notamment de l’acquis relatif à la protection des consommateurs; que cette situation requière une action au niveau de l’Union en faveur d’une démarche plus cohérente et coordonnée pour résoudre les problèmes identifiés et empêcher qu’il ne ressurgissent à l’avenir;

G.  considérant que la pandémie de COVID-19 a montré la vulnérabilité des consommateurs de l’Union face aux pratiques commerciales trompeuses de professionnels malhonnêtes qui vendent en ligne des produits illicites non conformes aux normes de sécurité européennes ou qui imposent aux consommateurs des conditions déloyales; que la pandémie a notamment révélé que les plateformes et services d’intermédiation en ligne doivent améliorer les dispositifs mis en œuvre pour détecter et supprimer les allégations mensongères et lutter, de manière cohérente et coordonnée, contre les pratiques trompeuses de commerçants malhonnêtes, notamment ceux qui commercialisent en ligne des contrefaçons de matériel médical et des produits dangereux; que la Commission s’est félicitée de la réaction des plateformes à sa lettre du 23 mars 2020; qu’il y a lieu de prendre des mesures au niveau de l’Union en faveur d’une approche plus cohérente et coordonnée afin de combattre ces pratiques trompeuses;

H.  considérant que la législation sur les services numériques devrait garantir une protection effective des droits des consommateurs et des utilisateurs dans l’Union et que, de ce fait, son champ d’application territorial devrait englober les activités des prestataires de services de la société de l’information implantés dans des pays tiers dès lors que leurs services relevant du champ d’application de cette législation ciblent des consommateurs de l’Union;

I.  considérant que la législation sur les services numériques devrait préciser la nature de ces services qui relèvent de son champ d’application et, dans le même temps, préserver la dimension horizontale de la directive sur le commerce électronique en s’appliquant, en sus des plateformes en ligne, à tous les prestataires de services de la société de l’information au sens de la législation de l’Union;

J.  considérant que la législation sur les services numériques devrait s’appliquer sans préjudice du règlement (UE) 2016/679 (RGPD), qui établit le cadre juridique pour la protection des données à caractère personnel, de la directive (UE) 2019/790 sur le droit d’auteur et les droits voisins dans le marché unique numérique, de la directive 2010/13/UE visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels et de la directive 2002/58/CE concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques;

K.  considérant que la législation sur les services numériques devrait être sans incidence sur la directive 2005/29/CE, telle que modifiée par la directive (UE) 2019/2161, ainsi que les directives (UE) 2019/770 et (UE) 2019/771 relatives à certains aspects concernant respectivement les contrats de fourniture de contenus numériques et de services numériques et les contrats de vente de biens, ainsi que le règlement (UE) 2019/1150 promouvant l’équité et la transparence pour les entreprises utilisatrices de services d’intermédiation en ligne;

L.  considérant que la législation sur les services numériques devrait s’appliquer sans préjudice du cadre établi par la directive 2006/123/CE relative aux services dans le marché intérieur;

M.  considérant que certains types de contenus illicites particulièrement préoccupant ont déjà été définis dans la législation nationale et européenne, à l’instar des discours de haine illégaux, et qu’il convient de ne pas les redéfinir dans la législation sur les services numériques;

N.  considérant qu’une démarche visant à améliorer la transparence et à favoriser l’acquisition par les citoyens de compétences fondamentales dans les domaines des médias et du numérique au regard de la diffusion de contenus préjudiciables, de discours haineux et de fausses informations, ainsi que le développement de la pensée critique et le renforcement d’un journalisme professionnel indépendant et de médias de qualité, contribuera à promouvoir un contenu varié et de qualité;

O.  considérant que la base de données WHOIS est accessible au public et est un outil utile pour déterminer le propriétaire d’un nom de domaine sur internet ainsi que les détails et les personnes de contact concernant tous les noms de domaine;

P.  considérant que la législation sur les services numériques devrait garantir la sécurité et la clarté juridiques, y compris sur le marché des locations de courte durée et des services de mobilité, en favorisant la transparence et en instaurant des obligations d’information plus précises;

Q.  considérant que l’accord conclu en mars 2020 par la Commission avec certaines plateformes dans le secteur de la location de courte durée au sujet du partage de données permettra aux autorités locales de mieux comprendre l’évolution de l’économie collaborative et garantira un partage de données continu et fiable, favorisant ainsi une élaboration des politiques fondée sur des éléments concrets; qu’il convient de prendre des mesures supplémentaires pour mettre sur pied un cadre plus détaillé sur le partage de données à l’intention des plateformes de location à court terme;

R.  considérant que la pandémie de COVID-19 a eu des répercussions sensibles sur le secteur touristique de l’Union et a mis au jour la nécessité de continuer à favoriser la coopération sur les voies vertes afin d’assurer le bon fonctionnement des chaînes d’approvisionnement de l’Union et de la circulation des biens sur le réseau des transports de l’Union;

S.  considérant que l’évolution du développement et de l’utilisation des plateformes en ligne pour un large éventail d’activités, notamment le commerce, le transport et le tourisme, ainsi que le partage de biens et de services, a modifié les modalités d’interaction des utilisateurs et des entreprises avec les fournisseurs de contenu, les commerçants et les particuliers qui proposent des biens et des services; considérant que le projet du marché unique numérique ne peut aboutir que si les utilisateurs ont confiance dans le fait que les plateformes en ligne respectent la législation applicable et ainsi que les intérêts légitimes de ceux-ci; considérant que le futur cadre réglementaire devrait également s’attaquer aux modèles commerciaux intrusifs, notamment aux pratiques de manipulation et discrimination, qui nuisent gravement au fonctionnement du marché intérieur et aux droits fondamentaux des utilisateurs;

T.  considérant que les États membres devraient s’efforcer d’améliorer l’accès à leurs systèmes judiciaires et répressifs et l’efficacité de ceux-ci en ce qui concerne la détermination de l’illégalité de contenus en ligne et la résolution des litiges concernant la suppression de contenus ou la désactivation de l’accès à ces contenus;

U.  considérant que les exigences prescrites par la législation sur les services numériques doivent être faciles à mettre en œuvre dans la pratique par les prestataires de services de la société de l’information; que les intermédiaires en ligne pourraient chiffrer leurs contenus ou en bloquer d’une autre façon l’accès par des tiers, y compris par les intermédiaires qui hébergent ces contenus;

V.  considérant qu’un moyen efficace d’endiguer les activités illégales consiste à favoriser le développement de nouveaux modèles commerciaux innovants et à renforcer le marché unique numérique en supprimant les obstacles injustifiés à la libre circulation des contenus numériques; que ces obstacles, qui fragmentent les marchés nationaux, contribuent à créer de la demande de contenu illicite;

W.  considérant que les services numériques devraient proposer aux consommateurs des moyens de communication directs, efficaces, accessibles et faciles à utiliser et à identifier, tels que des adresses électroniques, des formulaires de contact en ligne, des agents de dialogue, des messageries instantanés ou des systèmes de rappel téléphonique, et veiller à ce que les informations relatives à ces moyens de communication soient accessibles aux consommateurs de manière claire et compréhensible et, dans la mesure du possible, uniforme, et à ce que les demandes des consommateurs soient dirigées vers les différents services numériques sous-jacents du prestataire de services numériques;

X.  considérant que la législation relative aux services numériques devrait garantir le droit des consommateurs d’être informés lorsqu’un service utilise l’intelligence artificielle (IA), des dispositifs de prise de décision automatisés ou d’apprentissage automatique, ou des outils de reconnaissance automatisée de contenu; qu’elle devrait prévoir la possibilité de refuser, de limiter ou de personnaliser l’utilisation de toute fonctionnalité de personnalisation automatisée, au regard notamment de classements, et plus spécifiquement, de voir des contenus dans un ordre non organisé et de donner plus de contrôle aux utilisateurs sur le classement des contenus;

Y.  considérant que la protection des données à caractère personnel faisant l’objet de processus automatisés de prise de décision est déjà couverte, entre autres, par le règlement général sur la protection des données, et que la législation sur les services numériques ne devrait pas chercher à en reprendre ou à en modifier les dispositions;

Z.  considérant que la Commission devrait veiller à ce que la législation sur les services numériques préserve l’approche centrée sur l’humain de l’IA, conformément aux règles régissant la libre circulation des services fondés sur l’IA, dans le respect des valeurs et droits fondamentaux ancrés dans les traités;

AA.  considérant que les autorités nationales de surveillance devraient avoir accès, pour autant que la législation de l’Union l’autorise, à la documentation sur les logiciels et aux séries de données des algorithmes sous revue;

AB.  considérant que les concepts de transparence et d’explicabilité des algorithmes devraient être interprétés en ce sens qu’ils exigent que les informations soient fournies à l’utilisateur sous une forme concise, transparente, intelligible et facilement accessible, en des termes clairs et simples;

AC.  considérant qu’il importe de prévoir des mesures pour garantir l’efficacité de la mise en application et de la surveillance; considérant qu’il convient de veiller au respect des dispositions en s’appuyant sur des sanctions efficaces, proportionnées et dissuasives, notamment des amendes;

AD.  considérant que la législation sur les services numériques devrait mettre en balance les intérêts de tous les utilisateurs et garantir que les dispositions qu’elle prévoit ne favorisent pas un intérêt légitime au détriment d’un autre, et empêcher que ces dispositions soient utilisées à des fins offensives dans d’éventuels conflits entre des entreprises ou des secteurs;

AE.  considérant que le mécanisme ex ante du marché intérieur devrait s’appliquer lorsque le droit de la concurrence ne suffit pas, à lui seul, pour répondre de manière appropriée à des défaillances du marché constatées;

AF.  considérant que les mesures législatives proposées dans le cadre de la législation sur les services numériques devraient reposer sur des éléments concrets; que la Commission devrait procéder à une analyse d’impact rigoureuse, fondée sur des données, des statistiques, des analyses et des études pertinentes sur les différentes options envisageables; que cette analyse d’impact devrait également évaluer et analyser les produits peu sûrs et dangereux vendus en ligne; que l’analyse d’impact devrait également tenir compte des enseignements tirés de la pandémie de COVID-19 ainsi que des résolutions du Parlement européen; que la législation sur les services numériques devrait être accompagnée de lignes directrices sur la mise en œuvre;

Principes généraux

1.  se félicite de l’engagement pris par la Commission de proposer, sur la base de l’article 225 du traité sur le fonctionnement de l’Union européenne (traité FUE), une législation sur les services numériques constituée d’une proposition modifiant la directive sur le commerce électronique et d’une proposition établissant des règles ex ante applicables aux opérateurs d’importance systémique qui exercent un contrôle sur l’accès au marché; invite la Commission à présenter ce train de mesures sur la base des articles 53, paragraphe 1, 62 et 114 du traité FUE conformément aux recommandations figurant à l’annexe de la présente résolution, en s’appuyant sur une analyse d’impact rigoureuse qui tienne compte des informations relatives aux répercussions financières des propositions et se fonder sur des données et repose sur des données, des statistiques et des analyses pertinentes;

2.  reconnaît l’importance du cadre juridique établi par la directive sur le commerce électronique dans le développement des services numériques dans l’Union, et estime que les principes qui ont présidé à l’élaboration par les législateurs de la réglementation applicable prestataires de services de la société de l’information dans les années 90 sont toujours valables et devraient alimenter la rédaction des propositions à venir; souligne que la sécurité juridique apportée par la directive sur le commerce électronique a permis aux petites et moyennes entreprises (PME) de développer leur activité et de l’étendre plus facilement au-delà des frontières;

3.  est d’avis que tous les prestataires de services numériques établis en dehors de l’Union doivent respecter les règles prescrites par la législation sur les services numériques afin de garantir des conditions identiques aux prestataires de services numériques de pays tiers et de l’Union; demande en outre à la Commission de déterminer s’il existe un risque de représailles de la part de pays tiers et, dans le même temps, de sensibiliser aux modalités d’application du droit de l’Union aux prestataires de services de pays tiers ciblant le marché européen;

4.  insiste sur le rôle central joué par la clause relative au marché au marché intérieur, qui établit le contrôle par le pays d’origine et l’obligation des États membres d’assurer la libre circulation des services de la société de l’information; insiste sur la nécessité de lever les barrières injustifiées et disproportionnées à la prestation de services numériques qui subsistent, telles que des procédures administratives complexes, des règlements de différends transfrontaliers coûteux et l’accès à l’information sur les exigences réglementaires pertinentes, y compris sur la fiscalité, ainsi que de veiller à ce qu’aucun nouvel obstacle injustifié et disproportionné ne soit créé;

5.  relève qu’en vertu des règles de l’Union sur la libre circulation des services, les États membres peuvent prendre des mesures pour protéger des objectifs d’intérêt public légitimes, tels que la protection de l’ordre public, la santé publique, la protection des consommateurs, la lutte contre la pénurie de logements locatifs et la prévention de la fraude et de l’évasion fiscales, à condition que ces mesures respectent les principes de non-discrimination et de proportionnalité;

6.  estime qu’il convient de préserver les grands principes de la directive sur le commerce électronique, tels que la clause relative au marché intérieur, la liberté d’établissement, la liberté de fournir des services et l’interdiction d’imposer une obligation générale de surveillance; souligne que le principe selon lequel «ce qui est illégal hors ligne l’est également en ligne», ainsi que les principes de protection des consommateurs et de sécurité des utilisateurs, devraient également devenir des principes directeurs du futur cadre réglementaire;

7.  souligne l’importance des plateformes d’économie collaborative, notamment dans les secteurs des transports et du tourisme, sur lesquelles les services sont fournis à la fois par des particuliers et des professionnels; invite la Commission à s’atteler, à l’issue de la consultation de toutes les parties prenantes, à la mise en place d’un cadre plus détaillé pour le partage d’informations non personnelles et la coordination entre les plateformes et les autorités nationales, régionales et locales, dans le but notamment de partager des pratiques exemplaires et d’établir un ensemble d’obligations en matière d’information, conformément à la stratégie de l’Union en matière de données;

8.  relève que régime de protection des données a été sensiblement actualisé depuis l’adoption de la directive sur le commerce électronique et insiste sur le fait que la rapide évolution des services numériques requiert un cadre législatif solide et pérenne pour protéger les données à caractère personnel et la vie privée; souligne, à cet égard, que tous les prestataires de services numériques doivent respecter pleinement le droit de l’Union en matière de protection des données, notamment le RGPD et la directive 2002/58/CE (la «directive vie privée et communications électroniques»), en cours de révision, ainsi que l’ensemble des droits fondamentaux, notamment la liberté d’expression, la dignité et la non-discrimination, ainsi que le droit à un recours juridictionnel effectif, et doivent garantir la sécurité et la sûreté de leurs systèmes et services;

9.  estime que la législation sur les services numériques devrait garantir la confiance des consommateurs et établir clairement que le droit de la consommation et les exigences en matière de sécurité des produits sont respectés afin d’assurer la sécurité juridique; souligne que la législation sur les services numériques devrait accorder une attention particulière aux utilisateurs handicapés et garantir l’accessibilité des services numériques; demande à la Commission d’encourager les fournisseurs de services à mettre au point des outils techniques pour permettre aux personnes handicapées d’accéder effectivement aux services de la société de l’information, de les utiliser et d’en tirer pleinement parti;

10.  souligne qu’il importe de maintenir l’approche horizontale de la directive sur le commerce électronique; met l’accent sur le fait qu’une approche uniforme ne saurait répondre à tous les nouveaux enjeux du paysage numérique actuel et que la diversité des acteurs et des services proposés en ligne nécessite une approche réglementaire adaptée; recommande d’établir une distinction entre les activités économiques et les activités non économiques et entre les différents types de services numériques hébergés par les plateformes, plutôt que de mettre l’accent sur le type de plateforme; estime, dans ce contexte, que toute proposition législative à venir devrait viser à garantir que les nouvelles obligations que l’Union impose aux prestataires de services de la société de l’information sont proportionnées et claires;

11.  rappelle qu’un grand nombre de décisions législatives et administratives et de relations contractuelles utilisent les définitions et les règles établies par la directive sur le commerce électronique, et que toute modification qui y sera apportée aura donc d’importantes conséquences;

12.  souligne qu’un cadre européen prévisible, pérenne, clair et détaillé ainsi qu’une concurrence équitable sont essentiels pour favoriser la croissance de toutes les entreprises européennes, notamment des plateformes de moindre envergure, des PME, des microentreprises, des entrepreneurs et des jeunes pousses, pour développer la prestation transfrontalière de services de la société de l’information, pour remédier à la fragmentation du marché et pour assurer aux entreprises européennes des conditions équitables leur permettant de tirer pleinement parti du marché des services numériques et d’être compétitives sur la scène internationale;

13.  souligne qu’il convient de veiller à ce que le futur instrument du marché intérieur relatif aux règles ex ante concernant les plateformes systémiques et le nouvel outil en matière de concurrence censé remédier aux lacunes du droit de la concurrence demeurent des instruments juridiques distincts;

14.  rappelle que la directive sur le commerce électronique a été rédigée dans une perspective de neutralité technologique pour garantir qu’elle ne serait pas rendue obsolète par les évolutions technologiques résultant de la rapide progression de l’innovation dans le secteur informatique, et souligne que la législation sur les services numériques devrait être à l’épreuve du temps et rester applicable en cas d’émergence de nouvelles technologies ayant une incidence sur le marché unique numérique; demande à la Commission de garantir la neutralité technologique de toute révision afin de garantir des avantages durables aux entreprises et aux consommateurs;

15.  estime qu’il convient d’instaurer dans le marché intérieur des conditions identiques pour l’économie des plateformes et l’économie hors ligne, sur la base des mêmes droits et obligations pour l’ensemble des parties intéressées, c’est-à-dire pour les consommateurs et les entreprises; estime que la législation sur les services numériques ne devrait pas traiter la question des travailleurs de plateformes; est d’avis que la protection sociale et les droits sociaux des travailleurs, notamment ceux des plateformes et de l’économie collaborative, devraient être traités de manière appropriée dans un instrument distinct afin d’apporter une réponse adéquate et complète aux enjeux de l’économie numérique actuelle;

16.  estime que la législation sur les services numériques devrait reposer sur les valeurs communes de l’Union européenne protégeant les droits des citoyens et devrait viser à promouvoir la création d’un écosystème en ligne riche et diversifié caractérisé par un large éventail de services en ligne, un environnement numérique concurrentiel, la transparence et la sécurité juridique, afin de libérer tout le potentiel du marché unique numérique;

17.  est d’avis que la législation sur les services numériques est pour l’Union européenne l’occasion de structurer l’économie numérique à l’échelle de l’Union, mais aussi d’alimenter l’élaboration de normes à l’échelon mondial;

Libertés et droits fondamentaux

18.  constate que les fournisseurs de services de la société de l’information, et en particulier les plateformes en ligne, dont les réseaux sociaux, ont une grande capacité à toucher des publics plus larges et à influencer des comportements, des opinions et des pratiques, y compris au regard de groupes vulnérables tels que les mineurs, et qu’ils devraient respecter le droit de l’Union sur la protection des utilisateurs, de leurs données et de la société en général;

19.  rappelle que les récents scandales liés à la collecte et à la vente de données, tels que Cambridge Analytica, à la diffusion de fausses informations, à la désinformation, à la manipulation d’électeurs ainsi qu’à une série d’autres préjudices en ligne (des discours de haine à l’apologie du terrorisme) ont montré qu’il y avait lieu d’œuvrer à l’amélioration de la mise en application de la législation actuelle et au resserrement de la collaboration entre les États membres pour comprendre les avantages et les limites des règles en vigueur et pour renforcer la protection des droits fondamentaux;

20.  rappelle à cet égard que certains dispositifs établis d’autorégulation et de corégulation, tels que le code de bonnes pratiques de l’Union contre la désinformation, ont contribué à structurer le dialogue avec les plateformes et les autorités réglementaires; propose que les plateformes en ligne mettent en place des garanties efficaces et appropriées notamment pour assurer qu’elles agissent de manière vigilante, proportionnée et non discriminatoire et pour empêcher la suppression involontaire de contenus qui ne sont pas illicites; précise que ces mesures ne devraient pas conduire à un filtrage au moment de la mise en ligne de contenu ne respectant pas l’interdiction des obligations générales de surveillance; préconise d’évaluer et de développer régulièrement les mesures de lutte contre les contenus préjudiciables, les discours haineux et la désinformation;

21.  insiste une nouvelle fois sur l’importance de garantir la liberté d’expression, d’information et d’opinion, ainsi que la liberté et la pluralité de la presse et des médias, au regard notamment de la protection du journalisme indépendant; met l’accent sur la protection et la promotion de la liberté d’expression, ainsi que sur l’importance de la diversité des opinions, de l’information, de la presse, des médias et des expressions artistiques et culturelles;

22.  souligne que la législation sur les services numérique devrait renforcer les libertés attachées au marché intérieur et garantir les droits et principes énoncés dans la charte; insiste sur le fait que les droits fondamentaux des consommateurs et des utilisateurs, y compris des mineurs, devraient être protégés contre les modèles commerciaux en ligne préjudiciables, y compris dans le cadre de la publicité en ligne, ainsi que contre la manipulation comportementale et les pratiques discriminatoires;

23.  précise qu’il importe de donner aux utilisateurs les moyens de faire respecter leurs droits fondamentaux en ligne; rappelle que les prestataires de services numériques doivent respecter et appliquer le droit de leurs utilisateurs à la portabilité des données, conformément au droit de l’Union;

24.  souligne que les données biométriques sont considérées comme une catégorie particulière de données à caractère personnel, soumise à des règles de traitement spécifiques; fait observer que les données biométriques peuvent être et sont de plus en plus utilisées pour l’identification et l’authentification de personnes, une technique qui, au-delà de ses avantages potentiels, implique des atteintes et des risques notables au regard du droit à la vie privée et à la protection des données, notamment lorsqu’elle est mise en œuvre sans le consentement de la personne concernée, et facilite l’usurpation d’identité; préconise de garantir, dans le cadre de la législation sur les services numériques, que les prestataires de services numériques ne stockent les données biométriques que sur l’appareil lui-même, sauf si le stockage central est autorisé par la loi, proposent toujours aux utilisateurs de services numériques une solution de substitution à l’utilisation de données biométriques prévue par défaut pour le fonctionnement d’un service, et sont tenus d’informer clairement les clients des risques liés à l’utilisation des données biométriques;

25.  souligne que, conformément à l’esprit de la jurisprudence relative aux métadonnées de communication, il convient de ne rendre les données et métadonnées d’un utilisateur accessibles aux autorités publiques que dans le cadre d’une enquête sur des personnes suspectées d’infractions graves, moyennant une autorisation judiciaire préalable; est toutefois convaincu que les fournisseurs de services numériques ne doivent pas conserver de données à des fins répressives, sauf si la conservation ciblée des données d’un utilisateur spécifique est directement ordonnée par une autorité publique compétente indépendante, conformément au droit de l’Union;

26.  souligne l’importance d’appliquer aux données un chiffrement de bout en bout, mesure à la fois essentielle pour assurer la confiance vis-à-vis de l’internet et la sécurité sur l’internet et efficace pour éviter tout accès non autorisé d’une tierce partie;

Transparence et protection des consommateurs

27.  note que la pandémie de COVID-19 a montré l’importance et la résilience du commerce électronique ainsi que son potentiel en tant que moteur de la relance de l’économie européenne, mais aussi la vulnérabilité des consommateurs de l’Union aux pratiques commerciales trompeuses de professionnels malhonnêtes qui vendent en ligne des produits dangereux ou illicites et des contrefaçons, fournissent des services en ligne qui ne sont pas conformes aux règles de sécurité de l’Union, ou imposent aux consommateurs des augmentations de prix injustifiées et abusives ou d’autres conditions déloyales; souligne qu’il est urgent de mieux faire appliquer les règles de l’Union et de renforcer la protection des consommateurs;

28.  souligne que ce problème est exacerbé par les difficultés rencontrées pour établir l’identité des entreprises utilisatrices frauduleuses, et qu’il est donc compliqué pour les consommateurs de demander réparation pour les préjudices et pertes subis;

29.  considère que les exigences actuelles en matière de transparence et d’information imposées par la directive sur le commerce électronique aux prestataires de services de la société de l’information et à leur clientèle commerciale, ainsi que les exigences d’information minimales en matière de communications commerciales, devraient être renforcées, parallèlement aux mesures visant à accroître le respect des réglementations en vigueur, sans compromettre la compétitivité des PME;

30.  demande à la Commission de renforcer les obligations d’information énoncées à l’article 5 de la directive sur le commerce électronique et d’exiger des fournisseurs de services d’hébergement qu’ils comparent les informations et les données d’identification relatives aux utilisateurs professionnels avec lesquels ils entretiennent une relation commerciale directe avec les données d’identification figurant dans les bases de données pertinentes disponibles de l’Union, conformément à la législation sur les protocoles de données; précise que les fournisseurs de services d’hébergement devraient demander à leurs clients professionnels de garantir que les informations qu’ils communiquent sont exactes, complètes et à jour, et ils devraient avoir le droit et être tenus de refuser ou de cesser de fournir leurs services à ceux-ci si les informations concernant leur identité sont fausses ou trompeuses; souligne qu’il devrait incomber aux clients professionnels d’informer le prestataire de services de tout changement dans leur activité commerciale (par exemple, en cas de cessation de l’activité);

31.  invite la Commission à imposer des obligations exécutoires aux fournisseurs de service de la société de l’information visant à renforcer la transparence, l’information et l’obligation de rendre des comptes; demande à la Commission de veiller à un ciblage des mesures d’exécution qui tienne compte des différents services et n’entraînent pas inévitablement une atteinte à la vie privée et une procédure judiciaire; estime que ces obligations devraient être proportionnées et assorties de sanctions appropriées, proportionnées, efficaces et dissuasives;

32.  précise qu’il convient de renforcer les obligations relatives à la transparence des communications commerciales et de la publicité numérique énoncées dans la directive sur le commerce électronique et la directive sur les pratiques commerciales déloyales; fait observer que, en ce qui concerne la protection des consommateurs, les préoccupations pressantes relatives au profilage, au ciblage et à la tarification personnalisée devraient trouver réponse, entre autres, dans des obligations claires en matière de transparence et d’information;

33.  souligne l’asymétrie de la relation entre les consommateurs en ligne et les prestataires de services et commerçants, qui offrent des services financés par des recettes et des annonces publicitaires qui ciblent directement les consommateurs individuels grâce aux informations recueillies par le traitement des mégadonnées et l’IA; relève que la publicité pourrait avoir une incidence négative, en particulier la publicité microciblée ou comportementale; invite donc la Commission à introduire des règles supplémentaires en matière de publicité ciblée et de micro-ciblage fondés sur la collecte de données à caractère personnel, et d’envisager de réglementer plus strictement la publicité microciblée et comportementale dans un sens qui favorise des formes de publicité moins intrusives qui ne requièrent pas de suivre le près l’interaction de l’utilisateur avec le contenu; presse également la Commission d’envisager la mise en place de mesures législatives visant à améliorer la transparence de la publicité en ligne;

34.  souligne, eu égard au développement des services numériques, qu’il importe que les États membres soient tenus de veiller à ce que leur système juridique permette la conclusion de contrats par voie électronique et, dans le même temps, garantisse un niveau élevé de protection des consommateurs; invite la Commission à réexaminer les exigences applicables aux contrats conclus par voie électronique, y compris au regard des notifications par les États membres, et de les mettre à jour si nécessaire; relève, dans ce contexte, l’essor des «contrats intelligents», tels que ceux fondés sur les technologies des registres distribués, et demande à la Commission d’apprécier l’évolution et l’utilisation des technologies des registres distribués, y compris des «contrats intelligents», et notamment les questions liées à la validité et l’exécution des contrats intelligents dans les situations transfrontalières, de fournir des lignes directrices à ce propos, afin d’apporter une sécurité juridique aux entreprises et aux consommateurs, et de prendre l’initiative de mesures législatives si des lacunes concrètes sont détectées au cours de cet exercice;

35.  demande à la Commission d’introduire des normes minimales concernant les conditions générales des contrats, notamment au regard des mesures de transparence, d’accessibilité, d’équité et de non-discrimination, ainsi que d’examiner plus avant la mise en œuvre des clauses standard des conditions générales qui n’ont pas été négociées individuellement au préalable, à l’instar des «contrats de licence utilisateur final», et de chercher des moyens de les rendre plus justes et conformes au droit de l’Union, afin de faciliter la participation active des consommateurs, y compris dans le choix des clauses, et de permettre un consentement plus éclairé;

36.  souligne la nécessité d’améliorer l’efficacité des interactions électroniques entre les entreprises et les consommateurs à la lumière du développement des technologies d’identification virtuelle; estime que, pour garantir l’efficacité de la législation sur les services numériques, la Commission devrait également mettre à jour le cadre réglementaire relatif à l’identification numérique, à savoir le règlement (UE) n° 910/2014(18) (ci-après dénommé «règlement eIDAS»); estime que la création d’une identité numérique universellement reconnue et fiable et de systèmes d’authentification de confiance serait utile pour établir en toute sécurité les identités individuelles de personnes physiques, d’entités juridiques et de machines afin de se protéger contre l’utilisation de faux profils; relève, dans ce contexte, l’importance pour les consommateurs d’utiliser ou d’acheter en toute sécurité des produits et services en ligne sans devoir recourir à des plateformes non liées et partager inutilement des données, y compris des données à caractère personnel, qui sont collectées par ces plateformes; invite la Commission à réaliser une analyse d’impact approfondie en ce qui concerne la création d’une identité électronique publique universellement acceptée comme alternative aux systèmes d’identification uniques privés et souligne que ce service devrait être développé de manière à ce que les données collectées soient limitées au strict minimum; estime que la Commission devrait évaluer la possibilité de créer aussi un système de vérification de l’âge pour les utilisateurs de services numériques, en particulier pour protéger les mineurs;

37.  souligne que la législation sur les services numériques ne devrait pas porter atteinte au principe de minimisation des données établi par le RGPD et que, sauf disposition législative spécifique contraire, les intermédiaires de services numériques devraient permettre l’utilisation anonyme de leurs services dans toute la mesure du possible et traiter uniquement les données nécessaires à l’identification de l’utilisateur; que ces données collectées ne devraient pas être utilisées pour d’autres services numériques que ceux qui nécessitent une identification personnelle, une authentification ou une vérification de l’âge et qu’elles ne devraient être utilisées qu’à des fins légitimes, et en aucun cas pour restreindre l’accès général à l’internet;

Intelligence artificielle (IA) et apprentissage automatique

38.  souligne que si les services fondés sur l’IA ou les services qui utilisent des outils de prise de décision automatisés ou des outils d’apprentissage automatique, actuellement régis par la directive sur le commerce électronique, sont susceptibles de procurer des avantages considérables aux consommateurs et aux prestataires de services, la législation sur les services numériques devrait s’attaquer aux défis concrets qu’ils posent en termes de non-discrimination, de transparence, y compris en ce qui concerne les ensembles de données utilisés et les résultats ciblés, et d’explication compréhensible des algorithmes, ainsi que de la responsabilité, qui ne sont pas abordés dans la législation existante;

39.  souligne en outre que les algorithmes sous-jacents doivent respecter pleinement les exigences relatives aux droits fondamentaux, en particulier à la vie privée, à la protection des données à caractère personnel, à la liberté d’expression et d’information, au droit à un recours juridictionnel effectif et aux droits de l’enfant, tels qu’ils sont consacrés par les traités et la charte;

40.  estime essentiel de garantir l’utilisation d’ensembles de données sous-jacentes objectives, non discriminatoires et de grande qualité, et de faciliter l’accès des personnes à divers contenus, avis, produits et services de grande qualité;

41.  invite la Commission à introduire des exigences en matière de transparence et de responsabilité en ce qui concerne les processus de prise de décision automatisés, tout en garantissant le respect des exigences relatives à la vie privée des utilisateurs et aux secrets d’affaires; souligne la nécessité de permettre des audits réglementaires externes, une surveillance au cas par cas et des évaluations récurrentes des risques par les autorités compétentes et d’évaluer les risques associés, en particulier les risques pour les consommateurs ou les tiers, et estime que les mesures prises pour prévenir ces risques devraient être justifiées et proportionnées et ne devraient pas entraver l’innovation; ajoute que le principe du «contrôle humain en dernier ressort» doit être respecté, afin de prévenir, entre autres, l’augmentation des risques pour la santé et la sécurité, la discrimination, la surveillance indue et les abus ou d’éviter les éventuelles menaces pour les libertés et les droits fondamentaux;

42.  considère que les consommateurs et les utilisateurs devraient avoir le droit d’être informés en temps utile et de manière concise, facilement compréhensible et accessible et que leurs droits devraient être effectivement garantis lorsqu’ils interagissent avec des systèmes automatisés de prise de décision et d’autres services ou applications numériques innovants; se dit préoccupé par le manque actuel de transparence en ce qui concerne le recours aux assistants virtuels ou aux agents de dialogue, qui peut être particulièrement préjudiciable aux consommateurs vulnérables, et souligne que les prestataires de services numériques ne devraient pas utiliser exclusivement des systèmes de prise de décision automatisés pour aider les consommateurs;

43.  estime, dans ce contexte, que les consommateurs devraient toujours avoir la possibilité d’être dûment informés lorsqu’ils interagissent avec un système automatisé de prise de décision et de savoir comment joindre un être humain disposant de pouvoirs de décision afin de demander que soient vérifiées et corrigées d’éventuelles erreurs résultant de décisions automatisées, mais aussi de chercher à obtenir réparation pour tout préjudice lié à l’utilisation de systèmes automatisés de prise de décision;

44.  souligne qu’il importe de renforcer le choix des consommateurs, leur contrôle et leur confiance dans les services et applications utilisant l’IA; estime dès lors que l’ensemble des droits des consommateurs devrait être élargi afin de mieux les protéger dans le monde numérique et invite la Commission à tenir compte en particulier des critères de responsabilité et d’équité ainsi que du contrôle et du droit à la non-discrimination et à des ensembles de données d’IA impartiaux; estime que les consommateurs et les utilisateurs devraient avoir davantage de contrôle sur la manière dont l’IA est utilisée et sur la possibilité de refuser, de limiter ou de personnaliser l’utilisation de toute fonction de personnalisation liée à l’IA;

45.  constate que les outils automatisés de modération de contenu sont incapables de réellement saisir la subtilité du contexte et du sens des communications humaines, dont la compréhension est indispensable pour déterminer s’il peut être considéré que le contenu évalué enfreint la loi ou les conditions de service; souligne donc que l’utilisation de ces outils ne devrait pas être imposée par la législation sur les services numériques;

Lutter contre les contenus et les activités illicites en ligne

46.  souligne que l’existence et la diffusion de contenus et d’activités illicites en ligne constituent une grave menace qui ébranle la confiance des citoyens dans l’environnement numérique, qui porte préjudice au développement d’écosystèmes numériques performants et qui peut aussi avoir des conséquences graves et durables sur la sécurité et les droits fondamentaux des personnes; fait observer, dans le même temps, que les contenus et les activités illicites en ligne peuvent être aisément diffusés et que leur impact négatif peut être très rapidement amplifié;

47.  constate qu’il n’existe pas de solution qui serait valable pour tous les types de contenus et d’activités illicites; souligne que les contenus considérés comme «illicites» dans certains États membres peuvent ne pas l’être dans d’autres puisque seuls certains types de contenus «illicites» sont harmonisés dans l’Union; demande qu’une distinction stricte soit établie entre les contenus illicites, les actes passibles de sanctions et les contenus partagés illégalement, d’une part, et les contenus préjudiciables, les discours haineux et la désinformation, d’autre part, qui ne sont pas toujours illégaux et couvrent de nombreux aspects, approches et règles différents applicables dans chaque cas; est d’avis que le régime de responsabilité juridique ne devrait concerner que les contenus illicites définis dans le droit de l’Union ou le droit national;

48.  estime toutefois que, sans préjudice du cadre général des droits fondamentaux et de la législation sectorielle existante, une approche plus harmonisée et coordonnée au niveau de l’Union, tenant compte des différents types de contenus et d’activités illicites et fondée sur la coopération et l’échange de bonnes pratiques entre les États membres, contribuera à lutter plus efficacement contre les contenus illicites; souligne également la nécessité d’adapter la gravité des mesures qui doivent être prises par les prestataires de services à la gravité de l’infraction et appelle à une amélioration de la coopération et de l’échange d’informations entre les autorités compétentes et les fournisseurs de services d’hébergement;

49.  estime que les mesures volontaires et l’autorégulation mises en place par les plateformes en ligne en Europe ont eu des effets positifs, mais qu’un cadre juridique clair pour le retrait des contenus et activités illicites est nécessaire pour garantir leur détection et leur retrait rapides; souligne la nécessité d’éviter d’imposer aux prestataires de services numériques une obligation générale de surveiller les informations qu’ils transmettent ou stockent et d’empêcher activement de rechercher, de modérer ou de filtrer tous les contenus et activités, que ce soit de jure ou de facto; souligne que le contenu illégal devrait être supprimé là où il est hébergé et que les fournisseurs d’accès ne sont pas tenus de bloquer l’accès au contenu concerné;

50.  invite la Commission à veiller à ce que les intermédiaires en ligne qui, de leur propre initiative, mettent des contenus prétendument illicites hors ligne, le fassent de manière diligente, proportionnée et non discriminatoire, en tenant dûment compte, en toutes circonstances, des droits et libertés fondamentaux des utilisateurs; souligne que toute mesure de ce type devrait s’accompagner d’une solide garantie procédurale et de véritables exigences en matière de transparence et de responsabilité; demande, en cas de doute quant à la nature «illicite» d’un contenu, que ce contenu fasse l’objet d’un examen humain et ne soit pas supprimé sans autre enquête;

51.  demande à la Commission de publier une étude sur le retrait de contenus et de données avant et durant la pandémie de COVID-19 au moyen de processus automatisés de prise de décision et sur le nombre de retraits par erreur (faux positifs) parmi les éléments retirés;

52.  invite la Commission à pallier la multiplication des différences et fragmentations des règles nationales dans les États membres et à adopter des règles harmonisées claires et prévisibles ainsi qu’un mécanisme de notification et d’action transparent, efficace et proportionné, qui englobe des garanties suffisantes, donne aux utilisateurs les moyens de notifier aux intermédiaires en ligne l’existence de contenus ou d’activités en ligne potentiellement illicites et aide les intermédiaires en ligne à réagir rapidement et à faire preuve d’une plus grande transparence en ce qui concerne les mesures prises à l’égard des contenus potentiellement illicites; est d’avis que ces mesures devraient être neutres sur le plan technologique et facilement accessibles à tous les acteurs afin de garantir un niveau élevé de protection des utilisateurs et des consommateurs;

53.  souligne qu’une telle procédure de notification et action doit être centrée sur l’humain; souligne qu’il convient d’introduire des mesures de sauvegarde contre les utilisations abusives du système, notamment les faux signalements répétés, les pratiques commerciales déloyales et autres stratagèmes; prie instamment la Commission de garantir l’accès à des mécanismes de contre-notification et de plainte transparents, efficaces, équitables et rapides, ainsi qu’à des mécanismes de règlement extrajudiciaire des litiges, et de garantir la possibilité de former un recours juridictionnel contre la suppression de contenus afin de satisfaire au droit à un recours effectif;

54.  salue les efforts visant à instaurer plus de transparence dans la procédure de retrait des contenus; invite la Commission à veiller à ce que les rapports contenant des informations sur les avis et les mécanismes d’action, tels que le nombre d’avis, le type d’entités notifiant des contenus, la nature du contenu faisant l’objet de la plainte, le délai de réponse de l’intermédiaire, le nombre de recours ainsi que le nombre de cas où des contenus ont été identifiés à tort comme illicites ou diffusés illégalement, soient rendus publics;

55.  prend acte des difficultés liées à l’exécution des ordonnances d’injonction rendues dans des États membres autres que le pays d’origine du prestataire de services et insiste sur la nécessité d’approfondir l’examen de cette question; soutient que les fournisseurs de services d’hébergement ne peuvent être contraints de retirer des informations licites dans leur pays d’origine ou d’empêcher l’accès à celles-ci;

56.  souligne que la responsabilité de veiller au respect de la législation, de décider de la légalité d’activités et de contenus en ligne, d’ordonner, de façon précise, fondée et respectueuse des droits fondamentaux, aux fournisseurs de services d’hébergement de retirer des contenus illégaux ou d’empêcher l’accès à ceux-ci, devrait incomber à des autorités publiques compétentes et indépendantes;

57.  souligne que le maintien des mesures de sauvegarde du régime de responsabilité juridique pour les intermédiaires en ligne établi par les articles 12, 13 et 14 de la directive sur le commerce électronique et de l’interdiction d’imposer une obligation générale en matière de surveillance, visée à l’article 15 de la directive sur le commerce électronique, est essentiel pour faciliter la libre circulation des services numériques, pour garantir la disponibilité des contenus en ligne et pour protéger les droits fondamentaux des utilisateurs et doit être préservé; dans ce contexte, souligne que le régime de responsabilité juridique et l’interdiction d’imposer une obligation générale en matière de surveillance ne devraient pas être affaiblis par un éventuel nouvel acte législatif ou par la modification d’autres articles de la directive sur le commerce électronique;

58.  reconnaît le principe selon lequel les services numériques jouant un rôle neutre et passif, tels que les services dorsaux et les services d’infrastructure, ne sont pas responsables du contenu transmis sur leurs services parce qu’ils n’ont aucun contrôle sur ce contenu, n’ont pas d’interaction active avec celui-ci ou ne l’optimisent pas; souligne toutefois qu’il est nécessaire de définir plus précisément le caractère actif ou passif d’un rôle en tenant compte de la jurisprudence de la Cour en la matière;

59.  invite la Commission à envisager d’obliger les fournisseurs de services d’hébergement à informer le service répressif compétent de tout contenu illégal pouvant constituer une infraction grave dès qu’ils prennent connaissance d’une telle infraction;

Places de marché en ligne

60.  note que si l’émergence de prestataires de services en ligne, tels que les places de marché en ligne, a profité tant aux consommateurs qu’aux professionnels, notamment en améliorant le choix, en réduisant les coûts et en abaissant les prix, elle a également rendu les consommateurs plus vulnérables aux pratiques commerciales trompeuses d’un nombre croissant de vendeurs, y compris de pays tiers, qui sont en mesure de proposer en ligne des produits et des services illégaux, dangereux ou contrefaits qui, souvent, ne respectent pas les règles et normes de l’Union en matière de sécurité des produits et ne garantissent pas suffisamment les droits des consommateurs;

61.  souligne que les consommateurs devraient jouir de la même sécurité, qu’ils fassent leurs achats en ligne ou dans des points de vente physiques; souligne qu’il est inacceptable que les consommateurs de l’Union européenne soient exposés à des produits illicites, contrefaits et dangereux contenant des substances chimiques nocives, ainsi qu’à d’autres risques pour la sécurité, qui présentent des dangers pour la santé humaine; insiste sur la nécessité d’introduire des garanties et des mesures appropriées en matière de sécurité des produits et de protection des consommateurs afin d’empêcher la vente de produits ou services non conformes sur les places de marché en ligne, et invite la Commission à renforcer le régime de responsabilité sur les places de marché en ligne;

62.  souligne l’importance des dispositions du règlement (UE) 2019/1020 sur la surveillance du marché et la conformité des produits en ce qui concerne la conformité des produits importés de pays tiers; invite la Commission à prendre des mesures pour renforcer la conformité des vendeurs établis en dehors de l’Union lorsqu’il n’y a pas de fabricant, d’importateur ou de distributeur établi dans l’Union européenne ainsi qu’à combler les éventuels vides juridiques existants qui permettent aux fournisseurs établis en dehors de l’Union européenne de vendre en ligne aux consommateurs européens des produits qui ne respectent pas les règles de l’Union en matière de sécurité et de protection des consommateurs sans qu’ils soient sanctionnés ou tenus pour responsables de leurs actions et qui privent les consommateurs de moyens juridiques pour faire valoir leurs droits ou réclamer des dommages et intérêts; insiste, dans ce contexte, sur la nécessité de toujours pouvoir identifier les fabricants et les vendeurs de produits de pays tiers;

63.  souligne la nécessité pour les places de marché en ligne d’informer rapidement les consommateurs dès qu’un produit qu’ils ont acheté a été retiré de la place de marché à la suite d’une notification indiquant qu’il ne respectait pas les règles de l’Union en matière de sécurité des produits et de protection des consommateurs;

64.  souligne la nécessité de veiller à ce que les fournisseurs des places de marché en ligne consultent RAPEX et informent les autorités compétentes dès qu’ils ont connaissance de produits illégaux, dangereux et contrefaits sur leurs plateformes;

65.  estime que les fournisseurs de places de marché en ligne devraient renforcer leur coopération avec les autorités de surveillance du marché et les autorités douanières, notamment en échangeant des informations sur le vendeur de produits illégaux, dangereux et contrefaits;

66.  invite la Commission à exhorter les États membres à entreprendre plus d’actions communes de surveillance du marché et à mettre en place des collaborations avec les autorités douanières pour vérifier la sécurité des produits vendus en ligne avant que ceux-ci ne parviennent jusqu’aux consommateurs; demande à la Commission d’étudier la possibilité de créer un réseau international de centres de consommateurs afin d’aider les consommateurs de l’Union à traiter les litiges avec des commerçants établis dans des pays tiers;

67.  demande à la Commission de veiller à ce que, lorsque les places de marché en ligne offrent des services professionnels, un niveau suffisant de protection des consommateurs soit atteint grâce à des garanties et à des exigences d’information adéquates;

68.  est convaincu que, sur le marché du tourisme et des transports, la législation sur les services numériques devrait viser à assurer la sécurité et la clarté juridiques en créant un cadre de gouvernance qui formalise la coopération entre les plateformes et les autorités nationales, régionales et locales, en visant tout particulièrement à partager les bonnes pratiques et à imposer aux plateformes de location de courte durée et de mobilité un ensemble d’obligations en matière d’information à l’égard de leurs prestataires de services au sujet de la législation nationale, régionale et locale applicable; invite la Commission à continuer à supprimer les obstacles injustifiés par un effort sectoriel et coordonné de l’Union associant toutes les parties prenantes afin de convenir, conformément aux règles du marché unique, d’ensembles de critères (permis, licences ou, lorsqu’il y a lieu, un numéro d’immatriculation local ou national d’un prestataire de services) nécessaires pour proposer un service sur une plateforme de location à court terme et de mobilité; souligne qu’il importe d’éviter d’imposer des obligations d’information disproportionnées et des charges administratives inutiles à l’ensemble des prestataires de services, en particulier les prestataires de services entre pairs et les PME;

69.  plaide pour que la législation sur les services numériques, conformément au pacte vert pour l’Europe, promeuve la croissance durable et la durabilité du commerce électronique; souligne l’importance des places de marché en ligne dans la promotion de produits, de services et d’une consommation durables; demande que des mesures soient prises pour lutter contre les pratiques trompeuses et la désinformation concernant les produits et services proposés en ligne, y compris les fausses «allégations environnementales», tout en appelant les fournisseurs de places de marché en ligne à promouvoir la durabilité du commerce électronique en fournissant aux consommateurs des informations claires et facilement compréhensibles sur l’incidence environnementale des produits ou services qu’ils achètent en ligne;

70.  invite la Commission à examiner rigoureusement la clarté et la cohérence du cadre juridique en vigueur applicable aux ventes en ligne de produits et de services pour recenser de possibles lacunes et contradictions et un manque de mise en œuvre efficace; demande à la Commission de procéder à une analyse approfondie de l’interaction entre la législation sur les services numériques et la législation de l’Union relative à la sécurité des produits et aux produits chimiques; demande à la Commission de veiller à la cohérence entre les nouvelles règles relatives aux places de marché en ligne et la révision de la directive 2001/95/CE(19) («directive relative à la sécurité générale des produits») et de la directive 85/374/CEE(20) («directive sur la responsabilité du fait des produits»);

71.  constate les problèmes persistants d’utilisation abusive ou d’application erronée d’accords de distribution exclusive pour limiter la responsabilité du fait des produits et des services au-delà des frontières au sein du marché unique et entre les plateformes; demande à la Commission d’agir sur cette question dans le cadre d’une éventuelle révision plus large des exemptions verticales par catégorie et des autres politiques au titre de l’article 101 du traité sur le fonctionnement de l’Union européenne (traité FUE), sans l’inclure dans la législation sur les services numériques;

Réglementation ex ante des opérateurs systémiques

72.  relève que, à l’heure actuelle, certains marchés sont caractérisés par de grands opérateurs générant des effets de réseau importants qui sont de facto en mesure d’exercer un contrôle sur l’accès au marché dans l’économie numérique («opérateurs systémiques»); souligne l’importance d’une concurrence loyale et effective entre les opérateurs en ligne disposant d’une forte présence numérique et les autres fournisseurs afin de promouvoir le bien-être des consommateurs; demande à la Commission de procéder à une analyse approfondie des différents problèmes observés jusqu’à présent sur le marché et de leurs conséquences, y compris pour les consommateurs, les PME et le marché intérieur;

73.  considère que, en limitant les obstacles à l’entrée sur le marché et en réglementant les opérateurs systémiques, un instrument du marché intérieur imposant des mesures réglementaires correctives ex ante aux opérateurs systémiques jouissant d’un pouvoir de marché considérable peut ouvrir les marchés aux nouveaux entrants, notamment aux PME, aux entrepreneurs et aux jeunes pousses, élargissant ainsi le choix des consommateurs et développant l’innovation au-delà de ce à quoi la seule application du droit de la concurrence peut parvenir;

74.  se félicite de la consultation publique de la Commission sur la possibilité d’introduire, dans le cadre de la future législation sur les services numériques, une réglementation ex ante ciblée visant à résoudre les problèmes systémiques propres aux marchés numériques; souligne la complémentarité intrinsèque entre réglementation du marché intérieur et politique de concurrence, comme l’ont souligné les conseillers spéciaux de la Commission dans le rapport intitulé «Competition Policy for the Digital Era» [Une politique de la concurrence pour l’ère numérique];

75.  invite la Commission à définir les «opérateurs systémiques» sur la base d’indicateurs clairs;

76.  estime que la réglementation ex ante devrait s’appuyer sur le règlement (UE) 2019/1150 (règlement «plateformes-entreprises») et que ses mesures devraient être conformes aux règles de l’Union en matière d’ententes et d’abus de position dominante et s’inscrire dans le cadre de la politique de l’Union en matière de concurrence, qui est actuellement en cours de révision afin de mieux relever les défis de l’ère numérique; est d’avis que la réglementation ex ante devrait garantir des conditions commerciales équitables applicables à tous les opérateurs, y compris d’éventuelles exigences supplémentaires et une liste fermée des mesures positives et négatives que ces opérateurs sont tenus de respecter et/ou qu’il est interdit de prendre;

77.  invite la Commission à analyser en particulier le manque de transparence des systèmes de recommandation des opérateurs systémiques, y compris en ce qui concerne les règles et les critères de fonctionnement de ces systèmes, et à déterminer si des obligations supplémentaires en matière de transparence et d’information doivent être imposées;

78.  souligne que l’imposition de mesures réglementaires ex ante dans d’autres secteurs a amélioré la concurrence dans ces secteurs; note qu’un cadre similaire pourrait être élaboré pour identifier les opérateurs d’importance systémique qui exercent un contrôle sur l’accès au marché en tenant compte des spécificités du secteur numérique;

79.  attire l’attention sur le fait que les entreprises utilisatrices d’opérateurs systémiques varient en taille et qu’elles peuvent être des multinationales tout comme des microentreprises; souligne que la réglementation ex ante imposée aux opérateurs systémiques ne devrait pas entraîner des exigences supplémentaires pour les entreprises qui les utilisent;

80.  souligne que l’accumulation et la collecte de grandes quantités de données et l’utilisation de ces données par les opérateurs systémiques pour se développer d’un marché à un autre, ainsi que la possibilité supplémentaire d’inciter les utilisateurs à utiliser l’identification électronique d’un opérateur unique pour plusieurs plateformes, peuvent créer des déséquilibres dans le pouvoir de négociation et, partant, entraîner des distorsions de concurrence dans le marché unique; considère qu’il est crucial d’augmenter la transparence et le partage des données entre les opérateurs systémiques et les autorités compétentes en vue de garantir le fonctionnement d’une réglementation ex ante;

81.  souligne que l’interopérabilité est essentielle à un marché concurrentiel, ainsi qu’au choix des utilisateurs et aux services innovants, et pour limiter le risque de verrouillage des utilisateurs et des consommateurs; invite la Commission à garantir des niveaux appropriés d’interopérabilité pour les opérateurs systémiques et à explorer différentes technologies et normes et protocoles ouverts, y compris la possibilité d’une interface technique (interface de programmation des applications);

Supervision, coopération et exécution

82.  estime que, compte tenu de la nature transfrontalière des services numériques, l’efficacité de la supervision et de la coopération entre les États membres, y compris l’échange d’informations et de meilleures pratiques, est essentielle pour garantir la bonne application de la législation sur les services numériques; souligne que la transposition, la mise en œuvre et l’application imparfaites de la législation de l’Union par les États membres créent des obstacles injustifiés dans le marché unique numérique; invite la Commission à y remédier en étroite coopération avec les États membres;

83.  demande à la Commission de veiller à ce que les États membres dotent les autorités nationales de surveillance des moyens financiers, des ressources humaines et des pouvoirs d’exécution adéquats pour s’acquitter efficacement de leurs fonctions et contribuer à leurs travaux respectifs;

84.  insiste sur le fait que la coopération entre les autorités nationales et les autorités des autres États membres, la société civile et les organisations de consommateurs est de la plus haute importance pour assurer une mise en application effective de la législation sur les services numériques; propose de renforcer le principe du pays d’origine par une coopération accrue entre les États membres afin d’améliorer la surveillance réglementaire des services numériques et de parvenir à une application effective de la loi dans les affaires transfrontalières; encourage les États membres à mettre en commun et à partager les bonnes pratiques et les données entre les régulateurs nationaux, et à fournir aux régulateurs et aux autorités juridiques des moyens interopérables et sûrs de communiquer entre eux;

85.  invite la Commission à évaluer le modèle de surveillance et d’exécution le plus approprié pour l’application des dispositions relatives à la législation sur les services numériques et à envisager la mise en place d’un système hybride, fondé sur la coordination et la coopération des autorités nationales et de l’Union, aux fins de la surveillance efficace de l’application et de la mise en œuvre de la législation sur les services numériques; estime que ce système de surveillance devrait être responsable de la surveillance, de la conformité, du contrôle et de l’application de la législation sur les services numériques et disposer de pouvoirs supplémentaires pour entreprendre des initiatives et des enquêtes transfrontalières et être doté de pouvoirs d’exécution et d’audit;

86.  est d’avis qu’une coordination au niveau de l’Union, en coopération avec le réseau des autorités nationales, devrait accorder la priorité à la résolution de problèmes transfrontaliers complexes;

87.  rappelle qu’il importe de faciliter le partage de données à caractère non personnel et de promouvoir le dialogue avec les parties prenantes; encourage la création et la maintenance d’un répertoire européen de la recherche afin de faciliter le partage de ces données avec les institutions publiques, les chercheurs, les ONG et les universités à des fins de recherche; invite la Commission à développer cet outil sur la base des bonnes pratiques et initiatives existantes, telles que l’observatoire des plateformes ou l’observatoire des chaînes de blocs de l’Union;

88.  estime que la Commission, par l’intermédiaire du centre commun de recherche, devrait avoir le pouvoir de fournir, sur demande, l’assistance d’experts aux États membres, en vue de l’analyse des questions technologiques, administratives ou autres liées à l’application de la législation relative au marché unique numérique; invite les régulateurs nationaux et la Commission à offrir aux PME de l’Union davantage de conseils et d’assistance à propos de leurs droits;

89.  invite la Commission à renforcer et à moderniser le cadre existant de l’Union applicable au règlement extrajudiciaire des litiges au titre de la directive sur le commerce électronique, compte tenu des développements nés de la directive 2013/11/UE(21), ainsi qu’aux recours juridictionnels pour permettre une application efficace et l’accès des consommateurs à la justice; souligne la nécessité d’aider les consommateurs à utiliser le système judiciaire; estime qu’aucune révision ne devrait affaiblir la protection juridique des petites entreprises et des commerçants garantie par les systèmes juridiques nationaux;

Considérations finales

90.  estime que les incidences financières de la proposition demandée doivent être couvertes par des enveloppes budgétaires adéquates;

o
o   o

91.  charge son Président de transmettre la présente résolution ainsi que les recommandations figurant en annexe à la Commission et au Conseil ainsi qu’aux gouvernements et aux parlements des États membres.

ANNEXE À LA RÉSOLUTION:

RECOMMANDATIONS CONCERNANT LE CONTENU DE LA PROPOSITION DEMANDÉE

I.  PRINCIPES GÉNÉRAUX

La législation sur les services numériques devrait contribuer à renforcer le marché intérieur en assurant la libre circulation des services numériques et la liberté d’entreprise, tout en garantissant un niveau élevé de protection des consommateurs, y compris l’amélioration des droits, de la confiance et de la sécurité en ligne des utilisateurs.

La législation sur les services numériques devrait veiller à ce que les activités économiques en ligne et hors ligne soient traitées de la même manière et selon des règles du jeu équitables reflétant pleinement le principe selon lequel «ce qui est illégal hors ligne l’est également en ligne», compte tenu de la nature spécifique de l’environnement en ligne.

La législation sur les services numériques devrait garantir sécurité juridique et transparence aux consommateurs et aux opérateurs économiques, en particulier aux micro-, petites et moyennes entreprises. Elle devrait contribuer à soutenir l’innovation et à supprimer les obstacles et restrictions injustifiés et disproportionnés à la fourniture de services numériques.

La législation sur les services numériques devrait être sans préjudice du cadre général des libertés et droits fondamentaux des utilisateurs et des consommateurs, tels que la protection de la vie privée et des données à caractère personnel, la non-discrimination, la dignité, la liberté d’expression et le droit à un recours effectif.

La législation sur les services numériques devrait s’appuyer sur les règles actuellement applicables aux plateformes en ligne, à savoir la directive sur le commerce électronique et le règlement «plateformes-entreprises».

Elle devrait se fonder sur les éléments suivants:

—  une révision globale de la directive sur le commerce électronique, fondée sur l’article 53, paragraphe 1, et les articles 62 et 114 du traité FUE, comprenant:

—  un cadre révisé introduisant des obligations claires en ce qui concerne la transparence et l’information;

—  des procédures et des mesures claires et détaillées liées à la lutte efficace contre les contenus illicites en ligne et à leur retrait, y compris une procédure européenne de notification et action harmonisée et juridiquement contraignante;

—  une surveillance efficace, une coopération et des sanctions proportionnées, efficaces et dissuasives;

—  un instrument juridique du marché intérieur fondé sur l’article 114 du traité FUE imposant des obligations ex ante aux grandes plateformes qui exercent un contrôle sur l’accès au marché dans l’écosystème numérique («opérateurs systémiques»), parallèlement à un mécanisme d’exécution institutionnel efficace.

II.  CHAMP D’APPLICATION

Dans l’intérêt de la sécurité juridique, il convient de préciser quels sont les services numériques qui relèvent du champ d’application de la législation sur les services numériques. Elle devrait s’inspirer de la nature horizontale de la directive sur le commerce électronique et s’appliquer non seulement aux plateformes en ligne, mais aussi à l’ensemble des fournisseurs de services de la société de l’information définis dans la législation de l’Union.

Il convient d’éviter une approche uniforme. Différentes mesures pourraient être nécessaires pour les services numériques proposés dans le cadre d’une relation d’entreprise à entreprise uniquement, les services qui n’ont qu’un accès limité ou inexistant à des tiers ou au grand public, et les services qui s’adressent directement aux consommateurs et au grand public.

Le champ d’application territorial de la future législation sur les services numériques devrait être élargi afin de couvrir également les activités des entreprises, les prestataires de services et les services de la société de l’information établis dans des pays tiers, dès lors que leurs activités sont liées à l’offre de services ou de biens aux consommateurs ou aux utilisateurs dans l’Union européenne et qu’elles leur sont destinées.

Si, à la suite de son réexamen, la Commission estime que la législation sur les services numériques devrait modifier l’annexe de la directive sur le commerce électronique en ce qui concerne les dérogations qui y sont énoncées, les modifications ne devraient pas porter, en particulier, sur la dérogation relative aux obligations contractuelles concernant les contrats conclus avec les consommateurs.

La législation sur les services numériques devrait veiller à ce que l’Union et les États membres maintiennent un niveau élevé de protection des consommateurs et à ce que les États membres puissent poursuivre des objectifs légitimes d’intérêt public, lorsque cela est nécessaire, proportionné et conforme au droit de l’Union.

La législation sur les services numériques devrait définir de façon cohérente la manière dont ses dispositions interagissent avec les autres instruments juridiques visant à faciliter la libre circulation des services, afin de clarifier le régime juridique applicable aux services professionnels et non professionnels dans tous les secteurs, y compris aux activités liées aux services de transport et aux locations à court terme, lorsqu’une clarification est nécessaire.

La législation sur les services numériques devrait également clarifier de façon cohérente la manière dont ses dispositions interagissent avec les règles récemment adoptées en matière de blocage géographique, de sécurité des produits, de surveillance du marché, de relations entre les plateformes et les entreprises, de protection des consommateurs, de vente de biens et de fourniture de contenu numérique et de service numérique(22), entre autres, et avec d’autres initiatives attendues telles que le règlement sur l’intelligence artificielle.

La législation sur les services numériques devrait s’appliquer sans préjudice des règles établies dans d’autres instruments, tels que le RGPD, la directive (UE) 2019/790 (directive sur le droit d’auteur) et la directive 2010/13/UE (directive «Services de médias audiovisuels»).

III.  DÉFINITIONS

Les définitions établies par la législation sur les services numériques devraient:

—  préciser dans quelle mesure les nouveaux services numériques, tels que les réseaux de médias sociaux, les services de l’économie collaborative, les moteurs de recherche, les bornes WiFi, la publicité en ligne, les services en nuage, l’hébergement sur le web, les services de messagerie, les boutiques d’applications, les outils de comparaison, les services fondés sur l’intelligence artificielle, les réseaux d’acheminement de contenu et les services d’attribution de noms de domaine, relèvent du champ d’application de celle-ci;

—  préciser la nature des intermédiaires d’hébergement de contenu (textes, images, vidéos ou contenu audio), d’une part, et des places de marché en ligne (vendant des biens, y compris des biens comportant des éléments numériques, ou des services), d’autre part;

—  établir une distinction entre, d’une part, les activités économiques et les contenus ou les transactions fournis contre rémunération, selon la définition de la Cour, qui couvrent également les pratiques publicitaires et commerciales, et, d’autre part, les activités et contenus non commerciaux;

—  préciser ce qui relève de la définition du «contenu illicite», en soulignant le fait qu’une violation des règles de l’Union européenne en matière de protection des consommateurs, de sécurité des produits, ou d’offre ou de vente de denrées alimentaires ou de produits du tabac, de cosmétiques et de médicaments de contrefaçon, ou de produits issus d’espèces sauvages, tombe également sous le coup de cette définition;

—  définir le terme «opérateur systémique» en établissant un ensemble d’indicateurs clairs qui permettra aux autorités de réglementation de recenser les plateformes qui jouissent d’une position significative sur le marché, exercent un contrôle sur l’accès à celui-ci et jouent, partant, un rôle systémique dans l’économie en ligne; ces indicateurs pourraient porter sur la question de savoir si l’entreprise exerce une activité notable sur des marchés multifaces ou a la capacité de verrouiller les utilisateurs et consommateurs, sur la taille de son réseau (nombre d’utilisateurs) et sur l’existence d’effets de réseau; les barrières à l’entrée, sa solidité financière, la capacité d’accès aux données, l’accumulation et la combinaison de données provenant de différentes sources; l’intégration verticale et son rôle de partenaire incontournable et l’importance de son activité pour l’accès des tiers à l’approvisionnement et aux marchés, etc.;

—  chercher à codifier les décisions de la Cour de justice, si besoin est, en veillant à prendre en considération les principales grandes dispositions législatives qui utilisent ces définitions.

IV.  OBLIGATIONS EN MATIÈRE DE TRANSPARENCE ET D’INFORMATION

La législation sur les services numériques devrait introduire des obligations claires et proportionnées en matière de transparence et d’information; ces obligations ne devraient pas créer de dérogations ou de nouvelles exemptions à l’actuel régime de responsabilité visé aux articles 12, 13 et 14 de la directive sur le commerce électronique et devraient couvrir les aspects décrits ci-après:

1.  Obligations générales d’information 

Les dispositions révisées de la directive sur le commerce électronique devraient renforcer les exigences générales en matière d’information au moyen des obligations suivantes:

—  les obligations d’information visées aux articles 5, 6 et 10 de la directive sur le commerce électronique devraient être renforcées;

—  le principe de la connaissance de la clientèle professionnelle («Know Your Business Customer»), limité aux relations commerciales directes du fournisseur d’hébergement, devrait être introduit pour les utilisateurs professionnels; les fournisseurs d’hébergement devraient comparer les données d’identification fournies par leurs utilisateurs professionnels avec les bases de données d’enregistrement et d’identification des opérateurs économiques (EORI) et TVA de l’Union, lorsqu’il existe un numéro de TVA ou EORI; lorsqu’une entreprise est exonérée de TVA ou d’enregistrement EORI, une preuve d’identification devrait être fournie; lorsqu’un utilisateur professionnel agit en tant qu’agent pour d’autres entreprises, il devrait se déclarer en tant que tel; les fournisseurs d’hébergement devraient demander à leurs clients professionnels de veiller à ce que toutes les informations soient précises et actualisées, sous réserve de modification, et les prestataires de services ne devraient pas être autorisés à fournir leurs services lorsque les informations sont incomplètes ou lorsque les prestataires ont été informés par les autorités compétentes que l’identité de leur clientèle professionnelle est fausse, trompeuse ou incorrecte;

—  la mesure d’exclusion des services visée ci-dessus ne devrait s’appliquer qu’aux relations contractuelles entre entreprises et devrait être sans préjudice des droits des personnes concernées au titre du RGPD. Cette mesure devrait être sans préjudice de la protection de l’anonymat en ligne pour les utilisateurs autres que les utilisateurs professionnels. Les nouvelles exigences générales en matière d’information devraient renforcer les articles 5, 6 et 10 de la directive sur le commerce électronique afin d’aligner ces mesures sur les exigences en matière d’information établies par la législation récente, en particulier par la directive 93/13/CEE(23) (directive concernant les clauses abusives dans les contrats), la directive 2011/83/UE(24) (directive relative aux droits des consommateurs) et le règlement «plateformes-entreprises»;

—  l’article 5 de la directive sur le commerce électronique devrait être modernisé grâce à l’introduction d’une exigence visant à ce que les prestataires de services numériques proposent aux consommateurs des moyens de communication directs et efficaces tels que des formulaires de contact électroniques, des agents de dialogue, une messagerie instantanée ou un service de rappel par téléphone, à condition que les informations relatives à ces moyens de communication soient accessibles aux consommateurs sous une forme claire et facilement compréhensible.

2.  Clauses contractuelles et conditions générales équitables

La législation sur les services numériques devrait établir des normes minimales destinées aux prestataires de services, afin qu’ils adoptent des clauses contractuelles et des conditions générales équitables, accessibles, non discriminatoires et transparentes dans le respect, au moins, des obligations suivantes:

—  rédiger des clauses contractuelles et des conditions générales claires et univoques, dans un langage simple et compréhensible;

—  indiquer explicitement dans les clauses et conditions générales du contrat ce qu’il faut entendre par contenu ou comportement illicite au sens du droit de l’Union ou du droit national et expliquer les conséquences juridiques auxquelles les utilisateurs doivent faire face pour le stockage ou le téléchargement en connaissance de cause de contenus illicites;

—  informer les utilisateurs chaque fois qu’un changement important susceptible d’affecter leurs droits est apporté aux clauses et conditions générales du contrat et fournir une explication à cet égard;

—  veiller à ce que les clauses types rédigées au préalable dans les clauses contractuelles et les conditions générales, qui n’ont pas fait l’objet d’une négociation individuelle à l’avance, y compris dans les accords de licence pour les utilisateurs finaux, commencent par une déclaration de synthèse, fondée sur un modèle harmonisé, à établir par la Commission;

—  veiller à ce que le processus d’annulation soit tout aussi aisé que le processus d’inscription (sans «schémas obscurs» ou autres influences sur la décision des consommateurs);

—  lorsque des systèmes automatisés sont utilisés, indiquer clairement et sans ambiguïté dans leurs clauses contractuelles et leurs conditions générales les entrées et les sorties prévues de leurs systèmes d’intelligence artificielle et les principaux paramètres qui déterminent l’ordre de priorité ainsi que les raisons de l’importance relative accordée à ces principaux paramètres par rapport à d’autres paramètres, tout en veillant à la cohérence avec le règlement «plateformes-entreprises».

—  veiller à ce que les exigences quant aux clauses contractuelles et leurs conditions générales se situent dans la ligne des exigences d’information établies par le droit de l’Union et les complètent, notamment celles qui sont définies par la directive concernant les clauses abusives dans les contrats, la directive sur les pratiques commerciales déloyales, la directive relative aux droits des consommateurs telle que modifiée par la directive (UE) 2019/2161, et le RGPD;

3.  Exigences de transparence relatives aux communications commerciales

—  Les dispositions révisées de la directive sur le commerce électronique devraient renforcer les exigences de transparence actuelles relatives aux communications commerciales en établissant les principes de transparence dès la conception et de transparence par défaut.

—  Sur la base des articles 6 et 7 de la directive sur le commerce électronique, les mesures qui seront proposées devraient établir un nouveau cadre pour les relations entre les plateformes et les consommateurs concernant la transparence en ce qui concerne la publicité en ligne, l’incitation numérique, le microciblage, les systèmes de recommandations publicitaires et le traitement de faveur; ces mesures devraient:

–  comporter l’obligation de divulguer certains types bien définis d’informations concernant la publicité en ligne pour permettre des vérifications et un contrôle efficaces, comme des informations sur l’identité de l’annonceur et les paiements directs et indirects ou toute autre rémunération reçus par les fournisseurs de services; cela devrait également permettre aux consommateurs et aux autorités publiques d’identifier l’entité qui devrait être tenue pour responsable en cas, par exemple, de publicité mensongère ou trompeuse; les mesures devraient aussi servir à garantir que les services publicitaires ne sont pas utilisés pour financer des activités illicites;

–  différencier clairement la publicité en ligne à des fins commerciales et celle à caractère politique, et garantir la transparence des critères de profilage des groupes ciblés et d’optimisation des campagnes publicitaires; donner par défaut aux consommateurs la possibilité de ne pas être suivis et de ne pas faire l’objet d’un microciblage, et d’opter eux-mêmes pour l’utilisation de données comportementales à des fins publicitaires et pour l’affichage de messages publicitaires à caractère politique;

–  permettre aux consommateurs d’accéder à leurs profils marketing évolutifs afin qu’ils puissent savoir s’ils font l’objet d’un suivi et à quelles fins, et si les informations qu’ils reçoivent ont une finalité publicitaire, et garantir leur droit de contester des décisions portant atteinte à leurs droits;

–  permettre le recensement de manière claire, concise et intelligible des publicités ou des annonces payées qui figurent dans un classement de résultats de recherche, conformément à la directive 2005/29/CE, modifiée par la directive (UE) 2019/2161;

–  garantir le respect du principe de non-discrimination et des exigences minimales en matière de diversification, et recenser les pratiques qui relèvent de la publicité agressive, tout en encourageant les technologies de l’IA favorables aux consommateurs;

–  introduire des critères de responsabilité et d’impartialité dans les algorithmes utilisés pour cibler et optimiser les publicités, et prévoir des contrôles réglementaires externes réalisés par les autorités compétentes ainsi qu’une vérification des choix de conception des algorithmes qui supposent l’utilisation d’informations concernant des personnes, sans risquer de porter atteinte au respect de la vie privée des utilisateurs et aux secrets d’affaires;

–  donner un accès aux données relatives à la diffusion publicitaire et aux informations sur l’exposition des annonceurs, en ce qui concerne l’endroit et le moment où les publicités sont placées, et les résultats obtenus par la publicité payante par rapport à ceux de la publicité non rémunérée.

4.  Intelligence artificielle et apprentissage automatique

Les dispositions révisées devraient suivre les principes énumérés ci-après en ce qui concerne la prestation de services de la société de l’information utilisant l’IA ou des dispositifs de prise de décision automatisés ou des outils d’apprentissage automatique:

—  en garantissant le droit des consommateurs d’être informés lorsqu’un service utilise l’IA, des dispositifs de prise de décision automatisés ou d’apprentissage automatique, ou des outils de reconnaissance automatisée de contenu, en plus du droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé et d’avoir la possibilité de refuser, de limiter ou de personnaliser l’utilisation de toute fonction de personnalisation liée à l’IA, au regard notamment du classement de services;

—  en établissant des règles détaillées en matière de non-discrimination et de transparence des algorithmes et des ensembles de données;

—  en veillant à ce que les algorithmes puissent être expliqués aux autorités compétentes, qui peuvent procéder à des vérifications lorsqu’elles ont de raison de penser qu’il existe un biais algorithmique;

—  en assurant une surveillance au cas par cas et une évaluation périodique des risques des algorithmes par les autorités compétentes, ainsi qu’un contrôle humain de la prise de décision, afin de garantir un niveau supérieur de protection des consommateurs; ces exigences devraient être compatibles avec les mécanismes de contrôle humain et les obligations en matière d’évaluation des risques concernant l’automatisation des services et énoncés dans la réglementation existante, comme la directive (UE) 2018/958(25) (directive relative à un contrôle de proportionnalité), et ne devraient pas constituer de restriction non justifiée ou disproportionnée à la libre circulation des services;

—  en établissant des mécanismes clairs en matière d’obligation de rendre des comptes, de responsabilité et de recours pour faire face à d’éventuels préjudices découlant de l’utilisation d’applications d’IA, de dispositifs de prise de décision automatisés et d’outils d’apprentissage automatique;

—  en établissant le principe de sûreté, de sécurité dès la conception et par défaut, en définissant des droits et des procédures effectifs et efficaces pour les développeurs d’IA lorsque les algorithmes produisent des décisions délicates concernant des personnes, et en tenant compte et en tirant parti judicieusement des incidences des évolutions technologiques à venir;

—  en garantissant la compatibilité avec la confidentialité, le respect de la vie privée des utilisateurs et les secrets d’affaires;

—  en garantissant, lorsque les technologies de l’IA introduites sur le lieu de travail ont des conséquences directes sur les conditions de travail des travailleurs qui utilisent des services numériques, l’apport indispensable d’informations complètes aux travailleurs.

5.  Sanctions 

Le respect de ces dispositions devrait être assuré en s’appuyant sur des sanctions efficaces, proportionnées et dissuasives, notamment des amendes.

V.  MESURES LIÉES À LA LUTTE CONTRE LES CONTENUS ILLICITES EN LIGNE

La législation sur les services numériques devrait fournir des éclaircissements et des orientations concernant la manière dont les intermédiaires en ligne devraient lutter contre les contenus illicites en ligne. Les règles révisées de la directive sur le commerce électronique devraient:

—  préciser que le retrait de contenus illicites ou la désactivation de l’accès à ceux-ci ne devrait pas porter atteinte aux droits fondamentaux ni aux intérêts légitimes des utilisateurs et des consommateurs, et que les contenus licites devraient rester en ligne;

—  améliorer le cadre juridique en tenant compte du rôle central joué par les intermédiaires en ligne et l’internet pour faciliter le débat public et la diffusion gratuite de faits, d’avis et d’idées;

—  maintenir le principe juridique sous-jacent selon lequel les intermédiaires en ligne ne devraient pas porter la responsabilité directe des actes de leurs utilisateurs et peuvent continuer à modérer les contenus selon des modalités et conditions équitables, accessibles, non discriminatoires et transparentes;

—  préciser qu’une décision prise par des intermédiaires en ligne quant à la licéité d’un contenu mis en ligne par les utilisateurs devrait être provisoire et ne devrait pas engager la responsabilité des intermédiaires en ligne, étant donné que seuls les cours et tribunaux devraient déterminer en dernière instance de ce qui constitue un contenu illicite;

—  veiller à ne pas empiéter sur la capacité des États membres à décider quels contenus sont illicites en vertu du droit national;

—  veiller à ce que les mesures que les intermédiaires en ligne sont priés d’adopter soient proportionnées, efficaces et adaptées en vue de lutter efficacement contenus illicites en ligne;

—  adapter la sévérité des mesures devant être prises par les prestataires de services à la gravité de l’infraction;

—  garantir que le blocage de l’accès à un contenu illicite et le retrait de celui-ci n’exigent pas de bloquer l’accès à l’ensemble d’une plateforme et de services par ailleurs légaux;

—  instaurer une transparence nouvelle et un contrôle indépendant des procédures et des outils de modération de contenu concernant le retrait de contenus illicites en ligne; ces systèmes et procédures devraient être accompagnés de solides garanties en matière de transparence et de responsabilité, et mis à la disposition des autorités compétentes à des fins de vérification et d’essais.

1.  Une procédure de notification et action 

La législation sur les services numériques devrait établir une procédure de notification et action harmonisée et juridiquement contraignante fondée sur un ensemble de procédures claires, et définir un calendrier précis pour chaque étape de ladite procédure. Cette procédure de notification et action devrait:

—  s’appliquer aux contenus ou comportements illicites en ligne;

—  distinguer les différents types de prestataires, secteurs et/ou contenus illicites et les degrés de gravité de l’infraction;

—  mettre en place des procédures facilement accessibles, fiables et conviviales adaptées au type de contenu;

—  permettre aux utilisateurs de notifier facilement aux intermédiaires en ligne, par voie électronique, des contenus ou comportements en ligne potentiellement illicites;

—  clarifier, de manière intelligible, des concepts et processus existants, tels que «action rapide», «connaissance et conscience réelles», «mesures ciblées», «formats des notifications» et «validité des notifications»;

—  veiller à ce que les notifications n’engagent pas automatiquement la responsabilité juridique et à ce qu’elles n’imposent pas d’obligation de retrait, en ce qui concerne des éléments spécifiques du contenu ou l’examen de la légalité;

—  exiger que les notifications soient suffisamment précises et dûment motivées afin de permettre au prestataire de services qui les reçoit de prendre une décision éclairée et rapide concernant les suites à donner à une notification, et préciser les exigences nécessaires pour garantir que les notifications contiennent toutes les informations nécessaires au retrait rapide des contenus illicites;

—  les notifications devraient inclure l’emplacement (URL et horodatage, s’il y a lieu) du contenu présumé illicite, une indication de la date et de l’heure auxquelles le méfait présumé a été commis, le motif de la réclamation, y compris une explication des raisons pour lesquelles le notifiant considère que le contenu est illicite et, le cas échéant, en fonction du type de contenu, des éléments de preuve supplémentaires à l’appui de la réclamation ainsi qu’une déclaration de bonne foi selon laquelle les informations fournies sont exactes;

—  les notifiants devraient avoir la possibilité, mais non l’obligation, de fournir leurs coordonnées dans une notification; s’ils décident de les fournir, leur anonymat vis-à-vis du fournisseur de contenus devrait être préservé; si les coordonnées ne sont pas fournies, l’adresse IP ou d’autres informations équivalentes peuvent être utilisées. Lorsque les notifications portent sur une atteinte aux droits de la personnalité ou aux droits de propriété intellectuelle, elles ne devraient pas pouvoir être anonymes;

—  mettre en place des mesures de sauvegarde pour éviter tout comportement abusif de la part d’utilisateurs qui, de façon systématique et répétée et de mauvaise foi, soumettent des notifications injustifiées ou abusives;

—  instaurer l’obligation, pour les intermédiaires en ligne, de vérifier le contenu notifié et de fournir sans retard une décision motivée au notifiant ainsi qu’à la personne ayant mis le contenu en ligne; la réponse ainsi exigée devrait inclure les motifs étayant la décision et la manière dont celle-ci a été prise, indiquer si la décision a été prise par un être humain ou par un logiciel de prise de décision automatisée, et fournir des informations concernant la possibilité des deux parties d’introduire un recours contre cette décision auprès de l’intermédiaire, des instances judiciaires ou d’autres entités;

—  fournir des informations et des voies de recours pour contester la décision au moyen d’une contre-notification, notamment si le contenu a été retiré par des solutions automatisées, à moins que cette contre-notification aille à l’encontre d’une enquête en cours menée par des services répressifs;

—  garantir que les injonctions judiciaires émises dans un État membre différent de celui des intermédiaires en ligne ne soient pas traitées dans le cadre de la procédure de notification et action.

La procédure de notification et action prévue par la législation sur les services numériques devrait être contraignante uniquement pour les contenus illicites, ce qui ne devrait toutefois pas empêcher les intermédiaires en ligne d’adopter un mécanisme de notification et action similaire pour d’autres contenus.

2.  Règlement extrajudiciaire des litiges en lien avec les procédures de notification et action

—  La décision prise par l’intermédiaire en ligne de prendre ou de ne pas prendre de mesures en ce qui concerne le contenu signalé comme étant illicite devrait contenir une justification claire des actions entreprises par rapport à ce contenu. Le notifiant devrait recevoir un accusé de réception ainsi qu’une communication précisant le suivi qui est donné à la notification.

—  La notification ainsi que, le cas échéant, la décision de retirer, de suspendre ou de bloquer l’accès au contenu signalé comme étant illicite et les motifs de cette décision devraient être immédiatement portés à la connaissance des fournisseurs dudit contenu; toutes les parties devraient être dûment informées de l’ensemble des options et mécanismes juridiques existants et disponibles permettant de contester cette décision.

—  L’ensemble des parties intéressées devrait avoir le droit de contester la décision au moyen d’une contre-notification, qui devrait être soumise à des exigences claires et faire l’objet d’une explication; les parties intéressées devraient aussi pouvoir recourir à des mécanismes de règlement extrajudiciaire des litiges.

—  Le droit d’être informé des notifications et le droit des utilisateurs à émettre une contre-notification avant la prise d’une décision de retrait de contenu ne devraient être limités ou enlevés que lorsque:

a)  les intermédiaires en ligne sont soumis à une obligation légale nationale imposant aux services d’intermédiation en ligne de mettre fin à la fourniture de l’ensemble de leurs services d’intermédiation en ligne à un utilisateur donné, d’une façon qui ne leur permet pas de respecter cette procédure de notification et action; ou

b)  la notification ou la contre-notification entraveraient une enquête pénale en cours exigeant que la décision de suspendre ou de retirer l’accès au contenu reste secrète.

—  Les dispositions de l’article 17 de la directive sur le commerce électronique devraient être révisées afin de veiller à ce que des mécanismes de règlement extrajudiciaire des litiges soient mis en place et à la disposition des utilisateurs en cas de litiges quant au blocage de l’accès à des œuvres ou à d’autres objets protégés qu’ils ont mis en ligne, ou à leur retrait.

—  Le mécanisme de règlement extrajudiciaire des litiges devrait respecter certaines normes, notamment en matière d’équité procédurale, d’indépendance, d’impartialité, de transparence et d’efficacité; de tels mécanismes permettent un règlement impartial des litiges et ne privent pas l’utilisateur de la protection juridique accordée par le droit national, sans préjudice du droit des utilisateurs de recourir à des voies de recours judiciaires efficaces.

—  Si le recours et la contre-notification ont établi que l’activité ou les informations notifiées ne sont pas illicites, l’intermédiaire en ligne devrait rétablir sans délai indu le contenu supprimé ou retiré provisoirement, ou permettre à l’utilisateur de le remettre en ligne.

—  Lorsqu’elles émettent, contestent ou reçoivent une notification, toutes les parties intéressées devraient être informées de la possibilité de recourir à un mécanisme de règlement extrajudiciaire des litiges et du droit de saisir une juridiction nationale compétente.

—  Les mécanismes de règlement extrajudiciaire des litiges ne devraient en aucun cas porter atteinte aux droits des parties concernées d’entamer des procédures judiciaires.

3.  Transparence de la procédure de notification et action

Les procédures de notification et action devraient être transparentes et accessibles au public; à cette fin, les intermédiaires en ligne devraient être tenus de publier des rapports annuels, qui devraient être uniformisés et contenir des informations sur:

—  le nombre total de notifications reçues au titre de la procédure de notification et action et les types de contenu auxquels elles se rapportent;

—  le délai moyen de réponse par type de contenu;

—  le nombre de retraits indus;

—  le type des entités à l’origine des notifications (particuliers, organisations, entreprises, signaleurs de confiance, etc.) et leur nombre total de notifications;

—  la nature de l’illégalité du contenu ou le type d’infraction ayant entraîné son retrait;

—  le nombre de décisions contestées reçues par des intermédiaires en ligne et la manière dont elles ont été traitées;

—  la description du modèle de modération des contenus appliqué par l’intermédiaire d’hébergement, ainsi que de tout outil automatisé, y compris des informations utiles concernant la logique sous-jacente;

—  les mesures qu’ils adoptent à l’égard des contrevenants récidivistes afin de s’assurer qu’elles permettent de lutter efficacement contre ces comportements abusifs systématiques.

L’obligation de publication de ces rapports et les renseignements exigés devraient prendre en considération la taille des intermédiaires en ligne ou l’ampleur de leur activité, ainsi que l’éventuelle limitation des ressources et de l’expertise dont ils disposent. Les microentreprises et les jeunes pousses ne devraient être tenues d’actualiser ce rapport qu’en cas de changement substantiel par rapport à l’année précédente.

Les intermédiaires en ligne devraient aussi publier des informations concernant leurs procédures et les délais d’intervention des parties intéressées, comme le délai dans lequel l’utilisateur ayant mis le contenu en ligne peut réagir par une contre-notification, le moment auquel l’intermédiaire informera les deux parties du résultat de la procédure et les délais d’introduction des différentes formes de recours contre une décision.

4.  Régimes de protection visés aux articles 12, 13 et 14 de la directive sur le commerce électronique 

La législation sur les services numériques devrait protéger et faire respecter les dérogations limitées existantes en matière de responsabilité accordées aux fournisseurs de services de la société de l’information (intermédiaires en ligne), prévues aux articles 12, 13 et 14 de la directive sur le commerce électronique.

5.  Hébergeurs actifs et passifs

La législation sur les services numériques devrait conserver les dérogations de la directive sur le commerce électronique pour les intermédiaires qui jouent un rôle neutre et passif, et remédier au manque de sécurité juridique en ce qui concerne la notion de «rôle actif» en codifiant la jurisprudence de la Cour en la matière. Elle devrait aussi préciser que les fournisseurs de services d’hébergement jouent un rôle actif lorsqu’ils créent le contenu ou contribuent dans une certaine mesure à l’illégalité du contenu, ou si cela équivaut à une appropriation de contenus de tiers, de l’avis des utilisateurs ou consommateurs moyens.

Elle devrait veiller à ce que les intermédiaires en ligne ne soient pas considérés comme jouant un rôle actif uniquement sur la base des mesures facultatives qu’ils prennent pour lutter contre les contenus illégaux. La mise en place de telles mesures devrait toutefois s’accompagner des garanties appropriées et les pratiques de modération de contenu devraient être justes, accessibles, non discriminatoires et transparentes.

La législation sur les services numériques devrait maintenir les dérogations en matière de responsabilité accordées aux services dorsaux et d’infrastructure, qui ne sont pas partie aux relations contractuelles entre les intermédiaires en ligne et leurs clients, et ne font qu’appliquer des décisions prises par les intermédiaires en ligne ou leurs clients.

6.  Interdiction d’imposer une obligation générale en matière de surveillance – article 15 de la directive sur le commerce électronique

La législation sur les services numériques devrait maintenir l’interdiction d’imposer une obligation générale en matière de surveillance, conformément à l’article 15 de la directive sur le commerce électronique. Les intermédiaires en ligne ne devraient pas être soumis à des obligations générales en matière de surveillance.

VI.  MARCHÉS EN LIGNE 

La législation sur les services numériques devrait établir de nouvelles règles particulières pour les marchés en ligne concernant la vente, la promotion ou la fourniture en ligne de produits et la prestation de services aux consommateurs.

Ces nouvelles règles devraient:

—  être conformes et complémentaires à une réforme de la directive relative à la sécurité générale des produits;

—  s’appliquer à toutes les entités qui offrent et destinent des services et/ou des produits aux consommateurs dans l’Union européenne, y compris si elles sont établies en dehors de l’Union;

—  établir une distinction entre les marchés en ligne et d’autres types de prestataires de services, notamment d’autres activités d’intermédiation secondaires au sein de la même activité commerciale; si l’un des services fournis par une entreprise satisfait aux critères nécessaires pour être considéré comme un marché en ligne, les règles devraient s’appliquer pleinement à cette partie des activités indépendamment de l’organisation interne de cette entreprise;

—  veiller à ce que les marchés en ligne indiquent de façon explicite depuis quel pays les produits sont vendus ou les services sont fournis, qu’ils soient fournis ou vendus par ce marché en ligne, un tiers ou un vendeur établi au sein ou en dehors de l’Union européenne;

—  veiller à ce que les marchés en ligne suppriment rapidement les informations trompeuses dont ils ont connaissance et données par le fournisseur, y compris les garanties et déclarations implicites trompeuses du fournisseur;

—  veiller à ce que les marchés en ligne qui offrent des services professionnels indiquent lorsqu’une profession est réglementée au sens de la directive 2005/36/CE, afin de permettre à la fois aux consommateurs de faire un choix éclairé et de vérifier si nécessaire avec l’autorité compétente concernée si un professionnel remplit les exigences d’une qualification professionnelle donnée;

—  veiller à ce que les marchés en ligne soient transparents et responsables, et à ce qu’ils collaborent avec les autorités compétentes des États membres afin de déceler les risques graves de produits dangereux et d’alerter ces autorités aussitôt qu’ils se rendent compte de la présence de tels produits sur leurs plateformes;

—  veiller à ce que les marchés en ligne consultent le système européen d’échange rapide sur les produits dangereux (Rapex), effectuent des vérifications aléatoires concernant les produits dangereux rappelés et, dans la mesure du possible, prennent les mesures appropriées par rapport aux produits en question;

—  garantir, lorsque des produits ont été définis comme étant dangereux ou contrefaits par les systèmes d’alerte rapide de l’Union, par les autorités nationales de surveillance des marchés, par les autorités douanières ou par les autorités de protection des consommateurs, que ces produits soient obligatoirement retirés du marché en ligne rapidement et dans un délai maximal de deux jours ouvrables à compter de la réception de la notification;

—  veiller à ce que les marchés en ligne informent les consommateurs lorsqu’un produit qu’ils ont acheté a été retiré de leur plateforme à la suite d’une notification indiquant qu’il ne respectait pas les règles de l’Union en matière de sécurité des produits et de protection des consommateurs; ils devraient aussi informer les consommateurs de tout problème de sécurité et de toute action requise pour assurer l’efficacité des rappels de produits;

—  prévoir la mise en place, par les marchés en ligne, de mesures contre les récidivistes qui proposent des produits dangereux, en collaboration avec les autorités, conformément au règlement «plateformes-entreprises», ainsi que de mesures visant à empêcher la réapparition de produits dangereux ayant déjà fait l’objet d’un retrait;

—  étudier la possibilité d’exiger des fournisseurs établis dans un pays tiers qu’ils créent une succursale ou désignent un représentant légal établi dans l’Union, qui puisse être tenu responsable de la vente aux consommateurs européens de produits ou services non conformes aux règles de sécurité de l’Union;

—  traiter de la responsabilité des marchés en ligne pour les préjudices subis par les consommateurs et pour l’absence de mesures adéquates visant à retirer des produits illégaux après en avoir eu effectivement connaissance;

—  traiter de la responsabilité des marchés en ligne lorsque ces plateformes exercent une influence prépondérante sur les fournisseurs et des éléments clés des transactions économiques, tels que les moyens de paiement, les prix, les conditions par défaut, ou des comportements visant à faciliter la vente de biens aux consommateurs sur le marché de l’Union, et qu’aucun fabricant, importateur, ou distributeur établi dans l’Union ne peut être tenu pour responsable;

—  traiter de la responsabilité des marchés en ligne lorsque le marché en ligne n’a pas informé le consommateur qu’un tiers est le fournisseur réel des biens ou des services, ce qui engage la responsabilité contractuelle du marché en ligne vis-à-vis du consommateur; il convient de se pencher également sur la question de la responsabilité lorsque le marché en ligne fournit sciemment des informations trompeuses;

—  garantir que les marchés en ligne disposent d’un droit à réparation vis-à-vis du fournisseur ou producteur fautif;

—  envisager d’élargir la portée de l’engagement pris par certains détaillants de commerce électronique et par la Commission de retirer plus rapidement les produits dangereux ou contrefaits de la vente au titre des régimes d’engagement volontaires appelés «Engagement en matière de sécurité des produits» et «Mémorandum d’accord relatif à la vente de produits contrefaits sur l’internet», selon le cas, et de préciser les engagements qui pourraient devenir obligatoires.

VII.  RÉGLEMENTATION EX ANTE DES OPÉRATEURS SYSTÉMIQUES

La législation sur les services numériques devrait présenter une proposition de nouvel instrument distinct visant à garantir que le rôle systémique de certaines plateformes en ligne ne portera pas atteinte au marché intérieur en excluant injustement les nouveaux arrivants novateurs, notamment les PME, les entrepreneurs et les jeunes pousses, ce qui réduirait le choix des consommateurs.

À cette fin, la législation sur les services numériques devrait, en particulier:

—  mettre en place un mécanisme ex ante pour éviter les défaillances du marché engendrées par les «opérateurs systémiques» dans l’univers numérique (au lieu de simplement y remédier), en s’appuyant sur le règlement «plateformes-entreprises»; ce mécanisme devrait permettre aux autorités de réglementation d’imposer des mesures correctives aux opérateurs systémiques afin de pallier les défaillances du marché sans enfreindre les règles en matière de concurrence;

—  habiliter les autorités de réglementation à imposer des mesures correctives proportionnées et bien définies aux entreprises identifiées comme des «opérateurs systémiques», sur la base de critères fixés dans la législation sur les services numériques et d’une liste fermée des mesures positives et négatives que ces entreprises sont tenues d’observer et/ou qu’il leur est interdit d’appliquer. Dans son évaluation de l’impact, la Commission devrait réaliser une analyse approfondie des différents problèmes rencontrés sur le marché jusqu’à présent, tels que:

–  le manque d’interopérabilité et d’outils, de données, d’expertise et de ressources appropriés utilisés par les opérateurs systémiques pour permettre aux consommateurs de passer d’une plateforme numérique à une autre ou de changer d’écosystème internet, ou de les connecter et de s’en servir de manière interopérable;

–  l’affichage préférentiel systématique, qui permet aux opérateurs systémiques de rendre leurs propres services en aval plus visibles;

–  l’enveloppement des données utilisé pour étendre son pouvoir de marché d’un marché à des marchés adjacents, en favorisant ses propres produits et services, et en ayant recours à des pratiques visant à rendre les consommateurs captifs;

–  la pratique répandue consistant à interdire aux utilisateurs professionnels tiers de diriger les consommateurs vers leur propre site internet, en leur imposant des clauses contractuelles;

–  le manque de transparence des systèmes de recommandation utilisés par les opérateurs systémiques, y compris des règles et des critères de fonctionnement de ces systèmes;

—  veiller à ce que les opérateurs systémiques aient la possibilité de démontrer que le comportement en question est justifié;

—  préciser que certaines mesures réglementaires correctives devraient être imposées à l’ensemble des «opérateurs systémiques», telles que des obligations en matière de transparence quant à la manière dont ils exercent leur activité, en particulier la manière dont ils collectent et utilisent les données, et une interdiction pour les «opérateurs systémiques» de se livrer à toute pratique visant à compliquer, pour les consommateurs, le changement de fournisseur ou l’utilisation des services de différents fournisseurs, ou à d’autres formes de discrimination injustifiée qui excluent ou désavantagent d’autres entreprises;

—  autoriser les autorités de réglementation à adopter des mesures transitoires et à imposer des sanctions aux «opérateurs systémiques» qui ne respectent pas les diverses obligations réglementaires qui leur incombent;

—  réserver à la Commission le pouvoir de décider si un prestataire de services de la société de l’information est un «opérateur systémique» sur la base des conditions énoncées dans le mécanisme ex ante;

—  permettre aux utilisateurs des «opérateurs systémiques» d’être informés, de désactiver des éléments et d’être en mesure d’exercer un contrôle et de décider efficacement du type de contenus qu’ils souhaitent voir; les utilisateurs devraient aussi être correctement informés de toutes les raisons pour lesquelles un contenu particulier leur est proposé;

—  veiller à ce que les droits, les obligations et les principes du RGPD, notamment la minimisation des données, la limitation de la finalité, la protection des données dès la conception et par défaut, et la base juridique du traitement des données, soient respectés;

—  garantir des niveaux appropriés d’interopérabilité en imposant aux «opérateurs systémiques» de partager les outils, les données, l’expertise et les ressources adéquats qu’ils utilisent afin de limiter les risques de verrouillage rendant les utilisateurs et les consommateurs captifs, et la pratique consistant à lier artificiellement les utilisateurs à un opérateur systémique sans leur laisser réellement la possibilité ou l’envie d’alterner entre les plateformes numériques ou les écosystèmes de l’internet; dans le cadre de ces mesures, la Commission devrait étudier plusieurs technologies, normes et protocoles ouverts, y compris la possibilité d’une interface technique (interface de programmation des applications) permettant aux utilisateurs de plateformes concurrentes de s’amarrer aux opérateurs systémiques et d’échanger des informations avec ceux-ci; les opérateurs systémiques ne font pas d’usage commercial des données reçues de tiers lors des activités d’interopérabilité pour des fins autres que l’accomplissement de ces activités; les obligations en matière d’interopérabilité ne devraient pas limiter, entraver ou retarder la capacité des intermédiaires à corriger les vulnérabilités;

—  garantir que le nouveau mécanisme ex ante est sans préjudice de l’application des règles de concurrence, notamment en ce qui concerne l’autofavoritisme et l’intégration verticale d’une manière générale, et que les deux instruments sont entièrement indépendants.

VIII.  CONTRÔLE, COOPÉRATION ET EXÉCUTION

La législation sur les services numériques devrait améliorer le contrôle et l’exécution des règles existantes, et renforcer la clause relative au marché intérieur pour en faire la pierre angulaire du marché unique numérique, en y adjoignant un nouveau mécanisme de coopération destiné à améliorer l’échange d’informations, la coopération et la confiance mutuelle, ainsi que l’assistance mutuelle sur demande entre les États membres, en particulier entre les autorités du pays d’origine, où le prestataire de services est établi, et celles du pays d’accueil, où le prestataire offre ses services.

La Commission devrait effectuer une analyse d’impact approfondie pour évaluer quel modèle de contrôle et d’exécution est le plus approprié pour l’application des dispositions relatives à la législation sur les services numériques, tout en respectant les principes de subsidiarité et de proportionnalité.

Dans son analyse d’impact, la Commission devrait examiner les modèles existants, comme le réseau de coopération en matière de protection des consommateurs (CPC), le groupe des régulateurs européens pour les services de médias audiovisuels (ERGA), le comité européen de la protection des données et le réseau européen de la concurrence (REC), et envisager l’adoption d’un système hybride de contrôle.

Ce système hybride de contrôle, qui s’appuierait sur une coordination au niveau de l’Union en collaboration avec un réseau d’autorités nationales, devrait améliorer le suivi et l’application de la législation sur les services numériques, la faire respecter, y compris en imposant des amendes réglementaires ou autres sanctions ou mesures, et devrait être en mesure de procéder à des vérifications concernant les intermédiaires et les plateformes. Il devrait aussi régler, si besoin est, les différends transfrontières opposant les autorités nationales, traiter des questions transfrontières complexes, apporter des conseils et des orientations, approuver les codes et décisions de portée européenne et, avec les autorités nationales, être en mesure de prendre des initiatives et de lancer des enquêtes sur les questions transfrontières. C’est la Commission qui devrait rester chargée de la surveillance en dernier ressort des obligations incombant aux États membres.

La Commission devrait en rendre compte au Parlement européen et au Conseil et, en collaboration avec les autorités nationales, tenir un «tableau de bord des plateformes» public, qui présenterait des informations utiles sur le respect de la législation sur les services numériques. La Commission devrait faciliter et encourager la création et la tenue d’un répertoire européen de la recherche afin de faciliter le partage de données avec les institutions publiques, les chercheurs, les ONG et les universités, à des fins de recherche.

La législation sur les services numériques devrait également introduire de nouveaux éléments de mise en œuvre à l’article 16 de la directive sur le commerce électronique concernant l’autorégulation.

(1) JO L 178 du 17.7.2000, p. 1.
(2) JO L 186 du 11.7.2019, p. 57.
(3) JO L 136 du 22.5.2019, p. 1.
(4) JO L 136 du 22.5.2019, p. 28.
(5) JO L 149 du 11.6.2005, p. 22.
(6) JO L 169 du 25.6.2019, p. 1.
(7) JO L 376 du 27.12.2006, p. 36.
(8) JO C 50 E du 21.2.2012, p. 1.
(9) JO C 331 du 18.9.2018, p. 135.
(10) JO L 63 du 6.3.2018, p. 50.
(11) JO L 119 du 4.5.2016, p. 1.
(12) JO L 130 du 17.5.2019, p. 92.
(13) JO L 201 du 31.7.2002, p. 37.
(14) JO L 77 du 27.3.1996, p. 20.
(15) JO L 167 du 22.6.2001, p. 10.
(16) JO L 95 du 15.4.2010, p. 1.
(17) https://www.europarl.europa.eu/RegData/etudes/STUD/2020/654180/EPRS_ STU(2020)654180_EN.pdf
(18) Règlement (UE) n° 910/2014 du Parlement européen et du Conseil du 23 juillet 2014 sur l’identification électronique et les services de confiance pour les transactions électroniques au sein du marché intérieur et abrogeant la directive 1999/93/CE (JO L 257 du 28.8.2014, p. 73).
(19) Directive 2001/95/CE du Parlement européen et du Conseil du 3 décembre 2001 relative à la sécurité générale des produits (JO L 11 du 15.1.2002, p. 4).
(20) Directive 85/374/CEE du Conseil du 25 juillet 1985 relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux (JO L 210 du 7.8.1985, p. 29).
(21) Directive 2013/11/UE du Parlement européen et du Conseil du 21 mai 2013 relative au règlement extrajudiciaire des litiges de consommation et modifiant le règlement (CE) n° 2006/2004 et la directive 2009/22/CE (directive relative au RELC) (JO L 165 du 18.6.2013, p. 63).
(22) Règles prévues par la directive (UE) 2019/770 et la directive (UE) 2019/771.
(23) Directive 93/13/CEE du Conseil du 5 avril 1993 concernant les clauses abusives dans les contrats conclus avec les consommateurs, modifiée en dernier lieu par la directive (UE) 2019/2161 du Parlement européen et du Conseil du 27 novembre 2019 modifiant la directive 93/13/CEE du Conseil et les directives 98/6/CE, 2005/29/CE et 2011/83/UE du Parlement européen et du Conseil en ce qui concerne une meilleure application et une modernisation des règles de l’Union en matière de protection des consommateurs (JO L 328 du 18.12.2019, p. 7).
(24) Directive 2011/83/UE du Parlement européen et du Conseil du 25 octobre 2011 relative aux droits des consommateurs, modifiant la directive 93/13/CEE du Conseil et la directive 1999/44/CE du Parlement européen et du Conseil et abrogeant la directive 85/577/CEE du Conseil et la directive 97/7/CE du Parlement européen et du Conseil (JO L 304 du 22.11.2011, p. 64).
(25) Directive (UE) 2018/958 du Parlement européen et du Conseil du 28 juin 2018 relative à un contrôle de proportionnalité avant l’adoption d’une nouvelle réglementation de professions (JO L 173 du 9.7.2018, p. 25).


Législation sur les services numériques: adaptation des règles de droit commercial et civil pour les entités commerciales exerçant des activités en ligne
PDF 225kWORD 75k
Résolution
Annexe
Résolution du Parlement européen du 20 octobre 2020 contenant des recommandations à la Commission concernant une législation sur les services numériques: adaptation des règles de droit commercial et civil pour les entités commerciales exerçant des activités en ligne (2020/2019(INL))
P9_TA(2020)0273A9-0177/2020

Le Parlement européen,

–  vu l’article 225 du traité sur le fonctionnement de l’Union européenne,

–  vu l’article 11 de la Charte des droits fondamentaux de l’Union européenne et l’article 10 de la convention européenne des droits de l’homme,

–  vu le règlement (UE) 2019/1150 du Parlement européen et du Conseil du 20 juin 2019 promouvant l’équité et la transparence pour les entreprises utilisatrices de services d’intermédiation en ligne(1),

–  vu la directive (UE) 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE(2),

–  vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE(3) (ci-après dénommé «règlement général sur la protection des données»),

–  vu la directive 2010/13/UE du Parlement européen et du Conseil du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive «Services de médias audiovisuels»)(4),

–  vu la directive 2008/52/CE du Parlement européen et du Conseil du 21 mai 2008 sur certains aspects de la médiation en matière civile et commerciale(5),

–  vu la proposition de règlement du Parlement européen et du Conseil du 6 juin 2018 établissant le programme pour une Europe numérique pour la période 2021-2027 (COM(2018)0434),

–  vu la recommandation (UE) 2018/334 de la Commission du 1er mars 2018 sur les mesures destinées à lutter, de manière efficace, contre les contenus illicites en ligne(6),

–  vu la convention concernant la compétence judiciaire, la reconnaissance et l’exécution des décisions en matière civile et commerciale(7) et la convention pour la reconnaissance et l’exécution des sentences arbitrales étrangères, signée le 10 juin 1958 à New York,

–  vu sa résolution du 3 octobre 2018 sur les technologies des registres distribués et les chaînes de blocs: renforcer la confiance par la désintermédiation(8),

–  vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 19 février 2020 intitulée «Une stratégie européenne pour les données» (COM(2020)0066),

–  vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 19 février 2020 intitulée «Façonner l’avenir numérique de l’Europe» (COM(2020)0067),

–  vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 25 mai 2016 intitulée «Les plateformes en ligne et le marché unique numérique – Perspectives et défis pour l’Europe» (COM(2016)0288),

–  vu l'étude d'évaluation de la valeur ajoutée européenne réalisée par le Service de recherche du Parlement européen, intitulée ««Digital Services Act: European Added Value Assessment» (Législation sur les services numériques: valeur ajoutée européenne) »(9),

–  vu les articles 47 et 54 de son règlement intérieur,

–  vu les avis de la commission du marché intérieur et de la protection des consommateurs et de la commission de la culture et de l’éducation,

–  vu le rapport de la commission des affaires juridiques (A9-0177/2020),

A.  considérant que les services numériques, qui constituent une pierre angulaire de l’économie de l’Union et le moyen de subsistance d’un grand nombre de ses citoyens, doivent être réglementés de manière à garantir les droits fondamentaux et les autres droits des citoyens tout en soutenant le développement et le progrès économique, l’environnement numérique et la confiance en ligne, en tenant compte des intérêts des utilisateurs et de tous les acteurs du marché, y compris les PME et les start-ups;

B.  considérant que certaines règles relatives aux fournisseurs de services de partage de contenus en ligne et aux services de médias audiovisuels ont récemment été mises à jour, notamment par la directive (UE) 2018/1808 et la directive (UE) 2019/790, qu’un certain nombre d’aspects clés du droit civil et commercial n’ont pas été pris en considération de manière satisfaisante dans le droit de l’Union ou le droit national, et que l’urgence de cette situation est exacerbée par la rapidité et l’accélération des progrès réalisés au cours des dernières décennies dans le domaine des services numériques, en particulier par l’émergence de nouveaux modèles économiques, de nouvelles technologies et de nouvelles réalités sociales; que dans ce contexte, il est indispensable de mettre entièrement à jour les dispositions clés du droit civil et commercial applicables aux entités commerciales en ligne;

C.  considérant qu’en raison de puissants effets de réseau fondés sur les données, certaines entreprises proposant des services numériques jouissent d’un pouvoir de marché important qui leur permet d’imposer leurs pratiques commerciales aux utilisateurs, et qu’il est, par conséquent, de plus en plus difficile pour d’autres acteurs, notamment les start-ups et les PME, de les concurrencer et pour de nouvelles entreprises de même entrer sur le marché;

D.  considérant que l’application ex post du droit de la concurrence ne peut, à elle seule, remédier efficacement aux effets qu’a le pouvoir de marché de certaines plateformes en ligne, notamment sur la concurrence équitable au sein du marché unique numérique;

E.  considérant que les plateformes d’hébergement de contenu, qui ne servaient autrefois qu’à afficher du contenu, sont devenues désormais des entités complexes et des acteurs du marché, ce qui est particulièrement vrai pour les réseaux sociaux qui collectent et exploitent les données d’utilisation; que les utilisateurs ont des motifs légitimes de s’attendre à des conditions équitables en matière d’accès, de transparence, de tarification et de résolution des litiges pour ce qui est de l’utilisation de ces plateformes et de l’utilisation que ces plateformes font des données des utilisateurs; que la transparence peut contribuer à accroître de manière significative la confiance dans les services numériques;

F.  considérant que les plateformes d’hébergement de contenu peuvent décider du contenu qu’elles présentent à leurs utilisateurs, ce qui leur permet d’exercer une influence considérable sur la manière dont nous obtenons et communiquons des informations, à tel point que ces plateformes se sont de facto transformées en espaces publics au sein de la sphère numérique; que les espaces publics doivent être gérés de façon à protéger l’intérêt public et à respecter les droits fondamentaux et les droits des utilisateurs relevant du droit civil, en particulier le droit à la liberté d’expression et d’information;

G.  considérant que le respect de la législation dans le monde numérique implique non seulement d’assurer l’application efficace des droits fondamentaux, et plus particulièrement la liberté d’expression et d’information, le respect de la vie privée, la sécurité et la sûreté, la non-discrimination, le respect de la propriété et des droits de propriété intellectuelle, mais aussi de garantir l’accès à la justice et le droit à un procès équitable; que la délégation des décisions concernant la légalité du contenu ou des pouvoirs d’exécution à des entreprises privées porte atteinte à la transparence et au droit à un procès équitable, ce qui donne lieu à une approche fragmentée; qu’une procédure juridique accélérée dotée de garanties suffisantes est dès lors nécessaire pour garantir l’existence de réelles voies de recours;

H.  considérant que les outils automatiques sont pour l’heure incapables de faire la différence de manière fiable entre contenu illicite et contenu qui est licite dans un contexte donné; que, dès lors, les mécanismes de détection et de suppression automatiques de contenu peuvent donner lieu à des préoccupation légitimes du point de vue juridique, en particulier en ce qui concerne d’éventuelles restrictions de la liberté d’expression et d’information, protégée par l’article 11 de la Charte des droits fondamentaux de l’Union européenne; que le recours à des mécanismes automatisés doit, dès lors, être proportionné, ne s’appliquer qu’à des cas où il se justifie et suivre des procédures transparentes;

I.  considérant que l’article 11 de la Charte des droits fondamentaux de l’Union européenne protège également la liberté et le pluralisme des médias, qui dépendent de plus en plus des plateformes en ligne pour atteindre leur public;

J.  considérant que les services numériques sont utilisés par la majorité des Européens quotidiennement, mais qu’ils sont soumis à un ensemble de règles toujours plus vaste dans les différents pays de l’Union, ce qui entraîne une importante fragmentation sur le marché, et par voie de conséquence une incertitude juridique pour les utilisateurs européens et les services prestés par-delà les frontières; que les régimes de droit civil régissant les pratiques des plateformes d’hébergement de contenu en matière de modération de contenu sont fondés sur certaines dispositions sectorielles à l’échelle de l’Union et à l’échelon national, avec des différences substantielles d’un régime à l’autre en ce qui concerne les obligations imposées ainsi que les mécanismes d’exécution déployés; que cette situation a donné lieu à un ensemble fragmenté de réglementations pour le marché unique numérique, qui nécessite une intervention au niveau de l’Union;

K.  considérant que l’actuel modèle économique de certaines plateformes d’hébergement de contenu vise à promouvoir du contenu susceptible d’attirer l’attention des utilisateurs et donc de générer plus de données de profilage dans le but de proposer des publicités ciblées plus efficaces, et, de ce fait, à augmenter les profits; que ce profilage, conjugué à des publicités ciblées, peut conduire à amplifier le contenu destiné à exploiter les émotions, ce qui favorise et encourage souvent le sensationnel dans les fils d’actualité et les systèmes de recommandation, élément susceptible d’entraîner une manipulation des utilisateurs;

L.  considérant que les publicités contextuelles proposées aux utilisateurs nécessitent moins de données d’utilisation que les publicités comportementales ciblées et qu’elles sont donc moins intrusives;

M.  considérant que le choix de la logique algorithmique qui sous-tend les systèmes de recommandation, les systèmes de comparaison, l’édition de contenu ou les placements d’annonces publicitaires est laissé à la discrétion des plateformes d’hébergement de contenu, laissant ainsi peu de place à la supervision publique, ce qui soulève des inquiétudes quant à la reddition de comptes et à la transparence;

N.  considérant que les plateformes d’hébergement de contenu jouissant d’un pouvoir de marché important offrent la possibilité à leurs utilisateurs d’utiliser leurs profils pour se connecter à des sites internet de tiers, ce qui leur permet de suivre les activités de ces utilisateurs même en dehors de leur propre environnement, possibilité qui leur offre un avantage concurrentiel en matière d’accès aux données pour les algorithmes d’édition de contenu;

O.  considérant que les contrats dits «intelligents», qui s’appuient sur les technologies des registres distribués, y compris les chaînes de blocs, qui permettent une tenue des registres décentralisée et entièrement traçable et l’auto-exécution, sont utilisés dans plusieurs domaines et ce, en l’absence de tout cadre juridique approprié; qu’il existe des incertitudes quant à la valeur juridique de ces contrats et à leur force exécutoire dans les situations transnationales;

P.  considérant que, dans les conditions générales des plateformes, qui sont non négociables, il est généralement fait référence tant à un droit applicable qu’à des juridictions compétentes en dehors de l’Union, ce qui est susceptible d’entraver l’accès à la justice; que le règlement (UE) nº 1215/2012 du Parlement européen et du Conseil du 12 décembre 2012 concernant la compétence judiciaire, la reconnaissance et l’exécution des décisions en matière civile et commerciale(10) énonce des règles en matière de compétence judiciaire; que le règlement général sur la protection des données clarifie le droit de la personne dont les données font l’objet d’un traitement à intenter une action d’exécution forcée à titre privé directement à l’encontre du responsable du traitement ou du sous-traitant, que le traitement ait lieu dans l’Union ou non et que le responsable du traitement soit établi dans l’Union ou non; que l’article 79 dudit règlement dispose que toute action contre un responsable du traitement ou un sous-traitant est intentée devant les juridictions de l’État membre dans lequel le responsable du traitement ou le sous-traitant dispose d’un établissement ou dans lequel la personne concernée a sa résidence habituelle;

Q.  considérant que l’accès aux données à caractère non personnel et l’exploration de ces données constituent un facteur important de la croissance de l’économie numérique; que des normes juridiques appropriées et des garanties appropriées en matière de protection des données concernant l’interopérabilité des données peuvent, en supprimant les effets de verrouillage, fortement contribuer à garantir l’existence de conditions de marché équitables;

R.  considérant qu’il importe d’évaluer la possibilité de confier à une entité européenne la responsabilité de garantir une approche harmonisée de la mise en œuvre de la législation sur les services numériques dans toute l’Union, de faciliter la coordination au niveau national ainsi que de se pencher sur les nouvelles possibilités et les nouveaux défis, notamment ceux de nature transfrontière, résultant des évolutions technologiques en cours;

Législation sur les services numériques

1.  demande à la Commission de présenter sans retard indu un ensemble de propositions législatives constituant une législation sur les services numériques jouissant d’un champ d’application matériel, personnel et territorial adéquat, définissant les concepts fondamentaux et comprenant les recommandations formulées dans l’annexe de la présente résolution; estime que, sans préjudice des éléments de détail des futures propositions législatives, l’article 114 du traité sur le fonctionnement de l’Union européenne devrait en constituer la base juridique;

2.  propose que la législation sur les services numériques intègre un règlement établissant les droits contractuels en matière de gestion de contenu, fixant des normes et des procédures transparentes, équitables, contraignantes et uniformes en matière de modération de contenu, et garantissant un accès indépendant et abordable aux voies de recours juridictionnel; souligne que les propositions législatives doivent être fondées sur des données probantes et chercher à éliminer les obstacles actuels et prévenir les nouveaux obstacles potentiels injustifiés dans la prestation de services numériques par les plateformes en ligne, tout en renforçant la protection des consommateurs et des citoyens; estime que ces propositions législatives devraient avoir pour but de parvenir à une croissance durable et intelligente, de relever les défis technologiques et de garantir que le marché unique numérique soit équitable et sûr pour tous;

3.  recommande en outre que les mesures proposées en matière de modération de contenu ne s’appliquent qu’aux contenus illicites plutôt qu’aux contenus qui sont seulement néfastes; recommande, à cette fin, que le règlement comprenne des critères universels visant à déterminer le pouvoir de marché des plateformes afin de définir clairement ce qu’est une plateforme dotée d’un pouvoir de marché important et de déterminer ainsi si certaines plateformes d’hébergement de contenu qui ne disposent pas d’un pouvoir de marché important peuvent être exemptées de certaines dispositions; souligne que le cadre établi par la législation sur les services numériques devrait être gérable pour les petites entreprises, les PME et les start-ups et donc comprendre des obligations proportionnées pour tous les secteurs;

4.  propose que la législation sur les services numériques fixe l’obligation, pour les fournisseurs de services numériques établis hors de l’Union européenne, de désigner un représentant légal qui défende les intérêts des utilisateurs au sein de l’Union, auquel des demandes pourraient être faites, par exemple en vue de ménager une voie de recours aux consommateurs en cas de publicité mensongère ou trompeuse, et de rendre les coordonnées dudit représentant visibles et accessibles sur le site internet du fournisseur de services numériques;

Droits en matière de modération de contenu

5.  souligne que la responsabilité de faire appliquer la loi doit incomber aux pouvoirs publics; estime que la décision définitive quant à la légalité du contenu généré par des utilisateurs doit être rendue par une autorité judiciaire indépendante, et non par une entité commerciale privée;

6.  insiste sur le fait que le règlement doit interdire les pratiques de modération de contenu qui sont discriminatoires ou impliquent de l’exploitation et de l’exclusion, notamment à l’égard des personnes les plus vulnérables, et respecter en permanence les droits et les libertés fondamentales des utilisateurs, en particulier la liberté d’expression;

7.  souligne la nécessité de mieux protéger les consommateurs en fournissant des informations fiables et transparentes sur des exemples de pratiques abusives, telles que les allégations trompeuses et les escroqueries;

8.  recommande que l’application du règlement soit étroitement surveillée par une entité européenne chargée d’assurer le respect des dispositions du règlement par les plateformes d’hébergement de contenu, en particulier en surveillant le respect des normes applicables à la gestion de contenu sur la base de rapports de transparence et d’un contrôle des algorithmes utilisés par les plateformes d’hébergement de contenu aux fins de la gestion de contenu; demande à la Commission d’évaluer la possibilité de désigner une agence ou un organe européens nouveaux ou existants ou de coordonner elle-même un réseau d’autorités nationales (ci-après dénommée «entité européenne») pour mener à bien ces tâches;

9.  propose que les plateformes d’hébergement de contenu présentent régulièrement à l’entité européenne des rapports détaillés de transparence fondés sur une méthodologie constante et évalués à la lumière d’indicateurs de performance pertinents, notamment sur leurs politiques en matière de contenu et sur la conformité de leurs conditions générales avec les dispositions de la législation sur les services numériques; propose par ailleurs qu’elles publient et mettent à disposition, de manière simple et accessible, ces rapports ainsi que leurs politiques en matière de gestion de contenu dans une base de données accessible au public;

10.  demande aux plateformes d’hébergement de contenu disposant d’un pouvoir de marché important d’évaluer le risque que leurs politiques de gestion des contenus licites représentent pour la société, par exemple en matière de répercussions sur les droits fondamentaux, et de dialoguer deux fois par an avec l’entité européenne et les autorités nationales compétentes dans le cadre de la présentation des rapports de transparence;

11.  recommande aux États membres de prévoir des organes indépendants de règlement des différends chargés de résoudre les litiges relatifs à la modération de contenu; estime qu’aux fins de la protection des publications anonymes et de l’intérêt général, les décisions relatives à la modération de contenu devraient pouvoir être contestées non seulement par l’utilisateur ayant téléversé le contenu objet du litige, mais également par un tiers, tel qu’un médiateur, qui a un intérêt légitime à agir; affirme le droit des utilisateurs à exercer ultérieurement des recours en justice;

12.  est fermement d’avis que la législation sur les services numériques doit s’abstenir de contraindre les plateformes d’hébergement de contenu à utiliser toute forme de système entièrement automatisé de contrôle ex ante du contenu, sauf indication contraire dans le droit de l’Union en vigueur; estime que les mécanismes utilisés de plein gré par les plateformes, ne doivent pas déboucher sur des mesures de contrôle ex ante s’appuyant sur des outils automatisés ni sur un filtrage des contenus au moment du téléversement, et qu’il doit être soumis au contrôle de l’entité européenne de manière à garantir le respect de la législation sur les services numériques;

13.  insiste sur le fait que les plateformes d’hébergement de contenu doivent être transparentes en ce qui concerne le traitement des algorithmes et des données qui servent à entraîner ces derniers;

Droits en matière d’édition de contenu, de données et de publicités en ligne

14.  considère que l’amplification de contenu ciblant les utilisateurs sur la base des opinions ou des points de vue que ce contenu présente est l’une des pratiques les plus préjudiciables de la société numérique, notamment lorsque la visibilité de ce contenu est renforcée en raison de l’interaction préalable des utilisateurs avec un autre contenu amplifié, dans le but d’optimiser leurs profils d’utilisateur à des fins de publicités ciblées; est préoccupé par le fait que ces pratiques ont recours à un suivi omniprésent et à l’exploration de données; demande à la Commission d’analyser les incidences de telles pratiques et de prendre les mesures législatives qui s’imposent;

15.  estime que l’utilisation de publicités ciblées doit être réglementée de manière plus stricte au profit de formes publicitaires moins intrusives ne nécessitant pas un suivi des interactions des utilisateurs avec du contenu et que l’affichage de publicités comportementales devrait être subordonnée au consentement libre, spécifique, informé et non équivoque des utilisateurs;

16.  prend acte des dispositions en vigueur relatives à la publicité ciblée dans le règlement général sur la protection des données et dans la directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques (directive «vie privée et communications électroniques»)(11);

17.  recommande par conséquent que la législation sur les services numériques fixe des limites claires et introduise des règles de transparence en ce qui concerne les modalités d’accumulation de données aux fins de ciblage publicitaire ainsi qu’en ce qui concerne le fonctionnement et la reddition de comptes de ce ciblage publicitaire, notamment lorsque les données proviennent de sites web de tiers; maintient que de nouvelles mesures établissant un cadre pour les relations entre les plateformes et les consommateurs sont nécessaires concernant les dispositions de transparence relatives à la publicité, à l’incitation numérique et au traitement de faveur; invite la Commission à évaluer les possibilités de réglementer le ciblage publicitaire, y compris par une phase de suppression progressive débouchant sur une interdiction totale;

18.  souligne que, conformément au principe de minimisation des données et afin d’empêcher leur divulgation non autorisée, l’usurpation d’identité et d’autres formes d’abus de données à caractère personnel, la législation sur les services numériques devrait prévoir le droit d’utiliser les services numériques de manière anonyme à chaque fois que cela est techniquement possible; invite la Commission à exiger des plateformes d’hébergement de contenu qu’elles vérifient l’identité des annonceurs avec lesquels elles ont un lien commercial de façon à ce que les annonceurs soient tenus pour responsables en cas de promotion de contenus qui s’avèrent par la suite illicites; recommande dès lors que la législation sur les services numériques comprenne des dispositions juridiques qui empêchent les plateformes d’exploiter à des fins commerciales les données provenant de tiers lorsqu’elles sont en concurrence avec ces tiers;

19.  regrette l’asymétrie des informations qui existe entre les plateformes d’hébergement de contenu et les pouvoirs publics et demande un échange rationalisé des informations nécessaires; souligne que, conformément à la jurisprudence sur les métadonnées de communications, il convient de ne rendre les métadonnées d’un utilisateur accessibles aux pouvoirs publics que dans le cadre d’une enquête sur des personnes soupçonnées d’infractions graves, moyennant une autorisation judiciaire préalable;

20.  recommande que les fournisseurs qui assurent un service d’authentification unique et détiennent un pouvoir de marché important soient tenus de proposer aussi au moins un système d’identité ouvert et décentralisé s’appuyant sur un cadre non propriétaire; demande à la Commission de proposer des normes communes de l’Union pour les systèmes nationaux prévus par les États membres, en particulier en ce qui concerne les normes de protection des données et l’interopérabilité transnationale;

21.  invite la Commission à évaluer la possibilité de définir des conditions contractuelles équitables visant à faciliter le partage des données et à améliorer la transparence dans le but de remédier aux déséquilibres concernant le pouvoir de marché; propose, à cette fin, d’étudier les possibilités de faciliter l’interopérabilité, l’interconnectivité et la portabilité des données; fait remarquer que le partage de données devrait s’accompagner de garanties adéquates et appropriées, y compris une réelle anonymisation des données à caractère personnel;

22.  recommande que la législation sur les services numériques impose aux plateformes dotées d’un pouvoir de marché important de proposer une interface de programmation permettant aux plateformes tierces et à leurs utilisateurs d’interopérer avec les principales fonctionnalités et les utilisateurs de la plateforme proposant l’interface de programmation, y compris des services tiers destinés à améliorer et à personnaliser l’expérience utilisateur, notamment par des services de personnalisation des paramètres de confidentialité ainsi que des préférences en matière d’édition de contenu; propose que les plateformes répertorient publiquement toutes les interfaces de programmation qu’elles mettent à disposition afin de permettre l’interopérabilité et l’interconnectivité des services;

23.  insiste fortement, par ailleurs, sur le fait que les plateformes dotées d’un pouvoir de marché important qui proposent une interface de programmation ne doivent pas partager, conserver, monétiser ou utiliser les données qu’elles reçoivent dans le cadre de services tiers;

24.  souligne que les obligations en matière d’interopérabilité et d’interconnectivité ne peuvent pas limiter, entraver ou retarder la capacité des plateformes d’hébergement de contenu à résoudre les problèmes de sécurité, la nécessité de régler des problèmes de sécurité ne devant pas non plus entraîner une suspension injustifiée de l’interface de programmation assurant l’interopérabilité et l’interconnectivité;

25.  rappelle que les dispositions relatives à l’interopérabilité et à l’interconnectivité doivent respecter l’ensemble de la législation applicable en matière de protection des données; recommande, à cet égard, que les plateformes soient tenues, en vertu de la législation sur les services numériques, d’assurer la faisabilité technique des dispositions relatives à la portabilité des données énoncées à l’article 20, paragraphe 2, du règlement général sur la protection des données;

26.  souhaite que les plateformes d’hébergement de contenu donnent la possibilité aux utilisateurs d’accepter ou de refuser réellement au préalable l’affichage de publicités ciblées en fonction de l’interaction préalable des utilisateurs avec le contenu sur ces mêmes plateformes d’hébergement de contenu ou sur des sites internet de tiers; souligne que cette possibilité doit être présentée de manière claire et intelligible et que le refus de l’utilisateur de consentir à l’affichage de ces publicités ne doit pas entraîner la désactivation de l’accès aux fonctionnalités de la plateforme; insiste sur le fait que le consentement aux publicités ciblées ne doit pas être réputé libre et valable si l’accès au service est subordonné au traitement de données; rappelle qu’en vertu de la directive 2002/58/CE, il est indispensable que l’utilisateur donne son consentement exprès aux publicités ciblées, qui sont sinon interdites; relève, sachant que les activités en ligne d’un particulier permettent de connaître son comportement et de le manipuler, que la collecte générale et indifférenciée de données à caractère personnel concernant chaque utilisation d’un service numérique porte atteinte de manière disproportionnée au droit au respect de la vie privée; réaffirme que les utilisateurs ont le droit de ne pas être soumis à un suivi omniprésent lorsqu’ils utilisent des services numériques;

27.  demande à la Commission de veiller, dans le même esprit, à ce que les consommateurs puissent toujours utiliser un appareil connecté avec toutes ses fonctions même s’ils refusent de partager des données non opérationnelles avec le fabricant de l’appareil ou des tiers ou qu’ils retirent leur autorisation; réaffirme la nécessité d’assurer la transparence des conditions contractuelles en ce qui concerne la possibilité et la portée du partage de données avec des tiers;

28.  demande en outre que les utilisateurs se voient garantir un niveau de transparence et d’influence approprié sur les critères en fonction desquels le contenu est édité et leur est proposé; affirme que les utilisateurs devraient également avoir la possibilité de s’opposer à toute édition de contenu autre que l’ordre chronologique; fait remarquer que les interfaces de programmation fournies par les plateformes devraient permettre aux utilisateurs de gérer le contenu à l’aide du logiciel ou des services de leur choix;

29.  souligne qu’il importe que la législation sur les services numériques s’avère juridiquement solide et efficace du point de vue de la protection des enfants dans l’environnement en ligne, tout en s’abstenant d’imposer des obligations générales de surveillance ou de filtrage, en assurant une coordination totale et en évitant les doubles emplois avec le règlement général sur la protection des données et la directive «Services de médias audiovisuels»;

30.  rappelle que les publicités payantes ou les placements payants de contenu sponsorisé devraient être identifiées comme tels de manière claire, concise et intelligente; propose que les plateformes divulguent l’origine des publicités payantes et du contenu sponsorisé; propose, à cette fin, que les plateformes d’hébergement de contenu publient l’ensemble du contenu sponsorisé et des publicités et les rendent clairement visibles par leurs utilisateurs dans une archive des publicités accessible au public, où soit indiqué qui les a financés et, le cas échéant, pour le compte de qui; souligne que cela devrait couvrir tant les paiements directs et indirects que toute autre rémunération reçue par les fournisseurs de services;

31.  est convaincu que, si les données pertinentes montrent un écart important entre les plateformes établies dans l’Union et celles basées dans des pays tiers en ce qui concerne les pratiques publicitaires trompeuses et le respect de la législation, il demeure raisonnable d’envisager des mesures supplémentaires visant à renforcer le respect de la législation en vigueur dans l’Union; souligne qu’il est nécessaire de garantir des conditions de concurrence équitables entre les publicitaires établis dans l’Union et ceux établis dans des pays tiers;

Dispositions relatives aux conditions générales, aux contrats intelligents et chaînes de blocs et au droit international privé

32.  observe l’augmentation des contrats dits «intelligents», tels que ceux fondés sur les technologies des registres distribués, sans base juridique claire;

33.  invite la Commission à apprécier l’évolution et l’utilisation des technologies des registres distribués, y compris des chaînes de blocs, et, en particulier, des contrats dits «intelligents», à fournir des lignes directrices afin d’apporter une sécurité juridique aux entreprises et aux consommateurs, en particulier sur les questions liées à la légalité et à l’exécution des contrats intelligents dans les situations transfrontières, ainsi qu’aux exigences de notarisation le cas échéant, et à présenter des propositions concernant le cadre juridique approprié;

34.  souligne que l’équité des conditions générales imposées par les intermédiaires aux utilisateurs de leurs services et leur conformité aux normes en matière de droits fondamentaux doivent être soumises à un contrôle juridictionnel; souligne que les conditions générales qui limitent indûment les droits fondamentaux des utilisateurs, comme le droit au respect de la vie privée et la liberté d’expression, ne peuvent pas être contraignantes;

35.  demande à la Commission de se pencher sur des modalités qui permettraient de veiller à un équilibre et à une égalité satisfaisants entre les parties aux contrats intelligents en tenant compte des préoccupations de nature privée propres à la partie faible ou des inquiétudes du public notamment à l’égard des ententes; insiste sur la nécessité de veiller à ce que les droits des créanciers soient respectés dans le cadre des procédures d’insolvabilité et de restructuration; recommande vivement que les contrats intelligents comprennent des mécanismes permettant de suspendre et d’annuler leur exécution et les paiements y afférents;

36.  demande en particulier à la Commission de mettre à jour son document d’orientation existant sur la directive 2011/83/UE du Parlement européen et du Conseil du 25 octobre 2011 sur les droits des consommateurs(12) afin de préciser si elle considère que les contrats intelligents relèvent de l’exemption prévue à l’article 3, paragraphe 3, point l), de ladite directive et, dans l’affirmative, dans quelles circonstances, ainsi que de préciser la question du droit de rétractation;

37.  souligne la nécessité d’utiliser les technologies de chaîne de blocs, et en particulier les contrats intelligents, conformément aux règles en matière d’abus de position dominante et aux obligations en découlant, notamment les dispositions interdisant les ententes ou les pratiques concertées;

38.  considère que des conditions générales standard ne devraient pas entraver l’accès efficace à la justice dans les juridictions de l’Union, ni priver les citoyens et les entreprises de l’Union de leurs droits; invite la Commission à examiner si la protection des droits d’accès aux données en vertu du droit international privé est incertaine et défavorise les citoyens et les entreprises de l’Union;

39.  souligne l’importance de veiller à ce que l’utilisation de services numériques dans l’Union soit pleinement régie par le droit de celle-ci et à ce qu’elle relève de la compétence de ses juridictions;

40.  conclut par ailleurs que des solutions législatives à ces questions devraient être apportées au niveau de l’Union si l’adoption de mesures à l’échelon international semble impossible ou si ces mesures risquent de mettre trop de temps pour porter leurs fruits;

41.  souligne que les fournisseurs de services établis dans l’Union ne peuvent pas être contraints de retirer des informations qui sont licites dans leur pays d’origine ou d’ empêcher l’accès à ces informations;

o
o   o

42.  charge son Président de transmettre la présente résolution ainsi que les recommandations détaillées figurant en annexe à la Commission et au Conseil.

ANNEXE À LA RÉSOLUTION:

RECOMMANDATIONS DÉTAILLÉES CONCERNANT LE CONTENU DE LA PROPOSITION DEMANDÉE

A.  PRINCIPES ET OBJECTIFS DE LA PROPOSITION DEMANDÉE

LES PRINCIPES ET OBJECTIFS CLÉS DE LA PROPOSITION:

—  la proposition contient à la fois des actes qu’il convient d’inclure dans la législation sur les services numériques et des actes annexes de ladite législation;

—  la proposition vise à renforcer les règles de droit civil et commercial applicables aux entités commerciales exerçant des activités en ligne dans le cadre de services numériques;

—  la proposition vise à consolider et à clarifier les droits contractuels des utilisateurs relatifs à la modération et à l’édition de contenu;

—  la proposition vise à mieux faire face aux abus ou aux inégalités dans les conditions générales utilisées aux fins de services numériques;

—  la proposition aborde la question des aspects de la collecte de données qui contreviennent aux droits contractuels équitables des utilisateurs, ainsi qu’aux règles en matière de protection des données et de confidentialité en ligne;

—  la proposition porte sur l’importance d’appliquer les droits des utilisateurs de manière équitable en ce qui concerne l’interopérabilité et la portabilité;

—  la proposition souligne l’importance des règles de droit international privé qui apportent une clarté juridique concernant les conditions générales non négociables des plateformes en ligne ainsi que l’importance de garantir le droit d’accès aux données et l’accès à la justice;

—  la proposition n’aborde pas les aspects liés à la réglementation des sites de marché en ligne, qui devraient néanmoins être pris en considération dans le cadre du paquet relatif à la législation sur les services numériques qui sera proposé par la Commission;

—  la proposition fait valoir qu’il importe d’examiner la nécessité de réglementer de manière adéquate les aspects de droit civil et commercial dans le domaine des technologies des registres distribués, y compris des chaînes de blocs et, notamment, les aspects de droit civil et commercial des contrats intelligents.

I.  PROPOSITIONS À INCLURE DANS LA LÉGISLATION SUR LES SERVICES NUMÉRIQUES

Les éléments clés des propositions à inclure dans la législation sur les services numériques devraient être les suivants:

Un règlement sur les droits contractuels en matière de gestion de contenu répondant aux exigences suivantes:

—  il devrait s’appliquer à la gestion, y compris la modération et l’édition, du contenu accessible dans l’Union;

—  il devrait énoncer des principes proportionnés relatifs à la modération de contenu;

—  il devrait établir des normes formelles et procédurales relatives à un mécanisme de notification et d’action qui soient proportionnées à la plateforme ainsi qu’à la nature et à l’incidence du préjudice, efficaces et à l’épreuve du temps;

—  il devrait prévoir un mécanisme indépendant de règlement des différends dans les États membres qui ne limite pas l’accès aux recours juridictionnels;

—  il devrait proposer un ensemble d’indicateurs clairs visant à définir le pouvoir de marché des plateformes d’hébergement de contenu afin de déterminer si certaines d’entre elles, qui ne disposent pas d’un pouvoir de marché important, peuvent être exemptées de certaines dispositions; ces indicateurs pourraient comprendre la taille du réseau (nombre d’utilisateurs), la solidité financière, l’accès aux données, le degré d’intégration verticale ou la présence d’un effet de verrouillage;

—  il devrait prévoir des règles relatives à la responsabilité des plateformes d’hébergement de contenu au regard des biens vendus sur ces plateformes ou pour lesquels elles font de la publicité, en tenant compte des activités de soutien aux PME, afin de réduire autant que possible la charge qui pèse sur ces dernières lorsqu’elles s’adaptent à cette responsabilité;

—  il devrait établir une distinction claire entre les contenus illicites et les contenus préjudiciables en vue de l’application des possibilités d’action appropriées; à cet égard, toute mesure établie par la législation sur les services numériques devrait uniquement s’appliquer aux contenus illicites tels que définis dans le droit de l’Union et le droit national;

—  il devrait reposer sur des principes établis aux fins de déterminer la législation applicable au respect du droit administratif et devrait, à la lumière de la convergence croissante des droits des utilisateurs, énoncer clairement que tous les aspects relevant de son champ d’application sont régis par ces principes;

—  il devrait respecter pleinement la Charte des droits fondamentaux de l’Union européenne et les règles de l’Union relatives à la protection des utilisateurs et de leur sécurité, de leur vie privée et de leurs données à caractère personnel, ainsi que les autres droits fondamentaux;

—   il devrait prévoir un dialogue entre les plateformes d’hébergement de contenu dotées d’un pouvoir de marché important et l’entité européenne sur la gestion des risques liés à la gestion de contenus à caractère juridique.

La Commission devrait envisager la possibilité de créer une entité européenne chargée de veiller au respect des dispositions de la proposition au moyen des mesures suivantes:

—   assurer un suivi régulier des algorithmes utilisés par les plateformes d’hébergement de contenu aux fins de la gestion de contenu;

—   examiner périodiquement le respect par les plateformes d’hébergement de contenu des dispositions du règlement, à partir de rapports de transparence fournis par ces plateformes et de la base de données publique des décisions relatives au retrait de contenu qui sera établie par la législation sur les services numériques;

—  travailler avec les plateformes d’hébergement de contenu sur les bonnes pratiques afin que leurs conditions générales répondent aux exigences en matière de transparence et d’obligation de rendre des comptes, ainsi que sur les bonnes pratiques relatives à la modération de contenu, et mettre en œuvre les procédures de notification et d’action;

—   coopérer et se coordonner avec les autorités nationales des États membres aux fins de la mise en œuvre de la législation sur les services numériques;

—   gérer un fonds créé spécialement en vue d’aider les États membres à financer les coûts de fonctionnement des organes indépendants de règlement des différends décrits dans le règlement, financé par des amendes infligées aux plateformes d’hébergement de contenu pour non-respect des dispositions de la législation sur les services numériques ainsi que par une contribution des plateformes d’hébergement de contenu dotées d’un important pouvoir de marché;

—  infliger des amendes en cas de non-respect de la législation sur les services numériques; les amendes devraient alimenter le fonds spécial destiné à aider les États membres à financer les coûts de fonctionnement des organes de règlement des différends décrits dans le règlement; les cas de non-respect devraient inclure:

–  l’incapacité à mettre en œuvre les dispositions du règlement,

–  l’absence de conditions générales transparentes, accessibles, équitables et non discriminatoires,

–  l’incapacité à garantir à l’entité européenne un accès aux algorithmes de gestion de contenu en vue de leur examen,

–  l’incapacité à présenter des rapports de transparence à l’entité européenne;

—  publier des rapports semestriels sur l’ensemble de ses activités et rendre compte de ces dernières aux institutions de l’Union.

Les rapports de transparence concernant la gestion de contenu devraient être établis comme suit:

La législation sur les services numériques devrait contenir des dispositions imposant aux plateformes d’hébergement de contenu de publier et de transmettre régulièrement des rapports de transparence à l’entité européenne. Ces rapports devraient englober tous les aspects, selon une méthode cohérente, et notamment comprendre:

—  des informations sur les notifications traitées par la plateforme d’hébergement de contenu, y compris les éléments suivants:

–  le nombre total de notifications reçues, ventilées par type de contenu, et les mesures prises en conséquence,

–  le nombre de notifications reçues, ventilé par catégorie d’entité à l’origine de la notification (particuliers, autorités publiques, entreprises privées, etc.),

–  le nombre total de demandes de retrait satisfaites et le nombre total de renvois de contenus aux autorités compétentes,

–  le nombre total de contre-notifications ou de recours reçus ainsi que des informations sur la façon dont ces questions ont été résolues,

–  le délai moyen entre la publication, la notification, la contre-notification et les mesures;

—  des informations sur le nombre de membres du personnel affectés à la modération de contenu, sur leur emplacement géographique, sur leur niveau d’instruction et sur leurs compétences linguistiques ainsi que sur tout algorithme utilisé pour prendre des décisions;

—  des informations sur les demandes de renseignements émanant d’autorités publiques, telles que les autorités répressives, y compris sur le nombre de demandes pleinement satisfaites et de demandes non satisfaites, ou en partie seulement;

—  des informations sur l’application des conditions générales et des informations sur les décisions de justice ordonnant la suppression ou la modification des conditions générales jugées illégales par un État membre.

Les plateformes d’hébergement de contenu devraient en outre publier leurs décisions relatives au retrait de contenu dans une base de données accessible au public afin d’accroître la transparence pour les utilisateurs.

Les organes indépendants de règlement des différends devant être établis par le règlement devraient publier des rapports sur le nombre de cas dont ils ont été saisis, y compris sur le nombre de renvois auxquels ils ont donné suite.

II.  PROPOSITIONS ANNEXES DE LA LÉGISLATION SUR LES SERVICES NUMÉRIQUES

Les mesures relatives à l’édition de contenu, aux données et aux publicités en ligne qui contreviennent aux droits contractuels équitables des utilisateurs devraient inclure les éléments suivants:

—  des mesures visant à réduire autant que possible la quantité de données collectées par les plateformes d’hébergement de contenu, sur la base des interactions des utilisateurs avec le contenu hébergé sur ces plateformes, dans le but d’établir des profils publicitaires ciblés, notamment en imposant des conditions strictes quant à l’utilisation de publicités personnelles ciblées et en exigeant le consentement préalable, libre, spécifique, informé et univoque de l’utilisateur; le consentement relatif à l’utilisation de publicités ciblées n’est pas réputé libre et valable si l’accès au service est subordonné au traitement des données;

—  les utilisateurs de plateformes d’hébergement de contenu sont informés qu’ils font l’objet de publicités ciblées, ont accès au profil établi par les plateformes d’hébergement de contenu à leur sujet, ont la possibilité de modifier celui-ci et peuvent accepter ou refuser de recevoir des publicités ciblées, ainsi que retirer leur consentement à faire l’objet de telles publicités;

—  les plateformes d’hébergement de contenu devraient mettre à disposition un fichier d’archive du contenu sponsorisé et des publicités qui ont été présentés à leurs utilisateurs, en précisant notamment:

–  si le contenu sponsorisé ou le partenariat est actuellement actif ou inactif,

–  la durée pendant laquelle la publicité relative au contenu sponsorisé était active,

–  le nom et les coordonnées du sponsor ou de l’annonceur et, s’ils sont différents, au nom de qui le contenu sponsorisé ou la publicité a été placé,

–  le nombre total d’utilisateurs atteints,

–  des informations sur le groupe d’utilisateurs ciblé.

La trajectoire vers une mise en œuvre équitable des droits des utilisateurs en matière d’interopérabilité, d’interconnectivité et de portabilité devrait inclure:

—  une évaluation de la possibilité de définir des conditions contractuelles équitables visant à faciliter le partage des données dans le but de remédier aux déséquilibres en matière de pouvoir de marché, notamment grâce à l’interopérabilité, à l’interconnectivité et à la portabilité des données;

—  une obligation pour les plateformes dotées d’un pouvoir de marché important d’offrir une interface de programmation permettant aux plateformes tierces et à leurs utilisateurs d’interopérer avec les principales fonctionnalités et les utilisateurs de la plateforme offrant l’interface de programmation, comprenant des services de tiers destinés à améliorer et personnaliser l’expérience utilisateur, notamment par des services de personnalisation des paramètres de confidentialité ainsi que des préférences en matière d’édition de contenu;

—  des dispositions garantissant que les plateformes dotées d’un pouvoir de marché important qui offrent une interface de programmation ne puissent pas partager, conserver, monétiser ou utiliser les données qu’elles reçoivent dans le cadre de services de tiers;

—  des dispositions garantissant que les obligations en matière d’interopérabilité et d’interconnectivité ne puissent pas limiter, entraver ou retarder la capacité des plateformes d’hébergement de contenu à régler les problèmes de sécurité, la nécessité de régler lesdits problèmes ne devant pas non plus entraîner une suspension injustifiée de l’interface de programmation assurant l’interopérabilité et l’interconnectivité;

—  des dispositions garantissant que les plateformes soient tenues, en vertu de la législation sur les services numériques, d’assurer la faisabilité technique des dispositions relatives à la portabilité des données énoncées à l’article 20, paragraphe 2, du règlement général sur la protection des données;

—  des dispositions garantissant que les plateformes d’hébergement de contenu dotées d’un pouvoir de marché important répertorient publiquement toutes les interfaces de programmation qu’elles proposent pour permettre l’interopérabilité et l’interconnectivité des services.

La trajectoire vers une réglementation adéquate des aspects de droit civil et commercial des technologies des registres distribués, y compris des chaînes de blocs et, notamment, des contrats intelligents, devrait inclure:

—  des mesures garantissant la mise en place du cadre législatif adéquat aux fins de l’élaboration et du déploiement de services numériques comprenant des technologies des registres distribués, comme des chaînes de blocs et des contrats intelligents;

—  des mesures garantissant que les contrats intelligents disposent de mécanismes permettant de suspendre et renverser leur exécution, en particulier pour tenir compte des préoccupations de nature privée propres à la partie faible ou des inquiétudes du public notamment à l’égard des ententes, et pour veiller à ce que les droits des créanciers soient respectés dans le cadre des procédures d’insolvabilité et de restructuration;

—  des mesures assurant un équilibre et une égalité adéquats entre les parties à des contrats intelligents, compte tenu en particulier des intérêts des petits entrepreneurs et des PME, pour lesquels la Commission devrait examiner les modalités possibles;

—  une mise à jour du document d’orientation existant relatif à la directive 2011/83/UE visant à préciser si les contrats intelligents relèvent de l’exemption prévue à l’article 3, paragraphe 3, point i), de ladite directive, ainsi qu’à clarifier les questions relatives aux transactions transfrontalières, aux exigences de notarisation et au droit de rétractation.

La trajectoire vers des règles équitables de droit international privé ne privant pas les utilisateurs d’un accès à la justice devrait:

—  garantir que les conditions générales types ne comportent pas de dispositions réglementant les questions de droit international privé au détriment de l’accès à la justice, notamment par l’application effective des mesures existantes à cet égard;

—  inclure des mesures précisant les règles de droit international privé relatives aux activités des plateformes en matière de données, de sorte qu’elles ne portent pas atteinte aux membres de l’Union;

—  être fondée sur le multilatéralisme et, si possible, faire l’objet d’un accord au sein des enceintes internationales pertinentes.

Les mesures appliquées dans l’Union ne devraient être proposées que lorsqu’il s’avère impossible de parvenir à une solution fondée sur le multilatéralisme dans des délais raisonnables et ce pour veiller à ce que l’utilisation des services numériques dans l’Union soit pleinement régie par le droit de l’Union et à ce qu’elle relève de la compétence des juridictions de l’Union.

B.  TEXTE DE LA PROPOSITION LÉGISLATIVE DEMANDÉE

Proposition de

RÈGLEMENT DU PARLEMENT EUROPÉEN ET DU CONSEIL

concernant les droits contractuels en matière de gestion de contenu

LE PARLEMENT EUROPÉEN ET LE CONSEIL DE L’UNION EUROPÉENNE,

vu le traité sur le fonctionnement de l’Union européenne, et notamment son article 114,

vu la proposition de la Commission européenne,

après transmission du projet d’acte législatif aux parlements nationaux,

vu l’avis du Comité économique et social européen,

statuant conformément à la procédure législative ordinaire,

considérant ce qui suit:

(1)  Les conditions générales que les prestataires de services numériques appliquent dans leurs relations avec les utilisateurs sont souvent non négociables et peuvent être modifiées de façon unilatérale par ces prestataires. Des mesures doivent être prises au niveau législatif pour mettre en place des normes minimales applicables à ces conditions générales, notamment en ce qui concerne les règles de procédure relatives à la gestion de contenu.

(2)  Les régimes de droit civil régissant les pratiques des plateformes d’hébergement de contenu en matière de modération de contenu sont fondés sur certaines dispositions sectorielles à l’échelle de l’Union ainsi que sur des lois adoptées par les États membres à l’échelon national, et il existe des différences substantielles en ce qui concerne les obligations imposées par ces régimes de droit civil aux plateformes d’hébergement de contenu ainsi qu’en ce qui concerne leurs mécanismes d’exécution.

(3)  La fragmentation des régimes de droit civil régissant la modération de contenu par les plateformes d’hébergement de contenu qui en résulte entraîne non seulement des insécurités juridiques, lesquelles pourraient amener ces plateformes à adopter des pratiques plus strictes que nécessaire pour réduire au minimum les risques que l’utilisation de leur service engendre, mais conduit également à un morcellement du marché unique numérique, ce qui entrave la croissance et l’innovation et le développement des entreprises européennes sur le marché unique numérique.

(4)  Compte tenu des effets préjudiciables du morcellement du marché unique numérique et de l’insécurité juridique qui en découle pour les entreprises et les consommateurs, de la dimension internationale de l’hébergement de contenu, du volume considérable de contenus nécessitant une modération et du pouvoir de marché important détenu par quelques plateformes d’hébergement de contenu situées en dehors de l’Union, les diverses questions qui se posent quant à l’hébergement de contenu doivent être réglementées de manière à assurer une harmonisation totale et, de ce fait, au moyen d’un règlement.

(5)  En ce qui concerne les relations avec les utilisateurs, le présent règlement devrait établir des normes minimales en matière d’équité, de transparence et d’imputabilité des conditions générales des plateformes d’hébergement de contenu. En ce qui concerne la modération de contenu, les conditions générales devraient être claires, accessibles, intelligibles et univoques et inclure des normes et des procédures équitables, transparentes, contraignantes et uniformes, qui devraient garantir un accès indépendant et abordable aux voies de recours juridictionnel et respecter les droits fondamentaux.

(6)  L’amplification de contenu ciblant les utilisateurs sur la base des opinions ou des points de vue que ce contenu présente est l’une des pratiques les plus préjudiciables de la société numérique, en particulier lorsque la visibilité de ce contenu est renforcée en raison de l’interaction préalable des utilisateurs avec un autre contenu amplifié, dans le but d’optimiser leurs profils d’utilisateur à des fins de publicités ciblées.

(7)  Les algorithmes qui décident du classement des résultats de recherche influencent les communications et interactions individuelles et sociales et peuvent contribuer à la formation d’opinions, notamment dans le cas des contenus des médias.

(8)  Afin de veiller, entre autres, à ce qu’ils puissent faire valoir leurs droits, les utilisateurs devraient se voir garantir un niveau de transparence et d’influence approprié sur l’édition du contenu qui leur est proposé, et notamment la possibilité de s’opposer à toute édition de contenu, exceptée l’édition par ordre chronologique. Plus précisément, ils ne devraient pas être soumis à l’édition de contenu sans leur consentement préalable libre, spécifique, éclairé et univoque. Le consentement à l’utilisation de publicités ciblées ne devrait pas être réputé libre et valable si l’accès au service est subordonné au traitement des données.

(9)  Le consentement aux conditions générales des plateformes d’hébergement de contenu ou à toute autre description générale des règles relatives à la gestion de contenu par les plateformes d’hébergement de contenu, exprimé de manière générale par un utilisateur, ne devrait pas être considéré comme suffisant pour présenter automatiquement du contenu édité à cet utilisateur.

(10)  Le présent règlement ne contraint pas les plateformes d’hébergement de contenu à utiliser des systèmes automatisés de contrôle ex ante du contenu, sous quelque forme que ce soit, sauf disposition contraire du droit de l’Union existant, et dispose que les procédures de modération du contenu utilisées de plein gré par les plateformes ne doivent pas conduire à des mesures de contrôle ex ante du contenu reposant sur des outils automatisés ou au filtrage du contenu au moment du téléversement.

(11)  Le présent règlement devrait également inclure des dispositions visant à lutter contre les pratiques discriminatoires de modération de contenu et contre l’exploitation ou l’exclusion à des fins de modération de contenu, notamment lorsque le retrait de contenu généré par des utilisateurs est fondé sur l’apparence, l’origine ethnique, le genre, l’orientation sexuelle, la religion ou les convictions, le handicap, l’âge, la grossesse ou l’éducation des enfants, la langue ou la classe sociale.

(12)  Les personnes physiques ou morales, y compris les organismes publics, auxquelles du contenu est proposé par l’intermédiaire d’un site internet ou d’une application devraient conserver le droit d’émettre une notification en vertu du présent règlement.

(13)  Après qu’une notification a été émise, l’auteur du téléversement devrait être informé, par la plateforme d’hébergement de contenu, de son existence et, en particulier, du motif de la notification, ainsi que des dispositions à prendre, et obtenir des informations sur la procédure, y compris sur les modalités de recours et de renvoi devant les organes indépendants de règlement des différends ainsi que sur les voies de recours disponibles en cas de fausses notifications. Ces informations ne devraient cependant pas être communiquées si la plateforme d’hébergement de contenu a été informée par les autorités publiques de l’existence d’enquêtes judiciaires en cours. En pareil cas, il devrait incomber aux autorités concernées d’informer l’auteur du téléversement de l’émission d’une notification, conformément aux règles applicables.

(14)  L’ensemble des parties concernées devraient être informées de la décision résultant d’une notification. Outre le résultat de la décision, les informations communiquées aux parties concernées devraient également inclure, à tout le moins, le motif de la décision, préciser si celle-ci a été prise par un être humain uniquement et contenir des renseignements pertinents sur les modalités de réexamen ou de recours.

(15)  Un contenu devrait être réputé manifestement illégal s’il porte atteinte, indubitablement et sans qu’il soit nécessaire de procéder à un examen approfondi, aux dispositions légales régissant la légalité des contenus sur l’internet.

(16)  Compte tenu de la nature immédiate de l’hébergement de contenu et de la finalité souvent éphémère du téléversement de contenu, il est nécessaire d’établir des organes indépendants de règlement des différends pour assurer des voies de recours extrajudiciaire rapides et efficaces. Ces organes devraient être compétents pour statuer sur les différends relatifs à la légalité du contenu téléversé par des utilisateurs et à la bonne application des conditions générales. Cependant, une telle procédure ne devrait pas avoir pour effet d’empêcher l’utilisateur d’exercer son droit d’accès à la justice et d’exercer ultérieurement des recours en justice.

(17)  La mise en place d’organes indépendants de règlement des différends pourrait alléger la charge pesant sur les cours et tribunaux en assurant le règlement rapide des litiges portant sur les décisions de gestion de contenus sans préjudice du droit à un recours en justice. Étant donné que les plateformes d’hébergement de contenu qui jouissent d’un pouvoir de marché important peuvent tirer des bénéfices substantiels de la création d’organes indépendants de règlement des différends, il est souhaitable que lesdites plateformes contribuent au financement de ces organes. Ce fonds devrait être géré de manière indépendante par l’entité européenne afin d’aider les États membres à financer les frais de fonctionnement des organes indépendants de règlement des différends. Les États membres devraient veiller à ce que ces organes soient dotés des ressources suffisantes pour garantir leur compétence et leur indépendance.

(18)  Les utilisateurs devraient avoir le droit de saisir un organe indépendant et équitable de règlement des différends, dans le cadre d’un mécanisme alternatif de règlement des différends, pour contester une décision prise par une plateforme d’hébergement de contenu à la suite d’une notification relative au contenu qu’ils ont téléversé. Les auteurs d’une notification devraient jouir de ce droit s’ils ont la qualité pour agir dans un procès civil concernant le contenu en question.

(19)  S’agissant de la compétence, l’organe indépendant de règlement des différends compétent devrait être celui qui est établi dans l’État membre où le contenu faisant l’objet du litige a été téléversé. Les personnes physiques devraient toujours avoir la possibilité de porter leurs réclamations devant l’organe indépendant de règlement des différends de leur État membre de résidence.

(20)  Le signalement de violations contribue à éviter les violations du droit et à détecter les menaces ou les atteintes à l’intérêt général qui, autrement, continueraient de passer inaperçues. La mise en place d’une protection pour les lanceurs d’alerte contribue grandement à préserver la liberté d’expression, la liberté des médias et le droit d’accès à l’information du public. La directive (UE) 2019/1937 du Parlement européen et du Conseil(13) devrait par conséquent s’appliquer aux violations pertinentes du présent règlement et être modifiée en conséquence.

(21)  Le présent règlement devrait inclure l’obligation de faire rapport sur sa mise en œuvre ainsi que l’obligation de le réexaminer dans un délai raisonnable. À cette fin, les organes indépendants de règlement des différends mis en place par les États membres conformément au présent règlement devraient présenter des rapports sur le nombre de cas dont ils ont été saisis, y compris le nombre de renvois traités, ainsi que sur les décisions prises - en procédant, s’il y a lieu, à l’anonymisation des données à caractère personnel -, les données relatives aux problèmes systémiques, les tendances et l’identification des plateformes qui ne se conforment pas aux décisions des organes indépendants de règlement des différends.

(22)  Étant donné que l’objectif du présent règlement, à savoir établir un cadre réglementaire pour les droits contractuels en ce qui concerne la gestion de contenu dans l’Union, ne peut pas être réalisé de manière suffisante par les États membres, mais peut en raison de sa dimension et de ses effets, l’être mieux au niveau de l’Union, celle-ci peut adopter des mesures conformément au principe de subsidiarité consacré à l’article 5 du traité sur l’Union européenne. Conformément au principe de proportionnalité énoncé audit article, le présent règlement n’excède pas ce qui est nécessaire pour atteindre cet objectif.

(23)  La création d’une entité européenne chargée de contrôler et de garantir de manière adéquate le respect des dispositions du présent règlement par les plateformes d’hébergement de contenu renforcerait considérablement les actions entreprises à l’échelle de l’Union telles qu’elles sont prévues par le présent règlement. À cette fin, la Commission devrait envisager la possibilité de désigner une agence ou un organe européen nouveau ou existant ou de coordonner un réseau d’autorités nationales afin de vérifier le respect des normes établies aux fins de la gestion des contenus sur la base de rapports de transparence et du suivi des algorithmes utilisés par les plateformes d’hébergement de contenu aux fins de gérer les contenus (ci-après dénommée «entité européenne»).

(24)  Afin d’assurer l’évaluation des risques associés à l’amplification de contenu, il convient d’instaurer, entre les plateformes d’hébergement de contenu dotées d’un pouvoir de marché important et l’entité européenne ainsi que les autorités nationales concernées, un dialogue semestriel sur l’incidence des politiques de gestion des contenus à caractère juridique ayant trait aux droits fondamentaux.

(25)  Le présent règlement respecte l’ensemble des droits fondamentaux, ainsi que les libertés et principes reconnus par la Charte des droits fondamentaux de l’Union européenne, tels qu’ils sont consacrés par les traités, en particulier la liberté d’expression et d’information et le droit à un recours effectif et à un procès équitable,

ONT ADOPTÉ LE PRÉSENT RÈGLEMENT:

Article premier

Objet

Le présent règlement a pour objet de contribuer au bon fonctionnement du marché intérieur en fixant les règles visant à garantir l’existence de droits contractuels équitables en matière de gestion de contenu ainsi qu’à créer des mécanismes indépendants de règlement des différends relatifs à la gestion de contenu.

Article 2

Champ d’application

1.  Le présent règlement s’applique aux plateformes d’hébergement de contenu qui hébergent et gèrent des contenus accessibles au public sur des sites internet ou par l’intermédiaire d’applications au sein de l’Union, indépendamment du lieu d’établissement ou d’immatriculation ou du siège d’exploitation principal desdites plateformes.

2.  Le présent règlement ne s’applique pas aux plateformes d’hébergement de contenu qui:

a)  sont dépourvues de tout caractère commercial; ou

b)  comptent moins de [100 000](14) utilisateurs.

Article 3

Définitions

Aux fins du présent règlement, on entend par:

(1)  «plateforme d’hébergement de contenu», un service de la société de l’information au sens de l’article 1er, paragraphe 1, point b), de la directive (UE) 2015/1535 du Parlement européen et du Conseil(15), dont l’objectif principal ou l’un des principaux objectifs est de permettre aux utilisateurs enregistrés ou non enregistrés de téléverser du contenu à afficher sur un site internet ou une application accessibles au public;

(2)  «plateforme d’hébergement de contenu dotée d’un pouvoir de marché important», une plateforme d’hébergement de contenu présentant au moins deux des caractéristiques suivantes:

(a)  une capacité à développer ou à préserver une base d’utilisateurs grâce à des effets de réseau qui bloquent une partie importante desdits utilisateurs, ou grâce à sa position occupée sur le marché en aval qui lui permet de créer une situation de dépendance économique;

(b)  une taille considérable sur le marché, qui peut être mesurée soit par le nombre d’utilisateurs actifs, soit par le chiffre d’affaires annuel global de la plateforme;

(c)  l’intégration dans un environnement économique ou de réseau contrôlé par une société du même groupe ou par la société mère, permettant l’exploitation sur un marché adjacent du pouvoir de marché exercé sur un marché donné;

(d)  un rôle de contrôleur d’accès pour une catégorie entière de contenus ou d’informations;

(e)  l’accès à une quantité considérable de données à caractère personnel de haute qualité fournies par les utilisateurs ou déduites à partir de l’observation du comportement en ligne de ces derniers, ces données étant indispensables à la fourniture ou à l’amélioration d’un service similaire et difficiles à obtenir ou à reproduire par des concurrents potentiels;

(3)  «contenu», tout concept, idée, forme d’expression ou d’information dans tout format (textes, images, audio et vidéo);

(4)  «contenu illicite», tout contenu contraire au droit de l’Union ou au droit de l’État membre dans lequel il est hébergé;

(5)  «gestion de contenu», la modération et l’édition de contenu sur des plateformes d’hébergement de contenu;

(6)  «modération de contenu», la pratique consistant à surveiller et à appliquer un ensemble préétabli de règles et de lignes directrices au contenu généré, publié ou partagé par des utilisateurs afin de faire en sorte que ledit contenu soit conforme aux exigences légales et réglementaires, aux lignes directrices communautaires et aux conditions générales ainsi que toute mesure prise en conséquence par la plateforme, telle que le retrait du contenu ou la suppression ou la suspension du compte de l’utilisateur, par l’intermédiaire de systèmes automatisés ou d’opérateurs humains;

(7)  «édition de contenu», la pratique consistant à sélectionner, à optimiser, à privilégier et à recommander du contenu sur la base du profil personnel des utilisateurs dans le but d’afficher ledit contenu sur un site internet ou une application;

(8)  «conditions générales», toutes les conditions générales ou spécifications, quelle que soit leur dénomination ou leur forme, qui régissent la relation contractuelle entre la plateforme d’hébergement de contenu et ses utilisateurs et qui sont déterminées unilatéralement par la plateforme d’hébergement de contenu;

(9)  «utilisateur», une personne physique ou morale qui utilise les services fournis par une plateforme d’hébergement de contenu ou qui interagit avec le contenu hébergé sur cette plateforme;

(10)  «auteur du téléversement», une personne physique ou morale qui ajoute du contenu sur une plateforme d’hébergement de contenu, indépendamment de sa visibilité pour les autres utilisateurs;

(11)  «notification», une communication officialisée contestant la conformité du contenu avec les exigences légales et réglementaires, les lignes directrices communautaires et les conditions générales.

Article 4

Principes relatifs à la gestion de contenu

1.  La gestion de contenu est effectuée de manière équitable, licite et transparente. Les pratiques de gestion de contenu sont appropriées, proportionnées à la nature et au volume du contenu, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles le contenu est géré. Les plateformes d’hébergement de contenu sont tenues responsables du fait que leurs pratiques de gestion du contenu sont équitables, transparentes et proportionnées.

2.  Les utilisateurs ne sont pas soumis à des pratiques discriminatoires ni à des pratiques d’exploitation ou d’exclusion en matière de modération de contenu par les plateformes d’hébergement de contenu, telles que le retrait de contenu généré par des utilisateurs fondé sur l’apparence, l’origine ethnique, le genre, l’orientation sexuelle, la religion ou les convictions, le handicap, l’âge, la grossesse ou l’éducation des enfants, la langue ou la classe sociale.

3.  Les plateformes d’hébergement de contenu fournissent aux utilisateurs suffisamment d’informations sur leurs profils d’édition de contenu ainsi que sur les critères individuels selon lesquels les plateformes d’hébergement de contenu éditent le contenu pour eux, y compris en ce qui concerne l’utilisation éventuelle d’algorithmes et la finalité desdits algorithmes.

4.  Les plateformes d’hébergement de contenu confèrent aux utilisateurs un niveau d’influence approprié sur l’édition du contenu qui leur est proposé, et notamment la possibilité de s’opposer à toute édition de contenu. Plus précisément, les utilisateurs sont pas soumis à l’édition de contenu sans leur consentement préalable, libre, spécifique, éclairé et univoque.

Article 5

Dialogue structuré sur les risques liés à la gestion de contenu

Dans le cadre du dialogue structuré sur les risques mené avec l’entité européenne et les autorités nationales compétentes, les plateformes d’hébergement de contenu dotées d’un pouvoir de marché important présentent à l’entité européenne un rapport semestriel sur l’incidence sur les droits fondamentaux, sur la gestion des risques dans le cadre de leurs politiques de gestion de contenu et sur la manière dont ils atténuent ces risques.

Article 6

Obligation de transparence

1.  Les prestataires de services numériques prennent les mesures nécessaires pour permettre la divulgation du financement des groupes d’intérêts auxquels les utilisateurs des services numériques fournis sont associés et d’informations détaillées sur la nature de la relation entre lesdits groupes d’intérêts et lesdits utilisateurs. Cette divulgation permet d’identifier la personne responsable sur le plan juridique.

2.  Les prestataires de services numériques commerciaux qui sont établis en dehors de l’Union désignent un représentant légal aux fins de défendre les intérêts des utilisateurs au sein de l’Union et rendent les coordonnées dudit représentant visibles et accessibles sur leur site internet.

Article 7

Éligibilité à l’émission de notifications

1.  Toute personne physique ou morale ou tout organisme public ayant accès à du contenu par l’intermédiaire d’un site internet, d’une application ou d’une autre forme de logiciel a le droit d’émettre une notification en vertu du présent règlement.

2.  Les États membres prévoient des sanctions applicables aux personnes qui, agissant pour les besoins de leur commerce, de leur entreprise, de leur métier ou de leur profession, émettent de manière systématique et répétée de fausses notifications. Ces sanctions sont effectives, proportionnées et dissuasives.

Article 8

Procédures de notification

Les plateformes d’hébergement de contenu incluent dans leurs conditions générales des informations claires, accessibles, intelligibles et dépourvues d’ambiguïté relatives aux procédures de notification, notamment:

(a)  le délai maximal dans lequel l’auteur du téléversement du contenu en question doit être informé de l’existence d’une procédure de notification;

(b)  le délai dans lequel l’auteur du téléversement peut former un recours;

(c)  le délai dont la plateforme d’hébergement de contenu dispose pour traiter promptement une notification et prendre une décision;

(d)  le délai dont la plateforme d’hébergement de contenu dispose pour informer les deux parties du résultat de la décision, en motivant les mesures prises.

Article 9

Contenu des notifications

1.  Une notification relative à du contenu comprend au moins les informations suivantes:

(a)  un lien vers le contenu en question et, s’il y a lieu, dans le cas par exemple d’un contenu vidéo, un horodatage;

(b)  le motif de la notification;

(c)  des éléments de preuve à l’appui de la réclamation formulée dans la notification;

(d)  une déclaration de bonne foi de l’auteur de la notification; et

(e)  en cas de violation de droits de la personnalité ou de droits de propriété intellectuelle, l’identité de l’auteur de la notification.

2.  Dans le cas des violations visées au paragraphe 1, point e), l’auteur de la notification est la personne concernée par la violation des droits de la personnalité, ou le titulaire des droits de propriété intellectuelle qui ont été violés, ou toute personne agissant en son nom.

Article 10

Informations fournies à l’auteur du téléversement

1.  Dès l’émission d’une notification et avant qu’une décision ne soit prise concernant le contenu, l’auteur du téléversement du contenu en question reçoit les informations suivantes:

(a)  le motif de la notification et les mesures susceptibles d’être prises par la plateforme d’hébergement de contenu;

(b)  suffisamment d’informations sur la procédure à suivre;

(c)  des informations sur le droit de réponse prévu au paragraphe 3; et

(d)  des informations sur les voies de recours disponibles en cas de fausses notifications.

2.  Les informations requises au titre du paragraphe 1 ne sont pas communiquées si la plateforme d’hébergement de contenu a été informée par les autorités publiques de l’existence d’enquêtes judiciaires en cours.

3.  L’auteur du téléversement a le droit de répondre à la plateforme d’hébergement de contenu sous la forme d’une contre-notification. La plateforme d’hébergement de contenu tient compte de la réponse de l’auteur du téléversement lorsqu’elle prend une décision sur les mesures à prendre.

Article 11

Décisions relatives aux notifications

1.  Les plateformes d’hébergement de contenu veillent à ce que les décisions relatives aux notifications soient prises sans retard indu par un personnel qualifié au terme des vérifications nécessaires.

2.  À la suite d’une notification, les plateformes d’hébergement de contenu décident sans retard s’il convient de retirer, de supprimer ou de rendre inaccessible le contenu faisant l’objet de la notification si ledit contenu n’est pas conforme aux exigences légales. Sans préjudice de l’article 14, paragraphe 2, le fait qu’un contenu spécifique ait été déclaré non conforme par une plateforme d’hébergement de contenu n’implique en aucun cas que le contenu d’un autre utilisateur puisse être automatiquement retiré, supprimé ou rendu inaccessible.

Article 12

Informations relatives aux décisions

Lorsqu’une plateforme d’hébergement de contenu a pris une décision, elle informe l’ensemble des parties concernées par la procédure de notification du résultat de sa décision, en leur communiquant les informations suivantes en des termes clairs et simples:

(a)  les motifs de la décision;

(b)  si la décision a été prise par un être humain uniquement ou avec l’aide d’un algorithme;

(c)  des informations concernant la possibilité d’un réexamen tel qu’il est visé à l’article 13 et, pour chaque partie, d’un recours juridictionnel.

Article 13

Réexamen des décisions

1.  Les plateformes d’hébergement de contenu peuvent proposer un mécanisme permettant aux utilisateurs de demander un réexamen des décisions prises.

2.  Les plateformes d’hébergement de contenu dotées d’un pouvoir de marché important prévoient le mécanisme de réexamen visé au paragraphe 1.

3.  Dans tous les cas, la décision définitive du réexamen est prise par un être humain.

Article 14

Retrait de contenu

1.  Sans préjudice des décisions judiciaires ou administratives relatives au contenu en ligne, le contenu faisant l’objet d’une notification reste visible tant que l’évaluation de sa légalité est en cours.

2.  Les plateformes d’hébergement de contenu agissent promptement pour rendre indisponible ou retirer les contenus manifestement illicites.

Article 15

Règlement indépendant des différends

1.  Les États membres prévoient des organes indépendants de règlement des différends pour garantir des voies de recours extrajudiciaire rapides et efficaces lorsque des décisions relatives à la modération de contenu font l’objet d’un recours.

2.  Les organes indépendants de règlement des différends sont composés d’experts juridiques indépendants ayant pour mission de statuer sur les différends qui opposent des plateformes d’hébergement de contenu et les utilisateurs concernant la conformité du contenu en question avec les exigences juridiques et réglementaires, les lignes directrices communautaires et les conditions générales.

3.  Le renvoi d’un différend relatif à la modération de contenu devant un organe indépendant de règlement des différends ne fait pas obstacle à l’introduction ultérieure d’une action en justice par un utilisateur, à moins que le différend n’ait été réglé d’un commun accord.

4.  Les plateformes d’hébergement de contenu dotées d’un pouvoir de marché important contribuent financièrement aux coûts de fonctionnement des organes indépendants de règlement des différends par l’intermédiaire d’un fonds spécifique géré par l’entité européenne, dans le but d’aider les États membres à financer ces organes. Les États membres veillent à ce que les organes indépendants de règlement des différends soient dotés des ressources suffisantes pour garantir leur compétence et leur indépendance.

Article 16

Règles de procédure relatives au règlement indépendant des différends

1.  L’auteur du téléversement ainsi qu’un tiers, tel qu’un médiateur ayant un intérêt légitime à agir, ont le droit de renvoyer une affaire relative à la modération de contenus devant l’organe indépendant de règlement des différends compétent dans l’éventualité où une plateforme d’hébergement de contenu aurait décidé de retirer, de supprimer ou de rendre inaccessible le contenu ou d’agir d’une manière contraire à la volonté de l’auteur du téléversement telle qu’exprimée par celui-ci ou qui constitue une violation des droits fondamentaux.

2.  Lorsque la plateforme d’hébergement de contenu a décidé de ne pas supprimer le contenu faisant l’objet d’une notification, l’auteur de la notification a le droit de renvoyer l’affaire devant l’organe indépendant de règlement des différends compétent, pour autant que cet auteur ait la qualité pour agir dans un procès civil concernant le contenu en question.

3.  En ce qui concerne la compétence, l’organe indépendant de règlement des différends compétent est celui qui est établi dans l’État membre où le contenu faisant l’objet du différend a été téléversé. Les personnes physiques sont autorisées, dans tous les cas, à porter leurs réclamations devant l’organe indépendant de règlement des différends de leur État membre de résidence.

4.  Lorsque l’auteur de la notification a le droit de renvoyer une affaire de modération de contenu devant un organe indépendant de règlement des différends conformément au paragraphe 2, il peut saisir l’organe indépendant de règlement des différends établi dans l’État membre de sa résidence habituelle ou de la résidence de l’auteur du téléversement, si ce dernier utilise le service à des fins non commerciales.

5.  Lorsqu’une affaire de modération de contenu liée à la même question fait l’objet d’un renvoi devant un autre organe indépendant de règlement des différends, l’organe indépendant de règlement des différends peut suspendre la procédure en ce qui concerne le renvoi. Lorsqu’une question de modération de contenu a fait l’objet de recommandations de la part d’un organe indépendant de règlement des différends, l’organe indépendant de règlement des différends peut refuser de traiter un renvoi.

6.  Les États membres fixent toutes les autres règles et procédures nécessaires qui s’appliquent aux organes indépendants de règlement des différends relevant de leur compétence.

Article 17

Données à caractère personnel

Tout traitement de données à caractère personnel en application du présent règlement est effectué conformément au règlement (UE) 2016/679 du Parlement européen et du Conseil(16) et à la directive 2002/58/CE du Parlement européen et du Conseil(17).

Article 18

Signalement de violations et protection des personnes qui signalent des violations

La directive (UE) 2019/1937 s’applique au signalement de violations du présent règlement ainsi qu’aux personnes qui signalent ces violations.

Article 19

Modifications de la directive (UE) 2019/1937:

La directive (UE) 2019/1937 est modifiée comme suit:

1)  le point suivant est ajouté à l’article 2, paragraphe 1, point a):

«xi) gestion de contenu en ligne;»;

2)  le point suivant est ajouté à la partie I de l’annexe:

«K. Article 2, paragraphe 1, point a) xi) – gestion de contenu en ligne.

Règlement [XXX] du Parlement européen et du Conseil concernant les droits contractuels en matière de gestion de contenu.».

Article 20

Rapports, évaluation et réexamen

1.  Les États membres fournissent à la Commission l’ensemble des informations pertinentes relatives à la mise en œuvre et à l’application du présent règlement. Sur la base des informations fournies et de la consultation publique, la Commission soumet au Parlement européen et au Conseil, au plus tard le... [trois ans après l’entrée en vigueur du présent règlement], un rapport sur la mise en œuvre et l’application du présent règlement et examine la nécessité d’adopter des mesures supplémentaires, y compris, le cas échéant, des modifications au présent règlement.

2.  Sans préjudice des obligations en matière de rapports prévues dans d’autres actes juridiques de l’Union, les États membres présentent chaque année les données chiffrées suivantes à la Commission:

(a)  le nombre de différends dont les organes indépendants de règlement des différends ont été saisis et les types de contenus qui ont fait l’objet de différends;

(b)  le nombre d’affaires réglées par les organes indépendants de règlement des différends, classées en fonction de l’issue.

Article 21

Entrée en vigueur

Le présent règlement entre en vigueur le vingtième jour suivant celui de sa publication au Journal officiel de l’Union européenne.

Il est applicable à partir du XX.

Le présent règlement est obligatoire dans tous ses éléments et directement applicable dans tout État membre.

Fait à ..., le

Par le Parlement européen Par le Conseil

Le président Le président

(1) JO L 186 du 11.7.2019, p. 57.
(2) JO L 130 du 17.5.2019, p. 92.
(3) JO L 119 du 4.5.2016, p. 1.
(4) JO L 95 du 15.4.2010, p. 1.
(5) JO L 136 du 24.5.2008, p. 3.
(6) JO L 63 du 6.3.2018, p. 50.
(7) JO L 339 du 21.12.2007, p. 3.
(8) JO C 11 du 13.1.2020, p. 7.
(9) https://www.europarl.europa.eu/RegData/etudes/STUD/2020/654180/ EPRS_STU(2020)654180_EN.pdf
(10) JO L 351 du 20.12.2012, p. 1.
(11) JO L 201 du 31.7.2002, p. 37.
(12) JO L 304 du 22.11.2011, p. 64.
(13) Directive (UE) 2019/1937 du Parlement européen et du Conseil du 23 octobre 2019 sur la protection des personnes qui signalent des violations du droit de l’Union (JO L 305 du 26.11.2019, p. 17).
(14) Lorsqu’elle détermine le nombre d’utilisateurs, la Commission devrait tenir compte du cas des PME et des start-ups.
(15) Directive (UE) 2015/1535 du Parlement européen et du Conseil du 9 septembre 2015 prévoyant une procédure d’information dans le domaine des réglementations techniques et des règles relatives aux services de la société de l’information (JO L 241 du 17.9.2015, p. 1).
(16) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données) (JO L 119 du 4.5.2016, p. 1).
(17) Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques (directive vie privée et communications électroniques) (JO L 201 du 31.7.2002, p. 37).


Législation sur les services numériques et questions liées aux droits fondamentaux
PDF 157kWORD 57k
Résolution du Parlement européen du 20 octobre 2020 sur la législation relative aux services numériques et les questions liées aux droits fondamentaux (2020/2022(INI))
P9_TA(2020)0274A9-0172/2020

Le Parlement européen,

–  vu le traité sur l’Union européenne (traité UE), et notamment son article 2,

–  vu le traité sur le fonctionnement de l’Union européenne (traité FUE), et notamment ses articles 16 et 114,

–  vu la charte des droits fondamentaux de l’Union européenne, et notamment ses articles 6, 7, 8, 11, 13, 21, 22, 23, 24, 26, 38 et 47,

–  vu la directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur («directive sur le commerce électronique»)(1),

–  vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE («règlement général sur la protection des données», RGPD)(2),

–  vu la directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques («directive relative à la vie privée et aux communications électroniques»)(3),

–  vu la directive (UE) 2018/1808 du Parlement européen et du Conseil du 14 novembre 2018 modifiant la directive 2010/13/UE visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive «Services de médias audiovisuels»), compte tenu de l’évolution des réalités du marché(4);

–  vu la directive (UE) 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE («directive sur le droit d’auteur»)(5)

–  vu la recommandation de la Commission (UE) 2018/334 du 1er mars 2018 sur les mesures destinées à lutter, de manière efficace, contre les contenus illicites en ligne(6);

–  vu le rapport d’Europol sur l’évaluation de la menace que représente la criminalité organisée sur l’internet (IOCTA) du 18 septembre 2018,

–  vu la jurisprudence de la Cour de justice de l’Union européenne en la matière,

–  vu l’article 54 de son règlement intérieur,

–  vu les avis de la commission du marché intérieur et de la protection des consommateurs et de la commission de la culture et de l’éducation,

–  vu le rapport de la commission des libertés civiles, de la justice et des affaires intérieures (A9‑0172/2020),

A.  considérant que les droits fondamentaux, tels que la protection de la vie privée et des données à caractère personnel, le principe de non-discrimination, ainsi que la liberté d’expression et d’information doivent être ancrés au cœur d’une politique européenne efficace et durable en matière de services numériques; considérant que ces droits doivent apparaître à la fois dans la lettre de la loi et dans l’esprit de leur mise en œuvre;

B.  considérant que les types de services numériques et les rôles des fournisseurs de services numériques ont fortement évolué depuis l’adoption de la directive sur le commerce électronique il y a 20 ans;

C.  considérant que la confiance des utilisateurs ne peut être gagnée que par l’intermédiaire de services numériques qui respectent leurs droits fondamentaux, ce qui permet de garantir à la fois le recours à ces services, ainsi qu’un avantage concurrentiel et des modèles économiques stables pour les entreprises;

D.  considérant que les règles en matière de protection des données applicables à tous les fournisseurs de services numériques sur le territoire de l’Union européenne ont été récemment actualisées et harmonisées dans l’ensemble de l’Union par le règlement général sur la protection des données (RGPD); considérant que les règles relatives à la protection de la vie privée dans le secteur des communications électroniques, qui concernent une partie des services numériques, sont couvertes par la directive relative à la vie privée et aux communications électroniques et sont en cours de révision;

E.  considérant que la quantité de contenus de tout genre créés et partagés par les utilisateurs et de services fournis par l’intermédiaire de plateformes en ligne, y compris de services d’informatique en nuage, a augmenté de manière exponentielle à un rythme sans précédent grâce aux progrès technologiques; considérant que cela inclut des contenus illicites, tels que des images pédopornographiques en ligne, et des contenus licites, mais préjudiciables pour la société et la démocratie, par exemple la désinformation quant aux remèdes contre la COVID-19;

F.  considérant que les discours de haine et la désinformation en ligne se sont multipliés ces dernières années, car les acteurs et les individus perturbateurs utilisent les plateformes en ligne pour accroître la polarisation, ce qui sert des fins politiques; considérant que les femmes, les personnes de couleur, les personnes appartenant ou perçues comme appartenant à des minorités ethniques ou linguistiques et les personnes LGBTIQ sont souvent la cible de discours de haine discriminatoires, d’intimidations, de menaces et d’accusations en ligne;

G.  considérant que cette tendance a été favorisée par des plateformes en ligne dont le modèle économique repose sur la collecte et l’analyse des données des utilisateurs en vue de générer davantage de trafic et de «clics», et donc davantage de données de profilage et de profits; considérant que cela conduit à une multiplication des contenus sensationnalistes; considérant que les discours de haine et la désinformation nuisent à l’intérêt public en discréditant les discours publics respectueux et honnêtes, et menacent la sécurité publique en ce sens qu’ils peuvent engendrer de la violence dans le monde réel; considérant que la lutte contre ce type de contenus est essentielle pour garantir le respect des droits fondamentaux et défendre l’état de droit et la démocratie au sein de l’Union européenne;

H.  considérant que les médias sociaux et les autres plateformes de distribution de contenus ont recours à des techniques de profilage pour orienter et diffuser leurs contenus, ainsi que des publicités; considérant que les données collectées à partir des traces numériques laissées par les individus peuvent être exploitées de manière à déduire des informations très personnelles avec un grand degré de précision, en particulier lorsque ces données sont combinées avec d’autres ensembles de données; considérant que les scandales Facebook et Cambridge Analytica ont illustré les risques associés aux opérations de traitement de données réalisées de manière opaque par les plateformes en ligne, en révélant que certains électeurs avaient été microciblés par des publicités politiques et, parfois, par une désinformation orientée;

I.  considérant que les algorithmes automatisés qui décident de la manière de traiter, de hiérarchiser, de diffuser et de supprimer les contenus tiers disponibles sur les plateformes en ligne, y compris pendant les campagnes politiques et électorales, reproduisent souvent des schémas discriminatoires existants au sein de la société, et créent ainsi un risque élevé de discrimination envers les personnes déjà concernées; considérant que l’utilisation généralisée d’algorithmes dans la suppression et le blocage de contenus soulève également des inquiétudes quant au respect de l’état de droit et des interrogations en matière de légalité, de légitimité et de proportionnalité;

J.  considérant qu’un petit nombre de fournisseurs de services, pour la plupart non européens, disposent d’une part de marché importante et d’une certaine influence sur les droits et les libertés des individus, sur nos sociétés et sur nos démocraties en contrôlant la manière dont les informations, les services et les produits sont présentés, ce qui a une incidence considérable sur le fonctionnement des États membres et sur leurs citoyens; considérant que les décisions de ces plateformes peuvent avoir de lourdes conséquences sur la liberté d’expression et d’information, ainsi que sur la liberté et le pluralisme des médias;

K.  considérant que l’approche législative contre les contenus illicites en ligne dans l’Union a, jusqu’à présent, principalement consisté en une coopération volontaire et en des retraits imposés par décision judiciaire, mais que de plus en plus d’États membres légifèrent à l’échelle nationale pour lutter contre les contenus illicites de manière non harmonisée; considérant que des dispositions visant à lutter contre certains types de contenus illicites ont été incluses dans la législation sectorielle récemment adoptée à l’échelle de l’Union;

L.  considérant qu’une approche fondée uniquement sur l’autorégulation des plateformes ne permet pas d’offrir suffisamment de transparence, de responsabilité et de contrôle; considérant qu’une telle approche n’apporte pas non plus d’informations appropriées aux autorités publiques, à la société civile et aux utilisateurs sur la manière dont les plateformes luttent contre les contenus et activités illicites ainsi que contre les contenus qui enfreignent leurs conditions d’utilisation, ni sur la manière dont elles éditent généralement les contenus;

M.  considérant qu’une telle approche ne garantit pas nécessairement le respect des droits fondamentaux et crée une situation dans laquelle les responsabilités juridiques sont en partie déléguées à des parties privées, ce qui risque d’empiéter sur la liberté d’expression;

N.  considérant que la surveillance et la supervision réglementaires sont organisées de manière sectorielle au sein de l’Union; considérant qu’une coordination plus poussée et plus complète entre les différents organes de surveillance de l’Union européenne serait bénéfique;

O.  considérant que le manque de données publiques solides et comparables sur la prévalence des contenus illicites et préjudiciables en ligne, sur les signalements et les suppressions de ces contenus, qu’elles soient imposées par décision judiciaire ou qu’elles relèvent d’une démarche d’autorégulation, ainsi que sur le suivi assuré par les autorités compétentes provoque un manque de responsabilité et de transparence, tant dans le secteur privé que dans le secteur public; considérant que l’on dispose de trop peu d’informations sur les algorithmes dont se servent les plateformes et les sites ainsi que sur la manière dont les plateformes traitent les suppressions erronées de contenus;

P.  considérant que l’exploitation sexuelle des enfants en ligne alimente une forme de contenus illicites rendus plus accessibles par les évolutions de la technologie; considérant que la grande quantité de contenus pédopornographiques qui circulent en ligne pose de graves difficultés en matière de repérage, d’enquête et surtout d’identification des victimes; considérant que, d’après Europol, le National Center for Missing and Exploited Children («Centre national pour les enfants disparus ou exploités») des États-Unis a enregistré l’année dernière une hausse de 106 % des signalements de partage en ligne de contenus pédopornographiques;

Q.  considérant que la jurisprudence de la Cour de justice de l’Union européenne impose la suppression des contenus sur décision judiciaire émise par une juridiction d’un État membre; considérant que les hébergeurs peuvent avoir recours à des outils et à des technologies de recherche automatisée afin de détecter et de supprimer les contenus équivalents à un autre qui a déjà été déclaré illicite, mais ne devraient pas être tenus à une obligation générale de surveiller les informations qu’ils stockent, ni de rechercher activement des faits ou des circonstances révélant des activités illicites, conformément à l’article 15, paragraphe 1, de la directive 2000/31/CE;

R.  considérant qu’une identification électronique fiable est un moyen élémentaire de garantir un accès sécurisé aux services numériques et d’effectuer des transactions électroniques d’une manière plus sûre; considérant qu’à l’heure actuelle, seuls 15 États membres ont notifié à la Commission leur schéma d’identification électronique pour une reconnaissance transfrontalière dans le cadre du règlement (UE) nº 910/2014 (« le règlement eIDAS »)(7);

S.  considérant que l’internet et les plateformes en ligne restent un terrain essentiel pour les groupes terroristes, qui les utilisent comme outils de propagande, de recrutement et de promotion de leurs actions;

1.  estime qu’un marché unique numérique opérationnel présente des avantages économiques et sociétaux évidents pour l’Union européenne et ses États membres; se réjouit de ces avantages, en particulier de l’amélioration de l’accès à l’information et du renforcement de la liberté d’expression; souligne l’obligation importante de veiller au caractère équitable de l’écosystème numérique, afin de respecter les droits fondamentaux consacrés par les traités et la charte des droits fondamentaux de l’Union européenne, en particulier la liberté d’expression et d’information, la non-discrimination, la liberté et le pluralisme des médias, le respect de la vie privée et la protection des données, et de garantir la sécurité en ligne; insiste sur la nécessité de limiter au strict nécessaire les interventions législatives et réglementaires dans le marché unique numérique qui visent à assurer que cette obligation est suivie; rappelle que les mécanismes de suppression des contenus activés en dehors des garanties d’une procédure régulière sont contraires à l’article 10 de la Convention européenne des droits de l’homme;

2.  demande instamment à la Commission d’adopter une approche réglementaire sur mesure pour faire face aux différences persistantes entre monde hors ligne et monde en ligne, ainsi qu’à toutes les difficultés soulevées par la diversité des acteurs et des services proposés en ligne; considère essentiel, à cet égard, d’appliquer des approches réglementaires différentes aux contenus illicites et licites; souligne qu’il faut lutter contre les contenus illicites en ligne et les infractions facilitées par l’internet avec autant de rigueur, en suivant les mêmes principes juridiques et en apportant les mêmes garanties aux citoyens que dans la lutte contre les contenus illicites et les comportements illégaux hors ligne; rappelle que la gestion des contenus est encadrée juridiquement par la directive sur le commerce électronique applicable aux services en ligne au sein du marché intérieur;

3.  juge nécessaire la suppression rapide et systématique des contenus illicites, afin de lutter contre les infractions et les violations des droits fondamentaux; considère que des codes de conduite volontaires ne constituent qu’une solution partielle;

4.  invite les fournisseurs de services numériques à supprimer les contenus de manière diligente, mesurée et non discriminatoire, dans le respect, en toutes circonstances, des droits fondamentaux des utilisateurs, et à tenir compte de l’importance capitale de la liberté d’expression et d’information dans une société ouverte et démocratique afin d’éviter le retrait de contenus licites; demande aux fournisseurs de services numériques qui souhaitent, de leur propre initiative, restreindre certains contenus licites de leurs utilisateurs d’envisager la possibilité de signaler les contenus concernés plutôt que de les supprimer, afin de laisser aux utilisateurs une chance de choisir d’accéder à ces contenus en toute responsabilité;

5.  estime que toute mesure de suppression des contenus juridiquement imposée par la législation sur les services numériques devrait uniquement s’appliquer aux contenus illicites tels que définis dans les législations européennes ou nationales; croit que ces textes législatifs ne devraient pas comprendre de termes ou concepts imprécis, car cela entraînerait de l’insécurité juridique pour les plateformes en ligne et mettrait en péril les droits fondamentaux et la liberté d’expression;

6.  constate néanmoins que l’écosystème numérique actuel encourage les comportements problématiques, tels que le microciblage fondé sur des caractéristiques faisant état de vulnérabilités physiques ou psychologiques ou la diffusion de discours de haine, de contenus racistes et de désinformation, mais fait également surgir de nouvelles questions comme les violations organisées des conditions d’utilisation de plusieurs plateformes et la présence d’algorithmes créant de faux profils ou manipulant les contenus en ligne; relève avec inquiétude que certains modèles commerciaux s’appuient sur la diffusion de contenus sensationnalistes et clivants, afin d’augmenter le temps que les utilisateurs passent devant leur écran et ainsi de maximiser les profits des plateformes en ligne; souligne les effets néfastes de ces modèles commerciaux pour les droits fondamentaux des individus et la société dans son ensemble; réclame davantage de transparence dans les politiques de monétisation des plateformes en ligne;

7.  souligne par conséquent qu’il convient d’endiguer la diffusion de ces contenus préjudiciables; est fermement convaincu que les compétences relevant de l’éducation aux médias, le contrôle de l’utilisateur sur le contenu qui lui est présenté et l’accès public à des contenus et à une éducation de qualité revêtent à cet égard une importance capitale; salue donc l’initiative de la Commission de créer un Observatoire européen des médias numériques pour soutenir les services indépendants de vérification des faits, accroître les connaissances du public sur la désinformation en ligne et soutenir les autorités publiques chargées de surveiller les médias numériques;

8.  invite la Commission et les États membres à soutenir les médias publics comme indépendants, les initiatives pédagogiques en matière d’éducation aux médias et les campagnes de sensibilisation ciblées au sein de la société civile; invite à porter davantage d’attention sur les contenus préjudiciables dans le contexte de l’utilisation de l’internet par des mineurs, notamment en ce qui concerne leur exposition à la cyberintimidation, au harcèlement sexuel, à la pornographie, à la violence et à l’automutilation;

9.  remarque que, étant donné que les activités en ligne d’une personne permettent d’acquérir des connaissances approfondies sur sa personnalité, ce qui rend possible sa manipulation, la collecte générale et systématique de données à caractère personnel concernant chaque utilisation d’un service numérique empiète de façon disproportionnée sur le droit à la vie privée et sur la protection des données à caractère personnel; souligne en particulier que la publicité microciblée ou comportementale et l’évaluation des personnes peuvent avoir des conséquences négatives, en particulier sur les mineurs et les autres groupes vulnérables, parce qu’elles constituent une intrusion dans la vie privée des individus et soulèvent des questions quant à la collecte et à l’utilisation des données servant à personnaliser la publicité, à proposer des produits ou des services, ou à fixer des prix; réaffirme que le RGPD protège le droit des utilisateurs de ne pas faire l’objet d’un suivi généralisé lorsqu’ils utilisent des services numériques; déclare que ce droit devrait être correctement appliqué dans l’ensemble de l’Union; note que la Commission a proposé de soumettre l’édition ciblée de contenus à une décision d’acceptation dans sa proposition de nouveau règlement concernant le respect de la vie privée et la protection des données à caractère personnel dans les communications électroniques (2017/0003(COD));

10.  estime que la publicité politique trompeuse ou obscure relève d’une catégorie spéciale de menace en ligne parce qu’elle influence les mécanismes fondamentaux qui permettent le fonctionnement de notre société démocratique, notamment lorsqu’un tel contenu est parrainé par des acteurs tiers, parfois étrangers; insiste sur le fait que, lorsque le profilage est déployé à une échelle permettant au microciblage politique de manipuler les comportements de vote, il peut gravement porter atteinte aux fondements de la démocratie; invite donc les fournisseurs de services numériques à prendre les mesures nécessaires en vue de la détection et du signalement des contenus mis en ligne par des robots sur les réseaux sociaux; espère que la Commission présentera des lignes directrices sur l’utilisation de ces technologies numériques visant à convaincre dans le cadre de campagnes électorales et de la publicité politique; demande, à cet égard, l’établissement d’obligations strictes de transparence pour l’affichage de publicité politique payante;

11.  juge nécessaire la suppression systématique et sans délai des contenus illicites afin de réagir aux infractions, notamment lorsqu’elles touchent des enfants ou relèvent de contenus terroristes, et aux violations des droits fondamentaux, tout en mettant en place les garanties nécessaires, telles que la transparence de la procédure, le droit de recours et l’accès à un recours judiciaire efficace; considère que les codes de conduite volontaires et les conditions d’utilisation normalisées ne sont pas correctement appliqués et ne constituent qu’une solution partielle au problème; souligne que la responsabilité de veiller au respect de la législation, de décider de la légalité d’activités en ligne et d’ordonner aux fournisseurs de services d’hébergement de retirer des contenus illégaux ou d’empêcher d’y avoir accès devrait incomber en dernière instance à des autorités compétentes indépendantes;

12.  remarque qu’il est facile d’établir le caractère illicite de certains types de contenu, mais que la décision est plus difficile pour d’autres types de contenu qu’il faut replacer dans leur contexte; met en garde quant à l’incapacité des outils automatisés actuels à réaliser des analyses critiques et à saisir correctement l’importance du contexte pour certains contenus, ce qui pourrait entraîner des suppressions inutiles, restreindre la liberté d’expression et l’accès à diverses informations, notamment lorsqu’il s’agit d’opinions politiques, et mener à une forme de censure; souligne qu’un examen humain des rapports automatisés effectué par les fournisseurs de services ou leurs contractants ne suffit pas à résoudre ce problème, surtout lorsque cet examen est externalisé auprès du personnel d’entreprises privées, qui manque d’indépendance, de qualifications et de responsabilité;

13.  relève avec inquiétude que les contenus illicites en ligne peuvent facilement se multiplier rapidement, ce qui amplifie considérablement leur incidence négative sur une très courte période; croit toutefois que la législation sur les services numériques ne devrait pas prévoir d’obligation pour les fournisseurs de services d’hébergement ou les autres intermédiaires techniques d’utiliser des outils automatisés pour la modération des contenus;

14.  rappelle que les contenus illicites en ligne devraient non seulement être supprimés des plateformes en ligne, mais également faire l’objet d’un suivi par les services répressifs et judiciaires lorsqu’ils découlent d’activités illégales; invite la Commission à envisager d’obliger les plateformes en ligne à informer l’autorité compétente de toute infraction grave dès qu’ils prennent connaissance d’une telle infraction; pense à cet égard que dans certains États membres, ce n’est pas tant l’existence d’affaires non résolues que celle d’affaires jamais ouvertes qui constitue un problème essentiel; demande l’élimination des obstacles entravant le dépôt de plaintes auprès des autorités compétentes; est convaincu que la coopération entre les fournisseurs de services et les autorités nationales compétentes, ainsi que la coopération transfrontalière entre les autorités nationales compétentes, devrait être renforcée et s’appuyer sur les principes de nécessité et de proportionnalité, étant donné que l’internet ne connaît pas de frontières et que les contenus illicites en ligne se diffusent rapidement; souligne à cet égard la nécessité de respecter l’ordre juridique de l’Union européenne et les principes établis de coopération transfrontalière et de confiance mutuelle; invite les États membres à doter leurs services répressifs et leurs autorités judiciaires de l’expertise, des ressources et des outils nécessaires pour leur permettre de traiter de manière efficace et efficiente le nombre croissant d’affaires relatives à la présence de contenus illicites en ligne; recommande la mise en place d’un mécanisme de règlement des litiges en vue de la suppression des contenus, ainsi que l’élargissement de l’accès à la justice en matière de services numériques;

15.  souligne qu’un contenu spécifique peut être jugé illicite dans un État membre, mais relever de la liberté d’expression dans un autre; souligne que pour protéger la liberté d’expression, prévenir les conflits de lois, éviter un recours injustifié et inutile au géoblocage et harmoniser le marché unique numérique, les fournisseurs de services d’hébergement ne devraient pas être contraints de supprimer des informations ou l’accès à des informations lorsque celles-ci sont légales dans l’État membre où ils sont établis ou dans celui où leur représentant légal désigné réside ou est établi; rappelle que les autorités nationales ne peuvent faire appliquer des injonctions de suppression que si elles sont émises par des autorités compétentes indépendantes à l’intention de fournisseurs de services établis sur leur territoire; estime nécessaire de renforcer les mécanismes de coopération entre les États membres, avec le soutien de la Commission et des agences de l’Union européenne concernées; demande l’établissement d’un dialogue structuré entre les États membres afin de déterminer les risques posés par chaque type de contenu et de détecter toute différence éventuelle entre États membres dans l’évaluation de ces risques;

16.  souligne que les contenus illicites devraient être supprimés à l’endroit où ils sont hébergés, et que les simples intermédiaires relayant ces contenus ne devraient pas être tenus de bloquer l’accès à ceux-ci;

17.  se déclare fermement convaincu que le cadre juridique actuel de l’Union concernant les services numériques devrait être modernisé, afin de répondre aux questions soulevées par les divergences entre les États membres face aux nouvelles technologies, en ce qui concerne par exemple la prévalence du profilage et des prises de décision au moyen d’algorithmes dans tous les aspects du quotidien, ainsi que de garantir la clarté juridique et le respect des droits fondamentaux, notamment la liberté d’expression et le droit au respect de la vie privée, d’une manière susceptible de résister à l’épreuve du temps, étant donné les évolutions rapides de la technologie;

18.  salue la volonté de la Commission d’introduire une approche harmonisée concernant les obligations imposées aux fournisseurs de services numériques, y compris les intermédiaires en ligne, afin de prévenir la fragmentation du marché intérieur et l’application disparate de la réglementation; invite donc la Commission à proposer les solutions les plus efficaces et efficientes pour le marché intérieur dans son ensemble, tout en évitant de créer de nouvelles formalités administratives inutiles et en gardant le marché unique numérique ouvert, équitable, sûr et concurrentiel pour tous ses participants; souligne que le régime de responsabilité pour les fournisseurs de services numériques doit être proportionné, ne pas désavantager les petits et moyens fournisseurs et ne pas freiner l’innovation et l’accès à l’information de manière injustifiée;

19.  estime qu’une réforme en ce sens devrait pleinement respecter le droit européen existant, s’appuyer sur ses fondements solides, en particulier le RGPD et la directive relative à la vie privée et aux communications électroniques, en cours de révision, et respecter la primauté d’autres instruments sectoriels tels que la directive «Services de médias audiovisuels»; souligne que la modernisation des règles en matière de commerce électronique peut avoir une incidence sur les droits fondamentaux; demande donc instamment à la Commission d’être extrêmement vigilante dans son approche et de tenir compte également des normes internationales relatives aux droits de l’homme lors de la révision de la réglementation;

20.  souligne que la capacité pratique des utilisateurs individuels à naviguer dans les écosystèmes de données et à comprendre leur complexité est extrêmement limitée, tout comme leur aptitude à déterminer si les informations qu’ils reçoivent et les services qu’ils utilisent sont mis à leur disposition selon les mêmes conditions que les autres utilisateurs; prie donc la Commission de placer les principes de transparence et de non-discrimination au cœur de la législation sur les services numériques;

21.  précise que la législation sur les services numériques doit viser à assurer un niveau élevé de transparence en ce qui concerne le fonctionnement des services en ligne et un environnement numérique exempt de discrimination; souligne qu’outre le cadre réglementaire strict qui protège actuellement la vie privée et les données à caractère personnel, il doit incomber aux plateformes en ligne de veiller à l’utilisation légitime des algorithmes; demande donc à la Commission d’élaborer un régime fondé sur la directive sur le commerce électronique qui encadre clairement la responsabilité des fournisseurs de services de gérer les risques auxquels leurs utilisateurs sont confrontés et de protéger les droits de ceux-ci; prie la Commission d’instaurer une obligation de transparence et d’explicabilité des algorithmes, de prévoir des sanctions visant à assurer le respect de cette obligation, de permettre une intervention humaine et de prendre d’autres mesures, telles que des audits indépendants annuels et des tests de résistance spécifiques visant à faciliter et à assurer la conformité;

22.  souligne que certains fournisseurs de services numériques ont réussi à identifier sans ambiguïté leurs utilisateurs de manière équivalente aux services hors ligne; constate que, lors de l’inscription à un service, les plateformes en ligne collectent des données à caractère personnel superflues, telles que le numéro de téléphone mobile, souvent parce qu’elles utilisent des systèmes d’authentification unique; souligne que le RGPD décrit clairement le principe de minimisation des données, limitant ainsi la collecte des données à celles strictement nécessaires à l’objectif poursuivi; recommande que les plateformes en ligne qui assurent un service d’authentification unique occupant une position dominante sur le marché soient tenues de proposer au moins un système d’identité ouvert, s’appuyant sur un cadre non exclusif, décentralisé et interopérable;

23.  souligne que lorsqu’un certain type d’identification officielle est nécessaire hors ligne, il est indispensable de créer un système d’identification électronique sécurisé équivalent; est d’avis que l’identification en ligne peut être améliorée en appliquant l’interopérabilité transfrontalière des identifications électroniques prévue par le règlement eIDAS dans toute l’Union européenne; invite la Commission à envisager de créer un système européen commun d’authentification permettant d’éviter les systèmes privés d’authentification unique, et à imposer aux services numériques une obligation de proposer systématiquement comme possibilité par défaut une identification manuelle; souligne qu’il convient de développer ce service de manière à ce que la collecte de données identifiables enregistrées par le prestataire du service d’authentification soit techniquement impossible et que les données recueillies soient limitées au strict minimum; recommande donc à la Commission d’étudier également la mise au point d’un système de vérification pour les utilisateurs de services numériques afin de garantir la protection des données à caractère personnel et la vérification de l’âge, en particulier pour les mineurs, système qui ne devrait pas être utilisé à des fins commerciales, ni pour suivre les utilisateurs entre les sites; souligne que ces systèmes d’authentification et de vérification ne devraient s’appliquer qu’aux services numériques qui nécessitent une identification personnelle, une authentification ou une vérification de l’âge; rappelle que les États membres et les institutions de l’Union doivent veiller à la sécurité et à la transparence des systèmes d’authentification électronique, au fait qu’ils traitent uniquement les données nécessaires à l’identification de l’utilisateur et qu’ils ne sont utilisés qu’à des fins légitimes et non commerciales, ni pour restreindre l’accès général à l’internet ou suivre les utilisateurs entre les sites;

24.  juge indispensable d’harmoniser et de clarifier intégralement les règles au niveau européen sur la responsabilité, en vue de garantir le respect des droits fondamentaux et les libertés des utilisateurs dans l’ensemble de l’Union; estime que de telles règles devraient maintenir les exemptions de responsabilité pour les intermédiaires n’ayant pas effectivement connaissance des activités ou informations illicites sur leurs plateformes; se déclare préoccupé par la fragmentation croissante des règles et par la diminution du niveau de protection des droits fondamentaux dans l’Union entraînées par l’adoption récente de législations nationales visant à lutter contre les discours de haine et la désinformation;

25.  demande donc des propositions législatives qui maintiennent l’ouverture et la compétitivité du marché unique numérique, en harmonisant les exigences imposées aux fournisseurs de services numériques en matière de procédures et de garanties procédurales efficaces, cohérentes, transparentes et équitables pour traiter les contenus illicites en ligne, conformément à la législation nationale et européenne, y compris en mettant en place une procédure harmonisée de notification et d’action;

26.  croit à cet égard qu’il est primordial pour les plateformes en ligne de disposer de règles, d’obligations et de garanties claires en matière de responsabilité vis-à-vis des contenus de tiers; propose la mise en place d’un cadre réglementaire commun, afin de repérer et de supprimer les contenus illicites de manière efficace;

27.  insiste sur l’importance de compléter les règles sur les procédures de notification et d’action par l’obligation pour les plateformes de prendre des mesures spécifiques, proportionnées à leur portée d’action et à leurs capacités techniques et opérationnelles, pour lutter efficacement contre l’émergence de contenus illicites sur leur infrastructure; note dès lors que, lorsque cela est technologiquement faisable, sur demande dûment motivée des autorités publiques indépendantes compétentes, et en tenant pleinement compte du contexte spécifique du contenu, il peut être demandé aux fournisseurs de services numériques de rechercher régulièrement certains contenus déjà déclarés illicites par un tribunal, pour autant que la surveillance et la recherche des informations concernées par une telle injonction sont limitées à des informations véhiculant un message dont le contenu demeure, en substance, inchangé par rapport à celui ayant donné lieu au constat d’illicéité et comportant les éléments spécifiés dans l’injonction, qui, conformément à l’arrêt de la Cour de justice du 3 octobre 2019 dans l’affaire C-18/18(8), sont à ce point identiques ou équivalents qu’il n’y a pas lieu de contraindre l’hébergeur à procéder à une appréciation autonome de ce contenu;

28.  estime que le choix des initiatives concrètes devrait être laissé aux plateformes; se déclare favorable à une approche équilibrée et fondée sur un dialogue avec les parties prenantes et une évaluation des risques encourus par les plateformes, ainsi qu’à une chaîne de responsabilité claire, afin de ne pas faire peser des charges réglementaires superflues sur les plateformes ni de restreindre de manière inutile ou disproportionnée les droits fondamentaux, en particulier la liberté d’expression, l’accès à l’information, notamment lorsqu’il s’agit d’opinions politiques, et le droit au respect de la vie privée; souligne que certains devoirs peuvent être précisés par la législation sectorielle; signale que toute mesure mise en place à cette fin ne peut constituer une obligation générale de surveillance, ni en droit ni en fait;

29.  souligne la nécessité de mettre en place des garanties appropriées et des obligations de traitement équitable, notamment en exigeant une surveillance et une vérification humaines, ainsi que des procédures de contre-signalement, afin de permettre aux propriétaires des contenus et à ceux qui les ont mis en ligne de défendre leurs droits comme il se doit et en temps voulu, mais aussi de veiller à la légalité, à la précision et au bien-fondé des décisions de suppression ou de blocage, à la protection des utilisateurs ainsi qu’au respect des droits fondamentaux; insiste pour que les personnes qui adressent systématiquement et de façon répétée des notifications injustifiées ou abusives soient sanctionnées; rappelle qu’un recours juridictionnel effectif, outre les procédures de contre-signalement et les règlements extrajudiciaires effectués par les plateformes conformément à leur système interne de réclamations, devrait toujours rester accessible afin de respecter le droit à un recours effectif;

30.  approuve la conservation du cadre actuel régissant la responsabilité limitée relative aux contenus ainsi que le principe du pays d’origine, mais estime qu’il est essentiel d’améliorer la coordination des demandes de suppression entre les autorités nationales compétentes; souligne que les contenus illicites doivent être supprimés là où ils sont hébergés; insiste pour que ces demandes fassent l’objet de garanties juridiques, afin d’éviter les abus et d’assurer le plein respect des droits fondamentaux; souligne que les demandes de suppression émises par les autorités compétentes devraient être spécifiques et indiquer clairement le fondement juridique de la suppression; souligne qu’un mécanisme efficace de surveillance et d’application, comprenant des sanctions proportionnées et tenant compte des capacités techniques et opérationnelles, devrait s’appliquer aux fournisseurs de services qui n’accèdent pas aux demandes légitimes;

31.  rappelle que les fournisseurs de services numériques ne doivent pas être légalement tenus de conserver de données à caractère personnel de leurs utilisateurs ou abonnés à des fins répressives, sauf si la conservation ciblée est ordonnée par une autorité compétente indépendante, dans le plein respect du droit de l’Union et de la jurisprudence de la Cour de justice de l’Union européenne; rappelle également que la conservation de données dans ce cadre devrait se limiter au strict nécessaire en ce qui concerne les catégories de données à conserver, les personnes et les moyens de communication concernés ainsi que la période de conservation retenue;

32.  pense que, afin de protéger les droits fondamentaux, la législation sur les services numériques devrait introduire des règles visant à garantir que les conditions d’utilisation des fournisseurs de services numériques sont claires, transparentes, équitables et facilement accessibles aux utilisateurs; regrette que les conditions d’utilisation de certaines plateformes de contenu obligent les agents des services répressifs à utiliser des comptes personnels pour enquêter sur certaines plaintes, ce qui entrave les enquêtes et met en péril la sécurité personnelle; souhaite une coordination plus efficace entre les États membres en ce qui concerne le suivi de l’application de la législation en matière de contenus illicites signalés; rappelle que toute demande de suppression adressée par une autorité compétente indépendante doit être fondée sur le droit et non sur les conditions d’utilisation des fournisseurs de services;

33.  invite la Commission à s’assurer que les utilisateurs ont accès à un contenu en ligne diversifié et de qualité, afin de les aider à devenir des citoyens suffisamment informés; souhaite que la législation sur les services numériques veille à ce que les contenus médiatiques de qualité soient aisément accessibles et trouvables sur les plateformes tierces, et à ce que les suppressions de contenus respectent les normes en matière de droits de l’homme et se limitent au contenu indubitablement illicite ou jugé illicite par une autorité compétente indépendante; souligne que les contenus légaux ne devraient pouvoir faire l’objet d’aucune obligation juridique de suppression ou de blocage;

34.  est favorable à un dialogue renforcé entre les États membres, les autorités compétentes et les parties prenantes concernées dans le but de mettre au point des démarches non contraignantes, comme le code européen de bonnes pratiques contre la désinformation, de les évaluer et de les améliorer, afin de mieux lutter contre la désinformation et les autres catégories de contenus licites; souhaite que la Commission publie des lignes directrices qui prévoient des règles obligeant à davantage de transparence concernant la modération des contenus et les pratiques vis-à-vis de la publicité, sous forme d’un instrument d’accompagnement spécifique de la législation sur les services numériques, afin de veiller à ce que la suppression et le blocage de contenus licites effectués sur la base des conditions d’utilisation se limitent au strict nécessaire; demande en outre à la Commission d’établir un cadre qui interdise aux plateformes d’exercer un deuxième niveau de contrôle sur les contenus mis à disposition sous la responsabilité d’un fournisseur de services médiatiques et qui sont soumis à des normes et à une surveillance spécifiques;

35.  souligne par ailleurs que les utilisateurs devraient disposer d’un choix et d’un contrôle plus vastes quant aux contenus qu’ils consultent, ce qui implique des options sur la manière dont les contenus sont organisés pour eux et la possibilité de refuser toute organisation des contenus; est fermement convaincu que la conception et la performance de systèmes de recommandation devraient tenir compte de la convivialité d’utilisation et être soumises à une obligation de transparence totale;

36.  estime que l’obligation de rendre des comptes, tant pour le secteur privé que pour le secteur public, et l’élaboration de mesures fondées sur des éléments factuels requièrent des données solides sur la prévalence des contenus et des activités illicites en ligne, les mesures prises dans ce domaine et la manière dont les contenus sont supprimés, ainsi que sur les algorithmes d’organisation de contenus des plateformes en ligne;

37.  demande à cet égard que les plateformes soient soumises à une obligation de publier des rapports annuels exhaustifs et approfondis, qui soit proportionnée à leur portée d’action et à leurs capacités opérationnelles, plus précisément sur leurs procédures de modération des contenus, y compris des informations sur les mesures adoptées contre les activités illicites en ligne et des données normalisées sur la quantité de contenus supprimés, les motifs et les bases juridiques sous-jacents, le type et la justification des demandes de suppression reçues, le nombre de demandes dont l’exécution a été refusée et les motifs de ces refus; précise qu’un rapport portant sur les activités d’une année donnée devrait être publié avant la fin du premier trimestre de l’année suivante;

38.  appelle également de ses vœux une obligation pour les autorités nationales de publier des rapports annuels comprenant des données normalisées sur le nombre de demandes de suppression et leurs bases juridiques, sur le nombre de demandes de suppression ayant fait l’objet de recours administratifs ou judiciaires, sur l’issue de ces procédures, en mentionnant celles concernant des contenus ou activités accusés à tort d’être illicites, et sur le nombre total de décisions imposant des sanctions, y compris une description du type de sanction imposée;

39.  se déclare inquiet de la fragmentation des organes de surveillance et de supervision, ainsi que de leur manque avéré en ressources humaines et financières; suggère une coopération accrue entre les États membres en matière de surveillance réglementaire des services numériques;

40.  considère que pour garantir une bonne application de la législation sur les services numériques, il convient d’harmoniser au sein du marché unique numérique la surveillance du respect des procédures, des garanties procédurales et des obligations de transparence qui figurent dans ladite législation; souhaite à cet égard que l’application soit suivie de manière solide et rigoureuse par une structure de surveillance de l’Union indépendante, qui puisse imposer des amendes en s’appuyant sur l’évaluation d’un ensemble clairement défini de facteurs, tels que la proportionnalité, les mesures techniques et organisationnelles et la négligence; est d’avis que les amendes devraient pouvoir s’élever à un pourcentage donné du chiffre d’affaires annuel global de l’entreprise;

41.  souligne qu’il faut mener les audits des politiques et algorithmes internes des fournisseurs de services numériques dans le respect du droit de l’Union, en particulier des droits fondamentaux des utilisateurs des services, en tenant compte de l’importance de la non-discrimination et de la liberté d’expression et d’information dans une société ouverte et démocratique, et sans publier de données sensibles sur le plan commercial; juge urgent d’évaluer, à la suite d’une plainte ou à l’initiative des organes de surveillance, si les fournisseurs de services numériques amplifient les contenus et de quelle manière, par exemple au moyen de moteurs de recommandation et de fonctions d’optimisation telles que la saisie semi-automatique et les tendances;

42.  considère que les rapports de transparence rédigés par les plateformes et les autorités nationales compétentes devraient être rendus accessibles au public et analysés pour repérer des tendances structurelles dans le repérage, le blocage et la suppression de contenus au niveau de l’Union;

43.  souligne l’importance de donner aux utilisateurs les moyens de faire respecter eux-mêmes leurs droits fondamentaux en ligne, notamment en facilitant l’accès, pour les particuliers comme les entreprises, à des procédures de plainte impartiales, transparentes, efficaces et gratuites, à des mécanismes de signalement de contenus illicites et de comportements illégaux, ainsi qu’à des recours en justice, et en prévoyant des mesures pédagogiques et des campagnes de sensibilisation aux questions relatives à la protection des données et à la sécurité des enfants en ligne;

44.  est d’avis que les expériences passées ont montré que l’on pouvait efficacement permettre à des modèles d’entreprise innovants de prospérer et renforcer le marché unique numérique en supprimant les obstacles à la libre circulation des contenus numériques et en empêchant l’introduction de nouveaux obstacles injustifiés au niveau national; estime que poursuivre cette approche permettra de réduire la fragmentation du marché intérieur; considère en outre que la législation sur les services numériques peut ouvrir des possibilités pour développer les connaissances et les compétences des citoyens dans le domaine numérique et garantir un haut niveau de protection des consommateurs, y compris en préservant la sécurité en ligne;

45.  souligne le caractère indispensable d’accords sur les normes de sécurité essentielles dans le cyberespace, de sorte que les services numériques puissent offrir tous leurs avantages aux citoyens; note par conséquent qu’il est urgent que les États membres prennent des mesures coordonnées pour assurer une cyberhygiène de base et pour prévenir les dangers évitables dans le cyberespace, notamment par des mesures législatives;

46.  charge son Président de transmettre la présente résolution au Conseil et à la Commission.

(1) JO L 178 du 17.7.2000, p. 1.
(2) JO L 119 du 4.5.2016, p. 1.
(3) JO L 201 du 31.7.2002, p. 37.
(4) JO L 303 du 28.11.2018, p. 69.
(5) JO L 130 du 17.5.2019, p. 92.
(6) JO L 63 du 6.3.2018, p. 50.
(7) Règlement (UE) n° 910/2014 du Parlement européen et du Conseil du 23 juillet 2014 sur l’identification électronique et les services de confiance pour les transactions électroniques au sein du marché intérieur et abrogeant la directive 1999/93/CE (JO L 257 du 28.8.2014, p. 73).
(8) Arrêt de la Cour de justice du 3 octobre 2019, Eva Glawischnig-Piesczek/Facebook Ireland Limited, C-18/18, ECLI:EU:C:2019:821.


Cadre pour les aspects éthiques de l’intelligence artificielle, de la robotique et des technologies connexes
PDF 344kWORD 114k
Résolution
Annexe
Annexe
Résolution du Parlement européen du 20 octobre 2020 contenant des recommandations à la Commission concernant un cadre pour les aspects éthiques de l’intelligence artificielle, de la robotique et des technologies connexes (2020/2012(INL))
P9_TA(2020)0275A9-0186/2020

Le Parlement européen,

–  vu l’article 225 du traité sur le fonctionnement de l’Union européenne,

–  vu l’article 114 du traité sur le fonctionnement de l’Union européenne,

–  vu la Charte des droits fondamentaux de l’Union européenne,

–  vu le règlement (UE) 2018/1488 du Conseil du 28 septembre 2018 établissant l’entreprise commune pour le calcul à haute performance européen(1),

–  vu la directive 2000/43/CE du Conseil du 29 juin 2000 relative à la mise en œuvre du principe de l’égalité de traitement entre les personnes sans distinction de race ou d’origine ethnique(2) (directive sur l’égalité entre les races),

–  vu la directive 2000/78/CE du Conseil du 27 novembre 2000 portant création d’un cadre général en faveur de l’égalité de traitement en matière d’emploi et de travail(3) (directive sur l’égalité de traitement en matière d’emploi),

–  vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données)(4) (RGPD) et la directive (UE) 2016/680 du Parlement européen et du Conseil du 27 avril 2016 relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales, et à la libre circulation de ces données, et abrogeant la décision-cadre 2008/977/JAI du Conseil(5),

–  vu l’accord interinstitutionnel «Mieux légiférer» du 13 avril 2016(6),

–  vu la proposition de règlement du Parlement européen et du Conseil du 6 juin 2018 établissant le programme pour une Europe numérique pour la période 2021-2027 (COM(2018)0434),

–  vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social et au Comité des régions du 11 décembre 2019 sur le pacte vert pour l’Europe (COM(2019)0640),

–  vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 19 février 2020 intitulée «Intelligence artificielle - Une approche européenne axée sur l’excellence et la confiance» (COM(2020)0065),

–  vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 19 février 2020 intitulée «Une stratégie européenne pour les données» (COM(2020)0066),

–  vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 19 février 2020 intitulée «Façonner l’avenir numérique de l’Europe» (COM(2020)0067),

–  vu les conclusions du Conseil de l’Union européenne de juin 2020 intitulées «Façonner l’avenir numérique de l’Europe»,

–  vu sa résolution du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique(7),

–  vu sa résolution du 1er juin 2017 sur la numérisation de l’industrie européenne(8),

–  vu sa résolution du 12 septembre 2018 sur les systèmes d’armes autonomes(9),

–  vu sa résolution du 11 septembre 2018 sur l’égalité des langues à l’ère numérique(10),

–  vu sa résolution du 12 février 2019 sur une politique industrielle européenne globale sur l’intelligence artificielle et la robotique(11),

–  vu le rapport du 8 avril 2019 élaboré par le groupe d’experts de haut niveau sur l’intelligence artificielle constitué par la Commission et intitulé «Lignes directrices en matière d’éthique pour une IA digne de confiance»,

–  vu l’étude d’évaluation de la valeur ajoutée européenne réalisée par le Service de recherche du Parlement européen, intitulée « 'European framework on ethical aspects of artificial intelligence, robotics and related technologies: European added value assessment  (Cadre européen sur les aspects éthiques de l’intelligence artificielle, de la robotique et des technologies connexes: évaluation de la valeur ajoutée européenne) »(12),

–  vu les séances d’information et les études réalisées à la demande du Comité de l’avenir de la science et de la technologie (STOA) géré par l’unité de la prospective scientifique du service de recherche du Parlement européen, intitulées «What if algorithms could abide by ethical principles? (Et si les algorithmes pouvaient respecter des principes éthiques?)», «Artificial Intelligence ante portas: Legal & ethical reflections (L’intelligence artificielle à nos portes: réflexions juridiques et éthiques)», «A governance framework for algorithmic accountability and transparency (Un cadre de gouvernance en matière de responsabilité et de transparence algorithmiques)», “Should we fear artificial intelligence? (Faut-il craindre l’intelligence artificielle?) » et «The ethics of artificial intelligence: Issues and initiatives (Les aspects éthiques de l’intelligence artificielle: questions et initiatives)»,

–  vu la convention-cadre du Conseil de l’Europe pour la protection des minorités nationales, le protocole nº 12 à la convention de sauvegarde des droits de l’homme et des libertés fondamentales et la charte européenne des langues régionales ou minoritaires,

–  vu la recommandation du Conseil de l’Organisation de coopération et de développement économiques (OCDE) sur l’intelligence artificielle adoptée le 22 mai 2019,

–  vu les articles 47 et 54 de son règlement intérieur,

–  vu les avis de la commission des affaires étrangères, de la commission du marché intérieur et de la protection des consommateurs, de la commission des transports et du tourisme, de la commission des libertés civiles, de la justice et des affaires intérieures, de la commission de l’emploi et des affaires sociales, de la commission de l’environnement, de la santé publique et de la sécurité alimentaire et de la commission de la culture et de l’éducation,

–  vu le rapport de la commission des affaires juridiques (A9-0186/2020),

Introduction

A.  considérant que le développement, le déploiement et l’utilisation de l’«intelligence artificielle» (également dénommée «IA»), de la robotique et des technologies connexes sont le fait de l’être humain, dont les choix déterminent les avantages potentiels de ces technologies pour la société;

B.  considérant que l’intelligence artificielle, la robotique et les technologies connexes, qui sont susceptibles d’ouvrir de nouvelles perspectives aux entreprises et de profiter aux citoyens, mais aussi d’avoir une incidence directe sur tous les aspects de nos sociétés, y compris les droits fondamentaux et les valeurs et principes sociaux et économiques de base, et d’exercer une influence durable sur l’ensemble des secteurs d’activité, connaissent un développement et une diffusion rapides;

C.  considérant que l’intelligence artificielle, la robotique et les technologies connexes contribueront à modifier en profondeur le marché de l’emploi et les lieux de travail; qu’ils sont susceptibles de remplacer les travailleurs qui effectuent des tâches répétitives, de faciliter les systèmes de travail collaboratifs entre l’homme et la machine, d’accroître la compétitivité et la prospérité, et de créer de nouvelles possibilités d’emploi pour les travailleurs qualifiés, tout en engendrant des difficultés de taille sur le plan de la réorganisation de la main-d’œuvre;

D.  considérant que le développement de l’intelligence artificielle, de la robotique et des technologies connexes peut contribuer à la réalisation des objectifs de durabilité fixés pour de nombreux secteurs par le pacte vert pour l’Europe; que les technologies numériques peuvent renforcer les effets des politiques en matière de protection de l’environnement; qu’elles peuvent également contribuer à réduire la densité du trafic ainsi que les émissions de gaz à effet de serre et de polluants atmosphériques;

E.  considérant que dans les secteurs tels que les transports publics, les systèmes de transport intelligents fondés sur l’IA peuvent être utilisés pour réduire les files d’attente, optimiser les trajets, permettre aux personnes handicapées d’être plus indépendantes, et augmenter l’efficacité énergétique tout en renforçant les efforts de décarbonation et en réduisant l’empreinte environnementale;

F.  considérant que ces technologies ouvrent de nouvelles perspectives commerciales qui peuvent contribuer à relancer l’industrie de l’Union après la crise sanitaire et économique qui sévit actuellement, à condition qu’elles soient davantage utilisées, par exemple dans le secteur des transports; que ces perspectives peuvent créer de nouveaux emplois puisque le recours à ces technologies pourrait accroître la productivité des entreprises et conduire à des gains d’efficacité; que les programmes d’innovation dans ce domaine peuvent permettre aux pôles régionaux de prospérer;

G.  considérant qu’il incombe tout particulièrement à l’Union et à ses États membres de tirer parti de la valeur ajoutée liée à l’intelligence artificielle, ainsi que de la promouvoir et de l’améliorer, et de veiller à ce que les technologies de l’IA soient sûres et qu’elles contribuent au bien-être et à l’intérêt général de leurs citoyens, étant donné qu’elles peuvent contribuer de manière significative à la réalisation de l’objectif commun consistant à améliorer l’existence des citoyens et à promouvoir la prospérité au sein de l’Union en favorisant le développement de stratégies plus efficaces ainsi que l’innovation dans un certain nombre de domaines et de secteurs; que, pour exploiter pleinement le potentiel que recèle l’intelligence artificielle et faire prendre conscience aux utilisateurs des avantages et des inconvénients des technologies de l’IA, il est nécessaire d’intégrer l’IA et l’habileté numérique dans l’éducation et la formation, y compris en matière de promotion de l’insertion numérique, et de mener des campagnes d’information au niveau de l’Union qui donnent une représentation exacte de tous les aspects du développement de l’IA;

H.  considérant qu’un cadre réglementaire commun de l’Union pour le développement, le déploiement et l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes («cadre réglementaire pour l’IA») devrait à la fois permettre aux citoyens de tirer profit des bénéfices potentiels qu’elles présentent, protéger les citoyens des risques potentiels liés à ces technologies et promouvoir la fiabilité de ces technologies dans l’Union et au-delà; que ce cadre devrait s’appuyer sur le droit et les valeurs de l’Union et être guidé par les principes de transparence et d’explicabilité, d’équité, et de responsabilité;

I.  considérant que ce cadre réglementaire est d’une importance cruciale pour éviter la fragmentation du marché intérieur due aux divergences entre les législations nationales et qu’il permettra de favoriser des investissements indispensables, de développer des infrastructures de données et de soutenir la recherche; qu’il devrait reposer sur des obligations juridiques communes et des principes éthiques communs comme le prévoit la proposition de règlement demandée figurant en annexe de la présente résolution; qu’il devrait être établi conformément aux lignes directrices pour une meilleure réglementation;

J.  considérant que l’Union dispose déjà d’un cadre juridique strict qui garantit, entre autres, la protection des données à caractère personnel, le respect de la vie privée et le droit à la non-discrimination et favorise l’égalité entre les genres, la protection de l’environnement et les droits des consommateurs; que ce cadre juridique consistant en un vaste ensemble de législation transversale et sectorielle, y compris la réglementation en vigueur sur la sécurité des produits et la responsabilité du fait des produits, continuera de s’appliquer à l’intelligence artificielle, à la robotique et aux technologies connexes, bien qu’il puisse être nécessaire d’adapter certains instruments juridiques spécifiques, afin de tenir compte de la transformation numérique et de répondre aux nouveaux enjeux liés à l’utilisation de l’intelligence artificielle;

K.  considérant qu’il existe des inquiétudes concernant la capacité du cadre juridique actuel de l’Union, et notamment de l’acquis en matière de droit de la consommation ainsi que sur le plan social et de l’emploi, de la législation relative à la protection des données, de la législation portant sur la sécurité des produits et la surveillance du marché ainsi que de la législation anti-discrimination, à pouvoir encore effectivement faire face aux risques que posent l’intelligence artificielle, la robotique et les technologies connexes;

L.  considérant qu’il convient non seulement d’adapter la législation existante, mais également de traiter les questions juridiques et éthiques liées aux technologies de l’IA au moyen d’un cadre réglementaire efficace, complet et durable inscrit dans le droit de l’Union, reflétant les valeurs et les principes de l’Union tels que consacrés par les traités et la Charte des droits fondamentaux de l’Union européenne (ci-après dénommée «Charte»), qui se limiterait à combler les lacunes juridiques actuelles en évitant toute réglementation excessive et qui renforcerait la sécurité juridique pour les entreprises comme pour les citoyens, notamment en prévoyant des mesures obligatoires visant à empêcher les pratiques qui porteraient incontestablement atteinte aux droits fondamentaux;

M.  considérant que tout nouveau cadre réglementaire doit tenir compte de l’ensemble des intérêts en jeu; qu’un examen attentif des conséquences d’un nouveau cadre réglementaire sur l’ensemble des acteurs, dans le cadre d’une analyse d’impact, devrait être une condition préalable à toute nouvelle mesure législative; que le rôle crucial des petites et moyennes entreprises (PME) et des start-ups, notamment au sein de l’économie de l’Union, justifie une approche strictement proportionnée qui leur permette de se développer et d’innover;

N.  considérant que l’intelligence artificielle, la robotique et les technologies connexes peuvent avoir des conséquences graves sur l’intégrité matérielle et immatérielle des individus, des groupes et de la société dans son ensemble, et que les préjudices individuels et collectifs potentiels doivent être pris en compte par des mesures législatives;

O.  considérant que pour respecter un cadre réglementaire de l’Union pour l’IA, il sera peut-être nécessaire d’adopter des règles spécifiques pour le secteur des transports de l’Union;

P.  considérant que les technologies de l’IA revêtent une importance stratégique pour le secteur des transports, notamment parce qu’elles renforcent la sécurité et l’accessibilité de tous les modes de transport et qu’elles créent de nouvelles possibilités d’emploi et des modèles d’entreprise plus durables; qu’une approche de l’Union en matière de développement de l’intelligence artificielle, de la robotique et des technologies connexes dans les transports est susceptible d’accroître la compétitivité mondiale et l’autonomie stratégique de l’économie de l’Union;

Q.  considérant que l’erreur humaine continue d’être à l’origine de 95 % environ de l’ensemble des accidents de la route dans l’Union; que l’Union avait pour objectif, d’ici à 2020, de diminuer de 50 % par rapport à 2010 la mortalité annuelle liée aux accidents de la route sur son territoire, mais que, compte tenu de l’absence de progrès, elle a intensifié les efforts déployés dans son cadre politique de l’Union en matière de sécurité routière pour la décennie d’action 2021‑2030 – Prochaines étapes de la campagne «Vision Zéro»; que, à cet égard, l’IA, l’automatisation et d’autres technologies nouvelles présentent un vaste potentiel et revêtent une importance capitale pour renforcer la sécurité routière en réduisant les possibilités d’erreurs humaines;

R.  considérant que le cadre réglementaire de l’Union pour l’IA devrait également tenir compte de la nécessité de garantir le respect des droits des travailleurs; qu’il convient de prendre en considération l’accord-cadre sur la numérisation conclu par les partenaires sociaux européens en juin 2020;

S.  considérant que le champ d’application du cadre réglementaire de l’Union pour l’IA doit être adapté, proportionné et faire l’objet d’une évaluation approfondie; que ce cadre doit s’appliquer à un vaste éventail de technologies et de leurs composantes, y compris les algorithmes, les données et les logiciels utilisés ou produits par ces technologies, mais qu’une approche ciblée basée sur le risque est nécessaire pour éviter d’entraver les innovations futures et de créer des obstacles inutiles, notamment pour les PME; que la diversité des applications pilotées par l’intelligence artificielle, la robotique et les technologies connexes complique la recherche d’une solution unique qui conviendrait à l’ensemble des risques;

T.  considérant que l’analyse des données et l’IA ont une incidence de plus en plus importante sur les informations rendues accessibles aux citoyens; que ces technologies, lorsqu’elles sont utilisées à mauvais escient, peuvent mettre en péril les droits fondamentaux à la liberté d’expression et à l’information ainsi que la liberté et la pluralité des médias;

U.  considérant que le champ d’application géographique du cadre réglementaire pour l’IA de l’Union doit couvrir toutes les composantes de l’intelligence artificielle, de la robotique et des technologies connexes développées, déployées ou utilisées au sein de l’Union, y compris lorsqu’une partie des technologies pourrait se situer en dehors de l’Union ou ne disposer d’aucune localisation spécifique;

V.  considérant que le cadre réglementaire pour l’IA de l’Union devrait englober toutes les étapes pertinentes, à savoir le développement, le déploiement et l’utilisation des technologies pertinentes et de leurs composantes, en tenant dûment compte des obligations juridiques et des principes éthiques applicables, et devrait fixer les conditions permettant de garantir que les développeurs, les déployeurs et les utilisateurs respectent pleinement ces obligations et principes;

W.  considérant qu’une approche harmonisée des principes éthiques relatifs à l’intelligence artificielle, à la robotique et aux technologies connexes nécessite une compréhension commune au sein de l’Union des concepts qui forment la base de technologies telles que les algorithmes, les logiciels, les données ou la reconnaissance biométrique;

X.  considérant que les mesures prises à l’échelle de l’Union se justifient par le besoin d’éviter la fragmentation réglementaire ou la simple accumulation de réglementations nationales sans dénominateur commune, et la nécessité d’appliquer les principes éthiques communs consacrés par le droit de manière homogène lors du développement, du déploiement et de l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes à haut risque; qu’il faut des règles claires dès lors qu’il existe des risques significatifs;

Y.  considérant que les principes éthiques communs ne sont efficaces que lorsqu’ils sont également inscrits dans le droit et que les parties responsables de la garantie, de l’évaluation et du contrôle de la conformité sont identifiées;

Z.  considérant que les lignes directrices en matière d’éthique, telles que les principes adoptés par le groupe d’experts de haut niveau sur l’intelligence artificielle, constituent un bon point de départ, mais qu’elles ne peuvent garantir que les entreprises, les déployeurs et les utilisateurs agissent loyalement et à garantir la protection effective des individus; que ces orientations sont d’autant plus pertinentes en ce qui concerne l’intelligence artificielle, la robotique et les technologies connexes à haut risque;

AA.  considérant que chaque État membre devrait désigner un organisme national de surveillance chargé d’assurer, d’évaluer et de contrôler la conformité du développement, du déploiement et de l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes à haut risque avec le cadre réglementaire pour l’IA de l’Union, et de permettre des discussions et des échanges de points de vue en étroite coopération avec les parties concernées et la société civile; que les organismes nationaux de surveillance devraient coopérer entre eux;

AB.  considérant que, pour garantir une approche harmonisée dans l’ensemble de l’Union et le fonctionnement optimal du marché unique numérique, la coordination assurée au niveau de l’Union par la Commission et/ou par les institutions, organes et organismes compétents de l’Union susceptibles d’être désignés à cette fin devrait être évaluée au regard des nouvelles possibilités et des nouveaux défis, en particulier de nature transfrontière, découlant des évolutions technologiques en cours; que, à cette fin, la Commission devrait être chargée de trouver une solution appropriée pour structurer cette coordination au niveau de l’Union;

Une intelligence artificielle axée sur l’homme et développée par l’homme

1.  est d’avis que, sans préjudice de la législation sectorielle, il est nécessaire de mettre en place un cadre réglementaire efficace et harmonisé fondé sur le droit de l’Union, la Charte et le droit international relatif aux droits de l’homme, et applicable, en particulier, aux technologies à haut risque, pour établir des normes égales dans toute l’Union et protéger efficacement les valeurs de l’Union;

2.  estime que tout nouveau cadre réglementaire pour l’IA encadrant par des obligations juridiques et des principes éthiques le développement, le déploiement et l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes devrait pleinement respecter la Charte, et ainsi protéger la dignité humaine, l’autonomie et l’autodétermination des individus, éviter qu’ils ne subissent des préjudices, promouvoir l’équité, l’inclusion et la transparence, éliminer les biais et les discriminations, y compris en ce qui concerne les groupes minoritaires, respecter et appliquer les principes de limitation des externalités négatives des technologies utilisées et d’explicabilité des technologies, garantir que les technologies servent leurs utilisateurs plutôt qu’elles ne visent à les remplacer ou à décider à leur place, et viser en définitive à accroître le bien-être de tous les êtres humains;

3.  insiste sur l’asymétrie entre ceux qui utilisent les technologies d’IA et ceux qui interagissent avec elles et qui y sont soumis; souligne, dans ce contexte, que la confiance des citoyens à l’égard de l’IA ne peut être obtenue que grâce à un cadre réglementaire «éthique par défaut et éthique dès la conception» qui garantisse que tout système d’IA mis en service respecte et applique pleinement les traités, la Charte et le droit dérivé de l’Union; estime que cette approche devrait être suivie dans le respect du principe de précaution qui guide la législation de l’Union et constituer la pierre angulaire de tout cadre réglementaire relatif à l’IA; demande, à cet égard, l’élaboration d’un modèle de gouvernance clair et cohérent qui permette aux entreprises et aux innovateurs de développer davantage l’intelligence artificielle, la robotique et les technologies connexes;

4.   estime que toute mesure législative relative à l’intelligence artificielle, à la robotique et aux technologies connexes devrait respecter les principes de nécessité et de proportionnalité;

5.   est d’avis que cette approche permettra aux entreprises d’introduire des produits innovants sur le marché et d’ouvrir de nouvelles perspectives et de garantir dans le même temps la protection des valeurs de l’Union en favorisant le développement de systèmes d’IA intégrant les principes éthiques de l’Union dès leur conception; estime que ce cadre réglementaire basé sur des valeurs représenterait une valeur ajoutée qui conférerait à l’Union un avantage concurrentiel unique et contribuerait notablement au bien-être et à la prospérité des citoyens et des entreprises de l’Union en stimulant le marché intérieur; souligne que ce cadre réglementaire pour l’IA représenterait également une valeur ajoutée en ce qui concerne la promotion de l’innovation sur le marché intérieur; estime que, par exemple, dans le secteur des transports, cette approche offre aux entreprises de l’Union la possibilité de devenir des leaders mondiaux dans ce domaine;

6.  fait observer que le cadre juridique de l’Union devrait s’appliquer à l’intelligence artificielle, à la robotique et aux technologies connexes, y compris les logiciels, les algorithmes et les données utilisés ou produits par ces technologies;

7.  fait remarquer que les solutions basées sur l’intelligence artificielle, la robotique et les technologies connexes reposent sur les mégadonnées, et qu’il faut atteindre une masse critique de données pour pouvoir entraîner des algorithmes et affiner les résultats; se félicite, à cet égard, de la proposition de la Commission visant à la création d’un espace commun des données dans l’Union destiné à renforcer l’échange des données et à soutenir la recherche dans le plein respect des règles européennes en matière de protection des données;

8.  estime que le cadre juridique actuel de l’Union, notamment en matière de protection de la vie privée et des données à caractère personnel, devra s’appliquer pleinement à l’IA, à la robotique et aux technologies connexes, et faire l’objet d’un suivi et d’un contrôle réguliers, ainsi que de mises à jour lorsque cela se révélera nécessaire, afin de gérer efficacement les risques que ces technologies impliquent; juge à cet égard que ce cadre gagnerait à être complété par des principes éthiques solides; souligne que, dans les cas où il serait prématuré d’adopter des actes juridiques, il conviendra d’avoir recours à un cadre juridique non contraignant;

9.  attend de la Commission qu’elle intègre une approche éthique solide dans la proposition législative demandée figurant en annexe de cette résolution dans le prolongement du livre blanc sur l’intelligence artificielle, y compris dans les domaines de la sécurité, de la responsabilité et des droits fondamentaux, qui optimise les perspectives et atténue les risques associés aux technologies d’IA; espère que la proposition législative demandée comportera des mesures stratégiques en vue de répondre aux principaux risques reconnus associés à l’intelligence artificielle, concernant notamment la collecte et à l’utilisation éthiques des mégadonnées et la question de la transparence des algorithmes et des biais algorithmiques; demande à la Commission de créer des critères et des indicateurs en vue de classer les technologies d’IA, afin d’encourager la transparence, l’explicabilité et la responsabilité et d’inciter les développeurs à prendre des précautions supplémentaires; souligne qu’il est nécessaire d’investir dans l’intégration de disciplines non techniques dans les études et les recherches sur l’IA, en tenant compte du contexte social;

10.  estime que l’intelligence artificielle, la robotique et les technologies connexes doivent être adaptées aux besoins de l’homme, conformément au principe selon lequel leur développement, leur déploiement et leur utilisation devraient toujours être au service des êtres humains et non l’inverse, et qu’elles devraient viser à améliorer le bien-être et la liberté individuelle, ainsi qu’à préserver la paix, à prévenir les conflits et à renforcer la sécurité internationale, tout en maximisant les avantages qu’elles apportent et en prévenant et en réduisant les risques qui y sont associés;

11.  déclare que le développement, le déploiement et l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes à haut risque, notamment, mais pas exclusivement, par des êtres humains, devraient toujours obéir à des principes éthiques et être conçus pour respecter et favoriser l’action humaine et le contrôle démocratique, et permettre aux êtres humains de reprendre le contrôle dès que nécessaire en mettant en œuvre des mesures de contrôle appropriées;

Évaluation des risques

12.  souligne que toute règlementation future devrait respecter une approche basée sur les risques différenciée et tournée vers l’avenir pour encadrer l’IA, la robotique et les technologies connexes, et notamment des normes technologiquement neutres applicables à tous les secteurs, complétées, le cas échéant, par des normes sectorielles; fait observer qu’il est nécessaire d’établir une liste exhaustive et cumulative des secteurs à haut risque et des utilisations ou finalités à haut risque afin d’assurer la mise en œuvre uniforme du système d’évaluation des risques et le respect des obligations légales qui y sont liées pour garantir des conditions de concurrence équitables entre les États membres et éviter la fragmentation du marché intérieur; souligne que cette liste doit être régulièrement réévaluée et remarque que, compte tenu de la nature évolutive de ces technologies, il conviendra peut-être de réexaminer ultérieurement les modalités d’évaluation des risques qui y sont associés;

13.  estime que pour déterminer si l’intelligence artificielle, la robotique et les technologies connexes devraient être considérées comme à haut risque et donc être obligatoirement soumises au respect des exigences légales et principes éthiques énoncés dans le cadre réglementaire pour l’IA, il conviendrait toujours de mener une évaluation ex ante impartiale, réglementée et externe fondée sur des critères concrets et précis;

14.  estime à cet égard que l’intelligence artificielle, la robotique et les technologies connexes devraient être considérées comme des technologies à haut risque dès lors que leur développement, leur déploiement et leur utilisation comportent un risque important de causer du tort ou un préjudice aux individus ou à la société en violation des droits fondamentaux et des règles de sécurité prévues par le droit de l’Union; estime que pour évaluer si les technologies de l’IA comportent un tel risque, il convient de tenir compte du secteur dans lequel elles sont développées, déployées ou utilisées, de leur utilisation ou finalité spécifique et de la gravité du tort ou du préjudice susceptible de se produire; que les deux premiers critères, à savoir le secteur et l’utilisation ou la finalité spécifique, devraient être considérés de manière cumulative;

15.  souligne que l’évaluation des risques liés à ces technologies devrait être effectuée sur la base d’une liste exhaustive et cumulative des secteurs à haut risque et des utilisations et finalités à haut risque; est fermement convaincu qu’il convient d’assurer une cohérence dans toute l’Union en ce qui concerne l’évaluation des risques liés à ces technologies, en particulier lorsque celles-ci sont évaluées à la lumière de leur conformité au cadre réglementaire pour l’IA et conformément à toute autre législation sectorielle applicable;

16.  estime que cette approche basée sur le risque devrait être menée de manière à limiter autant que possible la charge administrative pesant sur les entreprises, en particulier sur les PME, grâce aux outils existants; ces outils comprennent notamment, mais pas seulement, la liste des analyses d’impact relatives à la protection des données prévue par le règlement (UE) 2016/679;

Dispositifs de sécurité, transparence et responsabilité

17.  rappelle que le droit à l’information des consommateurs constitue un principe fondamental consacré par le droit de l’Union et souligne que ce droit devrait donc être pleinement respecté dans le domaine de l’intelligence artificielle, de la robotique et des technologies connexes; estime qu’il devrait en particulier englober la transparence en ce qui concerne l’interaction avec les systèmes d’intelligence artificielle, y compris les processus d’automatisation, et en ce qui concerne le mode de fonctionnement de ces systèmes, leurs capacités, par exemple la manière dont les informations sont filtrées et présentées, leur précision et leurs limites; estime que ces informations devraient être fournies aux organismes nationaux de surveillance et aux autorités nationales chargées de la protection des consommateurs;

18.   souligne que la confiance des consommateurs est essentielle pour le développement et l’utilisation de ces technologies, qui peuvent comporter des risques sous-jacents lorsqu’elles sont fondées sur des algorithmes opaques et des ensembles de données biaisés; estime que les consommateurs devraient avoir le droit d’être dûment informés, en temps utile et d’une manière standardisée, précise et accessible, de l’existence de systèmes algorithmiques, du raisonnement qui les sous-tend et des résultats et de l’impact sur les consommateurs qui peuvent en découler, de la façon de joindre un être humain disposant de pouvoirs de décision, et de la manière dont les décisions du système peuvent être contrôlées, contestées efficacement et corrigées; souligne, à cet égard, la nécessité de tenir compte des principes d’information et de divulgation sur lesquels repose l’acquis en matière de droit de la consommation et de les respecter; juge nécessaire d’informer de façon détaillée les utilisateurs finaux du fonctionnement des systèmes de transport et des véhicules utilisant l’IA;

19.  fait observer qu’il est essentiel que les algorithmes et ensembles de données utilisés ou produits par l’intelligence artificielle, la robotique et les technologies connexes soient explicables et, à condition que cela soit strictement nécessaire et que la législation de l’Union en matière de protection des données, de vie privée, de droits de propriété intellectuelle et de secrets d’affaires soit pleinement respectée, qu’ils soient accessibles aux autorités publiques telles que les organismes nationaux de surveillance et les autorités de surveillance du marché; relève en outre que la documentation devrait être conservée par ceux qui participent aux différents stades du développement des technologies à haut risque, conformément aux normes les plus élevées possibles applicables dans le secteur; relève qu’il est possible que les autorités de surveillance du marché disposent de prérogatives supplémentaires à cet égard; souligne à cet égard le rôle de l’ingénierie inverse licite; estime qu’il pourrait être nécessaire d’examiner la législation actuelle en matière de surveillance du marché afin de veiller à ce qu’elle réponde de manière éthique à l’émergence de l’intelligence artificielle, de la robotique et des technologies connexes;

20.  demande que les développeurs et les déployeurs de technologies à haut risque soient tenus, dès lors qu’une évaluation des risques le prescrit, de fournir aux autorités publiques la documentation pertinente sur l’utilisation, la conception et les consignes de sécurité, y compris, et à condition que cela soit strictement nécessaire et que la législation de l’Union en matière de protection des données, de vie privée, de droits de propriété intellectuelle et de secrets d’affaires soit pleinement respectée, le code source, les outils de développement et les données utilisées par le système; relève que cette obligation permettrait de vérifier s’ils respectent le droit et les principes éthiques de l’Union et note, à cet égard, l’exemple du dépôt légal des publications d’une bibliothèque nationale; remarque qu’il est important de faire la distinction entre la transparence des algorithmes et la transparence dans l’utilisation des algorithmes;

21.  note en outre que pour respecter la dignité, l’autonomie et la sécurité humaines, il convient de tenir dûment compte des dispositifs médicaux vitaux avancés et de la nécessité de permettre à des autorités de confiance indépendantes de conserver les moyens nécessaires pour fournir des services aux utilisateurs de ces dispositifs, lorsque le développeur ou le déployeur initial ne les fournit plus; ces services prendraient par exemple la forme d’opérations de maintenance, de réparation ou d’amélioration, y compris de mises à jour logicielles visant à remédier aux dysfonctionnements et aux vulnérabilités;

22.  soutient que l’intelligence artificielle, la robotique et les technologies connexes à haut risque, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, indépendamment du secteur dans lequel elles sont développées, déployées et utilisées doivent être développées dès leur conception d’une manière sûre, traçable, techniquement robuste, fiable, éthique et juridiquement contraignante et être soumises à une surveillance et à un contrôle indépendants; estime en particulier que tous les acteurs de la chaîne de développement et d’approvisionnement des produits et des services relevant de l’intelligence artificielle devraient porter une responsabilité juridique et souligne la nécessité de mettre en place des mécanismes pour garantir la responsabilité;

23.  souligne que la réglementation et les lignes directrices concernant l’explicabilité, la vérifiabilité, la traçabilité et la transparence, ainsi que l’accès des autorités publiques aux technologies, aux données et aux systèmes informatiques qui sous-tendent ces technologies, dès lors que celui-ci est prescrit par l’évaluation des risques, qu’il est strictement nécessaire et qu’il respecte pleinement le droit de l’Union, notamment en ce qui concerne la protection des données, la vie privée, les droits de propriété intellectuelle et les secrets d’affaires, sont essentiels pour garantir la confiance des citoyens dans ces technologies, même si le degré d’explicabilité dépend de la complexité des technologies; souligne qu’il n’est pas toujours possible d’expliquer pourquoi un modèle a généré une décision ou un résultat donnés, par exemple dans le cas des algorithmes de type «boîte noire»; juge par conséquent que le respect de ces principes constitue une condition préalable indispensable pour garantir la responsabilité;

24.  estime qu’il convient d’informer les citoyens, et notamment les consommateurs, lorsqu’ils interagissent avec un système recourant à l’intelligence artificielle en vue notamment de personnaliser un produit ou un service pour chaque utilisateur, de la possibilité et des moyens de supprimer ou de limiter cette personnalisation;

25.   souligne à cet égard que, pour être fiable, l’intelligence artificielle, la robotique et les technologies connexes doivent être techniquement robustes et précises;

26.  souligne l’importance de la protection des réseaux d’IA et de robotique interconnectées et de mesures fortes pour empêcher les atteintes à la sécurité, les fuites de données, les empoisonnements de données, les cyberattaques et l’utilisation abusive de données à caractère personnel et que, pour ce faire, les agences, organes et institutions concernés, tant au niveau de l’Union qu’au niveau national, devront travailler ensemble et en coopération avec les utilisateurs finaux de ces technologies; invite la Commission et les États membres à veiller à ce que les valeurs de l’Union et le respect des droits fondamentaux soient toujours respectés lors du développement et du déploiement de technologies fondées sur l’IA, afin de garantir la sécurité et la résilience de l’infrastructure numérique de l’Union;

Absence de biais et de discrimination

27.  rappelle que l’IA, selon la manière dont elle est développée et utilisée, peut créer et renforcer des biais, notamment du fait de biais inhérents aux ensembles de données sous-jacents, et par conséquent entraîner diverses formes de discrimination automatisée, y compris de manière indirecte, à l’égard notamment de groupes de personnes présentant des caractéristiques similaires; souhaite que la Commission et les États membres prennent toutes les mesures possibles pour éviter ces biais et garantir la pleine protection des droits fondamentaux;

28.  s’inquiète des risques de biais et de discriminations dans le développement, le déploiement et l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes à haut risque, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies; rappelle que celles-ci doivent en toutes circonstances respecter le droit de l’Union, les droits de l’homme, la dignité humaine ainsi que l’autonomie et l’autodétermination des individus, et garantir l’égalité de traitement et l’absence de discrimination pour tous;

29.  affirme que les technologies de l’IA devraient être conçues pour respecter, servir et protéger les valeurs de l’Union et l’intégrité physique et mentale des personnes, préserver la diversité culturelle et linguistique de l’Union et permettre de répondre aux besoins essentiels; souligne la nécessité d’éviter toute utilisation qui pourrait entraîner directement ou indirectement une contrainte illégitime, risquer de porter atteinte à l’autonomie psychique et à la santé mentale des personnes ou entraîner une surveillance injustifiée, induire en erreur ou conduire à des manipulations inacceptables;

30.  est fermement convaincu qu’il convient de respecter de manière stricte les droits fondamentaux de l’homme consacrés par la Charte afin que ces technologies émergentes ne créent pas de failles en matière de protection;

31.  affirme que les biais et la discrimination éventuels de la part des logiciels, des données et des algorithmes peuvent causer un préjudice manifeste aux individus et à la société, et qu’il convient de les combattre en encourageant le développement et le partage de stratégies visant à les éviter, par exemple la suppression des biais que présentent les ensembles de données utilisés en matière de recherche et développement, et en élaborant des règles relatives au traitement des données; juge que cette approche pourrait transformer les logiciels, les données et les algorithmes en atout dans la lutte contre les biais et la discrimination dans certaines situations, et en une force favorisant l’égalité des droits et les évolutions sociales positives;

32.  maintient que les valeurs éthiques de l’équité, de l’exactitude, de la confidentialité et de la transparence devraient être le fondement de ces technologies ce qui, dans ce contexte, implique que leurs opérations ne devraient pas être de nature à générer des résultats biaisés;

33.  souligne l’importance de la qualité des ensembles de données utilisés pour l’intelligence artificielle, la robotique et les technologies connexes selon le contexte, notamment en ce qui concerne le caractère représentatif des données d’entraînement, la suppression des biais que présentent les ensembles de données, les algorithmes utilisés et les normes en matière de données et d’agrégation; souligne que ces ensembles de données doivent pouvoir être contrôlés par les organismes nationaux de surveillance, à leur demande, afin de vérifier s’ils respectent les principes susvisés;

34.   souligne que, dans le contexte de la grande guerre de la désinformation, menée en particulier par des acteurs non européens, les technologies de l’IA pourraient avoir des effets négatifs d’un point de vue éthique en exploitant les biais dans les données et les algorithmes ou en modifiant délibérément les données d’entraînement pour le compte d’un pays tiers, sans compter qu’elles pourraient aussi être exposées à d’autres formes de manipulation malveillante tout aussi imprévisibles que leurs conséquences sont incalculables; c’est pourquoi il est de plus en plus nécessaire que l’Union poursuive ses investissements dans la recherche, l’analyse, l’innovation et les transferts de connaissances transfrontières et transsectoriels afin de développer des technologies de l’IA qui seraient sans nul doute dépourvues de tout genre de profilage, de biais et de discrimination, et pourraient contribuer efficacement à lutter contre les fausses informations et la désinformation tout en respectant la confidentialité des données et le cadre juridique de l’Union;

35.  rappelle qu’il est important de s’assurer que les individus disposent de recours effectifs et invite les États membres à veiller à l’existence de procédures et de mécanismes de réévaluation accessibles, abordables, indépendants et effectifs, qui permettent de garantir l’examen humain impartial de toutes les réclamations faisant état d’atteintes aux droits des citoyens, et notamment aux droits des consommateurs ou aux libertés civiles, qui découleraient de l’utilisation de systèmes algorithmiques, qu’elles soient imputables à des acteurs du secteur public ou du secteur privé; souligne l’importance de la proposition de directive du Parlement européen et du Conseil relative aux actions représentatives visant à protéger les intérêts collectifs des consommateurs et abrogeant la directive 2009/22/CE, à propos de laquelle un accord a été conclu le 22 juin 2020, en ce qui concerne les actions introduites dans le futur en vue de contester l’introduction ou l’utilisation en cours d’un système d’IA comportant un risque de violation des droits des consommateurs ou d’obtenir une réparation à la suite d’une violation de droits; demande à la Commission et aux États membres de veiller à ce que les organisations de consommateurs nationales et de l’Union disposent d’un financement suffisant pour aider les consommateurs à exercer leur droit à un recours dans les cas où il a été porté atteinte à leurs droits;

36.   estime que toute personne physique ou morale doit être en mesure de demander réparation en raison d’une décision qui lui est préjudiciable si elle a été prise par un système d’intelligence artificielle, de robotique ou de technologie connexe en violation du droit de l’Union ou du droit national;

37.  estime que les organismes nationaux de surveillance, qui sont, dans ce contexte, les premiers points de contact en cas de suspicion de violation du cadre réglementaire de l’Union, pourraient également être saisis de demandes de réparation par les consommateurs, afin d’assurer l’application effective du cadre susmentionné;

Responsabilité sociale et équilibre entre les genres

38.  souligne que l’intelligence artificielle, la robotique et les technologies connexes socialement responsables ont un rôle à jouer dans la recherche de moyens de préserver et de promouvoir les valeurs et droits fondamentaux de notre société telles que la démocratie, l’état de droit, des médias diversifiés et indépendants et des informations objectives et librement accessibles, la santé et la prospérité économique, l’égalité des chances, les droits des travailleurs et les droits sociaux, une éducation de qualité, la protection des enfants, une diversité culturelle et linguistique, l’égalité entre les genres, l’habileté numérique, l’innovation et la créativité; rappelle la nécessité de veiller à ce que les intérêts de tous les citoyens, y compris des citoyens marginalisés ou en situation de vulnérabilité, tels que les personnes handicapées, soient dûment pris en compte et représentés;

39.  insiste sur l’importance de parvenir à un niveau élevé d’habilité numérique générale et de former des professionnels hautement qualifiés dans ce domaine ainsi que de garantir la reconnaissance mutuelle de ces qualifications dans l’ensemble de l’Union; insiste sur la nécessité de disposer d’équipes diversifiées de développeurs et d’ingénieurs, travaillant aux côtés des principaux acteurs de la société, afin d’éviter que les préjugés liés au genre et à la culture ne soient intégrés par inadvertance dans les algorithmes, les applications et les systèmes fondés sur l’IA; soutient la création de programmes éducatifs et d’activités de sensibilisation du public en ce qui concerne l’impact sociétal, juridique et éthique de l’intelligence artificielle;

40.  souligne la nécessité vitale de garantir la liberté de pensée et la liberté d’expression, et ainsi de faire en sorte que ces technologies n’encouragent pas les discours de haine ou la violence; estime par conséquent illégal au regard des principes fondamentaux de l’Union le fait d’empêcher ou de restreindre la liberté d’expression exercée par voie numérique, sauf lorsque l’exercice de ce droit fondamental se traduit par la commission d’actes illicites;

41.  souligne que l’intelligence artificielle, la robotique et les technologies connexes peuvent contribuer à réduire les inégalités sociales et affirme que le modèle européen de développement de l’intelligence artificielle, de la robotique et des technologies connexes doit reposer sur la confiance des citoyens et le renforcement de la cohésion sociale;

42.  souligne que le déploiement d’un système d’intelligence artificielle ne doit pas avoir pour conséquence de limiter indûment l’accès des usagers aux services publics, tels que la sécurité sociale; invite par conséquent la Commission à examiner la manière dont cet objectif peut être réalisé;

43.  souligne l’importance d’une recherche et d’un développement responsables visant à maximiser le potentiel de l’intelligence artificielle, de la robotique et des technologies connexes pour les citoyens et le bien public; demande que les ressources de l’Union et de ses États membres soient mobilisées pour développer et soutenir une innovation responsable;

44.  souligne que les compétences technologiques seront de plus en plus importantes et qu’il sera donc nécessaire d’actualiser en permanence l’offre de formation, en particulier pour les générations futures, et de promouvoir la reconversion professionnelle des personnes déjà présentes sur le marché du travail; maintient à cet égard que l’innovation et la formation devraient être encouragées non seulement dans le secteur privé, mais aussi dans le secteur public.

45.  insiste sur le fait que le développement, le déploiement et l’utilisation de ces technologies ne devraient causer aucun tort ni aucun préjudice de quelque nature que ce soit aux individus, à la société ou à l’environnement, et que les développeurs, les déployeurs et les utilisateurs de ces technologies devraient en conséquence être tenus pour responsables desdits torts ou préjudices, conformément aux règles de l’Union et aux règles nationales applicables en matière de responsabilité;

46.  invite les États membres à examiner si les pertes d’emploi résultant du déploiement de ces technologies appellent la mise en œuvre de politiques publiques adaptées, sous la forme par exemple d’une réduction du temps de travail;

47.  maintient qu’une démarche conceptuelle fondée sur les valeurs de l’Union et sur des principes éthiques est absolument nécessaire pour créer les conditions d’une acceptation sociale généralisée de l’intelligence artificielle, de la robotique et des technologies connexes; estime cette approche, dont l’objet est de développer une intelligence artificielle digne de confiance, responsable sur le plan éthique et techniquement robuste, est un facteur important qui permet d’instaurer une mobilité durable et intelligente, qui soit sûre et accessible;

48.  attire l’attention sur la valeur ajoutée importante des véhicules autonomes pour les personnes à mobilité réduite, car ce type de véhicules permettent à celles-ci de participer plus efficacement au transport individuel par route et, partant, facilitent leur quotidien; souligne l’importance de l’accessibilité, en particulier lors de la conception de systèmes de mobilité à la demande;

49.  invite la Commission à soutenir davantage le développement de systèmes d’IA fiables afin de rendre les transports plus sûrs, efficaces, accessibles, abordables et inclusifs, y compris pour les personnes à mobilité réduite, en particulier les personnes handicapées, en tenant compte de la directive (UE) 2019/882 du Parlement européen et du Conseil(13) ainsi que de la législation de l’Union sur les droits des passagers;

50.  considère que l’IA peut participer à une meilleure mise en valeur des aptitudes et des compétences des personnes handicapées et que l’application de l’IA sur le lieu de travail peut contribuer à des marchés du travail favorisant l’insertion et des taux d’emploi plus élevés pour les personnes handicapées;

Environnement et durabilité

51.  indique qu’il est essentiel que l’intelligence artificielle, la robotique et les technologies connexes soient utilisées par les gouvernements et les entreprises de manière à ce qu’elles profitent aux personnes et à la planète et contribuent à la réalisation des objectifs fixés en matière de développement durable, de préservation de l’environnement, de neutralité climatique et d’économie circulaire; affirme que le développement, le déploiement et l’utilisation de ces technologies devraient contribuer à la transition verte, préserver l’environnement et réduire autant que possible et réparer les dommages causés à l’environnement au cours de leur cycle de vie et sur l’ensemble de leur chaîne d’approvisionnement, conformément au droit de l’Union;

52.  considère que pour l’application du précédent paragraphe, l’impact écologique du développement, du déploiement et de l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes, en raison de son importance, devrait être évalué par des autorités sectorielles spécifiques, lorsque cela est pertinent et approprié, et ce tout au long du cycle de vie desdites technologies; que cette évaluation devrait comporter une estimation de l’impact de l’extraction des matières nécessaires, de la consommation d’énergie et des émissions de gaz à effet de serre résultant de leur développement, de leur déploiement et de leur utilisation;

53.  propose que le potentiel de l’intelligence artificielle, de la robotique et des technologies connexes soit exploré, développé et maximisé en vue d’élaborer des solutions innovantes responsables en matière d’intelligence artificielle, grâce à des actions de recherche et développement responsables nécessitant la mobilisation de ressources par l’Union et ses États membres;

54.  souligne que le développement, le déploiement et l’utilisation de ces technologies offrent des possibilités pour promouvoir les objectifs de développement durable définis par les Nations unies, la transition énergétique mondiale et la décarbonation;

55.  considère que les objectifs en matière de responsabilité sociale, d’égalité entre les genres, de protection de l’environnement et de durabilité devraient être sans préjudice des obligations générales et sectorielles existant dans ces domaines; est convaincu qu’il convient d’établir à l’intention des développeurs, des déployeurs et des utilisateurs, en particulier de technologies à haut risque, des lignes directrices non contraignantes en matière de mise en œuvre, relatives à la méthode applicable pour évaluer le respect du présent règlement et la réalisation des objectifs précités;

56.  invite l’Union à promouvoir et à financer le développement d’une approche centrée sur l’humain dans le domaine de l’intelligence artificielle, de la robotique et des technologies connexes, qui apporte une réponse aux défis environnementaux et climatiques et garantisse le respect des droits fondamentaux, par le recours à la fiscalité, aux marchés publics ou à d’autres mesures d’incitation;

57.  souligne que bien que l’empreinte carbone du développement, du déploiement et de l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes, y compris les décisions automatisées et l’apprentissage automatique, soit actuellement élevée, ces technologies peuvent contribuer à réduire l’empreinte environnementale actuelle du secteur des TIC; signale que ces technologies, tout comme d’autres technologies qui y sont liées, devraient, si elles sont correctement réglementées, contribuer de manière significative à la réalisation des objectifs de développement durable des Nations unies et de ceux du pacte vert pour l’Europe et de l’accord de Paris dans de nombreux secteurs, et permettre d’accentuer les effets des politiques de protection de l’environnement, par exemple en matière de réduction des déchets et de lutte contre la dégradation de l’environnement;

58.  invite la Commission à réaliser une étude sur l’incidence de l’empreinte carbone des technologies fondées sur l’IA ainsi que sur les effets positifs et négatifs de la transition vers l’utilisation des technologies fondées sur l’IA par les consommateurs;

59.  constate qu’étant donné le développement croissant d’applications d’IA, qui nécessitent des ressources informatiques, de stockage et d’énergie, il faudrait prendre en considération l’incidence environnementale des systèmes d’IA tout au long de leur cycle de vie;

60.  considère que, dans des domaines comme celui de la santé, la responsabilité doit in fine incomber à une personne physique ou morale; souligne que les données d’entraînement des algorithmes doivent être traçables et accessibles au public;

61.  soutient fermement la création d’un espace européen des données de santé proposée par la Commission dans sa communication sur une stratégie européenne pour les données, qui vise à promouvoir l’échange de données de santé et à soutenir la recherche dans le strict respect de la protection des données, y compris lors de leur traitement par une technologie fondée sur l’IA, et qui renforce et étende l’utilisation et la réutilisation des données de santé; encourage l’intensification de l’échange transfrontière des données de santé, leur mise en corrélation et leur exploitation, au moyen de répertoires fédérés sécurisés, de types spécifiques d’informations en matière de santé, tels que les dossiers médicaux européens, les informations génomiques et les images médicales numériques, afin de simplifier les registres ou les bases de données de santé interopérables à l’échelle de l’Union dans des secteurs comme la recherche, la science et la santé;

62.  souligne les avantages de l’IA en matière de prévention, de traitement et de contrôle des maladies, comme en témoigne le fait que l’IA avait prévu l’épidémie de COVID-19 avant l’OMS; demande instamment à la Commission de doter l’ECDC du cadre réglementaire et des ressources permettant la collecte en temps réel des données de santé anonymisées nécessaires à l’échelle mondiale, en toute indépendance et en liaison avec les États membres, afin de remédier aux problèmes révélés par la crise de COVID‑19, entre autres buts;

Vie privée et reconnaissance biométrique

63.  observe que la production et l’utilisation des données, y compris les données à caractère personnel telles que les données biométriques, résultant du développement, du déploiement et de l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes progressent rapidement, ce qui souligne la nécessité de respecter les droits des citoyens à la vie privée et à la protection des données à caractère personnel, conformément au droit de l’Union;

64.  souligne que la possibilité offerte par ces technologies d’utiliser des données à caractère personnel et non personnel à des fins de catégorisation et de microciblage des personnes, d’identification des vulnérabilités des individus ou d’exploitation de connaissances prédictives précises doit être contrebalancée par des principes de protection des données et de respect de la vie privée strictement appliqués, tels que la limitation des données, le droit de s’opposer au profilage et de contrôler l’utilisation de ses propres données, le droit de recevoir une explication relative à une décision fondée sur le traitement automatisé et le respect de la vie privée dès la conception, ainsi que par les principes de proportionnalité, de nécessité et de limitation sur la base de finalités strictement identifiées, conformément au RGPD;

65.  souligne que, lorsque les autorités publiques utilisent, pour des motifs d’intérêt public substantiels, des technologies de reconnaissance à distance, telles que la reconnaissance des caractéristiques biométriques, notamment la reconnaissance faciale, leur utilisation doit toujours être rendue publique et être proportionnée, ciblée, limitée à des objectifs spécifiques et limitée dans le temps dans le respect du droit de l’Union, et tenir dûment compte de la dignité et de l’autonomie humaines, ainsi que des droits fondamentaux énoncés dans la Charte. Les critères et les limites de cette utilisation devraient être soumis à un contrôle juridictionnel et à une surveillance démocratique et tenir compte de ses incidences psychologiques et socioculturelles sur la société civile;

66.  souligne que, si le déploiement de l’intelligence artificielle, de la robotique et des technologies connexes dans le cadre des décisions des pouvoirs publics présente des avantages, il peut conduire à de graves abus, tels que la surveillance de masse, la police prédictive et les violations des droits de la défense;

67.  estime que les technologies susceptibles de produire des décisions automatisées, et donc de remplacer les décisions prises par les pouvoirs publics, devraient être traitées avec la plus grande précaution, notamment dans le domaine de la justice et de l’application de la loi;

68.  estime que les États membres ne devraient avoir recours à ces technologies que s’il existe des preuves solides de leur fiabilité et si une intervention et un contrôle humains significatifs sont possibles ou systématiques dans les cas où des libertés fondamentales sont en jeu; souligne qu’il importe que les autorités nationales procèdent à une évaluation rigoureuse de l’impact sur les droits fondamentaux des systèmes d’intelligence artificielle déployés dans ces cas, en particulier si ces technologies ont été évaluées comme étant à haut risque;

69.  est d’avis que toute décision prise par l’intelligence artificielle, la robotique ou les technologies connexes dans le cadre des prérogatives de puissance publique devrait faire l’objet d’une intervention humaine significative et être dûment encadrée, en particulier si ces technologies ont été évaluées comme étant à haut risque;

70.  estime que les avancées technologiques ne devraient pas conduire à ce que l’intelligence artificielle, la robotique et les technologies connexes soient utilisées pour prendre de manière autonome des décisions qui relèvent du secteur public et qui ont un impact direct et significatif sur les droits et les obligations des citoyens;

71.  relève que l’IA, la robotique et les technologies connexes pourraient renforcer la sûreté et la sécurité publiques dans le domaine de l’application des lois et du contrôle des frontières, mais qu’il convient de les soumettre à un contrôle public approfondi et rigoureux et d’exiger la plus grande transparence en ce qui concerne l’évaluation des risques liés à chaque application ainsi que la vue d’ensemble de l’utilisation de l’IA, de la robotique et des technologies connexes dans le domaine de l’application des lois et du contrôle des frontières; estime que ces technologies comportent des risques éthiques considérables, qu’il convient de gérer de manière appropriée en tenant compte des éventuelles conséquences néfastes pour les individus, en particulier en ce qui concerne leurs droits au respect de leur vie privée, à la protection de leurs données et à la non-discrimination; souligne que l’utilisation abusive de ces technologies peut menacer directement la démocratie et que leur déploiement et leur utilisation doivent respecter les principes de proportionnalité et de nécessité, la Charte des droits fondamentaux et le droit dérivé de l’Union applicable en la matière, comme les règles en matière de protection des données; insiste pour que l’IA ne se substitue jamais à l’être humain lorsqu’il s’agit de rendre des décisions de justice; affirme que les décisions, telles que la libération sous caution ou le sursis, qui sont prononcées en justice, ou les décisions fondées uniquement sur un traitement automatisé, qui produisent des effets juridiques à l’égard de la personne intéressée ou qui l’affectent de manière conséquente, doivent systématiquement comporter une part significative d’évaluation et d’appréciation humaines;

Bonne gouvernance

72.  souligne qu’une gouvernance appropriée du développement, du déploiement et de l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes, et en particulier des technologies à haut risque, notamment par la mise en place de mesures axées sur la responsabilité et la gestion des risques potentiels de biais et de discrimination, peut accroître la sécurité des citoyens et leur confiance à l’égard de ces technologies;

73.  estime qu’un cadre commun pour la gouvernance de ces technologies, coordonné par la Commission ou par les institutions, organes et organismes compétents de l’Union susceptibles d’être désignés à cette fin et mis en œuvre par les organismes nationaux de surveillance de chaque État membre, garantirait une approche de l’Union cohérente et préviendrait une fragmentation du marché unique;

74.  observe que les données sont utilisées en grandes quantités pour le développement de l’intelligence artificielle, de la robotique et des technologies connexes et que le traitement, le partage et l’utilisation de ces données et l’accès à ces données doivent être régis conformément à la loi et aux exigences en matière de qualité, d’intégrité, d’interopérabilité, de transparence, de sécurité, de confidentialité et de contrôle qui y sont énoncées;

75.  rappelle que l’accès aux données est un élément essentiel de la croissance de l’économie numérique; fait observer à cet égard que l’interopérabilité des données, en limitant les effets de verrouillage, joue un rôle essentiel pour garantir des conditions de marché équitables et promouvoir des conditions de concurrence équitables dans le marché unique numérique;

76.  souligne la nécessité de veiller à ce que les données à caractère personnel soient protégées de manière adéquate, en particulier les données relatives aux groupes vulnérables ou provenant de ces derniers, tels que les personnes handicapées, les personnes malades, les enfants, les personnes âgées, les minorités, les migrants et d’autres groupes menacés d’exclusion;

77.   constate que le développement, le déploiement et l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes par les pouvoirs publics sont souvent sous-traités à des parties privées; estime que cette démarche ne devrait compromettre en aucune façon la protection des valeurs publiques et des droits fondamentaux; estime que les conditions et les modalités de passation des marchés publics devraient répondre aux normes éthiques imposées aux pouvoirs publics, le cas échéant;

Consommateurs et marché intérieur

78.   souligne l’importance d’appliquer un cadre réglementaire en matière d’intelligence artificielle dès lors que des consommateurs au sein de l’Union sont des utilisateurs d’un système algorithmique, soumis à un tel système algorithmique ou orientés vers un tel système, indépendamment du lieu d’établissement des entités qui développent, vendent ou utilisent le système; estime en outre que, dans l’intérêt de la sécurité juridique, les règles fixées dans ce cadre devraient s’appliquer à l’ensemble de la chaîne de valeur, à savoir le développement, le déploiement et l’utilisation des technologies concernées et de leurs composantes et qu’elles devraient garantir un niveau élevé de protection des consommateurs;

79.  relève le lien intrinsèque entre l’intelligence artificielle, la robotique et les technologies connexes, y compris les logiciels, les algorithmes et les données utilisés ou produits par ces technologies, et des domaines tels que l’internet des objets, l’apprentissage automatique, les systèmes à base de règles ou les processus de décision automatisés et assistés; souligne en outre que des icônes normalisées pourraient être mises au point afin d’expliquer ces systèmes aux consommateurs dès lors que ces systèmes présentent une certaine complexité ou sont en mesure de prendre des décisions qui ont une incidence significative sur la vie des consommateurs;

80.  rappelle que la Commission devrait examiner le cadre juridique existant et son application, y compris l’acquis en matière de droit des consommateurs, la législation sur la responsabilité du fait des produits, la législation sur la sécurité des produits et la législation sur la surveillance du marché, afin de recenser les lacunes juridiques et les obligations réglementaires existantes; estime que cela s’avère nécessaire pour déterminer si ce cadre juridique est en mesure de répondre aux nouveaux enjeux créés par l’émergence de l’intelligence artificielle, de la robotique et des technologies connexes et d’assurer un niveau élevé de protection des consommateurs;

81.  rappelle qu’il convient de répondre efficacement aux enjeux créés par l’intelligence artificielle, la robotique et les technologies connexes et de veiller à ce que les consommateurs disposent des compétences nécessaires et qu’ils soient correctement protégés; souligne la nécessité d’aller au-delà des principes traditionnels d’information et de publicité sur lesquels repose l’acquis en matière de droit de la consommation, car le renforcement des droits des consommateurs et des limitations claires en ce qui concerne le développement, le déploiement et l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes seront nécessaires afin de garantir que cette technologie contribue à améliorer la vie des consommateurs et qu’elle évolue dans le respect des droits fondamentaux et des droits des consommateurs ainsi que des valeurs de l’Union;

82.  souligne que le cadre législatif mis en place par la décision nº 768/2008/CE(14) bis prévoit une liste harmonisée d’obligations pour les producteurs, les importateurs et les distributeurs, encourage l’utilisation de normes et prévoit plusieurs niveaux de contrôle en fonction de la dangerosité du produit; estime que ce cadre devrait également s’appliquer aux produits intégrant l’IA;

83.  note qu’aux fins de l’analyse des incidences de l’intelligence artificielle, de la robotique et des technologies connexes sur les consommateurs, l’accès aux données pourrait, dans le plein respect du droit de l’Union en matière de protection des données, de vie privée et de secrets d’affaires, être étendu aux organismes nationaux compétents; rappelle qu’il est important de sensibiliser les consommateurs de sorte qu’ils soient plus informés et plus qualifiés lorsqu’ils utilisent l’intelligence artificielle, la robotique et les technologies connexes, afin de les protéger contre d’éventuels risques et de faire respecter leurs droits;

84.  invite la Commission à proposer des mesures de traçabilité des données, en tenant compte à la fois de la légalité de l’acquisition des données et de la protection des droits des consommateurs et des droits fondamentaux, dans le plein respect du droit de l’Union, notamment en matière de protection des données, de vie privée, de droits de propriété intellectuelle et de secrets d’affaires;

85.   relève que ces technologies devraient être centrées sur l’utilisateur et conçues de manière à permettre à tout un chacun d’utiliser des produits ou services d’IA, quels que soient son âge, son genre, ses capacités ou ses caractéristiques; relève que l’accessibilité des personnes handicapées à ces technologies revêt une importance particulière; observe qu’il convient de ne pas adopter une approche uniforme et qu’il y a lieu d’envisager des principes de conception universelle répondant aux besoins du plus large éventail possible d’utilisateurs, en suivant des normes d’accessibilité pertinentes; souligne que cela offrira à tout un chacun un accès équitable et une participation active aux activités humaines informatisées existantes et émergentes, ainsi qu’aux technologies d’assistance;

86.  souligne que, lorsque des fonds publics contribuent de manière significative au développement, au déploiement ou à l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes, il pourrait être envisagé de rendre publics par défaut le code, les données générées – si elles ne présentent pas de caractère personnel – ainsi que le modèle entraîné, sous réserve d’un accord avec le développeur, parallèlement à des normes ouvertes en matière de marchés publics et de contrats, pour garantir la transparence, renforcer la cybersécurité et encourager la réutilisation afin de favoriser l’innovation; souligne qu’ainsi, tout le potentiel du marché unique pourra être libéré et la fragmentation du marché pourra être évitée;

87.  considère que l’IA, la robotique et les technologies connexes affichent un potentiel énorme pour offrir aux consommateurs la possibilité d’avoir accès à plusieurs prestations dans de nombreux aspects de leur vie, ainsi qu’à de meilleurs produits et services, et de bénéficier d’une meilleure surveillance du marché, pour autant que tous les principes, les conditions, y compris la transparence et la vérifiabilité, et les réglementations applicables continuent de s’appliquer;

Sécurité et défense

88.  souligne que les politiques de sécurité et de défense de l’Union européenne et de ses États membres sont guidées par les principes reflétés dans la Charte et par les principes de la charte des Nations unies et par une compréhension commune des valeurs universelles que constituent le respect des droits inviolables et inaliénables de la personne et de la dignité humaines, de la liberté, de la démocratie, de l’égalité et de l’état de droit; souligne que tous les efforts liés à la défense dans le cadre de l’Union doivent respecter ces valeurs universelles tout en prônant la paix, la sécurité et le progrès, tant en Europe que dans le monde;

89.  se félicite de l’approbation, par la conférence des hautes parties contractantes à la convention des Nations unies sur certaines armes classiques (CCAC) de 2019, de 11 principes directeurs relatifs au développement et à l’utilisation des systèmes d’armes autonomes; déplore néanmoins l’absence d’accord sur un instrument juridiquement contraignant régissant les armes létales autonomes, assorti d’un mécanisme de contrôle efficace du respect de ces règles; salue et soutient le rapport du groupe d’experts de haut niveau de la Commission sur l’intelligence artificielle, intitulé «Lignes directrices en matière d’éthique pour une IA digne de confiance», publiées le 9 avril 2019, et sa position sur les systèmes d’armes létales autonomes (SALA); invite instamment les États membres à élaborer des stratégies nationales pour la définition et le statut des armes létales autonomes en vue d’une stratégie globale au niveau de l’Union et à promouvoir, en collaboration avec le haut représentant/vice-président de la Commission de l’Union européenne («HR/VP») et le Conseil, le débat sur les SALA au sein des Nations unies dans le cadre de la convention des Nations unies sur certaines armes classiques et dans d’autres enceintes pertinentes et l’établissement de normes internationales concernant les paramètres éthiques et juridiques pour l’élaboration et l’utilisation de systèmes d’armes létales totalement autonomes, semi-autonomes et télécommandées; rappelle à cet égard ses positions antérieures sur les systèmes d’armes létales autonomes, exprimées le 12 septembre 2018, et demande une fois de plus l’élaboration et l’adoption, dans les plus brefs délais, d’une position commune sur ces systèmes, l’interdiction internationale de la mise au point, de la production et de l’utilisation de systèmes d’armes létales autonomes permettant d’effectuer des frappes sans véritable contrôle humain et sans respect du principe de l’intervention humaine, conformément à la déclaration des plus éminents chercheurs au niveau mondial dans le domaine de l’IA dans leur lettre ouverte de 2015; se félicite de l’accord du Conseil et du Parlement visant à exclure les armes létales autonomes «sans la possibilité d’un contrôle humain significatif sur les décisions de sélection et d’engagement prises [dans le cadre de frappes]» des actions financées au titre du Fonds européen de défense; estime que les aspects éthiques d’autres applications fondées sur l’IA dans le domaine de la défense, comme le renseignement, la surveillance et les opérations de reconnaissance ou les cyberopérations, ne doivent pas être négligés et qu’une attention particulière doit être accordée au développement et au déploiement de drones dans les opérations militaires;

90.  souligne que les technologies émergentes dans le domaine de la défense et de la sécurité qui ne sont pas régulées par le droit international devraient être évaluées en tenant compte du principe du respect de l’humanité et des impératifs de la conscience publique;

91.  recommande que le cadre de l’Union régissant le recours aux systèmes de défense fondés sur l’IA, en temps de paix comme en temps de guerre, respecte l’ensemble des régimes juridiques applicables, en particulier le droit international humanitaire et le droit international relatif aux droits de l’homme, et se conforme au droit, aux principes et aux valeurs de l’Union, en gardant à l’esprit les différences en matière d’infrastructures techniques et de sécurité à travers l’Union;

92.  constate que, contrairement aux bases industrielles de défense, les innovations déterminantes en matière d’IA pourraient provenir des petits États membres, de sorte qu’une approche normalisée de la PSDC devrait garantir la participation des petits États membres et des PME; souligne qu’un socle de capacités communes de l’Union fondées sur l’IA, qui tient compte des concepts d’opération adoptés par les États membres, peut combler les lacunes techniques qui pourraient conduire à l’exclusion des États ne disposant ni de la technologie adéquate, ni de l’expertise industrielle, ni de la capacité à mettre en œuvre des systèmes d’IA dans leurs propres ministères de la défense;

93.  estime que les activités actuelles et futures liées à la sécurité et à la défense dans le cadre de l’Union s’appuieront sur l’IA, sur la robotique et l’autonomie ainsi que sur les technologies connexes, et qu’une IA fiable, robuste et digne de confiance peut contribuer à une armée moderne et efficace; considère que l’Union doit dès lors jouer un rôle de premier plan dans la recherche et le développement de systèmes d’IA dans les domaine de la sécurité et de la défense; estime que l’utilisation des applications fondées sur l’IA dans le domaine de la sécurité et la défense pourrait offrir bon nombre d’avantages directs au commandant d’opération, tels que la collecte de données de meilleure qualité, une connaissance plus précise de la situation, une prise de décision plus rapide, la diminution du risque lié aux dommages collatéraux grâce à un câblage optimisé, la protection des forces armées déployées sur le terrain, ou encore une fiabilité accrue des équipements militaires, ce qui réduira les risques pour l’homme et les pertes humaines; souligne que le développement d’une IA fiable dans le domaine de la défense est indispensable pour garantir l’autonomie stratégique européenne dans les domaines capacitaires et opérationnels; rappelle que les systèmes d’IA sont également en passe de devenir des éléments fondamentaux de la lutte contre les menaces émergentes en matière de sécurité, telles que la cyberguerre et la guerre hybride, dans le cadre d’un usage tant en ligne qu’hors ligne; attire en même temps l’attention sur tous les risques et les problèmes que présente l’utilisation non réglementée de l’IA; observe que l’IA pourrait être vulnérable aux manipulations, aux erreurs et aux imprécisions;

94.  souligne que les technologies fondées sur l’IA sont, fondamentalement, à double usage, et que le développement de l’IA dans les activités liées à la défense tire parti des échanges entre technologie militaire et civile; souligne que l’IA employée dans les activités liées à la défense est une technologie de rupture transversale dont le développement peut offrir des possibilités en matière de compétitivité et d’autonomie stratégique pour l’Union;

95.  constate que, dans le contexte actuel d’une guerre hybride recourant à des technologies de pointe, le volume des informations et leur vitesse de transmission au cours des premières phases d’une crise pourraient dépasser les analystes humains, et qu’un système d’IA pourrait traiter les informations afin de garantir que les décideurs humains disposent de tout l’éventail d’informations dans un délai permettant de réagir rapidement;

96.  souligne l’importance d’investir dans le développement du capital humain pour l’intelligence artificielle, de promouvoir les compétences et l’éducation nécessaires dans des technologies de sécurité et de défense fondées sur l’IA, en mettant un accent particulier sur les aspects éthiques des systèmes opérationnels semi-autonomes et autonomes qui engagent la responsabilité des opérateurs humains dans un monde fondé sur l’IA; insiste en particulier sur l’importance de garantir des compétences et une formation appropriées destinées aux éthiciens dans ce domaine; invite la Commission à présenter dès que possible son «renforcement de la stratégie en matière de compétences», annoncé dans le livre blanc sur l’intelligence artificielle du 19 février 2020;

97.  souligne que l’informatique quantique pourrait constituer l’arme la plus révolutionnaire depuis l’avènement de l’arme atomique, et exhorte, par conséquent, l’Union et les États membres à faire de la poursuite du progrès technologique dans ce domaine une priorité; est conscient du fait que les actes d’agression, y compris les frappes visant les infrastructures essentielles, facilités par l’informatique quantique, créeront une situation de conflit dans laquelle le temps imparti à la prise de décisions sera considérablement réduit, passant dramatiquement de quelques jours, voire quelques heures, à quelques minutes, voire quelques secondes, contraignant ainsi les États membres à développer des capacités de protection et à préparer tant leurs décideurs que leur personnel militaire à réagir efficacement dans des délais aussi courts;

98.  demande plus d’investissements dans l’IA européenne dans le domaine de la défense et dans les infrastructures critiques sur lesquelles elle repose;

99.  rappelle que la plupart des États possédant une armée ont déjà déployé des efforts considérables en R&D concernant la dimension militaire de l’intelligence artificielle; considère que l’Union doit veiller à ne pas prendre de retard dans ce domaine;

100.  invite la Commission à intégrer, dans le cadre de sa politique industrielle, le renforcement des capacités en matière de cybersécurité, afin de garantir le développement et le déploiement de systèmes robotiques et fondés sur l’IA sûrs, résilients et robustes; invite la Commission à étudier l’utilisation de protocoles et d’applications de cybersécurité fondées sur des chaînes de blocs en vue d’améliorer la résilience, la fiabilité et la robustesse des infrastructures de l’IA grâce à des modèles désintermédiés de chiffrement des données; encourage les acteurs européens à rechercher et à concevoir des fonctionnalités avancées qui faciliteraient la détection des systèmes fondés sur l’IA corrompus et malveillants, susceptibles de menacer la sécurité de l’Union et des citoyens;

101.  souligne que tous les systèmes d’IA dans le domaine de la défense doivent disposer d’un cadre de mission concret et bien défini, qui attribue à l’humain la capacité de détecter et de désassocier ou de désactiver les systèmes déployés s’ils dépassent les limites du cadre de la mission définie et assignée par un commandant humain ou s’ils entreprennent une action non intentionnelle ou pouvant entraîner une escalade; considère que les systèmes, produits et technologies fondés sur l’IA et destinés à un usage militaire devraient être équipés d’une «boîte noire» pour enregistrer chaque opération de transfert de données effectuée par la machine;

102.  estime essentiel que toute la responsabilité de la décision de concevoir, de développer, de déployer et d’utiliser les systèmes d’IA doit reposer sur les opérateurs humains, car un suivi et un contrôle humain significatif doit être exercé sur les systèmes d’armes et il doit exister une intention humaine dans la décision de recourir à la force pour l’exécution de toute décision prise par des systèmes d’armes fondés sur l’IA susceptibles d’avoir des conséquences fatales; souligne que le contrôle humain devrait être maintenu en ce qui concerne le commandement et le contrôle des systèmes fondés sur l’IA, conformément aux principes de l’intervention humaine, de la supervision humaine et de l’humain aux commandes au niveau de la direction des opérations militaires; souligne que les systèmes fondés sur l’IA doivent permettre aux autorités militaires des armées d’assumer pleinement leur responsabilité dans le cadre de l’utilisation de la force à des fins meurtrières et d’exercer le niveau de jugement nécessaire, lequel ne peut être confié à des machines, car il doit se fonder sur le principe de distinction, de proportionnalité et de précaution, pour prendre, au moyen de ces systèmes, des mesures mortelles ou des mesures destructrices à grande échelle; met en avant la nécessité d’établir des cadres clairs et identifiables en ce qui concerne l’autorisation et l’obligation de rendre des comptes en vue du déploiement d’armes intelligentes et d’autres systèmes fondés sur l’IA, qui s’appuient sur les caractéristiques uniques de l’utilisateur, telles que ses données biométriques, garantissant ainsi que seul le personnel habilité est en mesure d’autoriser un déploiement de ces armes;

Transports

103.  met l’accent sur le potentiel que présentent l’intelligence artificielle, la robotique et les technologies connexes pour tous les moyens autonomes de transport routier, ferroviaire, par voie d’eau et aérien, de même que pour stimuler le transfert modal et l’intermodalité, car ces technologies peuvent contribuer à déterminer la combinaison optimale des moyens de transport de marchandises et de passagers; souligne en outre leur potentiel pour rendre les transports, la logistique et les flux de circulation plus efficaces, et tous les modes de transport plus sûrs, plus intelligents et plus respectueux de l’environnement; insiste sur le fait qu’une approche éthique de l’IA peut également être considérée comme un système d’alerte précoce, en particulier en ce qui concerne la sécurité et l’efficacité des transports;

104.  met l’accent sur le fait que la concurrence mondiale entre les entreprises et les régions économiques signifie que l’Union doit promouvoir les investissements et renforcer la compétitivité internationale des entreprises qui exercent leur activité dans le domaine des transports, en créant un environnement propice au développement et à l’application de solutions et de nouvelles innovations fondées sur l’IA qui permette aux entreprises établies au sein l’Union de se hisser au premier rang mondial dans le développement de technologies fondées sur l’IA;

105.  souligne que le secteur des transports de l’Union nécessite une mise à jour du cadre réglementaire relatif à ces technologies émergentes et à leur utilisation dans le secteur des transports, ainsi que l’élaboration d’un cadre éthique clair pour qu’une IA digne de confiance puisse être mise en place, y compris en ce qui concerne les aspects liés à la sécurité, à la sûreté, au respect de l’autonomie humaine, à la supervision et à la responsabilité, qui accroîtront les avantages qui sont partagés par tous et qui seront essentiels pour stimuler les investissements dans la recherche et l’innovation, le développement des compétences et l’adoption de l’IA par les services publics, les PME, les start-ups et les entreprises, en garantissant dans le même temps la protection des données et l’interopérabilité, sans qu’une charge administrative inutile soit imposée aux entreprises ou aux consommateurs;

106.  observe que ni le développement ni la mise en œuvre de l’IA dans le secteur des transports ne seront possibles sans la mise en place d’infrastructures modernes, qui sont un élément essentiel des systèmes de transport intelligents; souligne que les différences persistantes de niveau de développement entre les États membres risquent de priver les régions les moins développées et leurs habitants des avantages qu’offre le développement de la mobilité autonome; demande que le processus de modernisation des infrastructures de transport de l’Union, y compris leur intégration dans le réseau 5G, bénéficie d’un financement suffisant;

107.  recommande que des normes IA européennes dignes de confiance soient mises en place pour tous les modes de transports, y compris dans l’industrie automobile, ainsi que pour le contrôle des véhicules intégrant l’IA et des produits et services y afférents;

108.  relève que les systèmes d’IA pourraient contribuer à réduire sensiblement le nombre de décès sur les routes, par exemple en améliorant le temps de réaction et le respect des règles; estime cependant que l’utilisation de véhicules autonomes ne permettra pas d’éviter tous les accidents et souligne que, par conséquent, l’explicabilité des décisions prises par l’IA revêt une importance croissante pour justifier les lacunes et les conséquences imprévues des décisions prises par l’IA;

Emploi, droits des travailleurs, compétences numériques et lieu de travail

109.  relève que l’application de l’intelligence artificielle, de la robotique et des technologies connexes sur le lieu de travail peut contribuer à la création de marchés du travail inclusifs et avoir des incidences sur la santé et la sécurité au travail, mais qu’elle peut également servir à contrôler, évaluer, prédire et diriger les performances des travailleurs, avec des conséquences directes et indirectes sur leur carrière; que l’IA devrait avoir un impact positif sur les conditions de travail et reposer sur le respect des droits de l’homme ainsi que des droits fondamentaux et des valeurs de l’Union; que l’IA devrait être centrée sur l’humain, améliorer le bien-être des personnes et de la société et contribuer à une transition juste et équitable; que ces technologies devraient avoir un impact positif sur les conditions de travail et reposer sur le respect des droits de l’homme ainsi que des droits fondamentaux et des valeurs de l’Union;

110.  insiste sur la nécessité de développer les compétences par l’intermédiaire de la formation et de l’enseignement dispensés aux travailleurs et à leurs représentants en matière d’IA sur le lieu de travail, afin qu’ils comprennent mieux les implications des solutions fondées sur l’IA; souligne que les candidats et les travailleurs devraient être dûment informés par écrit de l’utilisation de l’IA dans le cadre d’une procédure de recrutement et d’autres décisions liées aux ressources humaines, ainsi que de la possibilité de demander une évaluation humaine pour faire annuler une décision automatisée;

111.  insiste sur la nécessité de veiller à ce que les gains de productivité liés au développement et à l’utilisation de l’IA et de la robotique ne profitent pas seulement aux propriétaires et aux actionnaires de l’entreprise, mais aussi aux entreprises et à la main d’œuvre, grâce à de meilleures conditions de travail et d’emploi, notamment sur le plan des salaires, de la croissance économique et du développement, et qu’ils bénéficient à la société dans son ensemble, en particulier lorsque ces gains se font au détriment des emplois; invite les États membres à examiner de près les incidences potentielles de l’IA sur le marché du travail et les systèmes de sécurité sociale, ainsi qu’à élaborer des stratégies sur la manière de garantir la stabilité à long terme par une réforme fiscale et des contributions ainsi que par d’autres mesures en cas de baisse des recettes publiques;

112.  souligne l’importance des investissements des entreprises dans la formation formelle et informelle et l’apprentissage tout au long de la vie afin de soutenir la transition juste vers l’économie numérique; fait remarquer, à cet égard, que les entreprises qui déploient l’IA ont la responsabilité de proposer à tous les salariés concernés une reconversion professionnelle et un renforcement des compétences appropriés, afin qu’ils apprennent à utiliser les outils numériques et à travailler avec des robots collaboratifs et d’autres technologies nouvelles, en s’adaptant aux besoins changeants du marché du travail et en conservant leur emploi;

113.  considère qu’il convient d’accorder une attention particulière aux nouvelles formes de travail, telles que le travail à la tâche et le travail via une plateforme, qui résultent de l’application de nouvelles technologies dans ce contexte; estime que la réglementation des conditions de télétravail dans l’ensemble de l’Union et la garantie de conditions de travail décentes dans l’économie numérique doit également tenir compte des incidences de l’IA; invite la Commission à consulter, à cet égard, les partenaires sociaux, les développeurs d’IA, les chercheurs et les autres parties prenantes;

114.  souligne que l’intelligence artificielle, la robotique et les technologies connexes ne doivent, en aucun cas, porter atteinte à l’exercice des droits fondamentaux reconnus au niveau des États membres et de l’Union, notamment le droit ou la liberté de faire grève ou d’entreprendre toute autre action prévue par les mécanismes de concertation sociale des États membres, conformément à leur droit interne ou à leurs pratiques nationales, ni porter atteinte au droit de négocier, de conclure et d’appliquer des accords collectifs, ou d’entreprendre une action collective conformément au droit interne ou aux pratiques nationales;

115.  réaffirme l’importance de l’éducation et de l’apprentissage continu pour développer les qualifications nécessaires à l’ère numérique et lutter contre l’exclusion numérique; invite les États membres à investir dans des systèmes d’enseignement, de formation professionnelle et d’apprentissage tout au long de la vie qui soient de grande qualité, réactifs et inclusifs, ainsi que dans des politiques de requalification et de perfectionnement professionnel pour les travailleurs des secteurs susceptibles d’être particulièrement touchés par l’IA; souligne la nécessité de doter la main-d’œuvre actuelle et future des compétences nécessaires à l’écrit, en calcul et en technologie numérique ainsi qu’en sciences, technologies, ingénierie et mathématiques (STIM), et de compétences transversales non techniques, telles que la pensée critique, la créativité et l’esprit d’entreprise; souligne qu’il convient d’accorder une attention à l’inclusion des groupes défavorisés à cet égard;

116.  rappelle que chacun doit pouvoir accéder à l’intelligence artificielle, à la robotique et aux technologies connexes utilisées sur le lieu de travail, conformément au principe de la conception pour tous;

Éducation et culture

117.  insiste sur la nécessité de mettre au point des critères pour le développement, le déploiement et l’utilisation de l’IA en tenant compte de leur incidence sur l’éducation, les médias, la jeunesse, la recherche, les sports et les secteurs de la culture et de la création, en établissant des critères de référence et en définissant des principes pour les utilisations, éthiquement responsables et acceptées, des technologies fondées sur l’IA qui peuvent être appliquées de manière appropriée dans ces domaines, y compris un régime de responsabilité clair pour les produits résultant de l’utilisation de l’IA;

118.  souligne que chaque enfant a le droit à une éducation publique de qualité à tous les niveaux; préconise, par conséquent, le développement, le déploiement et l’utilisation de systèmes d’IA de qualité favorisant et fournissant des outils éducatifs de qualité pour tous et à tous les niveaux; souligne que le déploiement de nouveaux systèmes d’IA dans les écoles ne doit pas creuser davantage le fossé numérique qui se crée dans la société; est conscient de l’énorme contribution potentielle que l’IA et la robotique peuvent apporter à l’enseignement; souligne que les systèmes d’apprentissage personnalisé fondés sur l’IA ne sauraient remplacer les relations éducatives avec des enseignants et que les formes traditionnelles d’enseignement ne devraient pas être délaissées, tout en insistant sur le fait qu’un soutien financier, technologique et éducatif, comprenant une formation spécialisée dans les technologies de l’information et de la communication, doit être apporté aux enseignants cherchant à acquérir les compétences nécessaires pour s’adapter aux évolutions technologiques, non seulement dans le but d’exploiter le potentiel de l’IA, mais aussi de comprendre ses limites; préconise d’adopter une stratégie au niveau de l’Union pour transformer et actualiser nos systèmes éducatifs, préparer nos établissements d’enseignement à tous les niveaux et doter les enseignants et les élèves des compétences et aptitudes nécessaires;

119.  souligne que les établissements d’enseignement devraient avoir pour objectif d’utiliser à des fins éducatives des systèmes d’IA ayant reçu un certificat européen de conformité éthique;

120.  insiste sur le fait que les possibilités offertes par la numérisation et les nouvelles technologies ne doivent pas entraîner une perte générale d’emplois dans les secteurs de la culture et de la création, conduire à des négligences dans la conservation des originaux ou minorer l’importance de l’accès traditionnel au patrimoine culturel, qui devrait être tout autant encouragé; souligne que les systèmes d’IA développés, déployés et utilisés dans l’Union devraient être le reflet de sa diversité culturelle et de son multilinguisme;

121.  prend acte du potentiel croissant que recèle l’IA dans les domaines de l’information, des médias et des plateformes en ligne, y compris en tant qu’outil de lutte contre la désinformation conformément au droit de l’Union; fait valoir que, si elle n’est pas réglementée, l’IA pourrait aussi avoir des effets néfastes sur le plan éthique en raison de l’exploitation de biais dans les données et les algorithmes, ce qui peut conduire à la propagation de la désinformation et à la création de bulles d’information; souligne qu’il est important que les algorithmes utilisés par les plateformes de partage de vidéos et les plateformes de diffusion en continu soient transparents et responsables afin d’assurer un accès à des contenus variés sur les plans culturel et linguistique;

Organismes nationaux de surveillance

122.  souligne la valeur ajoutée de la désignation, dans chaque État membre, d’organismes de surveillance nationaux, chargés d’assurer, d’évaluer et de contrôler le respect des obligations légales et des principes éthiques relatifs au développement, au déploiement et à l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes à haut risque, contribuant ainsi au respect par ces technologies des exigences juridiques et éthiques;

123.  estime que ces organismes doivent être tenus de coopérer, sans chevauchement de leurs tâches, avec les organismes chargés de faire appliquer la législation sectorielle afin de recenser les technologies réputées à haut risque d’un point de vue éthique et de superviser la mise en œuvre des mesures requises et appropriées lorsque lesdites technologies ont été identifiées;

124.  indique que ces organismes devraient entretenir des contacts non seulement entre eux, mais également avec la Commission européenne et les autres institutions, organes et organismes pertinents de l’Union afin de garantir des actions transfrontières cohérentes;

125.  suggère que, dans le cadre de cette coopération, des critères communs soient élaborés, ainsi qu’une procédure d’inscription relative à l’octroi d’un certificat européen de conformité aux principes éthiques, notamment à la suite d’une demande d’un développeur, d’un déployeur ou d’un utilisateur de technologies qui ne sont pas considérées comme étant à haut risque cherchant à garantir l’issue positive de l’évaluation de la conformité effectuée par l’organisme national de surveillance concerné;

126.  demande que ces organismes soient chargés de promouvoir des échanges réguliers avec la société civile et les innovations au sein de l’Union en fournissant une assistance aux chercheurs, aux développeurs et à d’autres parties prenantes, ainsi qu’aux entreprises moins avancées sur le plan numérique, notamment aux petites et moyennes entreprises ou aux start-ups, en particulier en ce qui concerne la sensibilisation et le soutien au développement, au déploiement, à la formation et à l’acquisition de talents, afin de garantir l’efficacité du transfert de technologies et l’accès aux technologies, aux projets, aux résultats et aux réseaux;

127.  demande que chaque État membre finance suffisamment les organismes nationaux de surveillance qu’il a désignés et souligne la nécessité de renforcer les capacités, les qualifications et les compétences des autorités nationales de surveillance du marché, ainsi que les connaissances sur les risques spécifiques de l’intelligence artificielle, de la robotique et des technologies connexes;

Coordination au niveau de l’Union

128.  souligne l’importance de la coordination au niveau de l’Union, telle qu’elle est assurée par la Commission et/ou les institutions, organes et organismes compétents de l’Union qui pourraient être désignés dans ce contexte, afin d’éviter la fragmentation et de garantir une approche harmonisée dans toute l’Union; considère que la coordination devrait se concentrer sur les mandats et les actions des organismes nationaux de surveillance de chaque État membre, comme indiqué dans la sous-section précédente, ainsi que sur le partage des bonnes pratiques entre ces organismes et la contribution à la coopération en matière de recherche et de développement dans ce domaine dans l’ensemble de l’Union; invite la Commission à évaluer et à trouver la solution la plus appropriée pour structurer cette coordination; note que les institutions, organes et organismes compétents de l’Union comprennent, par exemple, l’ENISA, le CEPD et le Médiateur européen;

129.  estime que cette coordination, ainsi que la certification européenne de conformité éthique, bénéficieraient non seulement au développement de l’industrie de l’Union et de l’innovation dans ce contexte, mais qu’elles permettraient également de sensibiliser les citoyens aux possibilités et aux risques inhérents à ces technologies;

130.  préconise la création d’un centre d’expertise réunissant au niveau de l’Union des universitaires, des chercheurs, des industriels et des experts individuels, afin de favoriser l’échange de connaissances et de compétences techniques et de faciliter la collaboration dans l’ensemble de l’Union et au-delà; demande en outre que ce centre d’expertise associe les organisations de parties prenantes, telles que les organisations de protection des consommateurs, afin d’assurer une large représentation des consommateurs; estime qu’en raison de l’incidence potentiellement disproportionnée des systèmes algorithmiques sur les femmes et les minorités, les niveaux de décision de cette structure devraient être diversifiés et garantir l’égalité entre les genres; souligne que les États membres doivent développer des stratégies de gestion des risques pour l’IA dans le contexte de leurs propres stratégies nationales de surveillance du marché;

131.   propose que la Commission et/ou les institutions, organes et organismes compétents de l’Union qui pourraient être désignés dans ce contexte apportent toute l’aide nécessaire aux organismes nationaux de surveillance en ce qui concerne leur rôle de premiers points de contact en cas de suspicion de violation des obligations légales et des principes éthiques énoncés dans le cadre réglementaire de l’Union en matière d’IA, y compris le principe de non-discrimination; note qu’ils devraient également apporter l’assistance nécessaire aux organismes nationaux de surveillance lorsque ceux-ci procèdent à des évaluations de conformité afin de protéger le droit des citoyens de contester une décision et d’obtenir réparation, notamment en facilitant, le cas échéant, la consultation d’autres autorités compétentes de l’Union, en particulier le réseau de coopération en matière de protection des consommateurs, les organismes nationaux de protection des consommateurs, les organisations de la société civile et les partenaires sociaux situés dans d’autres États membres;

132.  prend acte de la précieuse contribution du groupe d’experts de haut niveau sur l’intelligence artificielle, composé de représentants du monde universitaire, de la société civile et de l’industrie, ainsi que de l’Alliance européenne pour l’intelligence artificielle, en particulier des « Lignes directrices en matière d’éthique pour une intelligence artificielle digne de confiance », et suggère qu’il pourrait mettre son expérience à la disposition de la Commission et/ou des institutions, organes et organismes de l’Union concernés qui pourraient être désignés dans ce contexte;

133.  prend acte de l’inclusion de projets liés à l’IA dans le programme européen de développement industriel dans le domaine de la défense (EDIDP); estime que le futur Fonds européen de la défense (FED) et la coopération structurée permanente (CSP) peuvent également offrir des cadres propices à de futurs projets liés à l’IA, qui pourraient contribuer à mieux rationaliser les efforts de l’Union dans ce domaine et à promouvoir en même temps l’objectif de l’Union de renforcer les droits de l’homme, le droit international et les solutions multilatérales; souligne qu’il serait opportun de synchroniser les projets liés à l’IA avec les programmes civils européens de plus large portée consacrés à l’IA; note que conformément au livre blanc de la Commission européenne du 19 février 2020 sur l’intelligence artificielle, il y a lieu de créer des centres d’excellence et d’essai spécialisés dans la recherche et le développement de l’IA en matière de sécurité et de défense, avec un cahier des charges rigoureux sur lequel fonder la participation et les investissements des acteurs privés;

134.  prend note du livre blanc de la Commission du 19 février 2020 sur l’intelligence artificielle et regrette que la dimension militaire n’ait pas été prise en compte; invite la Commission et le VP/HR à présenter, dans le cadre d’une approche globale, une stratégie sectorielle relative à l’IA dans les activités liées à la défense au sein du cadre de l’Union qui garantisse à la fois le respect des droits des citoyens et les intérêts stratégiques de l’Union, et qui repose sur une approche cohérente allant du déploiement de systèmes fondés sur l’IA à leur utilisation dans des contextes militaires, ainsi qu’à créer un groupe de travail sur la sécurité et la défense au sein du groupe d’experts de haut niveau sur l’intelligence artificielle, qui serait exclusivement chargé des questions stratégiques et d’investissement ainsi que de la dimension éthique de l’IA dans les domaines de la sécurité et de la défense; invite le Conseil, la Commission et le VP/HR à entamer un dialogue structuré avec le Parlement à cette fin;

Certification européenne de conformité éthique

135.  suggère que des critères communs et une procédure de demande relative à l’octroi d’un certificat européen de conformité éthique soient élaborés dans le cadre d’une coordination au niveau de l’Union, y compris à la suite d’une demande formulée par un développeur, un déployeur ou un utilisateur de technologies qui ne sont pas considérées comme étant à haut risque cherchant à garantir l’issue positive de l’évaluation de la conformité effectuée par l’organisme national de surveillance concerné;

136.   estime que ce certificat européen de conformité éthique favoriserait l’intégration de l’éthique dès la conception et dans l’ensemble de la chaîne d’approvisionnement des écosystèmes d’intelligence artificielle; propose dès lors que cette certification soit, dans le cas des technologies à haut risque, une condition préalable obligatoire pour être admissible aux procédures de passation de marchés publics en matière d’intelligence artificielle, de robotique et de technologies connexes;

Coopération internationale

137.  est d’avis que la coopération transfrontalière et les normes éthiques ne pourront être efficaces que si toutes les parties prenantes s’engagent à garantir le facteur humain, le contrôle humain, la robustesse et la sécurité techniques, la transparence, la responsabilité, la diversité, l’absence de discrimination, l’équité et le bien-être sociétal et environnemental, et si elles respectent les principes établis en matière de respect de la vie privée, de gouvernance des données et de protection des données, en particulier ceux consacrés par le règlement (UE) 2016/679;

138.  souligne que les obligations légales et les principes éthiques de l’Union relatifs au développement, au déploiement et à l’utilisation de ces technologies pourraient faire de l’Europe un leader mondial dans le secteur de l’intelligence artificielle et devraient, par conséquent, être promus dans le monde entier en coopérant avec des partenaires internationaux tout en poursuivant un dialogue critique et fondé sur l’éthique avec les pays tiers qui disposent de modèles différents de réglementation, de développement et de déploiement de l’intelligence artificielle;

139.  rappelle que les possibilités et les risques inhérents à ces technologies possèdent une dimension mondiale, étant donné que les logiciels et les données qu’elles utilisent sont fréquemment importés dans l’Union et exportés hors de celle-ci, et qu’il est donc nécessaire d’adopter une approche de coopération cohérente au niveau international; invite la Commission à prendre l’initiative d’examiner quels traités et accords bilatéraux et multilatéraux devraient être adaptés afin de garantir une approche cohérente et de promouvoir le modèle européen de conformité éthique à l’échelle mondiale;

140.  souligne la valeur ajoutée de la coordination au niveau de l’Union, comme indiqué ci-dessus, dans ce contexte également;

141.  appelle de ses vœux la mise en place de synergies et de réseaux entre les différents centres européens de recherche sur l’IA et les autres enceintes multilatérales comme le Conseil de l’Europe, l’Organisation des Nations unies pour l’éducation, la science et la culture (UNESCO), l’Organisation de coopération et de développement économiques (OCDE), l’Organisation mondiale du commerce et l’Union internationale des télécommunications (UIT), afin d’harmoniser leurs efforts et de mieux coordonner le développement de l’intelligence artificielle, de la robotique et des technologies connexes;

142.  souligne que l’Union se doit de figurer à l’avant-garde pour ce qui est d’épauler les efforts multilatéraux pour débattre, dans le cadre du groupe d’experts gouvernementaux de la CCAC des Nations Unies et d’autres instances pertinentes, d’un cadre réglementaire international efficace qui garantisse un véritable contrôle humain sur les systèmes d’armes autonomes, afin de maîtriser ces technologies en établissant des processus bien définis basés sur des critères de référence et en adoptant une législation régissant leur utilisation éthique, en consultant les parties prenantes issues des secteurs militaire, industriel, et universitaire, les autorités chargées de l’application des lois et la société civile, et afin de comprendre les aspects éthiques connexes, atténuer les risques inhérents à ces technologies et empêcher leur utilisation à des fins malveillantes;

143.  est conscient du rôle joué par l’OTAN dans la promotion de la sécurité euroatlantique et appelle à la coopération au sein de l’OTAN en vue de l’établissement de normes communes et de l’interopérabilité des systèmes d’IA dans le domaine de la défense; souligne que la relation transatlantique est importante pour préserver les valeurs partagées et contrer les menaces nouvelles et futures;

144.  souligne la nécessité de créer un code de conduite éthique sous-tendant le déploiement des armes intégrant des systèmes fondés sur l’IA dans le cadre d’opérations militaires, semblable au cadre réglementaire existant qui interdit l’utilisation d’armes chimiques et biologiques; est d’avis que la Commission devrait entamer l’élaboration de normes relatives à l’utilisation d’armes intégrant des systèmes fondés sur l’IA dans un contexte de guerre, conformément au droit humanitaire international, et que l’Union devrait s’engager en faveur de l’adoption de ces normes à l’échelle internationale; considère que l’Union devrait mener une action diplomatique autour de l’IA dans les enceintes internationales avec les partenaires qui partagent le même point de vue à l’instar du G7, du G20 et de l’OCDE;

Considérations finales

145.  conclut, à la suite des réflexions ci-dessus sur les aspects liés à la dimension éthique de l’intelligence artificielle, de la robotique et des technologies connexes, que les dimensions juridiques et éthiques devraient être consacrées dans un cadre réglementaire efficace, prospectif et complet au niveau de l’Union, soutenu par les organismes nationaux compétents, coordonné et renforcé par la Commission et/ou les institutions, organes et organismes compétents de l’Union qui pourraient être désignés dans ce contexte, régulièrement soutenu par le centre d’expertise susmentionné et dûment respecté et certifié au sein du marché intérieur;

146.  demande à la Commission, conformément à la procédure prévue à l’article 225 du traité sur le fonctionnement de l’Union européenne, de soumettre une proposition de règlement concernant les principes éthiques relatifs au développement, au déploiement et à l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes, sur la base de l’article 114 du traité sur le fonctionnement de l’Union européenne et en suivant les recommandations détaillées figurant en annexe; estime que la proposition ne devrait pas porter atteinte à la législation sectorielle mais seulement combler les lacunes décelées;

147.  recommande à la Commission européenne de réexaminer, le cas échéant, après consultation de l’ensemble des parties intéressées, la législation de l’Union existante applicable à l’intelligence artificielle, à la robotique et aux technologies connexes afin de faire face à la rapidité de leur développement, conformément aux recommandations figurant en annexe, en évitant toute sur-réglementation, y compris pour les PME;

148.  estime qu’il sera essentiel de procéder régulièrement à l’évaluation et au réexamen, lorsque cela s’avère nécessaire, du cadre réglementaire de l’Union relatif à l’intelligence artificielle, à la robotique et aux technologies connexes pour garantir que la législation applicable est en phase avec les progrès techniques qui ne cessent d’évoluer à grande vitesse;

149.  estime que la proposition législative demandée aurait des incidences financières si un organisme européen était chargé des fonctions de coordination précitées et si les moyens techniques et humains nécessaires à l’accomplissement des nouvelles tâches confiées étaient fournis;

o
o   o

150.  charge son président de transmettre la présente résolution ainsi que les recommandations détaillées figurant en annexe à la Commission et au Conseil.

ANNEXE À LA RÉSOLUTION

RECOMMANDATIONS DÉTAILLÉES CONCERNANT LE CONTENU DE LA PROPOSITION DEMANDÉE

A.  PRINCIPES ET OBJECTIFS DE LA PROPOSITION DEMANDÉE

I.  Les principes et objectifs clés de la proposition sont les suivants:

˗  instaurer la confiance à tous les niveaux des parties prenantes concernées et de la société dans l’intelligence artificielle, la robotique et les technologies connexes, en particulier lorsqu’elles sont considérées comme à haut risque;

˗  favoriser le développement de l’intelligence artificielle, de la robotique et des technologies connexes au sein de l’Union, notamment en aidant les entreprises, les start-ups et les petites et moyennes entreprises à évaluer avec précision les exigences réglementaires actuelles et à venir ainsi que les risques intervenant au long du cycle d’innovation et du processus de développement des activités, ainsi que durant la phase d’utilisation ultérieure par les professionnels et les particuliers, et à répondre à ces exigences et à ces risques, en réduisant à leur minimum les charges et les contraintes administratives;

˗  soutenir le déploiement de l’intelligence artificielle, de la robotique et des technologies connexes au sein de l’Union en établissant le cadre réglementaire approprié et proportionné qui devrait s’appliquer sans préjudice de la législation sectorielle existante ou future, et ce afin de favoriser la sécurité réglementaire et l’innovation, tout en garantissant les droits fondamentaux et la protection des consommateurs;

˗  promouvoir l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes au sein de l’Union en veillant à ce qu’elles soient développées, déployées et utilisées de manière conforme aux principes éthiques;

˗  appeler à la transparence et à l’amélioration des échanges d’informations entre les citoyens et au sein des organisations qui développent, déploient ou utilisent l’intelligence artificielle, la robotique et les technologies connexes afin de garantir que ces technologies respectent le droit de l’Union et les valeurs et les droits fondamentaux de l’Union, ainsi que les principes éthiques définis dans la proposition de règlement demandée.

II.  Cette proposition comprend les éléments suivants:

˗  un «règlement concernant les principes éthiques relatifs au développement, au déploiement et à l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes»;

˗  le rôle de coordination au niveau de l’Union de la Commission et/ou des institutions, organes et organismes compétents de l’Union qui pourraient être désignés dans ce contexte et une certification européenne de conformité éthique;

˗  le rôle de soutien de la Commission européenne;

˗  le rôle de l’«organisme de surveillance» dans chaque État membre pour garantir l’application des principes éthiques à l’intelligence artificielle, à la robotique et aux technologies connexes;

˗  la participation et la consultation des parties prenantes concernées opérant dans des projets de recherche et de développement, ainsi que l’octroi d’un soutien à ces dernières, notamment les start-ups, les petites et moyennes entreprises, les entreprises, les partenaires sociaux et d’autres représentants de la société civile;

˗  une annexe établissant une liste exhaustive et cumulative des secteurs à haut risque, ainsi que des utilisations et finalités à haut risque.

III.  Le «règlement concernant les principes éthiques relatifs au développement, au déploiement et à l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes» repose sur les principes suivants:

˗  intelligence artificielle, robotique et technologies connexes axées sur l’humain, développées et contrôlées par l’homme;

˗  évaluation obligatoire de la conformité de l’intelligence artificielle, de la robotique et des technologies connexes à haut risque;

˗  sécurité, transparence et responsabilité;

˗  garanties et solutions contre les biais et la discrimination;

˗  droit de recours;

˗  responsabilité sociale et égalité entre les genres en matière d’intelligence artificielle, de robotique et de technologies connexes;

˗  intelligence artificielle, robotique et technologies connexes durables sur le plan environnemental;

˗  respect de la vie privée et limitation de l’utilisation de la reconnaissance biométrique;

˗  bonne gouvernance relative à l’intelligence artificielle, à la robotique et aux technologies connexes, y compris les données utilisées ou produites par ces technologies.

IV.  Aux fins de la coordination au niveau de l’Union, la Commission et/ou les institutions, organes et organismes compétents de l’Union qui pourraient être désignés dans ce contexte devraient être chargés des tâches clés suivantes:

˗  coopérer au suivi de la mise en œuvre de la proposition de règlement demandée et de la législation sectorielle pertinente de l’Union;

˗  coopérer à la publication d’orientations concernant l’application cohérente de la proposition de règlement demandée, à savoir la mise en œuvre des critères applicables à l’intelligence artificielle, à la robotique et aux technologies connexes réputées présenter un risque élevé et la liste des secteurs à haut risque et des utilisations et finalités à haut risque figurant à l’annexe du règlement;

˗  coopérer avec l’«organisme de surveillance» de chaque État membre en ce qui concerne l’élaboration d’un certificat européen de conformité aux principes éthiques et aux obligations légales prévus dans la proposition de règlement demandée et dans le droit de l’Union applicable, ainsi que l’élaboration d’un processus de demande pour tout développeur, déployeur ou utilisateur de technologies qui ne sont pas considérées comme étant à haut risque cherchant à certifier leur conformité avec la proposition de règlement demandée;

˗  coopérer en matière de soutien à la coopération transsectorielle et transfrontière au moyen d’échanges réguliers avec les parties prenantes concernées et la société civile, dans l’UE et dans le monde, notamment avec les entreprises, les partenaires sociaux, les chercheurs et les organismes compétents, notamment en ce qui concerne l’élaboration de normes techniques au niveau international;

˗  coopérer avec l’«organisme de surveillance» de chaque État membre en vue d’établir des lignes directrices contraignantes sur la méthode à suivre pour l’évaluation de la conformité que doit effectuer chaque organisme de surveillance;

˗  coopérer en matière de contacts avec l’«organisme de surveillance» de chaque État membre et coordonner leurs mandats et leurs tâches;

˗  coopérer en matière de sensibilisation et d’information et participer à des échanges avec les développeurs, les déployeurs et les utilisateurs dans l’ensemble de l’Union;

˗  coopérer en matière de sensibilisation et d’information, promouvoir la culture, la formation et les compétences numériques, former et participer à des échanges avec les concepteurs, les développeurs, les déployeurs, les citoyens, les utilisateurs et les divers organes institutionnels internationaux ou de l’Union;

˗  coopérer à la coordination d’un cadre commun pour la gouvernance du développement, du déploiement et de l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes que l’«organisme de surveillance» de chaque État membre doit mettre en œuvre;

˗  coopérer en vue de faire office de centre d’expertise en favorisant l’échange d’informations et en soutenant l’émergence d’une compréhension commune dans le marché unique;

˗  coopérer en ce qui concerne l’hébergement d’un groupe de travail sur la sécurité et la défense.

V.  En outre, la Commission devrait s’acquitter des tâches suivantes:

˗  établir puis mettre à jour, par voie d’actes délégués, une liste commune des technologies à haut risque recensées au sein de l’Union, en coopération avec l’«organisme de surveillance» de chaque État membre;

˗  mettre à jour, au moyen d’actes délégués, la liste prévue à l’annexe du règlement.

VI.  Dans chaque État membre, l’«organisme de surveillance» devrait s’acquitter des tâches clés suivantes:

˗  contribuer à l’application cohérente du cadre réglementaire établi dans la proposition de règlement demandée en coopération avec l’«organisme de surveillance» dans les autres États membres, ainsi qu’avec les autres autorités chargées de la mise en œuvre de la législation sectorielle, la Commission et/ou les institutions, organes et organismes compétents de l’Union qui pourraient être désignés dans ce contexte, notamment en ce qui concerne l’application des critères d’évaluation des risques prévus dans la proposition de règlement demandée et de la liste des secteurs à haut risque et des utilisations ou finalités à haut risque figurant à l’annexe de ce règlement, ainsi que la supervision ultérieure de la mise en œuvre des mesures requises et appropriées lorsque des technologies à haut risque sont détectées à la suite de cette application;

˗  déterminer si l’intelligence artificielle, la robotique et les technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, développées, déployées et utilisées au sein de l’Union doivent être considérés comme des technologies à haut risque conformément aux critères d’évaluation des risques prévus dans la proposition de règlement demandée et dans la liste figurant à l’annexe de ce règlement;

˗  délivrer un certificat européen de conformité aux principes éthiques et aux obligations légales prévus dans la proposition de règlement demandée et dans le droit de l’Union applicable, y compris lorsqu’il résulte d’une procédure de demande pour tout développeur, déployeur ou utilisateur de technologies qui ne sont pas considérées comme étant à haut risque cherchant à certifier leur conformité avec la proposition de règlement demandée, telle qu’élaborée par la Commission et/ou les institutions, organes et organismes compétents de l’Union qui pourraient être désignés dans ce contexte;

˗  évaluer et contrôler leur respect des principes éthiques et des obligations légales tels qu’ils sont définis dans la proposition de règlement demandée et dans le droit de l’Union applicable;

˗  se charger d’établir et de mettre en œuvre des normes pour la gouvernance de l’intelligence artificielle, de la robotique et des technologies connexes, notamment en assurant le contact et en entretenant un dialogue régulier avec toutes les parties prenantes et les représentants de la société civile concernés; à cette fin, coopérer avec la Commission et/ou les institutions, organes et organismes compétents de l’Union qui pourraient être désignés dans ce contexte en vue de la coordination d’un cadre commun au niveau de l’Union;

˗  sensibiliser le public, lui fournir des informations sur l’intelligence artificielle, la robotique et les technologies connexes, et soutenir la formation des professions concernées, y compris dans le secteur de la justice, afin de doter les citoyens et les travailleurs de la culture, des compétences et des outils numériques nécessaires à une transition juste;

˗  servir de premier point de contact en cas de suspicion de violation des obligations légales et des principes éthiques énoncés dans la proposition de règlement demandée et procéder à une évaluation de la conformité dans de tels cas; dans le cadre de cette évaluation de la conformité, la possibilité de consulter et/ou d’informer d’autres organismes compétents dans l’Union, notamment le réseau de coopération en matière de protection des consommateurs, les organismes nationaux de protection des consommateurs, les organisations de la société civile et les partenaires sociaux.

VII.  Le rôle essentiel des parties prenantes devrait être de s’engager auprès de la Commission et/ou de toute institution, organe ou organisme compétent de l’Union qui pourrait être désigné dans ce contexte et de l’«organisme de surveillance» dans chaque État membre.

B.  TEXTE DE LA PROPOSITION LÉGISLATIVE DEMANDÉE

Proposition de

RÈGLEMENT DU PARLEMENT EUROPÉEN ET DU CONSEIL

sur les principes éthiques relatifs au développement, au déploiement et à l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes

LE PARLEMENT EUROPÉEN ET LE CONSEIL DE L’UNION EUROPÉENNE,

vu le traité sur le fonctionnement de l’Union européenne et notamment son article 114,

vu la proposition de la Commission européenne,

après transmission du projet d’acte législatif aux parlements nationaux,

vu l’avis du Comité économique et social européen,

statuant conformément à la procédure législative ordinaire,

considérant ce qui suit:

(1)  Le développement, le déploiement et l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, devraient reposer sur une volonté de servir les intérêts de la société. Ces technologies peuvent comporter des possibilités et des risques, qui doivent être traités et réglementés par un cadre réglementaire général à l’échelle de l’Union, qui traduit les principes éthiques à respecter depuis le moment du développement et du déploiement de ces technologies jusqu’à leur utilisation.

(2)  Le respect de ce cadre réglementaire en ce qui concerne le développement, le déploiement et l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies au sein de l’Union, devrait être d’un niveau équivalent dans tous les États membres afin de saisir les occasions favorables en toute efficacité et de faire face de manière cohérente aux risques liés à ces technologies, et d’éviter la fragmentation réglementaire. Il convient de veiller à l’application uniforme dans l’ensemble de l’Union des règles énoncées dans le présent règlement.

(3)  Dans ce contexte, la diversité actuelle des règles et des pratiques à mettre en œuvre au sein de l’Union constitue une menace importante de fragmentation du marché unique et un risque pour la préservation du bien-être et de la prospérité des individus et de la société, ainsi que pour l’exploration cohérente du plein potentiel de l’intelligence artificielle, de la robotique et des technologies connexes concernant la promotion de l’innovation et la préservation de ce bien-être et de cette prospérité. Des différences quant au degré de prise en considération par les développeurs, les déployeurs et les utilisateurs de la dimension éthique inhérente à ces technologies peuvent empêcher leur libre développement, déploiement ou utilisation au sein de l’Union et de telles différences peuvent constituer un obstacle à l’égalité des conditions de concurrence et à la poursuite du progrès technique et des activités économiques à l’échelle de l’Union, fausser la concurrence et entraver les organismes dans l’accomplissement de leurs obligations au titre du droit de l’Union. En outre, l’absence d’un cadre réglementaire commun reflétant les principes éthiques relatifs au développement, au déploiement et à l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes entraîne des incertitudes juridiques pour toutes les parties concernées, à savoir les développeurs, les déployeurs et les utilisateurs.

(4)  Néanmoins, tout en contribuant à une approche cohérente au niveau de l’Union et dans les limites fixées par celle-ci, le présent règlement devrait laisser aux États membres une marge de manœuvre suffisante pour l’exécution des mesures, y compris en ce qui concerne la manière dont le mandat de leur organisme national de surveillance respectif doit être exécuté eu égard à l’objectif visé, tel que défini dans le présent document.

(5)  Le présent règlement est sans préjudice de la législation sectorielle existante ou future. Il devrait être proportionnée à son objectif, de manière à ne pas entraver indûment l’innovation dans l’Union, et être compatible avec une approche fondée sur les risques.

(6)  Le champ d’application géographique d’un tel cadre devrait couvrir toutes les composantes de l’intelligence artificielle, de la robotique et des technologies connexes tout au long de leurs phases de développement, de déploiement et d’utilisation au sein de l’Union, y compris lorsqu’une partie des technologies pourrait se situer en dehors de l’Union ou ne disposer d’aucune localisation spécifique ou unique, comme pour les services informatiques en nuage.

(7)  Une compréhension commune au sein de l’Union de notions telles que l’intelligence artificielle, la robotique, les technologies connexes et la reconnaissance biométrique est nécessaire pour permettre une approche réglementaire unifiée et apporter ainsi la sécurité juridique pour les citoyens comme pour les entreprises. Elles devraient être neutres sur le plan technologique et faire l’objet d’un réexamen chaque fois que cela s’avère nécessaire.

(8)  En outre, le fait qu’il existe des technologies liées à l’intelligence artificielle et à la robotique qui permettent à un logiciel de contrôler des processus physiques ou virtuels, avec des degrés d’autonomie variables(15), doit être pris en considération. Par exemple, pour la conduite automatisée de véhicules, la norme internationale SAE J3016 a proposé six niveaux d’automatisation de la conduite.

(9)  Le développement, le déploiement et l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, devraient compléter les facultés humaines, non s’y substituer, et garantir que leur exécution ne va pas à l’encontre des intérêts des citoyens et qu’elle respecte le droit de l’Union, les droits fondamentaux définis dans la Charte des droits fondamentaux de l’Union européenne (ci-après dénommée «Charte»), la jurisprudence constante de la Cour de justice de l’Union européenne et d’autres instruments européens et internationaux applicables au sein de l’Union.

(10)  Les décisions prises par, ou fondées sur, l’intelligence artificielle, la robotique et les technologies connexes devraient rester soumises à un examen, un jugement, une intervention et un contrôle humains significatifs. La complexité technique et opérationnelle de ces technologies ne devrait jamais empêcher leurs déployeurs ou leurs utilisateurs de pouvoir, à tout le moins, déclencher l’arrêt en cas de défaillance, modifier leur fonctionnement, désactiver leur fonctionnement ou retourner à un état antérieur, dont il est établi qu’il restaure des fonctionnalités sûres, lorsque la conformité au droit de l’Union et aux principes éthiques et obligations juridiques énoncés dans le présent règlement est menacée.

(11)  L’intelligence artificielle, la robotique et les technologies connexes dont le développement, le déploiement et l’utilisation comportent un risque important de causer du tort ou un préjudice aux individus ou à la société en violation des droits fondamentaux et des règles de sécurité prévus par le droit de l’Union devraient être considérées comme des technologies à haut risque. Aux fins de leur évaluation en tant que telle, il convient de tenir compte du secteur dans lequel elles sont développées, déployées ou utilisées, de leur utilisation ou finalité spécifique et de la gravité du tort ou du préjudice susceptible de se produire. Le degré de gravité devrait être déterminé en fonction de l’ampleur du tort ou du préjudice potentiel, du nombre de personnes concernées, de la valeur totale des dommages occasionnés, ainsi que du préjudice pour la société dans son ensemble. Les types de tort et de préjudice grave sont, par exemple, les violations des droits des enfants, des consommateurs ou des travailleurs qui, en raison de leur ampleur, du nombre d’enfants, de consommateurs ou de travailleurs touchés ou de leur incidence sur la société dans son ensemble, comportent un risque important de violation des droits fondamentaux et des règles de sécurité établies dans le droit de l’Union. Le présent règlement comprend une liste exhaustive et cumulative des secteurs à haut risque, ainsi que des utilisations et finalités à haut risque.

(12)  Les obligations prévues par le présent règlement, notamment celles portant sur les technologies à haut risque, ne devraient s’appliquer qu’à l’intelligence artificielle, à la robotique et aux technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, développées, déployées ou utilisées au sein de l’Union, qui, à la suite de l’évaluation des risques prévue par le présent règlement, sont considérées comme étant à haut risque. Ces obligations doivent être respectées sans préjudice de l’obligation générale selon laquelle l’intelligence artificielle, la robotique et les technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, devraient être développées, déployées ou utilisées au sein de l’Union de manière anthropocentrique et sur la base des principes de l’autonomie et de la sécurité humaines, conformément au droit de l’Union et dans le plein respect des droits fondamentaux tels que la dignité humaine, le droit à la liberté et à la sécurité et le droit à l’intégrité de la personne.

(13)  Les technologies à haut risque devraient respecter les principes de sécurité, de transparence, de responsabilité, d’absence de biais ou de discrimination, de responsabilité sociale et d’égalité entre les genres, de droit de recours, de viabilité environnementale, de respect de la vie privée et de bonne gouvernance, à la suite d’une évaluation des risques impartiale, objective et externe effectuée par l’organisme national de surveillance, conformément aux critères établis dans le présent règlement et dans la liste figurant dans son annexe. Cette évaluation tient compte des avis du développeur ou du déployeur et de toute autoévaluation réalisée par ceux-ci.

(14)  La Commission et/ou les institutions, organes, et organismes compétents de l’Union susceptibles d’être désignés à cette fin devraient élaborer des lignes directrices de mise en œuvre non contraignantes à l’intention des développeurs, des déployeurs et des utilisateurs sur la méthode à suivre pour se conformer au présent règlement. Ce faisant, ils devraient consulter les parties prenantes concernées.

(15)  Il convient d’assurer une cohérence dans toute l’Union en ce qui concerne l’évaluation des risques liés à ces technologies, en particulier lorsqu’elles sont évaluées à la lumière du présent règlement et conformément à toute législation sectorielle applicable. En conséquence, les organismes nationaux de surveillance devraient informer les autres autorités qui procèdent à des évaluations des risques conformément à toute législation sectorielle lorsque ces technologies sont jugées à haut risque à la suite de l’évaluation des risques prévue par le présent règlement.

(16)  Pour être fiables, l’intelligence artificielle, la robotique et les technologies connexes à haut risque, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, doivent être développées, déployées et utilisées de manière sûre, transparente et responsable, en tenant compte des caractéristiques de sûreté que sont la robustesse, la résilience, la sécurité, la précision et l’identification des erreurs, l’explicabilité, l’interpétabilité, la vérifiabilité, la transparence et l’identifiabilité, et de manière à permettre une désactivation des fonctionnalités concernées et un retour à un état antérieur, dont il est établi qu’il restaure des fonctionnalités sûres, en cas de non-respect de ces caractéristiques. La transparence devrait être assurée en permettant aux organismes publics d’accéder, en cas de stricte nécessité, aux technologies, aux données et aux systèmes informatiques qui sous-tendent ces technologies.

(17)  Les développeurs, les déployeurs et les utilisateurs de l’intelligence artificielle, de la robotique et de technologies connexes, et plus particulièrement de technologies à haut risque, sont chargés, à différents degrés, d’assurer le respect des principes de sécurité, de transparence et de responsabilité dans la mesure de leur participation aux technologies concernées, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies. Les développeurs devraient veiller à ce que les technologies concernées soient conçues et construites conformément aux caractéristiques de sécurité visées dans le présent règlement, tandis que les déployeurs et les utilisateurs devraient déployer et utiliser les technologies concernées en respectant pleinement ces caractéristiques. À cette fin, les développeurs de technologies à haut risque devraient évaluer et anticiper les risques d’utilisation abusive raisonnablement prévisibles des technologies qu’ils développent. Ils doivent également veiller à ce que les systèmes qu’ils développent indiquent, dans la mesure du possible et par des moyens appropriés, tels que des avis de non-responsabilité, la probabilité d’erreurs ou d’inexactitudes.

(18)  Les développeurs et les déployeurs devraient mettre à disposition des utilisateurs toute mise à jour ultérieure des technologies concernées, notamment en matière de logiciels, comme le stipule le contrat ou le prévoit le droit de l’Union ou le droit national. En outre, lorsqu’une évaluation des risques donne des indications en ce sens, les développeurs et les déployeurs devraient fournir aux organismes publics la documentation pertinente sur l’utilisation des technologies concernées et les consignes de sécurité à cet égard, y compris, en cas de stricte nécessité et dans le plein respect du droit de l’Union sur la protection des données, de la vie privée, des droits de propriété intellectuelle et des secrets d’affaires, le code source, les outils de développement et les données utilisés par le système.

(19)  Les particuliers ont le droit de s’attendre à ce que la technologie qu’ils utilisent fonctionne correctement et ne trahisse pas leur confiance. La confiance des citoyens à l’égard de l’intelligence artificielle, de la robotique et des technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, dépend de l’assimilation et de la compréhension des procédés techniques. Le niveau d’explicabilité de ces procédés devrait dépendre du contexte de ces procédés techniques et de la gravité des conséquences liées aux résultats erronés ou inexacts, et il devrait être suffisant pour pouvoir contester ces résultats et demander réparation. La vérifiabilité, la traçabilité et la transparence devraient remédier à toute inintelligibilité potentielle de ces technologies.

(20)  La confiance de la société à l’égard de l’intelligence artificielle, de la robotique et des technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, dépend de la mesure dans laquelle leur évaluation, leur vérifiabilité et leur traçabilité sont permises pour les technologies concernées. Lorsque l’étendue de leur participation l’exige, les développeurs doivent s’assurer que ces technologies sont conçues et construites de manière à permettre une telle évaluation, une telle vérifiabilité et une telle traçabilité. Dans les limites de ce qui est techniquement possible, les développeurs, les déployeurs et les utilisateurs devraient veiller à ce que l’intelligence artificielle, la robotique et les technologies connexes soient déployées et utilisées dans le plein respect des exigences en matière de transparence, et de manière à permettre leur vérifiabilité et leur traçabilité.

(21)  Dans un souci de transparence et de responsabilité, les citoyens devraient être informés lorsqu’un système utilise l’intelligence artificielle, lorsque des systèmes d’intelligence artificielle personnalisent un produit ou un service pour ses utilisateurs, lesquels doivent être informés de la possibilité ou non de désactiver ou limiter la personnalisation, et lorsqu’ils ont affaire à une technologie de prise de décision automatisée. En outre, les mesures de transparence devraient s’accompagner, dans la mesure de ce qui est techniquement possible, d’explications claires et compréhensibles sur les données utilisées et l’algorithme, son objectif, ses résultats et ses dangers potentiels.

(22)  Les biais et la discrimination de la part des logiciels, des données et des algorithmes sont illégaux et devraient être traités en réglementant les procédés par lesquels ces derniers sont conçus et déployés. Tant les décisions fondées sur un système automatisé que celles prises par un tel système, ainsi que les jeux de données sur la base desquels de telles prises de décisions s’appuient ou le système est entraîné, peuvent être source de biais.

(23)  Les logiciels, les données et les algorithmes utilisés ou produits par l’intelligence artificielle, la robotique et les technologies connexes devraient être considérés comme partiaux par exemple lorsqu’ils affichent des résultats non optimaux concernant des personnes ou des groupes de personnes en raison d’une perception personnelle, ou sociale préconçue et du traitement subséquent des données relatives à leurs caractéristiques.

(24)  Conformément au droit de l’Union, les logiciels, les données et les algorithmes utilisés ou produits par l’intelligence artificielle, la robotique et les technologies connexes devraient être considérés comme discriminatoires lorsqu’ils produisent des résultats qui ont des effets négatifs disproportionnés et se traduisent par une différence de traitement des personnes ou des groupes de personnes, notamment en les désavantageant par rapport aux autres, sur la base de motifs tels que leurs caractéristiques personnelles, sans aucune explication objective ni raisonnable.

(25)  Conformément au droit de l’Union, les objectifs légitimes susceptibles de justifier objectivement une différence de traitement entre des personnes ou des groupes de personnes au titre du présent règlement sont la protection de la sécurité et de la santé publiques, la prévention des infractions pénales, la protection des libertés et des droits fondamentaux, une représentation équitable et des exigences objectives pour l’exercice d’une profession.

(26)  Le fonctionnement de l’intelligence artificielle, de la robotique et des technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, devrait contribuer à des progrès durables. Ces technologies ne devraient pas aller à l’encontre de la préservation de l’environnement ou de la transition écologique. Elles pourraient également jouer un rôle important dans la réalisation des objectifs de développement durable définis par les Nations unies en vue de permettre aux générations futures de prospérer. Ces technologies peuvent favoriser le suivi des progrès adéquats sur la base d’indicateurs de durabilité et de cohésion sociale, et en utilisant des outils de recherche et d’innovation responsables nécessitant la mobilisation de ressources par l’Union et ses États membres pour soutenir et investir dans des projets répondant à ces objectifs.

(27)  Le développement, le déploiement et l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, ne doivent en aucune manière causer intentionnellement des torts ou des préjudices de quelque nature que ce soit aux individus ou à la société, ni accepter sciemment dans leur conception que cela puisse être le cas. En conséquence, les technologies à haut risque devraient tout particulièrement être développées, déployées et utilisées de manière socialement responsable.

(28)  Par conséquent, les développeurs, les déployeurs et les utilisateurs devraient être tenus pour responsables, dans la mesure de leur participation à l’intelligence artificielle, à la robotique et aux technologies connexes concernées, et conformément aux règles de l’Union et nationales en matière de responsabilité, des torts ou des préjudices causés aux individus et à la société.

(29)  En particulier, les développeurs qui prennent des décisions déterminant et contrôlant la voie ou le mode de développement de l’intelligence artificielle, de la robotique et des technologies connexes, ainsi que les déployeurs assurant une fonction de contrôle ou de gestion qui participent à leur déploiement en décidant de ce déploiement et en contrôlant les risques associés, ou qui bénéficient de ce déploiement, devraient être généralement considérés comme chargés d’éviter la survenance de tels torts ou préjudices, respectivement en mettant en place des mesures adéquates au cours du processus de développement et en respectant scrupuleusement ces mesures pendant la phase de déploiement.

(30)  L’intelligence artificielle, la robotique et les technologies connexes socialement responsables, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, peuvent être définies comme des technologies qui contribuent à la recherche de solutions permettant de protéger et de promouvoir différents objectifs de la société, notamment la démocratie, la santé et la prospérité économique, l’égalité des chances, les droits des travailleurs et les droits sociaux, des médias divers et indépendants et des informations objectives et librement accessibles permettant un débat public, une éducation de qualité, une diversité culturelle et linguistique, l’équilibre entre les genres, l’habileté numérique, l’innovation et la créativité. Il s’agit également des technologies développées, déployées et utilisées en tenant compte de leur incidence ultime sur le bien-être physique et mental des citoyens et du fait qu’elles ne promeuvent pas les discours haineux ou la violence. Ces objectifs devraient notamment être atteints au moyen de technologies à haut risque.

(31)  L’intelligence artificielle, la robotique et les technologies connexes devraient également être développées, déployées et utilisées en vue de favoriser l’inclusion sociale, la démocratie, la pluralité, la solidarité, l’équité, l’égalité et la coopération, et leur potentiel dans ce contexte devrait être maximisé et exploré au moyen de projets de recherche et d’innovation. L’Union et ses États membres devraient donc mobiliser leurs ressources de communication, administratives et financières afin de soutenir de tels projets et d’y investir.

(32)  Les projets relatifs au potentiel de l’intelligence artificielle, de la robotique et des technologies connexes de traiter la question du bien-être social devraient être réalisés sur la base d’outils de recherche et d’innovation responsables afin de garantir, dès le départ, la conformité de ces projets aux principes éthiques.

(33)  Le développement, le déploiement et l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, devraient tenir compte de l’empreinte écologique de ces technologies. Conformément aux obligations imposées par le droit de l’Union applicable, ces technologies ne devraient pas nuire à l’environnement au cours de leur cycle de vie ni sur l’ensemble de leur chaîne d’approvisionnement et devraient être développées, déployées et utilisées de manière à préserver l’environnement, à réduire autant que possible leur empreinte écologique et à y remédier, à contribuer à la transition écologique et à soutenir la réalisation des objectifs fixés en matière de neutralité climatique et d’économie circulaire.

(34)  Aux fins du présent règlement, les développeurs, les déployeurs et les utilisateurs devraient être tenus pour responsables, dans la mesure de leur participation respective au développement, au déploiement ou à l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes considérées comme étant à haut risque, de tout dommage causé à l’environnement, conformément aux dispositions applicables en matière de responsabilité environnementale.

(35)  Ces technologies devraient également être développées, déployées et utilisées en vue de soutenir la réalisation des objectifs environnementaux, conformément aux obligations imposées par le droit de l’Union applicable, tels que la réduction de la production de déchets et de l’empreinte carbone, la lutte contre le changement climatique et la préservation de l’environnement, et leur potentiel dans ce contexte devrait être maximisé et exploré au moyen de projets de recherche et d’innovation. L’Union et ses États membres devraient donc mobiliser leurs ressources de communication, administratives et financières afin de soutenir de tels projets et d’y investir.

(36)  Les projets relatifs au potentiel de l’intelligence artificielle, de la robotique et des technologies connexes pour répondre aux préoccupations en matière d’environnement devraient être réalisés sur la base d’outils de recherche et d’innovation responsables afin de garantir, dès le départ, la conformité de ces projets aux principes éthiques.

(37)  L’intelligence artificielle, la robotique et les technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, développées, déployées et utilisées au sein de l’Union devraient respecter pleinement les droits des citoyens de l’Union à la vie privée et à la protection des données à caractère personnel. En particulier, leur développement, leur déploiement et leur utilisation devraient être conformes au règlement (UE) 2016/679 du Parlement européen et du Conseil(16) et à la directive 2002/58/CE du Parlement européen et du Conseil(17).

(38)  Les limites éthiques de l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, devraient en particulier être dûment prises en considération lors de l’utilisation des technologies de reconnaissance à distance, telles que la reconnaissance de caractéristiques biométriques, notamment la reconnaissance faciale, pour identifier des individus de manière automatique. Lorsque ces technologies sont utilisées par les autorités publiques pour des motifs d’intérêt public importants, à savoir pour garantir la sécurité des personnes et faire face à des situations d’urgence nationales, et non pour garantir la sécurité des biens, leur utilisation devrait toujours être rendue publique, proportionnée, ciblée et limitée à des objectifs spécifiques, mais aussi limitée dans le temps, conformément au droit de l’Union et dans le respect de la dignité et de l’autonomie humaines et des droits fondamentaux consacrés dans la Charte. Les critères et les limites de ces systèmes devraient être soumis à un contrôle juridictionnel et à une surveillance démocratique et faire l’objet d’un débat associant la société civile;

(39)  Une gouvernance fondée sur des normes pertinentes accroît la sécurité et favorise la confiance des citoyens à l’égard du développement, du déploiement et de l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies.

(40)  Les autorités publiques devraient réaliser une étude d’impact sur les droits fondamentaux avant tout déploiement de technologies à haut risque visant à soutenir des décisions prises par des pouvoirs publics et dont les conséquences sur les droits et les devoirs des citoyens sont directes et considérables.

(41)  Parmi les normes de gouvernance pertinentes existantes figurent, par exemple, les «Lignes directrices en matière d’éthique pour une IA digne de confiance» élaborées par le groupe d’experts de haut niveau sur l’intelligence artificielle constitué par la Commission européenne, et toute autre norme technique, notamment celles adoptées par le Comité européen de normalisation (CEN), le Comité européen de normalisation électrotechnique (CENELEC) et l’Institut européen de normalisation des télécommunications (ETSI), à l’échelle européenne, ainsi que par l’Organisation internationale de normalisation (ISO) et l’Institut de l’ingénierie électrique et électronique (IEEE), à l’échelle internationale.

(42)  Le partage et l’utilisation des données par plusieurs acteurs sont délicats et, par conséquent, le développement, le déploiement et l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes devraient être régis par des règles, des normes et des protocoles pertinents conformes aux exigences en matière de qualité, d’intégrité, de sécurité, de fiabilité, de confidentialité et de contrôle. La stratégie de gouvernance des données devrait être axée sur le traitement, le partage et l’accès à ces données, notamment sur une gestion, une vérifiabilité et une traçabilité appropriées, et garantir une protection adéquate des données appartenant aux groupes vulnérables, en particulier les personnes handicapées, les personnes malades, les enfants, les minorités et les migrants ou autres catégories de personnes exposées au risque d’exclusion. En outre, les développeurs, les déployeurs et les utilisateurs devraient être capables, le cas échéant, de s’appuyer sur des indicateurs de performance clés lorsqu’ils évaluent les ensembles de données qu’ils utilisent dans le but de renforcer la fiabilité des technologies qu’ils mettent au point, déploient et utilisent.

(43)  Les États membres devraient désigner une autorité administrative indépendante en tant qu’organisme de surveillance. En particulier, chaque organisme national de surveillance devrait être chargé de recenser l’intelligence artificielle, la robotique et les technologies connexes considérées comme étant à haut risque à la lumière des critères d’évaluation des risques fixés dans le présent règlement, ainsi que d’évaluer et de contrôler la conformité de ces technologies avec les obligations énoncées dans le présent règlement.

(44)  Chaque organisme national de surveillance devrait également être chargé de réglementer la bonne gouvernance de ces technologies sous la coordination de la Commission et/ou de toute autre institution, organe ou organisme compétent de l’Union désigné à cette fin. Ils ont donc un rôle important à jouer pour favoriser la confiance et la sécurité des citoyens de l’Union, ainsi que pour permettre l’édification d’une société démocratique, pluraliste et équitable.

(45)  Afin d’évaluer et de contrôler les technologies à haut risque au regard du présent règlement, les organismes nationaux de surveillance devraient être tenus, le cas échéant, de coopérer avec les autorités chargées d’évaluer et de contrôler ces technologies et de veiller au respect de la législation sectorielle.

(46)  Les organismes nationaux de surveillance devraient s’engager à coopérer de manière substantielle et régulière entre eux, ainsi qu’avec la Commission européenne et les autres institutions, organes et organismes compétents de l’Union, afin de garantir des actions transfrontalières cohérentes et de permettre le développement, le déploiement et l’utilisation de ces technologies au sein de l’Union conformément aux principes éthiques et aux obligations juridiques énoncés dans le présent règlement.

(47)  Dans le cadre de cette coopération et en vue de parvenir à une harmonisation complète au niveau de l’Union, les organismes nationaux de surveillance devraient aider la Commission à établir une liste commune et exhaustive de l’intelligence artificielle, de la robotique et des technologies connexes à haut risque, conformément aux critères énoncés dans le présent règlement et son annexe. Il convient en outre d’élaborer une procédure pour la délivrance d’un certificat européen de conformité éthique, y compris une procédure de demande volontaire pour les développeurs, les déployeurs ou les utilisateurs de technologies qui ne sont pas considérées comme étant à haut risque, qui souhaitent certifier leur conformité au présent règlement.

(48)  Les organismes nationaux de surveillance devraient assurer le rassemblement d’un maximum de parties prenantes telles que des industries, des entreprises, des partenaires sociaux, des chercheurs, des consommateurs et des organisations de la société civile, et offrir un forum de réflexion et d’échange de points de vue pluraliste afin de parvenir à des conclusions compréhensibles et précises dans le but d’organiser la réglementation de la gouvernance.

(49)  Les organismes de surveillance nationaux devraient assurer le rassemblement d’un maximum de parties prenantes telles que des industries, des entreprises, des partenaires sociaux, des chercheurs, des consommateurs et des organisations de la société civile, et offrir un forum de réflexion et d’échange de points de vue pluraliste pour faciliter la coopération et la collaboration entre les parties prenantes, en particulier celles issues des secteurs universitaires, de la recherche, de l’industrie et de la société civile ainsi que les experts, afin de parvenir à des conclusions compréhensibles et précises dans le but d’organiser la réglementation de la gouvernance.

(50)  En outre, les organismes nationaux de surveillance devraient fournir des orientations et un soutien administratifs et professionnels aux développeurs, aux déployeurs et aux utilisateurs, en particulier aux petites et moyennes entreprises ou aux start-ups qui ont des difficultés à se conformer aux principes éthiques et aux obligations juridiques énoncés dans le présent règlement.

(51)  La Commission et/ou les institutions, organes, organismes et agences compétents de l’Union susceptibles d’être désignés à cette fin devraient établir des lignes directrices contraignantes sur la méthode à utiliser par les organismes nationaux de surveillance lorsqu’ils procèdent à leur évaluation de la conformité.

(52)  Les lancements d’alertes portent à l’attention des autorités les violations potentielles et réelles du droit de l’Union en vue de prévenir les torts, les préjudices ou les dommages qui seraient autrement causés. En outre, les procédures de signalement améliorent les échanges d’informations au sein des entreprises et des organisations, réduisant ainsi autant que possible le risque de développement de produits ou de services défectueux ou erronés. Les entreprises et les organisations qui développent, déploient ou utilisent l’intelligence artificielle, la robotique et les technologies connexes, y compris les données utilisées ou produites par ces technologies, devraient mettre en place des canaux de signalement et les personnes signalant des violations devraient être protégées contre les représailles.

(53)  Le développement rapide de l’intelligence artificielle, de la robotique et des technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, ainsi que de l’apprentissage automatique technique, des modes de raisonnement et d’autres technologies sous-jacentes à ce développement est imprévisible. En conséquence, il est à la fois approprié et nécessaire de mettre en place un mécanisme d’examen en vertu duquel la Commission devra régulièrement soumettre, en plus de ses rapports sur l’application du règlement, un rapport concernant la modification éventuelle du champ d’application du présent règlement.

(54)  Étant donné que l’objectif du présent règlement, à savoir établir un cadre réglementaire commun de principes éthiques et d’obligations juridiques relatifs au développement, au déploiement et à l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes au sein de l’Union, ne peut pas être réalisé de manière suffisante par les États membres, mais peut, en raison de sa portée et de ses effets, l’être mieux au niveau de l’Union, l’Union peut prendre des mesures, conformément au principe de subsidiarité consacré à l’article 5 du traité sur l’Union européenne. Conformément au principe de proportionnalité énoncé audit article, le présent règlement n’excède pas ce qui est nécessaire pour atteindre cet objectif.

(55)  La coordination au niveau de l’Union, telle que définie dans le présent règlement, serait assurée au mieux par la Commission et/ou les institutions, organes et organismes de l’Union compétents susceptibles d’être désignés à cette fin, afin d’éviter la fragmentation et d’assurer une application cohérente du présent règlement. La Commission devrait donc être chargée de trouver une solution appropriée pour structurer cette coordination au niveau de l’Union afin de coordonner les mandats et les actions des organismes nationaux de surveillance dans tous les États membres, notamment en évaluant les risques de l’intelligence artificielle, de la robotique et des technologies connexes, en établissant un cadre commun pour la gouvernance du développement, du déploiement et de l’utilisation de ces technologies, en élaborant et en délivrant une certification de conformité aux principes éthiques et aux obligations juridiques énoncés dans le présent règlement, en favorisant des échanges réguliers avec les parties concernées et la société civile et en créant un centre d’expertise qui réunit les secteurs universitaires, de la recherche, de l’industrie et les experts à l’échelon de l’Union pour favoriser les échanges de connaissances et d’expertise technique, ainsi qu’en promouvant l’approche de l’Union grâce à la coopération internationale et en garantissant une réponse cohérente dans le monde entier concernant les possibilités et les risques inhérents à ces technologies.

ONT ADOPTÉ LE PRÉSENT RÈGLEMENT:

Chapitre I

Dispositions générales

Article premier

Objet

Le présent règlement a pour objet d’établir un cadre réglementaire complet et pérenne de principes éthiques et d’obligations juridiques relatifs au développement, au déploiement et à l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes au sein de l’Union.

Article 2

Champ d’application

Le présent règlement s’applique à l’intelligence artificielle, à la robotique et aux technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, développées, déployées ou utilisées au sein de l’Union.

Article 3

Champ d’action géographique

Le présent règlement s’applique à l’intelligence artificielle, à la robotique et aux technologies connexes, lorsqu’une partie de celles-ci est développée, déployée ou utilisée au sein de l’Union, même si les logiciels, les données ou les algorithmes utilisés ou produits par ces technologies se situent en dehors de l’Union ou ne disposent d’aucune situation géographique spécifique.

Article 4

Définitions

Aux fins du présent règlement, on entend par:

a)  «intelligence artificielle», un système qui est soit fondé sur des logiciels, soit intégré dans des dispositifs matériels, et qui fait preuve d’un comportement intelligent, notamment en collectant et traitant des données, en analysant et en interprétant son environnement et en prenant des mesures, avec un certain degré d’autonomie, pour atteindre des objectifs spécifiques(18);

b)  «autonomie», un système d’intelligence artificielle (IA) qui fonctionne en interprétant certaines données entrées et en utilisant un ensemble d’instructions prédéterminées, sans se limiter à de telles instructions, bien que le comportement du système vise à atteindre l’objectif qui lui a été assigné et qu’il soit soumis aux contraintes de cet objectif et d’autres choix de conception pertinents posés par son développeur;

c)  «robotique», les technologies qui permettent aux machines commandées automatiquement, reprogrammables et multi-application(19) d’exécuter des actions dans le monde physique traditionnellement accomplies ou engagées par des êtres humains, notamment au moyen de l’intelligence artificielle ou de technologies connexes;

d)  «technologies connexes», les technologies permettant à un logiciel de contrôler, avec un degré d’autonomie partiel ou total, un processus physique ou virtuel, les technologies capables de détecter des données biométriques, génétiques ou autres, et les technologies copiant ou utilisant d’une autre manière les caractéristiques humaines;

e)  «haut risque», un risque important associé au développement, au déploiement et à l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes de causer du tort ou un préjudice aux individus ou à la société en violation des droits fondamentaux et des règles de sécurité établis par le droit de l’Union, en tenant compte de leur utilisation ou finalité spécifique, du secteur dans lequel elles sont développées, déployées ou utilisées et de la gravité des torts ou des préjudices susceptibles de se produire;

f)  «développement», l’élaboration et la conception d’algorithmes, l’écriture et la conception de logiciels ou la collecte, le stockage et la gestion de données dans le but de créer ou d’entraîner l’intelligence artificielle, la robotique et les technologies connexes ou de créer une nouvelle application pour l’intelligence artificielle, la robotique et les technologies connexes existantes;

g)  «développeur», toute personne physique ou morale prenant des décisions permettant de déterminer et de contrôler la voie ou le mode de développement de l’intelligence artificielle, de la robotique et des technologies connexes;

h)  «déploiement», l’exploitation et la gestion de l’intelligence artificielle, de la robotique et des technologies connexes, ainsi que leur mise sur le marché ou leur mise à disposition des utilisateurs;

i)  «déployeur», toute personne physique ou morale qui participe au déploiement spécifique de l’intelligence artificielle, de la robotique et des technologies connexes et assure une fonction de contrôle ou de gestion en prenant des décisions, en exerçant un contrôle sur les risques et en tirant avantage d’un tel déploiement;

j)  «utilisation», toute action relative à l’intelligence artificielle, à la robotique et aux technologies connexes autre que leur développement ou leur déploiement;

k)  «utilisateur», toute personne physique ou morale utilisant l’intelligence artificielle, la robotique et les technologies connexes autrement qu’à des fins de développement ou de déploiement;

l)  «biais», toute perception personnelle ou sociale préjudiciable d’une personne ou d’un groupe de personnes sur la base de ses caractéristiques personnelles;

m)  «discrimination», toute différence de traitement d’une personne ou d’un groupe de personnes fondée sur un motif sans aucune justification objective et raisonnable et, par conséquent, interdite par le droit de l’Union;

n)  «tort ou préjudice», une blessure physique ou mentale, des dommages matériels ou immatériels, tels qu’une perte financière ou économique, une perte d’emploi ou d’accès à l’éducation, une restriction injustifiée de la liberté de choix ou d’expression ou une perte de la vie privée, et toute violation du droit de l’Union préjudiciable à une personne, y compris lorsqu’ils sont occasionnés par un discours de haine, un biais, une discrimination ou une stigmatisation;

o)  «bonne gouvernance», la manière de garantir que les normes et les règles de comportement appropriées et raisonnables sont adoptées et respectées par les développeurs, les déployeurs et les utilisateurs, sur la base d’un ensemble formel de règles, de procédures et de valeurs, et qu’elles leur permettent de traiter de manière appropriée les questions éthiques au moment de leur survenance, ou avant.

Article 5

Principes éthiques de l’intelligence artificielle, de la robotique et des technologies connexes

1.  L’intelligence artificielle, la robotique et les technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, sont développées, déployées et utilisées au sein de l’Union conformément au droit de l’Union et dans le plein respect de la dignité, de l’autonomie et de la sécurité humaines et des autres droits fondamentaux énoncés dans la Charte.

2.  Tout traitement de données à caractère personnel effectué dans le cadre du développement, du déploiement et de l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes, y compris les données à caractère personnel issues de données à caractère non personnel et de données biométriques, est effectué conformément au règlement (UE) 2016/679 et à la directive 2002/58/CE.

3.  L’Union et ses États membres encouragent les projets de recherche destinés à fournir des solutions fondées sur l’intelligence artificielle, la robotique et les technologies connexes qui visent à promouvoir l’inclusion sociale, la démocratie, la pluralité, la solidarité, l’équité, l’égalité et la coopération.

Chapitre II

Obligations relatives aux technologies à haut risque

Article 6

Obligations relatives aux technologies à haut risque

1.  Les dispositions du présent chapitre ne s’appliquent qu’à l’intelligence artificielle, à la robotique et aux technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, développées, déployées ou utilisées au sein de l’Union, qui sont considérées à haut risque.

2.  L’intelligence artificielle, la robotique et les technologies connexes à haut risque, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies sont développées, déployées et utilisées de manière à garantir qu’elles ne violent pas les principes éthiques énoncés dans le présent règlement.

Article 7

Une intelligence artificielle axée sur l’homme et développée par l’homme

1.  Les technologies d’intelligence artificielle à haut risque, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, sont développées, déployées et utilisées de manière à garantir une supervision humaine complète à tout moment.

2.  Les technologies visées au paragraphe 1 sont développées, déployées et utilisées de manière à permettre aux humains de reprendre le contrôle total si nécessaire, notamment en modifiant ou en désactivant ces technologies.

Article 8

Sécurité, transparence et responsabilité

1.  L’intelligence artificielle, la robotique et les technologies connexes à haut risque, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies sont développées, déployées et utilisées de manière à garantir qu’elles sont:

a)  développées, déployées et utilisées de manière résiliente afin d’assurer un niveau de sécurité adéquat en se conformant aux références minimales en matière de cybersécurité proportionnées par rapport aux risques repérés, et d’empêcher toute vulnérabilité technique d’être exploitée à des fins malveillantes ou illicites;

b)  développées, déployées et utilisées de manière sécurisée afin d’assurer la mise en place de garanties, notamment d’un plan et de mesures de secours en cas de risque pour la sécurité ou la sûreté;

c)  développées, déployées et utilisées de manière à garantir que les résultats relatifs à la réalisation des activités et des objectifs pour lesquels elles ont été conçues, sont fiables, comme l’utilisateur peut raisonnablement s’y attendre, notamment en veillant à ce que toutes les opérations soient reproductibles;

d)  développées, déployées et utilisées de manière à garantir la précision des résultats relatifs aux objectifs et aux activités des technologies particulières; si la survenance d’inexactitudes occasionnelles ne peut être évitée, le système informe, dans la mesure du possible et par des moyens appropriés, les déployeurs et les utilisateurs de la probabilité que des erreurs et des inexactitudes se produisent;

e)  développées, déployées et utilisées de manière à pouvoir être facilement expliquées afin de garantir qu’une analyse des procédés techniques associés aux technologies peut être réalisée;

f)  développées, déployées et utilisées de manière à ce qu’elles informent les utilisateurs qu’ils interagissent avec des systèmes d’intelligence artificielle, en exposant correctement et de façon exhaustive leurs capacités, leur précision et leurs limites aux développeurs, aux déployeurs et aux utilisateurs d’intelligence artificielle;

g)  conformément à l’article 6, développées, déployées et utilisées de manière à permettre, en cas de non-respect des dispositifs de sécurité énoncés aux points a) à g), une désactivation temporaire des fonctionnalités concernées et un retour à un état antérieur qui rétablit des fonctionnalités sûres.

2.  Conformément à l’article 6, paragraphe 1, les technologies mentionnées au paragraphe 1 du présent article, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, sont développées, déployées et utilisées de manière à garantir leur transparence et leur traçabilité afin que les éléments, les phases et les processus qui y sont associés soient documentés selon les normes applicables les plus élevées possible, et qu’il soit possible pour les organismes nationaux de surveillance visés à l’article 18 d’évaluer la conformité de ces technologies aux obligations prévues dans le présent règlement. En particulier, les développeurs, les déployeurs ou les utilisateurs de ces technologies sont chargés d’assurer la conformité aux dispositifs de sécurité énoncés au paragraphe 1 et doivent être capables de démontrer cette conformité.

3.  Les développeurs, les déployeurs ou les utilisateurs des technologies mentionnées au paragraphe 1 veillent à ce que les mesures prises afin de garantir le respect des dispositifs de sécurité énoncés au paragraphe 1 puissent être vérifiées par les organismes nationaux de surveillance visés à l’article 18 ou, le cas échéant, par d’autres organismes de surveillance sectoriels nationaux ou européens.

Article 9

Absence de biais et de discrimination

1.  Les logiciels, les données ou les algorithmes utilisés ou produits par l’intelligence artificielle, la robotique et les technologies connexes à haut risque développées, déployées ou utilisées au sein de l’Union sont impartiaux et, sans préjudice du paragraphe 2, ils n’opèrent aucune discrimination fondée sur des motifs tels que la race, le genre, l’orientation sexuelle, la grossesse, l’invalidité, les caractéristiques physiques ou génétiques, l’âge, la minorité nationale, l’appartenance ethnique ou l’origine sociale, la langue, la religion ou les convictions, les opinions politiques ou la participation civique, la citoyenneté, le statut civil ou économique, l’éducation ou le casier judiciaire.

2.  Par dérogation au paragraphe 1, et sans préjudice du droit de l’Union régissant la discrimination illégale, toute différence de traitement entre des personnes ou des groupes de personnes ne peut être justifiée que si l’objectif visé est impartial, raisonnable et légitime, à la fois proportionné et nécessaire, pour autant qu’il n’existe aucune autre solution moins préjudiciable au principe de l’égalité de traitement.

Articles 10

Responsabilité sociale et égalité entre les genres

L’intelligence artificielle, la robotique et les technologies connexes à haut risque, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, développées, déployées et utilisées au sein de l’Union sont développées, déployées et utilisées conformément à la législation, aux principes et aux valeurs de l’Union applicables d’une manière qui ne perturbe pas les élections ou ne contribue pas à la diffusion d’éléments de désinformation, qui respecte les droits des travailleurs, qui favorise une éducation de qualité et l’habileté numérique, qui ne creuse pas l’écart entre les genres en empêchant l’égalité des chances pour tous et qui ne va pas à l’encontre des droits de propriété intellectuelle ainsi que des limitations et des exceptions en la matière.

Article 11

Durabilité environnementale

L’intelligence artificielle, la robotique et les technologies connexes à haut risque, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, sont évalués par les organismes nationaux de surveillance visés à l’article 18 ou, le cas échéant, par d’autres organismes de surveillance sectoriels nationaux ou européens, quant à leur durabilité environnementale, en veillant à ce que des mesures soient mises en place pour atténuer et corriger leur incidence générale sur les ressources naturelles, la consommation d’énergie, la production de déchets, l’empreinte carbone, la situation d’urgence en matière de changement climatique et la dégradation de l’environnement, de manière à assurer le respect de la législation de l’Union ou de la législation nationale applicables ainsi que des autres engagements internationaux en matière d’environnement pris par l’Union.

Article 12

Respect de la vie privée et protection des données à caractère personnel

L’utilisation et la collecte de données biométriques à des fins d’identification à distance dans les lieux publics, telle que la reconnaissance biométrique ou faciale, comportent des risques particuliers en matière de droits fondamentaux et ne sont déployées ou utilisées par les pouvoirs publics des États membres qu’à des fins importantes d’intérêt public. Ces pouvoirs publics veillent à ce que ce déploiement ou cette utilisation soient rendus publics, soient proportionnés, ciblés et limités à des objectifs et à une localisation spécifiques, et soient limités dans le temps, conformément au droit de l’Union et au droit national, en particulier au règlement (UE) 2016/679 et à la directive 2002/58/CE, et dans le respect de la dignité et de l’autonomie humaines et des droits fondamentaux énoncés dans la charte, notamment les droits au respect de la vie privée et à la protection des données à caractère personnel.

Article 13

Droit à réparation

Toute personne physique ou morale a le droit de demander réparation pour des torts ou des préjudices occasionnés par le développement, le déploiement et l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes à haut risque, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, en violation du droit de l’Union et des obligations énoncées dans le présent règlement.

Article 14

Évaluation des risques

1.  Aux fins du présent règlement, l’intelligence artificielle, la robotique et les technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, sont considérées comme des technologies à haut risque lorsqu’à la suite d’une évaluation des risques fondée sur des critères objectifs tels que leur utilisation ou finalité spécifiques, le secteur dans lequel elles sont développées, déployées ou utilisées et la gravité du tort ou du préjudice potentiel occasionné, leur développement, déploiement ou utilisation comportent un risque important d’occasionner des torts ou des préjudices aux individus ou à la société en violation des droits fondamentaux et des règles de sécurité établis par le droit de l’Union.

2.  Sans préjudice de la législation sectorielle applicable, l’évaluation des risques de l’intelligence artificielle, de la robotique et des technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, est effectuée conformément aux critères objectifs prévus au paragraphe 1 du présent article et dans la liste exhaustive et cumulative figurant à l’annexe du présent règlement, par les organismes nationaux de surveillance visés à l’article 18 sous la coordination de la Commission et/ou d’autres institutions, organes ou organismes compétents de l’Union susceptibles d’être désignés à cette fin dans le contexte de leur coopération.

3.  En coopération avec les organismes nationaux de surveillance visés au paragraphe 2, la Commission élabore et met à jour par la suite, par voie d’actes délégués adoptés conformément à l’article 20, une liste commune de technologies à haut risque recensées dans l’Union.

4.  La Commission met également régulièrement à jour, par voie d’actes délégués adoptés conformément à l’article 20, la liste figurant à l’annexe du présent règlement.

Article 15

Évaluation de la conformité

1.  L’intelligence artificielle, la robotique et les technologies connexes à haut risque sont soumises à une évaluation de conformité aux obligations énoncées aux articles 6 à 12 du présent règlement ainsi qu’à un suivi ultérieur, lesquels sont effectués par les organismes nationaux de surveillance visés à l’article 18 sous la coordination de la Commission et/ou d’autres institutions, organes ou organismes compétents de l’Union susceptibles d’être désignés à cette fin.

2.  Les logiciels, les données et les algorithmes utilisés ou produits par des technologies à haut risque qui ont été évaluées conformes aux obligations énoncées dans le présent règlement conformément au paragraphe 1 sont également réputées conformes à ces obligations, à moins que l’organisme national de surveillance compétent ne décide de mener une évaluation de sa propre initiative ou à la demande du développeur, du déployeur ou de l’utilisateur.

3.  Sans préjudice de la législation sectorielle, la Commission et/ou les institutions, organes et organismes compétents de l’Union susceptibles d’être désignés à cette fin préparent, au plus tard à la date d’entrée en vigueur du présent règlement, des lignes directrices contraignantes sur la méthode à utiliser par les organismes nationaux de surveillance pour procéder à l’évaluation de la conformité visée au paragraphe 1.

Article 16

Certificat européen de conformité éthique

1.  Lorsque l’évaluation de la conformité de l’intelligence artificielle, de la robotique et des technologies connexes à haut risque, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, effectuée conformément à l’article 15, se révèle positive, l’organisme national de surveillance compétent délivre un certificat européen de conformité éthique.

2.  Tout développeur, déployeur ou utilisateur d’intelligence artificielle, de robotique et de technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, qui ne sont pas considérées comme étant à haut risque et qui ne sont dès lors pas soumises aux obligations énoncées aux articles 6 à 12 ni à l’évaluation des risques et à l’évaluation de la conformité prévues aux articles 14 et 15, peut également chercher à certifier la conformité aux obligations énoncées dans le présent règlement, ou à une partie de ces obligations, lorsque la nature de la technologie en question le justifie, conformément à la décision des organismes nationaux de surveillance. Un certificat n’est délivré que si une évaluation de la conformité est réalisée par l’organisme national de surveillance compétent et que cette évaluation est positive.

3.  La Commission et/ou d’autres institutions, organes et organismes compétents de l’Union susceptibles d’être désignés à cette fin mettent au point une procédure de demande aux fins de la délivrance du certificat visé au paragraphe 2.

Chapitre III

Contrôle institutionnel

Article 17

Normes de gouvernance et orientations relatives à la mise en œuvre

1.  L’intelligence artificielle, la robotique et les technologies connexes développées, déployées ou utilisées au sein de l’Union respectent les normes de gouvernance pertinentes établies conformément au droit, aux principes et aux valeurs de l’Union par les organismes de surveillance nationaux visés à l’article 18 conformément au droit, aux principes et aux valeurs de l’Union, sous la coordination de la Commission et/ou d’institutions, organes ou organismes compétents de l’Union susceptibles d’être désignés à cette fin et en consultation avec les parties intéressées.

2.  Les normes visées au paragraphe 1 comprennent des lignes directrices de mise en œuvre non contraignantes sur la méthode à suivre par les développeurs, les déployeurs et les utilisateurs pour se conformer au présent règlement et sont publiées au plus tard à la date d’entrée en vigueur du présent règlement.

3.  Les données utilisées ou produites par l’intelligence artificielle, la robotique et les technologies connexes développées, déployées ou utilisées au sein de l’Union sont gérées par les développeurs, les déployeurs et les utilisateurs conformément aux règles et normes pertinentes à l’échelle nationale, de l’Union, d’autres organisations européennes et à l’échelle internationale, ainsi qu’aux protocoles industriels et commerciaux applicables. En particulier, les développeurs et les déployeurs effectuent, lorsque cela est possible, des contrôles de qualité des sources externes de données utilisées par l’intelligence artificielle, la robotique et les technologies connexes, et ils mettent en place des mécanismes de contrôle relatifs à leur collecte, leur stockage, leur traitement et leur utilisation.

4.  Sans préjudice des droits de transférabilité et des droits des personnes dont l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes a permis de générer des données, la collecte, le stockage, le traitement, le partage et l’accès aux données utilisées ou produites par l’intelligence artificielle, la robotique et les technologies connexes développées, déployées ou utilisées au sein de l’Union respectent les règles et normes pertinentes à l’échelle nationale, de l’Union, d’autres organisations européennes et à l’échelle internationale, ainsi que les protocoles industriels et commerciaux applicables. En particulier, les développeurs et les déployeurs veillent à ce que ces protocoles soient appliqués lors du développement et du déploiement de l’intelligence artificielle, de la robotique et des technologies connexes, en définissant clairement des exigences concernant le traitement et l’accès aux données utilisées ou produites par ces technologies, ainsi que la finalité, la portée et les destinataires du traitement et de l’accès à ces données, qui doivent à tout moment être vérifiables et traçables.

Article 18

Organismes de surveillance

1.  Chaque État membre désigne un organisme public indépendant chargé de contrôler l’application du présent règlement (ci-après «organisme de surveillance») et de réaliser les évaluations des risques et de la conformité et la certification prévues aux articles 14, 15 et 16 sans préjudice de la législation sectorielle.

2.  Chaque organisme national de surveillance contribue à l’application cohérente du présent règlement dans toute l’Union. À cette fin, les organismes de surveillance de chaque État membre coopèrent entre eux, avec la Commission et/ou avec les autres institutions, organes, organismes et agences compétents de l’Union, qui peuvent être désignés à cet effet.

3.  Chaque organisme de surveillance national sert de premier point de contact en cas d’atteinte présumée aux principes éthiques et aux obligations juridiques énoncés dans le présent règlement, et notamment en cas de traitement discriminatoire ou de violation d’autres droits, à la suite du développement, du déploiement ou de l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes. Dans ces cas, l’organisme national de surveillance concerné procède à une évaluation de la conformité en vue de soutenir le droit des citoyens à la contestation et au recours.

4.  Chaque organisme national de surveillance est chargé de superviser l’application des règles et des normes de gouvernance pertinentes aux échelles nationale, européenne et internationale visées à l’article 17 à l’intelligence artificielle, à la robotique et aux technologies connexes, notamment en entretenant des contacts avec le plus grand nombre possible de parties prenantes. À cette fin, les organismes de surveillance de chaque État membre offrent un forum permettant de procéder à des échanges réguliers avec et entre les parties prenantes des secteurs universitaires, de la recherche, de l’industrie et de la société civile.

5.  Chaque organisme national de surveillance fournit des lignes directrices et un soutien administratifs et professionnels concernant la mise en œuvre générale du droit de l’Union applicable à l’intelligence artificielle, à la robotique et aux technologies connexes, ainsi que des principes éthiques énoncés dans le présent règlement, tout particulièrement aux fins de la recherche et du développement dans ce domaine et à l’intention des petites et moyennes entreprises ou des jeunes pousses.

6.  Chaque État membre informe la Commission européenne des dispositions légales adoptées en vertu du présent article au plus tard le ... [JO: veuillez saisir la date un an après l’entrée en vigueur] et, sans délai, de toute modification ultérieure les concernant.

7.  Les États membres prennent toutes les mesures nécessaires pour assurer la mise en œuvre des principes éthiques et des obligations juridiques énoncés dans le présent règlement. Les États membres soutiennent les parties prenantes concernées et la société civile, tant à l’échelle de l’Union qu’à l’échelle nationale, dans leurs efforts pour garantir des réponses opportunes, éthiques et éclairées aux nouvelles possibilités et aux nouveaux défis, notamment ceux de nature transfrontalière résultant de développements technologiques relatifs à l’intelligence artificielle, à la robotique et aux technologies connexes.

Article 19

Signalement de violations et protection des auteurs de signalement

La directive (UE) 2019/1937 du Parlement européen et du Conseil(20) s’applique aux signalements de violations du présent règlement et à la protection des personnes signalant ces violations.

Article 20

Coordination au niveau de l'Union

1.  La Commission et/ou tout organe, organisme ou institution compétent de l’Union susceptible d’être désigné dans ce contexte est chargé des tâches suivantes:

—  veiller à l’évaluation cohérente des risques liés à l’intelligence artificielle, à la robotique et aux technologies connexes visées à l’article 14 par les organismes nationaux de surveillance visés à l’article 18 sur la base des critères objectifs communs énoncés à l’article 8, paragraphe 1, et de la liste des secteurs, usages et finalités à haut risque figurant en annexe du présent règlement;

—  prendre acte de l’évaluation de la conformité et du suivi ultérieur de l’intelligence artificielle, de la robotique et des technologies connexes à haut risque visées à l’article 15 par les organismes nationaux de surveillance visés à l’article 18;

—  élaborer la procédure de demande de certification visée à l’article 16 auprès des organismes nationaux de surveillance visés à l’article 178

—  sans préjudice de la législation sectorielle, élaborer les lignes directrices contraignantes visées à l’article 17, paragraphe 4, sur la méthode devant être utilisée par les organismes nationaux de surveillance visés à l’article 18;

—  coordonner l’élaboration des normes de gouvernance pertinentes visées à l’article 17 par les organismes nationaux de surveillance visés à l’article 18, y compris des lignes directrices de mise en œuvre non contraignantes à l’intention des développeurs, des déployeurs et des utilisateurs sur la méthode de mise en conformité avec le présent règlement;

—  coopérer avec les organismes nationaux de surveillance visés à l’article 18 aux fins de leur contribution à l’application cohérente du présent règlement dans toute l’Union en vertu de l’article 18, paragraphe 2;

—  faire office de centre d’expertise en promouvant l’échange d’informations relatives à l’intelligence artificielle, à la robotique et aux technologies connexes et en favorisant l’émergence d’une compréhension commune sur le marché unique, en mettant des lignes directrices, des avis et des connaissances spécialisées supplémentaires à la disposition des organismes nationaux de surveillance visés à l’article 18, en assurant le suivi de la mise en œuvre du droit pertinent de l’Union, en mettant en évidence les normes correspondant aux meilleures pratiques et, le cas échéant, en formulant des recommandations en matière de mesures réglementaires; ce faisant, entretenir des contacts avec le plus grand nombre possible de parties prenantes et veiller à ce que la composition des différents échelons de son processus décisionnel soit diversifiée et garantisse l’égalité entre les genres;

—  héberger un groupe de travail sur la sécurité et la défense visant à examiner les questions stratégiques et d’investissement spécifiquement liées à l’usage éthique de l’intelligence artificielle, de la robotique et des technologies connexes dans le domaine de la sécurité et de la défense.

Article 21

Exercice de la délégation

1.  Le pouvoir d’adopter des actes délégués conféré à la Commission est soumis aux conditions fixées au présent article.

2.  Le pouvoir d’adopter des actes délégués visé à l’article 14, paragraphes 3 et 4, est conféré à la Commission pour une période de cinq ans à compter du [date d’entrée en vigueur du présent règlement].

3.  La délégation de pouvoir visée à l’article 14, paragraphes 3 et 4, peut être révoquée à tout moment par le Parlement européen ou le Conseil. La décision de révocation met fin à la délégation de pouvoir qui y est précisée. La révocation prend effet le jour suivant celui de la publication de ladite décision au Journal officiel de l’Union européenne ou à une date ultérieure qui est précisée dans ladite décision. Elle ne porte pas atteinte à la validité des actes délégués déjà en vigueur.

4.  Avant l’adoption d’un acte délégué, la Commission consulte les experts désignés par chaque État membre, conformément aux principes définis dans l’accord interinstitutionnel du 13 avril 2016 «Mieux légiférer».

5.  Aussitôt qu’elle adopte un acte délégué, la Commission le notifie au Parlement européen et au Conseil simultanément.

6.  Un acte délégué adopté en vertu de l’article 14, paragraphes 3 et 4, n’entre en vigueur que si le Parlement européen ou le Conseil n’a pas exprimé d’objections dans un délai de trois mois à compter de la notification de cet acte au Parlement européen et au Conseil ou si, avant l’expiration de ce délai, le Parlement européen et le Conseil ont tous deux informé la Commission de leur intention de ne pas exprimer d’objections. Ce délai est prolongé de trois mois à l’initiative du Parlement européen ou du Conseil.

Article 22

Modification de la directive (UE) 2019/1937

La directive (UE) 2019/1937 est modifiée comme suit:

(1)  À l’article 2, paragraphe 1, le point suivant est ajouté:

«(xi) le développement, le déploiement et l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes.»

(2)  Dans la partie 1 de l’annexe, le point suivant est ajouté:

«K. Point (a)(xi) de l’article 2, paragraphe 1 - le développement, le déploiement et l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes.

“(xxi) règlement [XXX] du Parlement européen et du Conseil sur les principes éthiques relatifs au développement, au déploiement et à l’utilisation de l’intelligence artificielle, de la robotique et des technologies connexes.”»

Article 23

Réexamen

La Commission contrôle régulièrement le développement de l’intelligence artificielle, de la robotique et des technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, et elle présente au plus tard le ... [JO: veuillez saisir la date trois ans après l’entrée en vigueur], puis tous les trois ans, au Parlement européen, au Conseil et au Comité économique et social européen un rapport sur l’application du présent règlement, y compris une évaluation de la modification éventuelle du champ d’application du présent règlement.

Article 24

Entrée en vigueur

Le présent règlement entre en vigueur le vingtième jour suivant celui de sa publication au Journal officiel de l’Union européenne.

Il est applicable à partir du XX.

Le présent règlement est obligatoire dans tous ses éléments et directement applicable dans tout État membre.

Fait à ...,

Par le Parlement européen, Par le Conseil

Le président, Le président

ANNEXE

Liste exhaustive et cumulative des secteurs à haut risque et des usages ou finalités à haut risque comportant un risque de porter atteinte aux droits fondamentaux et aux règles de sécurité.

Secteurs à haut risque

—  Emploi

—  Éducation

—  Soins de santé

—  Transports

—  Énergie

—  Secteur public (asile, migration, contrôles aux frontières, système judiciaire et services de sécurité sociale)

—  Défense et sécurité

—  Finance, banque et assurance

Usages ou finalités à haut risque

—  Recrutement

—  Notation et évaluation des étudiants

—  Affectation de fonds publics

—  Octroi de prêts

—  Commerce, courtage, fiscalité, etc.

—  Traitements et procédures médicaux

—  Processus électoraux et campagnes politiques

—  Décisions du secteur public ayant une incidence importante et directe sur les droits et obligations des personnes physiques ou morales

—  Conduite automatisée

—  Gestion du trafic

—  Systèmes militaires autonomes

—  Production et distribution d’énergie

—  Gestion des déchets

—  Contrôle des émissions

(1) JO L 252 du 8.10.2018, p. 1.
(2) JO L 180 du 19.7.2000, p. 22.
(3) JO L 303 du 2.12.2000, p. 16.
(4) JO L 119 du 4.5.2016, p. 1.
(5) JO L 119 du 4.5.2016, p. 89.
(6) JO L 123 du 12.5.2016, p. 1.
(7) JO C 252 du 18.7.2018, p. 239.
(8) JO C 307 du 30.8.2018, p. 163.
(9) JO C 433 du 23.12.2019, p. 86.
(10) Textes adoptés de cette date, P8_TA(2018)0332.
(11) Textes adoptés de cette date, P8_TA(2019)0081.
(12)https://www.europarl.europa.eu/thinktank/en/document.html?reference =EPRS_STU(2020)654179
(13) Directive (UE) 2019/882 du Parlement européen et du Conseil du 17 avril 2019 relative aux exigences en matière d’accessibilité applicable aux produits et services (JO L 151 du 7.6.2019, p. 70).
(14) Décision n° 768/2008/CE du Parlement européen et du Conseil du 9 juillet 2008 relative à un cadre commun pour la commercialisation des produits et abrogeant la décision 93/465/CEE du Conseil (JO L 218 du 13.8.2008, p. 82).
(15) Pour la conduite automatisée de véhicules, la norme internationale SAE J3016, actualisée pour la dernière fois en 2018 (J3016 201806), a proposé six niveaux d’automatisation de la conduite.https://www.sae.org/standards/content/j3016_201806/
(16) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données) (JO L 119 du 4.5.2016, p. 1).
(17) Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques (directive vie privée et communications électroniques) (JO L 201 du 31.7.2002, p. 37).
(18) Définition adaptée de celle qui figure dans la communication de la Commission européenne COM(2018)237 final du 25.4.2018, page 1.
(19) Tiré de la définition de robot industriel qui figure dans la norme ISO 8373.
(20) Directive (UE) 2019/1937 du Parlement européen et du Conseil du 23 octobre 2019 sur la protection des personnes qui signalent des violations du droit de l’Union (JO L 305 du 26.11.2019, p. 17).


Un régime de responsabilité civile pour l’intelligence artificielle
PDF 253kWORD 87k
Résolution
Annexe
Annexe
Résolution du Parlement européen du 20 octobre 2020 contenant des recommandations à la Commission sur un régime de responsabilité civile pour l’intelligence artificielle (2020/2014(INL))
P9_TA(2020)0276A9-0178/2020

Le Parlement européen,

–  vu l’article 225 du traité sur le fonctionnement de l’Union européenne,

–  vu les articles 114 et 169 du traité sur le fonctionnement de l’Union européenne,

–  vu la directive 85/374/CEE du Conseil du 25 juillet 1985 relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux(1) (directive sur la responsabilité du fait des produits),

–  vu la directive 2005/29/CE du Parlement européen et du Conseil du 11 mai 2005 relative aux pratiques commerciales déloyales des entreprises vis-à-vis des consommateurs dans le marché intérieur (directive sur les pratiques commerciales déloyales)(2) et la directive 2011/83/UE du Parlement européen et du Conseil du 25 octobre 2011 sur les droits des consommateurs(3), ainsi que les autres règles de protection des consommateurs,

–  vu le règlement (UE) 2017/745 du Parlement européen et du Conseil du 5 avril 2017 relatif aux dispositifs médicaux(4),

–  vu le règlement (UE) 2018/1488 du Conseil du 28 septembre 2018 établissant l’entreprise commune pour le calcul à haute performance européen(5),

–  vu la directive (UE) 2019/770 du Parlement européen et du Conseil du 20 mai 2019 relative à certains aspects concernant les contrats de fourniture de contenus numériques et de services numériques(6),

–  vu l’accord interinstitutionnel «Mieux légiférer» du 13 avril 2016 et les lignes directrices pour une meilleure réglementation(7),

–  vu la proposition de règlement du Parlement européen et du Conseil du 6 juin 2018 établissant le programme pour une Europe numérique pour la période 2021-2027 (COM(2018)0434),

–  vu la communication de la Commission du 25 avril 2018 intitulée «L’intelligence artificielle pour l’Europe» (COM(2018)0237),

–  vu la communication de la Commission du 7 décembre 2018 intitulée «Un plan coordonné dans le domaine de l’intelligence artificielle» (COM(2018)0795),

–  vu la communication de la Commission du 8 avril 2019 intitulée «Renforcer la confiance dans l’intelligence artificielle axée sur le facteur humain» (COM(2019)0168),

–  vu le rapport de la Commission du 19 février 2020 au Parlement européen, au Conseil et au Comité économique et social européen sur les conséquences de l’intelligence artificielle, de l’internet des objets et de la robotique sur la sécurité et la responsabilité (COM(2020)0064),

–  vu le livre blanc de la Commission européenne du 19 février 2020 intitulé «Intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance» (COM(2020)0065),

–  vu sa résolution du 16 février 2017 contenant des recommandations à la Commission relatives aux règles de droit civil sur la robotique(8),

–  vu sa résolution du 1er juin 2017 sur le passage au numérique des entreprises européennes(9),

–  vu sa résolution du 12 septembre 2018 sur les systèmes d’armes autonomes(10),

–  vu sa résolution du 12 février 2019 relative à une politique industrielle européenne globale sur l’intelligence artificielle et la robotique(11),

–  vu sa résolution du 12 février 2020 sur les processus de prise de décision automatisés: assurer la protection des consommateurs et la libre circulation des biens et des services(12),

–  vu le rapport du groupe d’experts de haut niveau sur l’intelligence artificielle du 8 avril 2019 intitulé «Lignes directrices en matière d’éthique pour une IA digne de confiance»,

–  vu le rapport du groupe d’experts de haut niveau sur l’intelligence artificielle du 8 avril 2019 sur la définition de l’intelligence artificielle et les capacités et disciplines principales (A definition of AI: Main Capabilities and Disciplines),

–  vu le rapport du groupe d’experts de haut niveau sur l’intelligence artificielle du 26 juin 2019 sur les recommandations stratégiques et en matière d’investissements pour une intelligence artificielle digne de confiance (Policy and investment recommendations for trustworthy AI),

–  vu le rapport du groupe d’experts sur la responsabilité et les nouvelles technologies, section «nouvelles technologies», du 21 novembre 2019 sur la responsabilité en matière d’intelligence artificielle et d’autres technologies numériques émergentes (Liability for Artificial Intelligence and other emerging digital technologies),

–  vu l’étude sur l’évaluation de la valeur ajoutée européenne réalisée par le Service de recherche du Parlement européen, intitulée « 'Civil liability regime for artificial intelligence: European added value assessment' »(13),

–  vu la note d’information stratégique du comité STOA du Service de recherche du Parlement européen de juin 2016 sur les réflexions juridiques et éthiques concernant la robotique(14),

–  vu l’étude de la direction générale des politiques internes du Parlement européen réalisée en octobre 2016 pour la commission des affaires juridiques et intitulée «Règles européennes de droit civil en robotique»(15),

–  vu les articles 47 et 54 de son règlement intérieur,

–  vu les avis de la commission du marché intérieur et de la protection des consommateurs et de la commission des transports et du tourisme,

–  vu le rapport de la commission des affaires juridiques (A9-0178/2020),

A.  considérant que la notion de «responsabilité» joue un rôle important dans notre vie quotidienne à un double titre: que, d’une part, elle garantit qu’une personne ayant subi un préjudice ou un dommage est en droit de demander et de recevoir une indemnisation de la partie dont la responsabilité pour ce préjudice ou ce dommage est avérée et que, d’autre part, elle incite économiquement les personnes physiques et morales à éviter de causer un préjudice ou un dommage en premier lieu ou à évaluer le risque de devoir payer une indemnisation;

B.  considérant que tout cadre juridique de responsabilité civile axé sur l’avenir doit inspirer confiance dans la sécurité, la fiabilité et la cohérence des produits et des services, y compris dans la technologie numérique, afin de parvenir à un équilibre entre, d’une part, protéger de manière effective et équitable les victimes potentielles d’un préjudice ou d’un dommage et, d’autre part, offrir une marge de manœuvre suffisante pour permettre aux entreprises, en particulier aux petites et moyennes entreprises européennes, de développer de nouveaux produits, services ou technologies; que cela contribuera à instaurer la confiance pour assurer la stabilité des investissements; qu’en fin de compte, l’objectif de tout cadre de responsabilité devrait être d’offrir une sécurité juridique à toutes les parties, qu’il s’agisse du producteur, de l’opérateur, de la personne lésée ou de tout autre tiers;

C.  considérant que le système juridique d’un État membre peut moduler ses règles de responsabilité auxquelles sont soumis certains acteurs ou les rendre plus strictes pour certaines activités; que la responsabilité objective implique qu’une partie peut être tenue pour responsable malgré l’absence de faute; que, dans de nombreux droits nationaux de la responsabilité civile, le défendeur est tenu pour objectivement responsable lorsqu’un risque qu’il a provoqué pour le public, par exemple en conduisant une voiture ou en menant des activités dangereuses, ou un risque qu’il ne peut contrôler, comme dans le cas d’animaux, entraîne un préjudice ou un dommage;

D.  considérant que toute future législation de l’Union, visant à répartir clairement les responsabilités en matière de systèmes d’intelligence artificielle (IA), devrait être précédée d’une analyse et d’une consultation des États membres sur la conformité de l’acte législatif proposé avec les conditions économiques, juridiques et sociales;

E.  considérant que la question d’un régime de responsabilité civile applicable à l’IA devrait faire l’objet d’un vaste débat public, qui tienne compte de tous les intérêts en jeu, notamment du point de vue éthique, juridique, économique et social, afin d’éviter les malentendus et les craintes injustifiées que peut susciter cette technologie chez les citoyens; qu’un examen attentif des conséquences d’un nouveau cadre réglementaire sur l’ensemble des acteurs, dans le cadre d’une analyse d’impact, devrait être une condition préalable à toute nouvelle mesure législative;

F.  considérant que les systèmes d’IA regroupent un grand nombre de technologies différentes dont les statistiques, l’apprentissage automatique et l’apprentissage profond;

G.  considérant que l’utilisation du terme «prise de décision automatisée» pourrait éviter l’ambiguïté du terme «IA»; que la «prise de décision automatisée» implique qu’un utilisateur délègue initialement une décision, en tout ou en partie, à une entité au moyen d’un logiciel ou d’un service; que cette entité utilise alors, à son tour, des modèles décisonnels automatisés pour effectuer une action à la place d’un utilisateur ou pour lui permettre de prendre des décisions éclairées s’il l’exécute lui-même;

H.  considérant que certains systèmes d’IA posent des problèmes juridiques complexes pour le cadre de responsabilité existant et que cela pourrait mener à des situation où, en raison de l’opacité de ces systèmes, il pourrait être extrêmement coûteux, voire impossible, de déterminer qui contrôlait le risque associé au système d’IA ou quels code, entrées ou données ont en fin de compte causé l’opération préjudiciable; qu’en raison de cet aspect, il pourrait être plus compliqué de définir le lien entre le préjudice ou le dommage et le comportement fautif , ce qui aurait pour conséquence que les victimes ne soient pas indemnisées de manière adéquate;

I.  considérant que les difficultés juridiques découlent également de la mise en relation de systèmes d’IA avec d’autres systèmes (IA et non IA), de leur dépendance à l’égard des données externes, de leur vulnérabilité aux atteintes à la cybersécurité ainsi que de la conception de systèmes d’IA de plus en plus autonomes utilisant, entre autres, des techniques d’apprentissage automatique et d’apprentissage profond;

J.  considérant que des normes éthiques rationnelles applicables aux systèmes d’IA, combinées à des procédures d’indemnisation solides et équitables, peuvent aider à surmonter ces difficultés juridiques et à éliminer le risque que les technologies émergentes soient moins bien acceptées par les utilisateurs; que les procédures d’indemnisation équitables doivent permettre à toute personne subissant un préjudice causé par un système d’IA ou dont les biens ont été endommagés par la faute d’un système d’IA de bénéficier du même niveau de protection que lorsqu’aucun système d’IA n’est en cause; que l’utilisateur doit s’assurer que les dommages pouvant éventuellement être causés par des systèmes fondés sur l’IA sont couverts par une assurance adaptée et qu’une voie de recours a été définie;

K.  considérant que la sécurité juridique est également une condition essentielle du développement dynamique et de l’innovation dans le domaine des technologies fondées sur l’IA, en particulier pour les start-ups, les micro, petites et moyennes entreprises, et de leur application pratique dans la vie quotidienne; que le rôle essentiel joué par ces différents types d’entreprises en particulier dans l’économie européenne justifie une approche strictement proportionnée leur permettant de se développer et d’innover;

L.  considérant que la diversité des systèmes d’IA et la variété des risques posés par cette technologie compliquent la recherche d’une solution unique qui serait adaptée à tout l’éventail des risques; qu’il convient, à cet égard, d’adopter une approche reposant sur des expériences, des pilotes et des bacs à sable réglementaires pour trouver des solutions proportionnées et fondées sur des données probantes applicables à des situations et à des secteurs spécifiques, lorsque cela est nécessaire;

Introduction

1.  considère que les difficultés liées à l’introduction des systèmes d’IA dans la société, dans l’économie et sur le lieu de travail constituent l’un des dossiers les plus importants de l’ordre du jour politique actuel; que les technologies fondées sur l’IA pourraient et devraient contribuer à améliorer nos vies dans la quasi-totalité des domaines, de la sphère personnelle (transports, éducation personnalisée, aide aux personnes vulnérables, programmes de fitness, octroi de crédits), à l’environnement de travail (diminution des tâches fastidieuses et répétitives) et aux grands enjeux planétaires (changement climatique, soins de santé, nutrition, logistique);

2.  est fermement convaincu qu’afin d’exploiter efficacement les atouts des systèmes d’IA, d’en prévenir les utilisations abusives et d’éviter la fragmentation réglementaire au niveau de l’Union, il est essentiel que tous les systèmes d’IA dans l’Union soient soumis à une législation uniforme, fondée sur des principes et à l’épreuve du temps; estime que si des réglementations sectorielles spécifiques pour le large éventail d’applications possibles sont préférables, un cadre juridique transversal et harmonisé fondé sur des principes communs semble nécessaire pour assurer la clarté juridique, établir des normes égales dans l’ensemble de l’Union et protéger efficacement nos valeurs européennes et les droits des citoyens;

3.  affirme que le marché unique numérique doit faire l’objet d’une harmonisation complète, étant donné que la sphère numérique se caractérise par une dynamique transfrontière rapide et des flux internationaux de données; estime que l’Union ne pourra atteindre les objectifs de préservation de sa souveraineté numérique et de stimulation de l’innovation numérique en Europe qu’avec des règles communes et cohérentes, adaptées au contexte innovateur;

4.  relève que la course mondiale à l’IA a déjà démarré et que l’Union devrait y jouer un rôle de premier plan en exploitant son potentiel scientifique et technologique; insiste particulièrement sur le fait que le développement technologique ne doit pas porter atteinte à la protection des utilisateurs contre les dommages qui peuvent être causés par les dispositifs et les systèmes utilisant l’IA; encourage la promotion des normes de l’Union en matière de responsabilité civile au niveau international;

5.  est fermement convaincu que les nouvelles règles communes pour les systèmes d’IA devraient prendre uniquement la forme d’un règlement; estime que la question de la responsabilité en cas de préjudice ou de dommage causé par un système d’IA est l’un des aspects essentiels à traiter dans ce cadre;

Responsabilité et intelligence artificielle

6.  estime qu’il n’est pas nécessaire de procéder à une révision complète des régimes de responsabilité, qui fonctionnent bien, mais que la complexité, la connectivité, l’opacité, la vulnérabilité, la capacité d’être modifié par des mises à jour, la capacité d’auto-apprentissage et l’autonomie potentielle des systèmes d’IA, ainsi que la multitude d’acteurs impliqués représentent néanmoins un défi important pour l’efficacité des cadres juridiques de l’Union et des États membres en matière de responsabilité; considère qu’il est nécessaire de procéder à des ajustements spécifiques et coordonnés aux régimes de responsabilité pour éviter que des personnes ayant subi un préjudice ou dont les biens ont subi un dommage ne puissent pas obtenir réparation;

7.  souligne que l’ensemble des activités, dispositifs ou processus physiques ou virtuels gérés par des systèmes d’IA peuvent techniquement être la cause directe ou indirecte d’un préjudice ou d’un dommage, mais qu’ils ont presque toujours comme point de départ une personne qui développe, déploie ou perturbe un système; relève, à cet égard, qu’il n’est pas nécessaire de conférer la personnalité juridique aux systèmes d’IA; estime qu’en raison de l’opacité, de la connectivité et de l’autonomie des systèmes d’IA, il pourrait dans la pratique s’avérer très difficile, voire impossible, de retrouver les contributions spécifiques des êtres humains ou les décisions de conception qui sont à l’origine d’actes préjudiciables spécifiques commis par des systèmes d’IA; rappelle que, conformément à des concepts de responsabilité largement reconnus, il est néanmoins possible de contourner cet obstacle en tenant pour responsables l’ensemble des personnes qui, tout au long de la chaîne de valeur, créent, entretiennent ou contrôlent le risque associé au système d’IA;

8.  estime que la directive sur la responsabilité du fait des produits a, depuis plus de 30 ans, prouvé son efficacité en tant qu’outil permettant d’obtenir réparation du préjudice causé par un produit défectueux, mais qu’il conviendrait néanmoins de la réviser afin qu’elle soit mieux adaptée au monde numérique et à même de relever les défis posés par les technologies numériques émergentes, en garantissant de la sorte un niveau élevé de protection réelle des des consommateurs ainsi qu’une sécurité juridique pour les consommateurs et les entreprises, tout en évitant des coûts et des risques élevés pour les petites et moyennes entreprises et les start-ups; demande instamment à la Commission d’évaluer si ladite directive doit être transformée en règlement, de préciser la définition des «produits» en déterminant si le contenu numérique et les services numériques entrent dans son champ d’application et d’envisager d’adapter des notions telles que «dommage», «défaut» et «producteur»; considère que pour assurer la sécurité juridique dans l’ensemble de l’Union après le réexamen de la directive, il conviendrait de veiller à ce que le concept de «producteur» englobe les fabricants, les développeurs, les programmeurs, les prestataires de services et les opérateurs d’amont; invite la Commission à envisager d’inverser les règles régissant la charge de la preuve en cas de préjudice causé par des technologies numériques émergentes dans des cas clairement définis et après une évaluation appropriée; souligne l’importance de limiter l’actualisation dudit acte de l’Union à des problèmes clairement identifiés pour lesquels des solutions réalisables existent déjà et, dans le même temps, de permettre de couvrir les développements technologiques à venir, y compris ceux concernant les logiciels libres et ouverts; considère par conséquent que ladite directive devrait continuer à être utilisée pour les actions en responsabilité civile intentées à l’encontre du producteur d’un système d’IA défectueux lorsque ce système peut être considéré comme un produit au sens de ladite directive; souligne que toute actualisation du cadre de la responsabilité du fait des produits devrait s’accompagner d’une actualisation de la directive 2001/95/CE du Parlement européen et du Conseil du 3 décembre 2001 sur la sécurité des produits(16) afin de garantir que les systèmes d’IA respectent les principes de sûreté et de sécurité dès le stade de conception;

9.  considère que le droit des États membres en matière de responsabilité civile pour faute offre, dans la plupart des cas, un niveau de protection suffisant pour les personnes qui subissent un préjudice causé par un tiers perturbateur, tel qu’un pirate informatique, ou dont les biens sont endommagés par un tel tiers, étant donné que la perturbation constitue régulièrement une action fondée sur une faute; relève que l’ajout de règles visant à compléter le droit national existant en matière de responsabilité ne semble nécessaire que dans des cas spécifiques, y compris lorsque le tiers ne peut être localisé ou qu’il est insolvable;

10.  estime, par conséquent, que le présent rapport devrait se concentrer sur les actions en responsabilité civile intentées à l’encontre de l’opérateur d’un système d’intelligence artificielle; affirme que la responsabilité de l’opérateur est justifiée par le fait qu’il contrôle un risque associé au système d’intelligence artificielle, un parallèle pouvant être dressé avec le propriétaire d’une voiture; est d’avis qu’en raison de la complexité et de la connectivité des systèmes d’IA, l’opérateur sera dans de nombreux cas le premier point de contact visible pour la personne lésée;

Responsabilité de l’opérateur

11.  estime que les règles de responsabilité relatives à l’opérateur devraient s’appliquer à tous les types d’exploitation des systèmes d’IA, indépendamment du lieu de l’exploitation et du fait que celle-ci soit de nature physique ou virtuelle; fait observer que l’exploitation dans un espace public, qui expose de nombreuses personnes à un risque, constitue cependant un cas nécessitant un examen plus approfondi; considère que les victimes potentielles d’un préjudice ou d’un dommage n’ont souvent pas connaissance de cette exploitation et ne pourraient généralement pas engager d’action en responsabilité contractuelle à l’encontre de l’opérateur; relève que, dans l’hypothèse de la matérialisation d’un préjudice ou d’un dommage, ces personnes ne pourraient intenter qu’une action en responsabilité pour faute et parviendraient difficilement à prouver la faute de l’opérateur du système d’IA, et que, par conséquent, ces actions en responsabilités n’aboutiraient pas;

12.  estime qu’il convient de comprendre la notion d’ « opérateur » comme désignant à la fois l’opérateur frontal et l’opérateur d’amont, pour autant que ce dernier ne soit pas couvert par la directive sur la responsabilité du fait des produits; considère que l’opérateur frontal devrait être défini comme la personne physique ou morale qui exerce un certain contrôle sur un risque associé à la mise en œuvre et au fonctionnement du système d’IA et tire profit de son exploitation; estime que l’opérateur d’amont devrait être défini comme la personne physique ou morale qui, de manière continue, définit les caractéristiques de la technologie, fournit des données ainsi qu’un service essentiel de soutien en amont et exerce donc également un certain contrôle sur le risque lié à l’exploitation et au fonctionnement du système d’IA; juge par ailleurs qu’«exercer le contrôle» signifie toute action de l’opérateur qui influence l’exploitation du système d’IA et donc le degré d’exposition des tiers aux risques potentiels du système; estime que ces actions pourraient avoir un effet sur l’exploitation d’un système d’IA du début à sa fin, en déterminant les entrées, les sorties ou les résultats, ou pourrait modifier les fonctions ou processus spécifiques au sein dudit système;

13.  fait observer que dans certaines situations, il peut y avoir plus d’un opérateur, par exemple un opérateur d’amont et un opérateur frontal; considère que, dans ce cas, tous les opérateurs devraient être conjointement et solidairement responsables, et disposer d’un droit de recours proportionnel les uns à l’encontre des autres; est d’avis que la part de responsabilité devrait être déterminé s au prorata du degré de contrôle exercé par les différents opérateurs sur le risque lié à l’exploitation et au fonctionnement du système d’IA; estime qu’il convient d’améliorer la traçabilité des produits afin de mieux identifier les personnes impliquées aux différentes étapes;

Des règles de responsabilité différentes pour des risques différents

14.  prend acte du fait que le type de système d’IA sur lequel l’opérateur exerce un contrôle constitue un facteur déterminant en matière de responsabilité; fait observer qu’un système d’IA qui présente un risque intrinsèque élevé et agit de manière autonome représente potentiellement une menace bien plus importante pour le grand public; estime, au vu des difficultés juridiques que posent les systèmes d’IA au regard des régimes de responsabilité civile existants, raisonnable de mettre en place un régime commun de responsabilité objective pour ces systèmes d’IA autonomes à haut risque; précise qu’une telle approche basée sur le risque, qui est susceptible de comprendre plusieurs niveaux de risque, devrait reposer sur des critères clairs et une définition adéquate du risque élevé et garantir une sécurité juridique;

15.  estime qu’un système d’IA présente un risque élevé lorsque son exploitation autonome implique une forte probabilité de porter préjudice à une ou plusieurs personnes, de manière aléatoire et au-delà de ce que l’on peut raisonnablement attendre; considère que, pour évaluer si un système d’IA présente un risque élevé, il faut également prendre en considération le secteur dans lequel des risques importants sont susceptibles de survenir et la nature des activités exercées; considère que l’importance de ce risque dépend de l’interaction entre la gravité du préjudice éventuel, la probabilité que ce risque cause un préjudice ou un dommage, et la manière dont le système d’IA est utilisé;

16.  recommande de dresser une liste exhaustive de tous les systèmes d’IA à haut risque dans une annexe au règlement proposé; reconnaît que, compte tenu de la rapidité des évolutions technologiques et des compétences techniques requises, la Commission devrait revoir cette annexe sans retard indû, et au moins tous les six mois, et, si nécessaire, la modifier au moyen d'un acte délégué; estime que la Commission devrait travailler en étroite collaboration avec un comité permanent nouvellement créé, semblable au comité permanent existant sur les précurseurs ou au comité technique pour les véhicules à moteur, qui comptent dans leurs rangs des experts nationaux dépêchés par les États membres et des parties prenantes; est d’avis que la composition équilibrée du groupe d’experts de haut niveau sur l’intelligence artificielle pourrait servir d’exemple pour la formation du groupe de parties prenantes avec l’ajout d’experts en éthique ainsi que d’anthropologues, de sociologues et de spécialistes de la santé mentale; est également d’avis que le Parlement européen devrait désigner des experts, à titre consultatif, qui puissent conseiller le comité permanent nouvellement créé;

17.  note que le développement de technologies fondées sur l’IA est extrêmement rapide et s’accélère constamment; souligne qu’il est nécessaire d’adopter une approche accélérée pour analyser les nouveaux dispositifs et systèmes utilisant les systèmes d’IA qui apparaissent sur le marché européen, au regard des risques potentiels, de manière à garantir une protection adéquate aux utilisateurs; recommande de simplifier autant que possible l’ensemble des procédures en la matière; suggère en outre que la Commission commence l’examen visant à évaluer si un système d’IA présente un risque élevé en même temps que l’évaluation de la sécurité des produits, afin d’empêcher qu’un système d’IA à haut risque puisse être approuvé pour le marché avant d’être classé à haut risque et dès lors soit exploité sans être couvert par une assurance obligatoire;

18.  considère que la Commission devrait évaluer comment les données collectées, enregistrées ou stockées dans des systèmes d’IA à haut risque aux fins de rassembler des éléments de preuve en cas de préjudice ou de dommage causé par ce système d’IA pourraient être consultées et utilisées par l’autorité chargée de l’enquête, et comment la traçabilité et la possibilité de procéder au contrôle de ces données pourraient être améliorées, tout en tenant compte des droits fondamentaux et du respect de la vie privée;

19.  estime que, conformément aux régimes de responsabilité objective des États membres, le règlement proposé devrait couvrir les violations des droits juridiquement protégés importants que sont le droit à la vie, à la santé, à l’intégrité physique, à la propriété, et devrait fixer le montant et l’étendue de l’indemnisation ainsi que le délai de prescription; est d’avis que le règlement proposé devrait également couvrir le préjudice immatériel important entraînant une perte économique vérifiable supérieure à un certain seuil, harmonisé dans le droit de l’Union en matière de responsabilité, qui concilie l’accès à la justice des personnes lésées et les intérêts d’autres parties concernées; prie instamment la Commission de réévaluer et d’aligner les seuils de dommages et intérêts dans le droit de l’Union; est d’avis que la Commission devrait analyser en profondeur ce qui, dans les traditions juridiques des États membres et les législations nationales existantes, permet d’octroyer une indemnisation pour préjudice immatériel, afin d’évaluer si l’inclusion d’un préjudice immatériel dans des actes législatifs spécifiques à l’IA est nécessaire et si elle contrevient au cadre juridique de l’Union ou porte atteinte au droit des États membres;

20.  dispose que l’ensemble des activités, dispositifs ou processus gérés par des systèmes d’IA qui causent un préjudice ou un dommage mais ne sont pas énumérés à l’annexe du règlement proposé devraient rester, pour leur part, dans le champ de la responsabilité pour faute; est d’avis que la personne lésée devrait néanmoins bénéficier d’une présomption de faute de l’opérateur, qui devrait avoir la possibilité de se disculper en apportant la preuve qu’il s’est conformé au devoir de diligence;

21.  considère qu’un système d’IA qui n’a pas encore été évalué par la Commission et le comité permanent nouvellement constitué et qui, par conséquent, n’a pas encore été classé comme étant à haut risque et n’est pas inclus dans la liste figurant à l’annexe du règlement proposé, devrait néanmoins, par dérogation au système prévu au paragraphe 20, être soumis à une responsabilité objective s’il a causé des incidents répétés entraînant un préjudice ou un dommage grave; relève que, si tel est le cas, la Commission devrait également évaluer, sans retard indû, la nécessité de réviser cette annexe afin d’ajouter le système d’IA en question à la liste; estime que si la Commission décide d’inscrire ce système d’IA sur la liste à la suite de cette évaluation, cette inscription devrait avoir un effet rétroactif à compter du premier incident avéré causé par ce système d’IA et ayant causé un préjudice ou un dommage grave;

22.  demande à la Commission d’évaluer la nécessité de prévoir des dispositions juridiques sur les contrats au niveau de l’Union afin d’éviter les clauses contractuelles de non-responsabilité, y compris dans les relations entre les entreprises et entre les entreprises et l’administration;

Assurances et systèmes d’intelligence artificielle

23.  estime que la couverture de la responsabilité est l’un des principaux facteurs déterminants du succès des technologies, produits et services nouveaux; fait observer qu’une couverture adéquate de la responsabilité est tout aussi essentielle pour assurer au public qu’il peut avoir confiance en la nouvelle technologie, malgré le risque de subir un préjudice ou de se voir assigner en justice par les personnes lésées; relève en même temps que ce système réglementaire met l’accent sur la nécessité d’exploiter pleinement les systèmes d’IA en ce qu’ils ont de positif et de les développer tout en instituant un ensemble de garanties solides;

24.  considère que, compte tenu du risque important de causer un préjudice ou un dommage et compte tenu de la directive 2009/103/CE du Parlement européen et du Conseil du 16 septembre 2009 concernant l’assurance de la responsabilité civile résultant de la circulation de véhicules automoteurs et le contrôle de l’obligation d’assurer cette responsabilité(17), tous les opérateurs de systèmes d’IA à haut risque énumérés à l’annexe de la proposition de règlement devraient souscrire une assurance responsabilité civile; estime que ce régime d’assurance obligatoire pour les systèmes d’IA à haut risque devrait couvrir les montants et l’étendue de l’indemnisation fixée par le règlement proposé; est conscient du fait que cette technologie est encore très rare car elle suppose un niveau élevé d’autonomie dans la prise de décision et que, par conséquent, les discussion actuelles sont pour la plupart orientées vers l’avenir; estime toutefois que l’incertitude concernant les risques ne devrait pas se traduire par des primes d’assurance dont le tarif serait prohibitif et constituerait un frein à la recherche et à l’innovation;

25.  juge qu’un mécanisme d’indemnisation au niveau de l’Union, financé par des fonds publics, n’est pas le bon moyen de combler d’éventuelles lacunes en matière d’assurance; considère qu’en raison du manque de données disponibles sur les risques associés aux systèmes d’IA et de l’incertitude quant aux évolutions à venir, il est difficile pour le secteur des assurances de proposer de nouveaux produits ou des produits adaptés; estime que laisser le soin au seul marché d’élaborer une assurance obligatoire fait courir le risque d’une approche universelle assortie de primes disproportionnés et d’incitations inadaptées, ce qui pourrait inciter les opérateurs à opter pour l’assurance la moins chère plutôt que la meilleure et freiner la recherche et l’innovation; considère que la Commission devrait travailler en étroite collaboration avec le secteur des assurances pour réfléchir à la manière d’utiliser les données et les modèles innovants pour mettre en place des polices d’assurance offrant une couverture adaptée à un prix abordable.

Considérations finales

26.  demande à la Commission de soumettre, sur la base de l’article 225 du traité sur le fonctionnement de l’Union européenne, une proposition de règlement relatif à un régime de responsabilité pour l’exploitation des systèmes d’intelligence artificielle, suivant les recommandations détaillées figurant en annexe;

27.  estime que la proposition demandée n’a pas d’incidences financières;

o
o   o

28.  charge son Président de transmettre la présente résolution ainsi que les recommandations figurant en annexe à la Commission et au Conseil.

ANNEXE À LA RÉSOLUTION:

RECOMMANDATIONS DÉTAILLÉES CONCERNANT L’ÉLABORATION D’UN RÈGLEMENT DU PARLEMENT EUROPÉEN ET DU CONSEIL RELATIF À UN RÉGIME DE RESPONSABILITÉ POUR L’EXPLOITATION DES SYSTÈMES D’INTELLIGENCE ARTIFICIELLE

A.  PRINCIPES ET OBJECTIFS DE LA PROPOSITION

Le présent rapport aborde un aspect important de la numérisation, lui-même influencé par les activités transfrontalières, la concurrence au niveau mondial ainsi que des considérations sociétales fondamentales. Il convient de prendre appui sur les principes suivants en guise d’orientations:

1.  Un marché unique numérique véritable exige une harmonisation complète réalisée par l’intermédiaire d’un règlement;

2.  Il est impératif de garantir une sécurité juridique maximale tout au long de la chaîne des responsabilités, y compris pour le producteur, l’opérateur, les personnes lésées et tout autre tiers, pour répondre aux nouvelles difficultés juridiques qu’engendrent les évolutions des systèmes d’intelligence artificielle (IA).

3.  Il convient d’éviter toute surréglementation et toute charge administrative superflue afin de ne pas entraver l’innovation européenne en matière d’IA, notamment en ce qui concerne les technologies, produits ou services développés par les PME ou les start-ups.

4.  Les règles de responsabilité civile pour l’IA doivent chercher à atteindre un équilibre entre, d’une part, protéger les citoyens et, d’autre part, encourager les entreprises à investir dans l’innovation, notamment dans les systèmes d’IA.

5.  Il convient également, au lieu de remplacer les régimes de responsabilité existants, qui fonctionnent bien, de procéder à quelques ajustements nécessaires en introduisant des concepts nouveaux et tournés vers l’avenir.

6.  La future proposition de règlement et la directive sur la responsabilité du fait des produits constituent deux piliers d’un cadre commun de responsabilité pour les systèmes d’IA et exigent une coopération étroite et une cohérence entre tous les acteurs politiques concernés, au niveau de l’Union et au niveau national.

7.  Les citoyens devraient pouvoir se prévaloir du même niveau de protection et des mêmes droits, que le préjudice soit causé par un système d’IA ou non et qu’il soit de nature physique ou virtuelle, afin qu’ils aient davantage confiance en cette nouvelle technologie.

8.  La future proposition de règlement devrait tenir compte du caractère matériel et immatériel d’un préjudice. Sur la base, entre autres, de sa communication du 19 février 2020 sur les implications de l’IA et de la robotique en matière de sécurité et de responsabilité, la Commission est invitée à analyser en profondeur les traditions juridiques de tous les États membres ainsi que les dispositions légales existantes qui permettent d’octroyer une indemnisation pour préjudice immatériel dans le but d’évaluer si l’inclusion d’un préjudice de ce type dans la future proposition de règlement se fonde sur une base juridique solide et est nécessaire du point de vue de la personne lésée. Sur la base des informations actuellement disponibles, le Parlement estime que le préjudice immatériel important doit être couvert, ce qui est le cas lorsque la personne lésée a subi une perte économique notable, c’est-à-dire vérifiable.

B.  TEXTE DE LA PROPOSITION DEMANDÉE

Proposition de

RÈGLEMENT DU PARLEMENT EUROPÉEN ET DU CONSEIL

relatif à un régime de responsabilité pour l’exploitation des systèmes d’intelligence artificielle

LE PARLEMENT EUROPÉEN ET LE CONSEIL DE L’UNION EUROPÉENNE,

vu le traité sur le fonctionnement de l’Union européenne, et notamment son article 114,

vu la proposition de la Commission européenne,

après transmission du projet d’acte législatif aux parlements nationaux,

vu l’avis du Comité économique et social européen(18),

statuant conformément à la procédure législative ordinaire(19),

considérant ce qui suit:

(1)  La notion de «responsabilité» joue un rôle important dans notre vie quotidienne à un double titre: d’une part, elle garantit qu’une personne ayant subi un préjudice ou un dommage est en droit de demander réparation à la partie tenue pour responsable de ce préjudice ou de ce dommage, et, d’autre part, elle donne aux personnes des incitations économiques à ne pas causer de préjudice ou de dommage en premier lieu. Tout cadre de responsabilité devrait non seulement s’appliquer à inspirer la confiance dans des produits et services au fonctionnement sûr, fiable et cohérent, dont les technologies numériques émergentes, telles que l’intelligence artificielle (IA), l’internet des objets (IDO) ou la robotique, mais aussi à créer un équilibre permettant de protéger efficacement les victimes potentielles d’un préjudice ou d’un dommage tout en conservant la marge de manœuvre nécessaire au développement de nouveaux produits, services ou technologies.

(2)  C’est plus particulièrement au début de leur cycle de vie que les nouveaux produits et services, après avoir fait l’objet d’essais préliminaires, présentent certains défauts pouvant nuire à leur fonctionnement et, donc aussi à leurs utilisateurs et aux tiers. Les étapes d’essais et d’erreurs sont toutefois, dans le même temps, un facteur essentiel du progrès technique, sans lesquelles la plupart de nos technologies n’existeraient pas. Jusqu’à présent, la rigueur de la législation européenne en matière de sécurité des produits et des règles en matière de responsabilité a permis de parer aux risques associés aux nouveaux produits et services.

(3)  L’avènement de l’IA soulève cependant d’importantes difficultés au regard des cadres de responsabilité existants. Le recours aux systèmes d’intelligence artificielle dans notre vie quotidienne conduira à des situations dans lesquelles, en raison de l’opacité de ces systèmes (effet de «boîte noire») et de la multitude d’acteurs qui interviennent dans leur cycle de vie, il serait extrêmement coûteux, voire impossible, de déterminer qui contrôlait le risque associé à l’utilisation du système d’IA ou quel code ou introduction de données a causé l’opération préjudiciable. Cette difficulté est encore aggravée par la connectivité entre un système d’IA donné et d’autres systèmes d’IA et systèmes hors IA, par sa dépendance à l’égard des données externes, par sa vulnérabilité aux atteintes à la cybersécurité ainsi que par l’autonomie croissante des systèmes d’IA déclenchés par l’apprentissage automatique et les capacités d’apprentissage profond. Outre ces caractéristiques complexes et ces vulnérabilités potentielles, les systèmes d’IA pourraient également être utilisés pour causer un préjudice grave, comme porter atteinte à la dignité humaine et aux valeurs et libertés européennes: traçage des personnes contre leur volonté, introduction de systèmes de crédit social, décisions biaisées en matière d’assurance maladie, d’octroi de crédit, de décisions de justice, de recrutement ou d’emploi ou construction de systèmes d’armes autonomes létales. .

(4)  Il importe de souligner que les avantages du déploiement de systèmes d’IA l’emporteront de loin sur les inconvénients. L’IA permettra de lutter plus efficacement contre le changement climatique, d’améliorer les examens médicaux et les conditions de travail, de mieux intégrer les personnes handicapées et les personnes âgées à la société et de fournir des cours sur mesure à tous types d’étudiants. Pour exploiter tout son potentiel technologique et gagner la confiance du public dans son utilisation, tout en prévenant des scénarios dommageables, la meilleure solution est de fixer des normes éthiques strictes et de prévoir des procédures justes et fiables d’indemnisation.

(5)  Pour contrebalancer la violation des règles de sécurité, il est également nécessaire de mettre en place un régime de responsabilité adéquat. Le régime de responsabilité établi dans le présent règlement doit toutefois tenir compte de tous les intérêts en jeu. Un examen attentif des conséquences d’un nouveau cadre réglementaire sur les petites et moyennes entreprises (PME) et les start-ups, est une condition préalable à toute nouvelle mesure législative. Le rôle essentiel que ces entreprises jouent dans l’économie européenne justifie une approche strictement proportionnée leur permettant de se développer et d’innover. Par ailleurs, les victimes d’un préjudice ou d’un dommage causé par les systèmes d’IA doivent avoir droit à une réparation et à une indemnisation complète du préjudice ou du dommage subi.

(6)  Avant tout changement requis dans le cadre juridique existant, il convient de préciser que les systèmes d’IA n’ont ni la personnalité juridique ni la conscience humaine, et que leur seul rôle est de servir l’humanité. De nombreux systèmes d’IA ne sont pas non plus très différents d’autres technologies, qui reposent parfois sur des logiciels encore plus complexes. En fin de compte, la grande majorité des systèmes d’IA sont utilisés pour effectuer des tâches mineures avec un minimum, voire une absence, de risques pour la société. L’utilisation du terme «prise de décision automatisée» permettrait d’éviter la possible ambiguïté du terme «IA». Ce terme décrit une situation dans laquelle un utilisateur délègue initialement une décision, en tout ou en partie, à une entité, au moyen d’un logiciel ou d’un service. Cette entité utilise à son tour des modèles décisionnels automatisés pour effectuer une action au nom de l’utilisateur ou pour éclairer la décision de l’utilisateur si celui-ci effectue lui-même l’action.

(7)  Il existe cependant aussi des systèmes d’IA qui sont développés et déployés de manière critique et qui se fondent sur des technologies, telles que les réseaux neuronaux et les processus d’apprentissage profond. Leur opacité et leur autonomie pourraient poser de grandes difficultés pour établir le lien entre certaines actions spécifiques et des décisions humaines spécifiques prises dans le cadre de leur conception ou de leur fonctionnement. L’opérateur d’un tel système d’IA pourrait, par exemple, faire valoir que l’activité physique ou virtuelle, le dispositif ou le procédé causant un préjudice ou un dommage se trouvait en dehors de son contrôle, ce préjudice ou ce dommage ayant été causé lors du fonctionnement autonome de son système d’IA. De plus, la simple exploitation d’un système d’IA autonome ne devrait pas suffire pour admettre une action en responsabilité. Il peut dès lors arriver que la responsabilité soit attribuée injustement ou inutilement, ou qu’une personne victime d’un préjudice ou d’un dommage du fait de l’AI ne puisse pas prouver la faute du fabricant, du tiers intervenant ou de l’opérateur et ne puisse donc pas obtenir d’indemnisation.

(8)  Il devrait néanmoins toujours être clair que quiconque crée, entretient, contrôle ou perturbe le système d’IA doit être tenu pour responsable du préjudice ou du dommage causé par l’activité, le dispositif ou le procédé. Ceci découle des principes généraux largement acceptés de la responsabilité en justice, selon lesquels la personne qui crée ou perpétue un risque pour le public devrait être tenue pour responsable si ce risque cause un préjudice ou un dommage et devrait donc faire en sorte de minimiser ce risque en amont ou de le compenser en aval. Par conséquent, la montée en puissance des systèmes d’IA ne nécessite pas une révision complète des règles en matière de responsabilité dans l’ensemble de l’Union. Des ajustements spécifiques apportés à la législation existante et l’introduction de nouvelles dispositions accessibles et ciblées seraient suffisants pour relever les défis liés à l’IA, afin d’éviter la fragmentation réglementaire et d’assurer l’harmonisation dans toute l’Union de la législation en matière de responsabilité civile dans le domaine de l’IA.

(9)  La directive 85/374/CEE (20) (directive sur la responsabilité du fait des produits) s’est avérée depuis trente ans un moyen efficace d’obtenir réparation d’un dommage causé par un produit défectueux. Par conséquent, elle devrait également être utilisée en ce qui concerne les actions en responsabilité civile d’une partie qui subit un préjudice ou un dommage à l’encontre du producteur d’un système d’IA défectueux. Conformément aux principes d’une meilleure réglementation de l’Union, toute adaptation législative nécessaire devrait être examinée lors de la révision nécessaire de cette directive. Le droit actuel des États membres en matière de responsabilité civile pour faute offre, dans la plupart des cas, un niveau de protection suffisant pour les personnes qui subissent un préjudice ou un dommage causé par un tiers perturbateur, étant donné que la perturbation constitue régulièrement une action fondée sur une faute, lorsque le tiers utilise le système d’IA pour causer un préjudice. Par conséquent, le présent règlement devrait se concentrer sur les actions à l’encontre de l’opérateur d’un système d’intelligence artificielle.

(10)  La responsabilité de l’opérateur au titre du présent règlement est fondée sur le fait qu’il exerce un certain contrôle sur un risque associé à l’exploitation et au fonctionnement d’un système d’IA, à l’instar du propriétaire d’une voiture ou d’un animal de compagnie. Plus un système est sophistiqué et autonome, plus l’impact de la définition et de l’influence des algorithmes, par exemple par des mises à jour continues, devient important. Étant donné qu’il y a souvent plus d’une personne qui pourrait, de manière significative, être considérée comme «opérateur» du système d’IA, en vertu du présent règlement, le terme «opérateur» devrait s’entendre comme couvrant à la fois l’opérateur frontal et l’opérateur d’amont. Bien que, de manière générale, l’opérateur frontal apparaisse comme la personne qui décide «principalement» de l’utilisation du système d’IA, l’opérateur d’amont pourrait en fait disposer d’un niveau de contrôle plus élevé sur les risques opérationnels. Si l’opérateur d’amont peut également être considéré comme un «producteur» au sens de l’article 3 de la directive sur la responsabilité du fait des produits, cette dernière directive devrait lui être applicable. S’il n’existe qu’un seul opérateur et que cet opérateur est également le producteur du système d’IA, le présent règlement devrait prévaloir sur la directive sur la responsabilité du fait des produits.

(11)  Si un utilisateur, à savoir la personne qui utilise le système d’IA, participe au fait dommageable, il ne devrait être responsable en vertu du présent règlement que s’il remplit également les conditions requises pour être considéré comme un opérateur. Dans le cas contraire, l’ampleur de la contribution de l’utilisateur au risque, intentionnelle ou par négligence grave, pourrait engager la responsabilité pour faute de l’utilisateur envers le demandeur. Les droits des consommateurs applicables à l’utilisateur devraient rester inchangés.

(12)  Le présent règlement devrait permettre à la personne lésée d’engager des actions en responsabilité tout au long de la chaîne de responsabilité et tout au long du cycle de vie d’un système d’IA. Il devrait également s’appliquer en principe à tous les systèmes d’IA, quel que soit l’endroit où ils sont mis en oeuvre et que la mise en oeuvre soit de nature physique ou virtuelle. La majorité des actions en responsabilité au titre du présent règlement devraient toutefois porter sur des cas de responsabilité civile dans lesquels un système d’IA fonctionne dans un espace public et expose de nombreuses personnes à un risque. Dans cette situation, les personnes lésées n’auront souvent pas connaissance de la mise en oeuvre du système d’IA et n’auront aucune relation contractuelle ou juridique avec l’opérateur. Par conséquent, la mise en œuvre du système d’IA les expose à une situation dans laquelle, en cas de préjudice ou de dommage, elles auraient pour seul recours une action en responsabilité pour faute à l’encontre de l’opérateur du système d’IA, tout en étant confrontées à de graves difficultés pour prouver la faute de la part de l’opérateur.

(13)  Le type de système d’IA sur lequel l’opérateur exerce un contrôle constitue un facteur déterminant. Un système d’IA présentant un risque élevé constitue une menace potentielle beaucoup plus grave pour l’utilisateur ou le public, d’une manière aléatoire et qui dépasse ce qui peut raisonnablement être attendu. Ceci signifie qu’au départ du fonctionnement autonome du système d’IA, la majorité des personnes potentiellement lésées sont inconnues et non identifiables, par exemple les personnes se trouvant dans l’espace public ou dans une maison voisine, par opposition au fonctionnement d’un système d’IA impliquant des personnes spécifiques, qui ont régulièrement consenti à son déploiement au préalable, par exemple une intervention chirurgicale dans un hôpital ou une démonstration commerciale dans un petit magasin. Pour déterminer l’importance du potentiel que présente un système d’IA à haut risque de causer un préjudice ou un dommage, il convient de se fonder sur l’interaction entre l’objectif d’utilisation pour lequel le système d’IA est mis sur le marché, la façon dont le système d’IA est utilisé, la gravité du préjudice ou du dommage potentiel, le degré d’autonomie dans la prise de décision susceptible d’engendrer un préjudice et la probabilité que le risque se réalise. Le degré de gravité devrait être déterminé en fonction de facteurs pertinents tels que l’ampleur du préjudice potentiel résultant de la mise en œuvre du système pour les personnes lésées, y compris les incidences sur les droits fondamentaux, le nombre de personnes lésées, la valeur totale des dommages potentiels ainsi que le préjudice pour la société dans son ensemble. La probabilité que le préjudice ou le dommage survienne devrait être déterminée sur la base de facteurs pertinents tels que le rôle joué par les calculs algorithmiques dans le processus décisionnel, la complexité de la décision et la réversibilité des effets. En fin de compte, le mode d’utilisation devrait dépendre de facteurs pertinents tels que le contexte et le secteur dans lesquels le système d’IA fonctionne, le fait qu’il puisse avoir ou non des effets juridiques ou factuels sur des droits importants juridiquement protégés de la personne lésée, et que les effets puissent ou non être raisonnablement évités.

(14)  Tous les systèmes d’IA présentant un risque élevé devraient être énumérés de façon exhaustive dans une annexe du présent règlement. Compte tenu de l’évolution rapide de la technique et du marché au niveau mondial, ainsi que de l’expertise technique requise pour une révision adéquate des systèmes d’IA, il y a lieu de déléguer à la Commission le pouvoir d’adopter des actes délégués conformément à l’article 290 du traité sur le fonctionnement de l’Union européenne en vue de modifier le présent règlement en ce qui concerne les types de systèmes d’IA qui présentent un risque élevé et les secteurs critiques dans lesquels ils sont utilisés. Sur la base des définitions et dispositions prévues par le présent règlement, la Commission devrait réexaminer l’annexe sans retard indû, mais au moins tous les six mois et, si nécessaire, la modifier au moyen d’actes délégués. L’évaluation par la Commission de la question de savoir si un système d’IA présente un risque élevé devrait commencer en même temps que l’évaluation de la sécurité des produits, afin de prévenir une situation dans laquelle un système d’IA à haut risque serait déjà approuvé pour le marché mais ne serait pas encore classé comme étant à haut risque et fonctionnerait donc sans couverture d’assurance obligatoire. Pour donner aux entreprises et aux organismes de recherche une sécurité suffisante en matière de planification et d’investissement, il convient de ne procéder à des changements dans les secteurs critiques que tous les douze mois. Les opérateurs devraient être invités à informer la Commission qu’ils travaillent à l’élaboration d’une technologie, de produits ou de services nouveaux qui relèvent de l’un des secteurs critiques existants prévus à l’annexe et qui pourraient ensuite être considérés comme un système d’IA à haut risque.

(15)  Il importe particulièrement que la Commission procède aux consultations appropriées de l’ensemble des parties prenantes concernées durant son travail préparatoire, y compris au niveau des experts, et que ces consultations soient menées conformément aux principes définis dans l’accord interinstitutionnel du 13 avril 2016 «Mieux légiférer»(21). Un comité permanent, dénommé «comité technique pour les systèmes d’IA à haut risque» (CTIAR), devrait apporter son appui à la Commission dans son réexamen régulier au titre du présent règlement. Ce comité permanent devrait comprendre des représentants des États membres ainsi qu’une sélection équilibrée des parties prenantes, y compris des organisations de consommateurs, des associations représentant les personnes lésées, des représentants des entreprises de différents secteurs et tailles, ainsi que des chercheurs et des scientifiques. En particulier, pour assurer leur égale participation à la préparation des actes délégués, le Parlement européen et le Conseil reçoivent tous les documents au même moment que les experts des États membres, et leurs experts ont systématiquement accès aux réunions des groupes d’experts de la Commission ainsi que du CTIAR traitant de la préparation des actes délégués.

(16)  Le présent règlement devrait couvrir le préjudice ou le dommage causé à la vie, à la santé, à l’intégrité physique, aux biens et le préjudice immatériel important entraînant une perte économique vérifiable supérieure à un certain seuil, harmonisé dans le droit de l’Union en matière de responsabilité, qui concilie l’accès à la justice des personnes lésées et les intérêts d’autres parties concernées. La Commission devrait réévaluer et aligner les seuils de dommages et intérêts dans le droit de l’Union. La notion de «préjudice immatériel important» devrait s’entendre au sens d’un préjudice en raison duquel la personne lésée subit un tort considérable, une atteinte objective et démontrable à ses intérêts personnels et une perte économique calculée en tenant compte, par exemple, des chiffres annuels moyens des revenus passés et d’autres circonstances pertinentes. Le présent règlement devrait également déterminer le montant et l’étendue de l’indemnisation, ainsi que le délai de prescription pour l’introduction des actions en responsabilité. Le présent règlement devrait fixer un plafond d’indemnisation nettement inférieur à celui prévu par la directive sur la responsabilité du fait des produits, étant donné qu’il ne fait référence qu’au préjudice ou dommage d’une seule personne, résultant d’une occurrence unique dans l’exploitation d’un système d’IA, tandis que le premier renvoie à un certain nombre de produits, voire à une ligne de produits présentant le même défaut.

(17)  L’ensemble des activités physiques ou virtuelles, des dispositifs ou procédés gérés par des systèmes d’IA qui ne figurent pas dans la liste des systèmes d’IA à haut risque établie dans l’annexe du présent règlement devraient pour leur part rester dans le champ de la responsabilité pour faute, sauf si des dispositions plus strictes sont en vigueur en droit national et dans les législations nationales sur la protection des consommateurs. Le droit national des États membres, y compris toute jurisprudence en la matière, concernant le montant et l’étendue de l’indemnisation ainsi que le délai de prescription devraient continuer à s’appliquer. Une personne qui subit un préjudice ou un dommage causé par un système d’IA qui ne figure pas dans la liste des systèmes d’IA à haut risque devrait toutefois bénéficier de la présomption de faute de l’opérateur.

(18)  La diligence qui peut être attendue de la part d’un opérateur doit être proportionnée i) à la nature du système d’IA; ii) au droit juridiquement protégé susceptible d’être lésé; iii) au préjudice ou dommage potentiel que le système d’IA pourrait causer; et iv) à la probabilité d’un tel dommage. À cet égard, il convient de tenir compte du fait que l’opérateur pourrait avoir une connaissance limitée des algorithmes et des données utilisés dans le système d’IA. Il convient de présumer que l’opérateur a fait preuve de la diligence qui peut raisonnablement être attendue de lui dans la sélection d’un système d’IA approprié si l’opérateur a sélectionné un système d’IA qui a été certifié au titre d’un système semblable au système de certification volontaire envisagé par la Commission(22). Il convient de présumer que l’opérateur a fait preuve de la diligence qui peut raisonnablement être attendue de lui durant l’exploitation du système d’IA si l’opérateur peut prouver qu’il a effectivement et régulièrement contrôlé le système d’IA durant l’exploitation et qu’il a notifié au fabricant les irrégularités potentielles au cours de l’exploitation. Il convient de présumer que l’opérateur a fait preuve de la diligence qui peut raisonnablement être attendue de lui en ce qui concerne le maintien de la fiabilité opérationnelle si l’opérateur a installé toutes les mises à jour disponibles fournies par le producteur du système d’IA. Étant donné que le niveau de sophistication des opérateurs peut varier selon qu’il s’agit de simples consommateurs ou de professionnels, les obligations de diligence devraient être adaptées en conséquence.

(19)  Les producteurs devraient être tenus de collaborer à la fois avec l’opérateur pour que celui-ci puisse prouver qu’il n’était pas en défaut, et avec la personne lésée pour qu’elle puisse prouver l’existence d’une faute, y compris en fournissant des informations bien documentées. En outre, les producteurs établis tant à l’intérieur qu’à l’extérieur de l’Union devraient avoir l’obligation de désigner un mandataire en matière de responsabilité du fait des systèmes d’IA au sein de l’Union en tant que point de contact pour répondre à toutes les demandes des opérateurs, à l’instar des délégués à la protection de données visés à l’article 37 du règlement (UE) 2016/679 du Parlement européen et du Conseil(23), du mandataire du constructeur visé à l’article 3, paragraphe 41, et à l’article 13, paragraphe 4, du règlement (UE) 2018/858 du Parlement européen et du Conseil(24) ou du mandataire visé à l’article 4, paragraphe 2, et à l’article 5 du règlement (UE) 2019/1020 du Parlement européen et du Conseil(25).

(20)  Le législateur doit prendre en considération les risques de responsabilité liés aux systèmes d’IA tout au long de leur cycle de vie, du développement à l’utilisation et à la fin de vie, y compris la gestion des déchets et du recyclage. L’intégration de systèmes d’IA dans un produit ou un service représente un risque financier pour les entreprises et aura, par conséquent, une forte incidence sur la capacité et les perspectives des PME ainsi que des start-ups en matière d’assurance et de financement de leurs projets de recherche et développement fondés sur les nouvelles technologies. L’objectif de la responsabilité est donc non seulement de préserver d’importants droits juridiquement protégés des personnes, mais aussi de déterminer si les entreprises, en particulier les PME et les start-ups, sont en mesure de lever des capitaux, d’innover, de faire de la recherche et, en définitive, d’offrir de nouveaux produits et services, ainsi que de déterminer si les consommateurs ont confiance en ces produits et services et s’ils sont disposés à les utiliser malgré les risques potentiels et les actions en justice qui sont intentées en ce qui concerne ces produits et services.

(21)  L’assurance peut contribuer à garantir que les victimes sont effectivement indemnisées et à mutualiser les risques de tous les assurés. L’un des facteurs sur lesquels les compagnies d’assurance fondent leur offre de produits et services d’assurance est l’évaluation des risques, sur la base de l’accès à des données historiques suffisantes en matière de sinistres. L’absence d’accès à des données de haute qualité ou le nombre insuffisant de données pourrait expliquer pourquoi il est difficile de créer d’emblée des produits d’assurance pour les technologies nouvelles et émergentes. Toutefois, un meilleur accès aux données générées par les nouvelles technologies et l’optimisation de leur utilisation, associés à l’obligation de fournir des informations bien documentées, renforceraient la capacité des assureurs à modéliser les risques émergents et à favoriser l’émergence d’une couverture plus innovante.

(22)  Étant donné que les données historiques relatives aux sinistres font défaut, il convient d’examiner comment et dans quelles conditions la responsabilité est assurable, en vue d’établir un lien entre l’assurance et le produit et non avec la personne responsable. Il existe d’ores et déjà des produits d’assurance qui sont développés domaine par domaine et couverture par couverture à mesure que la technologie évolue. De nombreux assureurs se spécialisent dans certains segments du marché (par exemple, les PME) ou dans la couverture de certains types de produits (par exemple, les appareils électriques): l’assuré pourra dès lors généralement disposer d’un produit d’assurance. Il est toutefois difficile d’envisager une solution uniforme et le marché de l’assurance aura besoin de temps pour s’adapter. Il convient que la Commission travaille en étroite collaboration avec le marché de l’assurance pour développer des produits d’assurance innovants capables de combler le vide en matière d’assurance. Dans les cas exceptionnels, par exemple en cas d’incident entraînant des dommages collectifs, où l’indemnisation dépasse largement les plafonds fixés dans le présent règlement, il convient d’encourager les États membres à mettre en place, pour une période limitée, un fonds d’indemnisation spécial qui réponde à ces besoins spécifiques. Des fonds d’indemnisation spéciaux pourraient également être mis en place pour couvrir les cas exceptionnels dans lesquels un système d’IA, qui ne figure pas encore dans la liste des systèmes d’IA à haut risque et qui n’est donc pas encore assuré, cause un préjudice ou un dommage. Afin de garantir la sécurité juridique et de satisfaire à l’obligation d’informer toutes les personnes potentiellement lésées, l’existence du fonds d’indemnisation spécial ainsi que les conditions pour en bénéficier devraient être rendues publiques d’une manière claire et complète.

(23)  Il est de la plus haute importance que toute modification future du présent règlement aille de pair avec la révision nécessaire de la directive sur la responsabilité du fait des produits, afin de la réviser de manière exhaustive et cohérente et de garantir les droits et obligations de toutes les parties concernées tout au long de la chaîne de responsabilité. L’introduction d’un nouveau régime de responsabilité pour l’opérateur des systèmes d’IA requiert une coordination étroite des dispositions du présent règlement et de la révision de la directive en matière de responsabilité du fait des produits défectueux, sur le plan tant du fond que de la démarche, de manière à ce qu’elles forment ensemble un cadre de responsabilité cohérent pour les systèmes d’IA, en assurant un équilibre entre les intérêts du producteur, de l’opérateur, du consommateur et de la personne lésée en ce qui concerne le risque en matière de responsabilité et les modalités d’indemnisation pertinentes. Il est donc nécessaire d’adapter et de rationaliser les définitions des termes «système d’IA», «opérateur frontal» et «opérateur d’amont», «producteur», «défaut», «produit» et «service» dans l’ensemble des actes législatifs, et ces deux processus devraient être envisagés en parallèle.

(24)  Les objectifs du présent règlement, à savoir créer une approche unifiée et tournée vers l’avenir au niveau de l’Union, qui fixe des normes européennes communes pour les citoyens et les entreprises européens afin de garantir la cohérence des droits et de la sécurité juridique dans l’ensemble de l’Union et d’éviter la fragmentation du marché unique numérique, laquelle entraverait la réalisation de l’objectif de préserver la souveraineté numérique, de promouvoir l’innovation numérique en Europe et d’assurer un niveau élevé de protection des droits des citoyens et des consommateurs,, requièrent que les régimes de responsabilité applicables aux systèmes d’IA soient pleinement harmonisés. Ces objectifs ne peuvent pas être atteints de manière suffisante par les États membres en raison de la rapidité de l’évolution technologique, du développement ainsi que de l’utilisation transfrontaliers des systèmes d’IA et, en définitive, des démarches législatives contradictoires dans l’Union, mais peuvent, en raison de l’ampleur ou des effets de l’action, l’être mieux au niveau de l’Union. L’Union peut donc prendre des mesures conformément au principe de subsidiarité consacré à l’article 5 du traité sur l’Union européenne. Conformément au principe de proportionnalité énoncé audit article, le présent règlement n’excède pas ce qui est nécessaire pour atteindre ces objectifs,

ONT ADOPTÉ LE PRÉSENT RÈGLEMENT:

Chapitre I

Dispositions générales

Article 1

Objet

Le présent règlement définit les règles applicables aux actions en responsabilité civile des personnes physiques et morales engagées à l’encontre des opérateurs des systèmes d’IA.

Article 2

Champ d’application

1.  Le présent règlement s’applique sur le territoire de l’Union lorsqu’une activité, un dispositif ou un procédé physique ou virtuel piloté par un système d’IA a causé un préjudice ou un dommage sous la forme d’une atteinte à la vie, à la santé ou à l’intégrité physique d’une personne physique ou aux biens d’une personne physique ou morale, ou a causé un préjudice immatériel important entraînant une perte économique vérifiable.

2.  Tout accord conclu entre l’opérateur d’un système d’IA et une personne physique ou morale qui subit un préjudice ou un dommage en raison du système d’IA, qui contourne ou limite les droits et obligations fixés par le présent règlement, conclu avant ou après la survenue du préjudice ou du dommage, est réputé nul et non avenu en ce qui concerne les droits et obligations fixés par le présent règlement.

3.  Le présent règlement est sans préjudice de toute autre action en responsabilité résultant des relations contractuelles ainsi que des réglementations en matière de responsabilité du fait des produits, de protection des consommateurs, de lutte contre la discrimination et de protection des travailleurs et de l’environnement, entre l’opérateur et la personne physique ou morale qui a subi un préjudice ou un dommage en raison du système d’IA et qui peut être intentée contre l’opérateur au titre du droit de l’Union ou du droit national.

Article 3

Définitions

Aux fins du présent règlement, on entend par:

a)  «système d’IA», un système qui est soit fondé sur des logiciels, soit intégré dans des dispositifs matériels, et qui affiche un comportement simulant l’intelligence, notamment en collectant et traitant des données, en analysant et en interprétant son environnement et en agissant, avec un certain degré d’autonomie, pour atteindre des objectifs spécifiques;

b)  «autonome», un système d’IA qui fonctionne en interprétant certaines données entrées et en utilisant un ensemble d’instructions prédéterminées, sans se limiter à de telles instructions, bien que le comportement du système vise à atteindre l’objectif qui lui a été assigné et qu’il soit soumis aux contraintes découlant de cet objectif et d’autres choix de conception posés par son développeur;

c)  «haut risque», un risque important, dans un système d’IA opérant de manière autonome, de causer un préjudice ou un dommage à une ou plusieurs personnes d’une manière aléatoire et qui va au-delà de ce à quoi l’on peut raisonnablement s’attendre; l’importance de ce risque dépend de l’interaction entre la gravité de l’éventuel préjudice ou dommage, le degré d’autonomie de décision, la probabilité que le risque se concrétise, la manière dont le système d’IA est utilisé et le contexte de l’utilisation;

d)  «opérateur», à la fois l’opérateur frontal et l’opérateur d’amont, dans la mesure où la responsabilité de ce dernier n’est pas déjà couverte par la directive 85/374/CEE;

e)  «opérateur frontal», toute personne physique ou morale qui exerce un certain contrôle sur un risque associé à l’exploitations et au fonctionnement du système d’IA et tire profit de son exploitation;

f)  «opérateur d’amont», toute personne physique ou morale qui, de manière continue, définit les caractéristiques de la technologie et fournit des données ainsi qu’un service de soutien en amont essentiel et exerce donc également un certain contrôle sur le risque lié à l’exploitation et au fonctionnement du système d’IA;

g)  «contrôle», toute action d’un opérateur qui influence l’exploitation d’un système d’IA et, partant, la mesure dans laquelle l’opérateur expose des tiers aux risques potentiels associés à l’exploitation et au fonctionnement du système d’IA; ces actions peuvent avoir un effet sur l’exploitation à tous les stades, en déterminant les entrées, les sorties ou les résultats, ou peuvent modifier des fonctions ou des procédés spécifiques au sein du système d’IA; la mesure dans laquelle ces aspects de l’exploitation du système d’IA sont déterminés par l’action dépend du niveau d’influence exercé par l’opérateur sur le risque lié à l’exploitation et au fonctionnement du système d’IA;

h)  «personne lésée», toute personne qui subit un préjudice ou un dommage causé par une activité, un dispositif ou un procédé, physique ou virtuel, piloté par un système d’IA, et qui n’en est pas l’opérateur;

i)  «préjudice ou dommage», un effet négatif qui porte atteinte à la vie, à la santé ou à l’intégrité physique d’une personne physique, ou aux biens d’une personne physique ou morale ou qui occasionne un préjudice immatériel important entraînant une perte économique vérifiable;

j)  «producteur», le producteur tel que défini à l’article 3 de la directive 85/374/CEE.

Chapitre II

Systèmes d’IA à haut risque

Article 4

Responsabilité objective du fait des systèmes d’IA à haut risque

1.  L’opérateur d’un système d’IA à haut risque est objectivement responsable de tout préjudice ou de tout dommage causé par une activité, un dispositif ou un procédé physique ou virtuel piloté par un système d’IA.

2.  Tous les systèmes d’IA à haut risque ainsi que tous les secteurs critiques dans lesquels ils sont utilisés sont énumérés dans l’annexe du présent règlement. La Commission est habilitée à adopter des actes délégués, conformément à l’article 13, afin de modifier cette liste exhaustive:

a)  en incluant de nouveaux types de systèmes d’IA à haut risque et les secteurs critiques dans lesquels ils sont déployés;

b)  en supprimant les types de systèmes d’IA qui ne peuvent plus être considérés comme présentant un haut risque; et/ou

c)  en modifiant les secteurs critiques pour les systèmes d’IA à haut risque existants.

Tout acte délégué modifiant l’annexe entre en vigueur six mois après son adoption. Lorsqu’elle détermine les nouveaux systèmes d’IA à haut risque et/ou secteurs critiques à insérer dans l’annexe par voie d’actes délégués, la Commission tient pleinement compte des critères énoncés dans le présent règlement, en particulier ceux qui figurent à l’article 3, point c).

3.  Les opérateurs de systèmes d’IA à haut risque ne peuvent s’exonérer eux-mêmes de leur responsabilité en faisant valoir qu’ils ont agi avec la diligence requise ou que le préjudice ou le dommage a été causé par une activité, un dispositif ou un procédé autonome piloté par leur système d’IA. Les opérateurs ne sont pas tenus pour responsables si le préjudice ou le dommage a été causé par un cas de force majeure.

4.  L’opérateur frontal d’un système d’IA à haut risque veille à ce que l’exploitation de ce système d’IA soit couverte par une assurance de responsabilité civile qui est adéquate par rapport aux montants et à l’étendue de l’indemnisation visés aux articles 5 et 6 du présent règlement. L’opérateur d’amont veille à ce que ses services soient couverts par une assurance de responsabilité civile professionnelle ou une assurance de responsabilité du fait des produits qui est adéquate par rapport aux montants et à l’étendue de l’indemnisation visés aux articles 5 et 6 du présent règlement. Si les régimes d’assurance obligatoire de l’opérateur frontal ou de l’opérateur d’amont déjà en vigueur en vertu d’une autre disposition du droit de l’Union ou d’une autre disposition du droit national, ou les fonds d’assurance d’entreprise volontaire existants sont considérés comme couvrant l’exploitation du système d’IA, l’obligation de souscrire, conformément au présent règlement, une assurance pour le système d’IA ou le service fourni est réputée remplie, pour autant que l’assurance obligatoire existante ou les fonds d’assurance d’entreprise volontaire en question couvrent les montants et l’étendue de l’indemnisation visés aux articles 5 et 6 du présent règlement.

5.  Le présent règlement prévaut sur les régimes nationaux de responsabilité en cas de divergences dans la classification des différents systèmes d’IA en matière de responsabilité objective.

Article 5

Montant de l’indemnisation

1.   L’opérateur d’un système d’IA à haut risque qui a été tenu pour responsable d’un préjudice ou d’un dommage au titre du présent règlement procède à une indemnisation:

a)  à concurrence d’un montant maximal de deux millions d’euros en cas de décès ou en cas d’atteinte à la santé ou à l’intégrité physique d’une personne lésée, résultant de l’exploitation d’un système d’IA à haut risque;

b)  à concurrence d’un montant maximal d’un million d’euros en cas de préjudice immatériel important entraînant une perte économique vérifiable, ou en cas de dommage causé aux biens, y compris lorsque plusieurs biens d’une personne lésée ont subi un dommage résultant d’une occurrence unique de l’exploitation d’un système unique d’IA à haut risque; lorsque la personne lésée peut également faire valoir la responsabilité contractuelle de l’opérateur, aucune indemnisation n’est versée au titre du présent règlement si le montant total du dommage aux biens ou du préjudice immatériel important est d’une valeur inférieure à [500 EUR](26).

2.  Lorsque l’indemnisation cumulée qui doit être versée à plusieurs personnes ayant subi un préjudice ou un dommage causé par la même exploitation d’un même système d’IA à haut risque dépasse les montants totaux maximaux prévus au paragraphe 1, les montants qui doivent être versés à chaque personne sont réduits au prorata, de sorte que l’indemnisation cumulée ne dépasse pas les montants maximaux prévus au paragraphe 1.

Article 6

Étendue de l’indemnisation

1.  Dans les limites du montant fixé à l’article 5, paragraphe 1, point a), les indemnités dues par l’opérateur tenu pour responsable en cas d’atteinte physique ayant entraîné la mort de la personne lésée sont calculées sur la base du coût des traitements médicaux que celle-ci a dû suivre jusqu’à son décès et du préjudice financier subi avant le décès du fait de la perte ou de la réduction de ses revenus financiers ou de l’augmentation de ses besoins pendant la période où elle a subi un préjudice préalable au décès. L’opérateur tenu pour responsable rembourse en outre les frais funéraires de la personne lésée décédée à la partie qui doit assumer ces frais.

Si, au moment de l’incident ayant entraîné son décès, la personne lésée était en relation avec un tiers envers lequel elle avait une obligation légale d’entretien, l’opérateur tenu responsable indemnise ce tiers en lui versant une pension équivalant à celle que la personne lésée aurait été tenue de lui verser, pour une durée correspondant à l’espérance de vie moyenne d’une personne de cet âge et de cet état général. L’opérateur indemnise également le tiers si, au moment de l’incident ayant entraîné le décès, le tiers avait été conçu, mais n’était pas encore né.

2.  Dans les limites du montant fixé à l’article 5, paragraphe 1, point b), les indemnités dues par l’opérateur tenu pour responsable en cas d’atteinte à la santé ou à l’intégrité physique de la personne lésée comprennent le remboursement des frais des traitements médicaux y afférents ainsi que le paiement de tout préjudice financier subi par la personne lésée du fait de la perte temporaire, de la réduction ou de la perte définitive de ses revenus financiers ou de l’augmentation de ses besoins, certifiée par un médecin.

Article 7

Délai de prescription

1.  Les actions en responsabilité civile intentées en vertu de l’article 4, paragraphe 1, fondées sur une atteinte à la vie, à la santé ou à l’intégrité physique, sont soumises à un délai de prescription spécial de 30 ans à compter de la date à laquelle le préjudice est survenu.

2.  Les actions en responsabilité civile intentées en vertu de l’article 4, paragraphe 1, fondées sur des dommages causés aux biens ou sur un préjudice immatériel important entraînant une perte économique vérifiable sont soumises à un délai de prescription spécial de:

a)  10 ans à compter de la date à laquelle le dommage a été causé aux biens ou à laquelle la perte économique vérifiable résultant du préjudice immatériel important est survenue, respectivement, ou

b)  30 ans à compter de la date à laquelle est intervenue l’exploitation du système d’IA à haut risque ayant occasionné ultérieurement le dommage aux biens ou le préjudice immatériel important.

Le plus court des deux délais visés au premier alinéa s’applique.

3.  Le présent article est sans préjudice du droit national régissant la suspension ou l’interruption des délais de prescription.

Chapitre III

Autres systèmes d’IA

Article 8

Responsabilité pour faute du fait d’autres systèmes d’IA

1.  L’opérateur d’un système d’IA qui n’est pas défini comme un système d’IA à haut risque au sens de l’article 3, point c), et de l’article 4, paragraphe 2, et qui ne figure donc pas dans l’annexe du présent règlement, est soumis au régime de la responsabilité pour faute en cas de préjudice ou dommage causé par une activité, un dispositif ou un procédé physique ou virtuel piloté par le système d’IA.

2.  L’opérateur n’est pas responsable s’il peut prouver que le préjudice ou le dommage a été causé sans qu’il y ait eu faute de sa part, en se fondant sur l’un des motifs suivants:

a)  le système d’IA a été activé à son insu alors que toutes les mesures raisonnables et nécessaires pour éviter une telle activation en dehors du contrôle de l’opérateur ont été prises, ou

b)  toute la diligence requise a été déployée en exécutant toutes les actions suivantes: en sélectionnant un système d’IA adapté au regard des tâches à accomplir et des capacités requises, en mettant correctement en service le système d’IA, en contrôlant ses activités et en maintenant la fiabilité opérationnelle par l’installation régulière de toutes les mises à jour disponibles.

L’opérateur ne peut échapper à sa responsabilité en faisant valoir que le préjudice ou le dommage a été causé par une activité, un dispositif ou un procédé autonome piloté par son système d’IA. L’opérateur ne peut être tenu pour responsable si le préjudice ou le dommage a été causé par un cas de force majeure.

3.  Lorsque le préjudice ou le dommage a été causé par un tiers qui a perturbé le système d’IA en modifiant son fonctionnement ou ses effets, l’opérateur est néanmoins tenu de verser des indemnités si ce tiers est introuvable ou insolvable.

4.  À la demande de l’opérateur ou de la personne lésée, le producteur d’un système d’IA est tenu de coopérer avec eux et de leur fournir des informations dans la mesure justifiée par l’importance de l’action, afin de permettre d’établir les responsabilités.

Article 9

Dispositions nationales en matière d’indemnisation et de prescription

En ce qui concerne les délais de prescription ainsi que les montants et l’étendue de l’indemnisation, les actions en responsabilité civile intentées en vertu de l’article 8, paragraphe 1, sont soumises à la législation de l’État membre dans lequel le préjudice ou le dommage est survenu.

Chapitre IV

Répartition de la responsabilité

Article 10

Faute concurrente

1.  Si le préjudice ou le dommage est causé à la fois par une activité, un dispositif ou un procédé physique ou virtuel piloté par un système d’IA et par les actions de la personne lésée ou d’une personne dont la personne lésée est responsable, l’étendue de la responsabilité de l’opérateur prévue par le présent règlement est réduite en conséquence. L’opérateur n’est pas responsable si la personne lésée ou la personne dont elle est responsable est seule responsable du préjudice ou du dommage occasionné.

2.  Un opérateur tenu responsable peut utiliser les données produites par le système d’IA pour prouver une faute concurrente de la part de la personne lésée, conformément au règlement (UE) 2016/679 et aux autres actes législatifs applicables en matière de protection des données. La personne lésée peut également utiliser ces données comme moyens de preuve ou d’éclaircissement dans l’action en responsabilité.

Article 11

Responsabilité solidaire

S’il y a plus d’un opérateur pour un système d’IA, ils sont conjointement et solidairement responsables. Si un opérateur frontal est également le producteur du système d’IA, le présent règlement prévaut sur la directive sur la responsabilité du fait des produits. Si l’opérateur d’amont peut également être considéré comme un producteur au sens de l’article 3 de la directive sur la responsabilité du fait des produits, cette dernière directive devrait lui être applicable. S’il n’existe qu’un seul opérateur et que cet opérateur est également le producteur du système d’IA, le présent règlement devrait prévaloir sur la directive sur la responsabilité du fait des produits.

Article 12

Recours en indemnisation

1.  L’opérateur ne peut engager une action récursoire que si la personne lésée a reçu intégralement toute indemnisation à laquelle elle a droit au titre du présent règlement.

2.  Dans le cas où l’opérateur est tenu conjointement et solidairement responsable avec d’autres opérateurs à l’égard d’une personne lésée et a intégralement indemnisé cette personne, conformément à l’article 4, paragraphe 1, ou à l’article 8, paragraphe 1, cet opérateur peut récupérer auprès des autres opérateurs la part des indemnités qui excède sa responsabilité proportionnelle.

Les parts de responsabilité sont déterminées au prorata du degré de contrôle exercé par les différents opérateurs sur le risque lié à l’exploitation et au fonctionnement du système d’IA. Si la contribution imputable à un opérateur conjointement et solidairement responsable ne peut être récupérée, le montant manquant est pris en charge par les autres opérateurs. Dans la mesure où un opérateur conjointement et solidairement responsable indemnise la personne lésée et réclame aux autres opérateurs responsables un ajustement des avances versées, il subroge la personne lésée dans la demande d’indemnisation à l’égard des autres opérateurs. Aucune subrogation ne peut se faire au détriment de la demande d’indemnisation initiale.

3.  Dans le cas où l’opérateur d’un système d’IA défectueux indemnise intégralement la personne lésée pour le préjudice ou le dommage occasionné, conformément à l’article 4, paragraphe 1, ou à l’article 8, paragraphe 1, du présent règlement, il peut engager une action en réparation contre le producteur du système d’IA défectueux en vertu de la directive 85/374/CEE et des dispositions nationales en matière de responsabilité du fait des produits défectueux.

4.  Dans le cas où l’assureur de l’opérateur indemnise la personne lésée pour un préjudice ou un dommage occasionné conformément à l’article 4, paragraphe 1, ou à l’article 8, paragraphe 1, l’assureur de l’opérateur subroge la personne lésée dans toute action en responsabilité civile contre une autre personne pour le même dommage à concurrence du montant de l’indemnisation versée par l’assureur de l’opérateur à la personne lésée.

Chapitre V

Dispositions finales

Article 13

Exercice de la délégation

1.  Le pouvoir d’adopter des actes délégués conféré à la Commission est soumis aux conditions fixées au présent article.

2.  Le pouvoir d’adopter des actes délégués visé à l’article 4, paragraphe 2, est conféré à la Commission pour une période de cinq ans à compter du [date d’application du présent règlement].

3.  La délégation de pouvoir visée à l’article 4, paragraphe 2, peut être révoquée à tout moment par le Parlement européen ou le Conseil. La décision de révocation met fin à la délégation de pouvoir qui y est précisée. La révocation prend effet le jour suivant celui de la publication de ladite décision au Journal officiel de l’Union européenne ou à une date ultérieure qui est précisée dans ladite décision. Elle ne porte pas atteinte à la validité des actes délégués déjà en vigueur.

4.  Avant l’adoption d’un acte délégué, la Commission consulte le comité technique permanent pour les systèmes d’IA à haut risque (CTIAR), conformément aux principes définis dans l’accord interinstitutionnel du 13 avril 2016 «Mieux légiférer».

5.  Aussitôt qu’elle adopte un acte délégué, la Commission le notifie au Parlement européen et au Conseil simultanément.

6.  Tout acte délégué adopté en vertu de l’article 4, paragraphe 2, n’entre en vigueur que si le Parlement européen ou le Conseil n’a pas exprimé d’objections dans un délai de deux mois à compter de la notification de cet acte au Parlement européen et au Conseil ou si, avant l’expiration de ce délai, le Parlement européen et le Conseil ont tous deux informé la Commission de leur intention de ne pas exprimer d’objections. Ce délai est prolongé de deux mois à l’initiative du Parlement européen ou du Conseil.

Article 14

Réexamen

Au plus tard le 1er janvier 202X [3 ans après la date d’application du présent règlement], puis tous les trois ans, la Commission présente au Parlement européen, au Conseil et au Comité économique et social européen un rapport détaillé réexaminant ce règlement à la lumière des évolutions de l’intelligence artificielle.

Lors de l’élaboration du rapport visé au premier alinéa, la Commission demande aux États membres de fournir des informations pertinentes sur la jurisprudence, les transactions judiciaires et les statistiques d’accidents, telles que le nombre d’accidents enregistrés, les dommages causés, les applications d’IA concernées ou encore les indemnités versées par les compagnies d’assurance, ainsi qu’une évaluation du nombre d’actions intentées par les personnes lésées, individuellement ou collectivement, et des délais dans lesquels ces actions sont traitées au tribunal.

La Commission accompagne son rapport, le cas échéant, de propositions législatives destinées à remédier aux lacunes mises en lumière par le rapport.

Article 15

Entrée en vigueur

Le présent règlement entre en vigueur le vingtième jour suivant celui de sa publication au Journal officiel de l’Union européenne.

Il est applicable à partir du 1er janvier 202X.

Le présent règlement est obligatoire dans tous ses éléments et directement applicable dans tout État membre.

Fait à ..., le

Par le Parlement européen Par le Conseil

Le président Le président

ANNEXE

[...]

(1) JO L 210 du 7.8.1985, p. 29.
(2) JO L 149 du 11.6.2005, p. 22.
(3) JO L 304 du 22.11.2011, p. 64.
(4) JO L 117 du 5.5.2017, p. 1.
(5) JO L 252 du 8.10.2018, p. 1.
(6) JO L 136 du 22.5.2019, p. 1.
(7) JO L 123 du 12.5.2016, p. 1.
(8) JO C 252 du 18.7.2018, p. 239.
(9) JO C 307 du 30.8.2018, p. 163.
(10) JO C 433 du 23.12.2019, p. 86.
(11) Textes adoptés de cette date, P8_TA(2019)0081.
(12) Textes adoptés de cette date, P9_TA(2020)0032.
(13)https://www.europarl.europa.eu/thinktank/en/document.html?reference= EPRS_STU(2020)654178
(14) https://www.europarl.europa.eu/RegData/etudes/STUD/2016/563501/ EPRS_STU(2016)563501(ANN)_EN.pdf
(15) https://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/ IPOL_STU(2016)571379_EN.pdf
(16) JO L 11 du 15.1.2002, p. 4.
(17) JO L 263 du 7.10.2009, p. 11.
(18) JO ...
(19) JO ...
(20) Directive 85/374/CEE du Conseil du 25 juillet 1985 relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux (JO L 210 du 7.8.1985, p. 29).
(21) JO L 123 du 12.5.2016, p. 1.
(22) Voir p. 24 du livre blanc de la Commission européenne du 19 février 2020 intitulé «Intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance» (COM(2020)0065).
(23) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données) (JO L 119 du 4.5.2016, p. 1).
(24) Règlement (UE) 2018/858 du Parlement européen et du Conseil du 30 mai 2018 relatif à la réception et à la surveillance du marché des véhicules à moteur et de leurs remorques, ainsi que des systèmes, composants et entités techniques distinctes destinés à ces véhicules, modifiant les règlements (CE) nº 715/2007 et (CE) nº 595/2009 et abrogeant la directive 2007/46/CE (JO L 151 du 14.6.2018, p. 1).
(25) Règlement (UE) 2019/1020 du Parlement européen et du Conseil du 20 juin 2019 sur la surveillance du marché et la conformité des produits, et modifiant la directive 2004/42/CE et les règlements (CE) nº 765/2008 et (UE) nº 305/2011 (JO L 169 du 25.6.2019, p. 1).
(26) Montant à réviser par la Commission comme indiqué au paragraphe 19 de la résolution.


Les droits de propriété intellectuelle pour le développement des technologies liées à l’intelligence artificielle
PDF 153kWORD 53k
Résolution du Parlement européen du 20 octobre 2020 sur les droits de propriété intellectuelle pour le développement des technologies liées à l’intelligence artificielle (2020/2015(INI))
P9_TA(2020)0277A9-0176/2020

Le Parlement européen,

–  vu le traité sur le fonctionnement de l’Union européenne (traité FUE), et notamment ses articles 4, 16, 26, 114 et 118,

–  vu la convention de Berne pour la protection des œuvres littéraires et artistiques,

–  vu l’accord interinstitutionnel «Mieux légiférer» du 13 avril 2016(1) et les lignes directrices de la Commission pour une meilleure réglementation (COM(2015)0215),

–  vu le traité de l’Organisation mondiale de la propriété intellectuelle (OMPI) sur le droit d’auteur, le traité de l’OMPI sur les interprétations et exécutions et les phonogrammes et le document de synthèse révisé de l’OMPI du 29 mai 2020 sur les politiques en matière de propriété intellectuelle et l’intelligence artificielle,

–  vu la directive (UE) 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE(2),

–  vu la directive 96/9/CE du Parlement européen et du Conseil du 11 mars 1996 concernant la protection juridique des bases de données(3),

–  vu la directive 2009/24/CE du Parlement européen et du Conseil du 23 avril 2009 concernant la protection juridique des programmes d’ordinateur(4),

–  vu la directive (UE) 2016/943 du Parlement européen et du Conseil du 8 juin 2016 sur la protection des savoir-faire et des informations commerciales non divulgués (secrets d’affaires) contre l’obtention, l’utilisation et la divulgation illicites(5),

–  vu la directive (UE) 2019/1024 du Parlement européen et du Conseil du 20 juin 2019 concernant les données ouvertes et la réutilisation des informations du secteur public(6),

–  vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (Règlement général sur la protection des données)(7),

–  vu le règlement (UE) 2018/1807 du Parlement européen et du Conseil du 14 novembre 2018 établissant un cadre applicable au libre flux des données à caractère non personnel dans l’Union européenne(8),

–  vu le règlement (UE) 2019/1150 du Parlement européen et du Conseil du 20 juin 2019 promouvant l’équité et la transparence pour les entreprises utilisatrices de services d’intermédiation en ligne(9),

–  vu le livre blanc de la Commission du 19 février 2020 intitulé «Intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance» (COM(2020)0065),

–  vu les travaux du groupe d’experts de haut niveau sur l’intelligence artificielle mis en place par la Commission,

–  vu les communications de la Commission intitulées «Une stratégie européenne pour les données» (COM(2020)0066) et «Une nouvelle stratégie industrielle pour l’Europe» (COM(2020)0102),

–  vu les directives relatives à l’examen pratiqué à l’Office européen des brevets de novembre 2019,

–  vu le document de travail sur l’économie numérique 2016/05 du Centre commun de recherche de la Commission et de son Institut de prospective technologique intitulé «An Economic Policy Perspective on Online Platforms»,

–  vu les orientations politiques pour la prochaine Commission européenne 2019-2024 intitulées «Une Union plus ambitieuse: mon programme pour l’Europe»,

–   vu sa résolution du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique(10),

–  vu l’article 54 de son règlement intérieur,

–  vu les avis de la commission du marché intérieur et de la protection des consommateurs, de la commission des transports et du tourisme et de la commission de la culture et de l’éducation,

–  vu le rapport de la commission des affaires juridiques (A9-0176/2020),

A.  considérant que le cadre juridique de l’Union pour la propriété intellectuelle vise à soutenir l’innovation et la créativité ainsi que l’accès à la connaissance et à l’information;

B.  considérant que l’article 118 du traité FUE prévoit que le législateur de l’Union établit des mesures pour la création de droits européens de propriété intellectuelle (DPI) afin d’assurer une protection uniforme de ces droits dans toute l’Union; que le marché unique favorise les conditions d’une croissance économique plus forte afin de garantir la prospérité des citoyens de l’Union;

C.  considérant que les développements récents de l’intelligence artificielle (IA) et de technologies émergentes similaires représentent un progrès technologique considérable qui ouvre des perspectives et génère des défis pour les citoyens, les entreprises, les administrations publiques, les créateurs et le secteur de la défense dans l’Union;

D.  considérant que les technologies de l’IA peuvent rendre difficiles la traçabilité des DPI et leur application aux produits de l’IA, ce qui empêche une rémunération équitable des créateurs humains dont le travail original est utilisé pour alimenter ces technologies;

E.  considérant que l’objectif consistant à faire de l’Union le numéro un mondial dans le domaine des technologies de l’IA doit comprendre des mesures visant à rétablir et à préserver la souveraineté numérique et industrielle de l’Union, à assurer sa compétitivité ainsi qu’à promouvoir et à protéger l’innovation, et qu’une réforme structurelle de la politique industrielle de l’Union est nécessaire pour lui permettre d’être à la pointe des technologies de l’IA tout en respectant la diversité culturelle; que la primauté de l’Union au niveau mondial dans le domaine de l’IA rend nécessaire l’établissement d’un régime de propriété intellectuelle efficace et adapté à l’ère numérique, afin de permettre aux innovateurs de commercialiser de nouveaux produits; que des garanties solides sont essentielles pour protéger le système de brevets de l’Union contre les agissements illicites portant préjudice aux développeurs innovants dans le domaine de l’IA; qu’une conception de l’IA centrée sur l’humain, respectant les principes éthiques et les droits de l’homme, est nécessaire afin que la technologie demeure un instrument au service des personnes et du bien commun;

F.  considérant que l’Union est le niveau de réglementation approprié dans le domaine des technologies de l’IA afin d’éviter la fragmentation du marché unique ainsi que des dispositions et orientations nationales divergentes; qu’un cadre réglementaire pleinement harmonisé de l’Union dans le domaine de l’IA pourrait devenir une référence normative au niveau international; que les nouvelles règles communes applicables aux systèmes d’IA devraient prendre la forme d’un règlement afin d’établir des normes identiques dans l’ensemble de l’Union et que la législation doit être à l’épreuve du temps pour qu’elle puisse suivre le rythme de l’évolution rapide de cette technologie, et qu’elle doit faire l’objet d’analyses d’impact approfondies; que la sécurité juridique contribue à l’évolution technologique et que la confiance des citoyens dans les nouvelles technologies est essentielle pour le développement de ce secteur, car elle accroît l’avantage concurrentiel de l’Union; que le cadre réglementaire régissant l’IA devrait donc inspirer confiance dans la sécurité et la fiabilité de l’IA et trouver un juste équilibre entre la protection publique et l’encouragement des entreprises à investir dans l’innovation;

G.  considérant que l’IA et les technologies connexes reposent sur des modèles et des algorithmes informatiques, qui sont considérés comme des méthodes mathématiques au sens de la convention sur le brevet européen (CBE) et ne sont donc pas brevetables en tant que tels; que les méthodes mathématiques et les programmes d’ordinateur peuvent être protégés par des brevets en vertu de l’article 52, paragraphe 3, de la CBE lorsqu’ils sont utilisés dans le cadre d’un système d’IA qui contribue à produire un effet technique supplémentaire; qu’il convient d’évaluer en profondeur les incidences d’une telle protection potentielle par brevet;

H.  considérant que l’IA et les technologies connexes reposent sur la création et l’exécution de programmes d’ordinateur qui, en tant que tels, sont soumis à un régime spécifique de protection du droit d’auteur, selon lequel seule l’expression d’un programme d’ordinateur peut être protégée, et non les idées, méthodes et principes qui sous-tendent ses éléments;

I.  considérant qu’un nombre croissant de brevets sont accordés dans le domaine de l’IA;

J.  considérant que les progrès de l’IA et des technologies qui y sont liées suscitent des interrogations concernant la protection de l’innovation en elle-même et l’application des DPI aux produits, contenus ou données générés par l’IA et les technologies qui y sont liées, lesquels peuvent être de nature industrielle ou artistique et ouvrent diverses perspectives commerciales; qu’il est essentiel, à cet égard, d’opérer une distinction entre les créations humaines assistées par l’IA et les créations autonomes de l’IA;

K.  considérant que l’IA et les technologies qui y sont liées sont largement tributaires de contenus et de larges volumes de données existant au préalable; qu’un accès plus transparent et ouvert à certaines données et bases de données à caractère non personnel dans l’Union, en particulier pour les PME et les jeunes pousses, ainsi que l’interopérabilité des données, qui limite les effets de verrouillage, joueront un rôle crucial pour faire progresser l’IA européenne et soutenir la compétitivité des entreprises européennes au niveau mondial; que les données à caractère personnel doivent être collectées dans le respect des droits fondamentaux et des règles de protection des données et que cette collecte doit faire l’objet d’une gouvernance adaptée, notamment en ce qui concerne la gestion des données et la transparence des données utilisées dans le développement et le déploiement des technologies de l’IA, et ce tout au long du cycle de vie d’un système fondé sur l’IA;

1.  prend acte du livre blanc de la Commission intitulé «Intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance» ainsi que de la «stratégie européenne pour les données»; souligne que les pistes de réflexion qui y sont développées sont de nature à contribuer au déploiement du potentiel d’une IA centrée sur l’humain au sein de l’Union; relève toutefois que la protection des DPI dans le contexte du développement de l’IA et des technologies qui y sont liées n’a pas fait l’objet des considérations de la Commission, en dépit de l’importance cruciale de ces droits; insiste sur la nécessité de créer un espace européen unique des données et estime que le recours à un tel espace jouera un rôle important dans l’innovation et la créativité dans l’économie de l’Union, qu’il convient d’encourager; souligne que l’Union devrait jouer un rôle essentiel dans la définition de principes fondamentaux pour le développement, le déploiement et l’utilisation de l’IA, sans faire obstacle aux progrès de l’IA ni entraver la concurrence;

2.  souligne que le développement de l’IA et des technologies connexes dans les secteurs des transports et du tourisme sera source d’innovation et de recherche, favorisera la mobilisation d’investissements et engendrera d’importants avantages économiques, sociétaux, environnementaux, publics mais aussi sur le plan de la sécurité, tout en rendant ces secteurs plus attractifs pour les nouvelles générations et en créant de nouvelles perspectives d’emploi ainsi que des modèles économiques plus durables, mais insiste pour que cela se fasse sans nuire aux individus ou à la société;

3.  insiste sur l’importance de la création d’un cadre réglementaire opérationnel et pleinement harmonisé dans le domaine des technologies de l’IA; suggère qu’un tel cadre prenne la forme d’un règlement plutôt que d’une directive afin d’éviter la fragmentation du marché unique numérique européen et de promouvoir l’innovation;

4.  demande à la Commission de prendre acte des sept exigences essentielles recensées dans les lignes directrices du groupe d’experts de haut niveau, qu’elle a saluées dans sa communication du 8 avril 2019(11), et d’en tenir dûment compte pour tout acte législatif traitant de l’IA;

5.  souligne que le développement, le déploiement et l’utilisation des technologies liées à l’IA ainsi que l’essor de l’économie mondiale des données nécessitent de traiter d’importantes questions techniques, sociales, économiques, éthiques et juridiques dans différents domaines d’action, y compris les DPI et leur incidence sur lesdits domaines d’action; souligne que pour exploiter le potentiel des technologies de l’IA, il est nécessaire de supprimer les obstacles juridiques inutiles, afin de ne pas entraver la croissance ou l’innovation dans l’économie des données de l’Union, qui est en train de se développer; réclame une analyse d’impact concernant la protection des DPI dans le contexte du développement des technologies de l’IA;

6.  insiste sur l’importance capitale d’une protection équilibrée des DPI en lien avec les technologies de l’IA, ainsi que de la nature multidimensionnelle de cette protection, et souligne, dans le même temps, qu’il importe d’assurer un niveau élevé de protection des DPI, d’instaurer une sécurité juridique et de renforcer la confiance nécessaire pour encourager les investissements dans ces technologies et faire en sorte qu’elles soient pérennes et utilisées par les consommateurs sur le long terme; estime que l’Union a les moyens de devenir chef de file dans la création de technologies de l’IA si elle se dote d’un cadre réglementaire opérationnel régulièrement évalué à la lumière des évolutions technologiques ainsi que de politiques publiques volontaristes, notamment en matière de programmes de formation et de soutien financier à la recherche et à la coopération entre les secteurs public et privé; réaffirme la nécessité de disposer d’une marge de manœuvre suffisante pour le développement de nouveaux produits, services ou technologies; souligne que la mise en place d’un cadre propice à la créativité et à l’innovation en encourageant le recours des créateurs aux technologies de l’IA ne saurait se faire aux dépens des intérêts des créateurs humains ni des principes éthiques de l’Union;

7.  considère également que l’Union doit appréhender les différentes dimensions de l’IA à travers des définitions technologiquement neutres et suffisamment souples pour qu’elles s’appliquent aux évolutions technologiques de demain et aux usages futurs; estime qu’il est nécessaire de poursuivre la réflexion sur les interactions entre l’IA et les DPI, du point de vue tant des offices de propriété intellectuelle que des utilisateurs; estime que les difficultés que pose l’évaluation des applications d’IA rendent nécessaires certaines exigences de transparence et la mise au point de nouvelles méthodes, étant donné que, par exemple, les systèmes d’apprentissage adaptatif sont susceptibles d’être recalibrés après chaque entrée, ce qui rend certaines divulgations ex ante inopérantes;

8.  souligne qu’il importe que les services de diffusion en continu soient transparents et responsables dans l’utilisation qu’ils font des algorithmes, de manière à ce que l’accès à des contenus culturels et créatifs sous des formes diverses et dans des langues différentes, de même que l’accès impartial aux œuvres européennes, puissent être mieux garantis;

9.  recommande de privilégier une évaluation sectorielle et par type des implications des technologies de l’IA en matière de DPI; considère qu’il faut, dans le cadre d’une telle démarche, prendre notamment en compte le degré d’intervention humaine, l’autonomie de l’IA, l’importance du rôle et de la source des données et des contenus protégés par le droit d’auteur utilisés, ainsi que l’éventuelle intervention d’autres facteurs; rappelle que toute démarche doit trouver le juste équilibre entre la nécessité de protéger les investissements en ressources et en efforts et celle d’encourager la création et le partage; estime que des recherches plus approfondies sont nécessaires pour évaluer l’apport humain en matière de données algorithmiques dans l’IA; estime que les technologies de rupture telles que l’IA offrent aux petites comme aux grandes entreprises la possibilité de développer des produits à la pointe du marché; considère que toutes les entreprises devraient bénéficier d’une protection de leurs DPI d’efficience et d’efficacité équivalentes; invite par conséquent la Commission et les États membres à offrir un soutien aux jeunes pousses et aux PME en vue de la protection de leurs produits au travers du programme en faveur du marché unique et des pôles d’innovation numérique;

10.  suggère d’évaluer en particulier l’incidence et les implications de l’IA et des technologies connexes dans le cadre du régime actuel du droit des brevets, de la protection des marques et des dessins et modèles, du droit d’auteur et des droits voisins, y compris l’applicabilité de la protection juridique des bases de données et des programmes d’ordinateur, de la protection des savoir-faire et des informations commerciales non divulgués («secrets d’affaires») contre leur acquisition, leur utilisation et leur divulgation illicites; relève que les technologies de l’IA pourraient permettre d’améliorer le contrôle de l’application des DPI, sans préjudice de la nécessité d’une vérification et d’un passage en revue par un humain, surtout lorsqu’il y a des répercussions juridiques à la clé; insiste en outre sur la nécessité de déterminer s’il y a lieu de mettre à jour le droit des contrats pour mieux protéger les consommateurs et d’évaluer s’il est nécessaire d’adapter les règles de concurrence afin de pallier les déficiences du marché ou abus de marché dans l’économie numérique, sur la nécessité de mettre en place un cadre juridique plus complet pour les secteurs économiques concernés par l’IA, ce qui permettrait aux entreprises européennes et aux parties prenantes concernées de passer à la vitesse supérieure, ainsi que sur la nécessité d’assurer la sécurité juridique; souligne que la protection de la propriété intellectuelle doit toujours être conciliée avec les autres libertés et droits fondamentaux;

11.  rappelle que les méthodes mathématiques en tant que telles ne sont pas brevetables, sauf si elles sont utilisées à des fins techniques dans le cadre d’inventions techniques qui ne sont elles-mêmes brevetables que si les critères applicables relatifs aux inventions sont respectés; souligne en outre que si une invention porte soit sur une méthode faisant intervenir des moyens techniques soit sur un dispositif technique, son objet, considéré dans son ensemble, présente en réalité un caractère technique et n’est donc pas exclu de la brevetabilité; souligne, à cet égard, le rôle que joue le cadre de protection des brevets pour encourager les inventions dans le domaine de l’IA et promouvoir leur diffusion, ainsi que la nécessité de donner aux entreprises et aux jeunes pousses européennes des possibilités de favoriser le développement et l’adoption de l’IA en Europe; souligne que les brevets essentiels liés à des normes jouent un rôle majeur dans le développement et la diffusion des nouvelles technologies de l’IA et des technologies connexes et pour garantir l’interopérabilité; demande à la Commission d’appuyer l’établissement de normes sectorielles et une normalisation formelle;

12.  relève que la protection par brevet peut être accordée à condition que l’invention soit nouvelle et non évidente et qu’elle implique une activité inventive; note en outre que le droit des brevets implique la description complète de la technologie sous-jacente, ce qui peut soulever des difficultés pour certaines technologies de l’IA compte tenu de la complexité des raisonnements; met également en exergue les enjeux juridiques liés à la rétro-ingénierie, laquelle constitue une exception à la protection par le droit d’auteur des programmes d’ordinateur et à la protection des secrets d’affaires, qui sont aussi d’une importance capitale pour l’innovation et la recherche et qui devraient être dûment pris en compte dans le cadre du développement des technologies de l’IA; invite la Commission à évaluer les possibilités de tester comme il se doit les produits, par exemple de manière modulaire, sans exposer les titulaires de DPI ou les secrets d’affaires aux risques liés à une large divulgation de produits qu’il est aisé de reproduire; souligne que les technologies de l’IA devraient être à la disposition de tout un chacun à des fins d’éducation et de recherche, notamment pour améliorer les méthodes d’apprentissage;

13.  relève que l’autonomisation du processus créatif de production de contenus de nature artistique peut soulever des questions relatives à la détention des DPI pour ce type de contenus; considère à cet égard qu’il ne serait pas opportun de vouloir doter les technologies de l’IA de la personnalité juridique et insiste sur les répercussions négatives d’une telle démarche sur la motivation des créateurs humains;

14.  insiste sur la différence entre les créations humaines assistées par l’IA et les créations générées par l’IA, ces dernières posant de nouvelles difficultés réglementaires en ce qui concerne la protection des DPI, par exemple sur les aspects de propriété, de qualité d’inventeur et de rémunération appropriée, ainsi que des problèmes liés à une possible concentration du marché; estime qu’il faut par ailleurs faire la distinction entre les DPI pour le développement de technologies de l’IA et les DPI pouvant être octroyés pour les contenus générés par l’IA; souligne que lorsque l’IA est utilisée uniquement comme outil pour aider un auteur dans son processus de création, le cadre actuel sur le droit d’auteur reste applicable;

15.  estime que les créations techniques générées par la technologie de l’IA doivent être protégées au titre du cadre juridique des DPI afin d’encourager les investissements dans cette forme de création et d’accroître la sécurité juridique pour les citoyens, les entreprises et, étant donné qu’ils comptent pour l’instant parmi les principaux utilisateurs des technologies de l’IA, les inventeurs; estime que les œuvres produites de manière autonome par des agents artificiels et des robots pourraient ne pas bénéficier de la protection par le droit d’auteur, afin de respecter le principe d’originalité, qui est lié à une personne physique, et étant donné que la notion de «création intellectuelle» porte sur la personnalité de l’auteur; invite la Commission à soutenir une approche horizontale, fondée sur des données probantes et technologiquement neutre quant aux dispositions communes et uniformes en matière de droit d’auteur applicables aux œuvres générées par l’IA dans l’Union, si l’on considère que ces œuvres pourraient bénéficier de la protection par le droit d’auteur; recommande que la détention des droits, le cas échéant, ne soit octroyée qu’à des personnes physiques ou morales qui ont créé l’œuvre de manière licite et que si le titulaire du droit d’auteur a donné son autorisation en cas d’utilisation de contenus protégés par le droit d’auteur, sauf si des exceptions ou limitations s’appliquent en matière de droit d’auteur; souligne qu’il importe de faciliter l’accès aux données et au partage des données, aux normes ouvertes et à la technologie à source ouverte, tout en encourageant les investissements et en stimulant l’innovation;

16.  relève que l’IA permet de traiter un grand nombre de données relatives à l’état de la technique ou à l’existence de DPI; souligne, dans le même temps, que l’IA ou les technologies connexes utilisées pour la procédure d’enregistrement pour l’octroi de DPI et pour la détermination de la responsabilité en cas d’infraction aux DPI ne sauraient se substituer à un examen humain effectué au cas par cas, et ce afin de garantir la qualité et l’équité des décisions; constate que l’IA acquiert progressivement la capacité d’exécuter des tâches habituellement effectuées par des humains et insiste, par conséquent, sur la nécessité de mettre en place des garanties adéquates, dont des systèmes de conception impliquant des processus de contrôle et de révision, de transparence, de responsabilité et de vérification du processus décisionnel de l’IA avec intervention humaine;

17.  souligne qu’en ce qui concerne l’usage de données à caractère non personnel par les technologies de l’IA, l’utilisation licite d’œuvres et d’autres éléments et données protégés par le droit d’auteur, en ce compris les contenus préexistants, les séries de données de grande qualité et les métadonnées, doit être évaluée à la lumière des règles existantes concernant les limitations et les exceptions à la protection par le droit d’auteur, par exemple pour la fouille de textes et de données, telles que prévues par la directive sur le droit d’auteur et les droits voisins dans le marché unique numérique; demande davantage de précisions concernant la protection des données dans le cadre de la législation sur le droit d’auteur et la protection potentielle des marques et des modèles industriels pour les œuvres générées de manière autonome par des applications de l’IA; estime qu’il y a lieu d’encourager le partage volontaire de données à caractère non personnel entre les entreprises et les secteurs et que ce partage doit se fonder sur des accords contractuels équitables, notamment des contrats de licence; souligne les enjeux, pour les DPI, soulevés par la création d’hypertrucages sur la base de données trompeuses, manipulées ou simplement de qualité médiocre, indépendamment du fait que ces hypertrucages contiennent ou non des données soumises au droit d’auteur; s’inquiète de la possibilité de recourir à la manipulation en masse de citoyens pour déstabiliser les démocraties et demande un renforcement de la sensibilisation et de l’éducation aux médias, ainsi que la mise à disposition de technologies d’IA dont il est urgent de se doter pour vérifier les faits et les informations; estime que des enregistrements vérifiables et non nominatifs des données utilisées tout au long du cycle de vie des technologies fondées sur l’IA, conformes aux règles en matière de protection des données, pourraient faciliter le traçage de l’utilisation d’œuvres protégées par le droit d’auteur et, partant, permettre de mieux protéger les titulaires de droits et contribuer à la protection de la vie privée; souligne que les technologies de l’IA pourraient être utiles dans le contexte de l’application des DPI, mais nécessiteraient un examen humain et la garantie que tout système décisionnel fondé sur l’IA est pleinement transparent; souligne que tout futur régime d’IA ne saurait contourner les éventuelles exigences en matière de technologie à source ouverte dans les appels d’offres publics ou empêcher l’interconnectivité des services numériques; relève que les systèmes d’IA sont fondés sur des logiciels et sur des modèles statistiques, lesquels peuvent comporter des erreurs; souligne que les produits de l’IA ne sauraient être discriminatoires et que l’un des moyens les plus efficaces de réduire les biais dans les systèmes d’IA est de veiller – dans la mesure du possible en vertu du droit de l’Union – à ce qu’une quantité maximale de données à caractère non personnel soit disponible à des fins de formation et d’apprentissage automatique; engage la Commission à mener une réflexion sur l’utilisation des données du domaine public à ces fins;

18.  insiste sur l’importance de la pleine mise en œuvre de la stratégie pour un marché unique numérique afin d’améliorer l’accessibilité et l’interopérabilité des données non personnelles au sein de l’Union; souligne que, dans le cadre de la stratégie européenne pour les données, il faut parvenir à un juste équilibre entre, d’une part, le soutien aux flux de données, à un accès plus large à celles-ci, à leur utilisation et à leur partage, et, d’autre part, la protection des DPI et des secrets d’affaires, dans le respect des règles en matière de protection des données et de la vie privée; souligne qu’il faut déterminer à cet égard si les règles de l’Union en matière de propriété intellectuelle sont un outil adéquat pour protéger les données, notamment les données sectorielles nécessaires au développement de l’IA, en rappelant que les données structurées, telles que les bases de données, lorsqu’elles bénéficient d’une protection au titre de la propriété intellectuelle, ne peuvent généralement pas être considérées comme des données; considère que des informations complètes doivent être fournies en ce qui concerne l’utilisation des données protégées par la propriété intellectuelle, notamment dans le cadre des relations entre les plateformes et les entreprises; se félicite de l’intention de la Commission de créer un espace européen unique des données;

19.  relève que la Commission examine l’opportunité d’une action législative sur des questions ayant une incidence sur les relations entre les acteurs économiques dont le but est de tirer parti des données non personnelles et est favorable à une éventuelle révision de la directive sur les bases de données et à une éventuelle clarification de l’application de la directive sur la protection des secrets d’affaires en tant que cadre générique; attend avec intérêt les résultats de la consultation publique lancée par la Commission sur la stratégie européenne pour les données;

20.  insiste sur la nécessité pour la Commission d’œuvrer en faveur d’une protection équilibrée et propice à l’innovation de la propriété intellectuelle au bénéfice des développeurs européens de technologies de l’IA, de renforcer la compétitivité des entreprises européennes à l’échelon international, notamment face à d’éventuelles manœuvres judiciaires, et d’offrir la plus grande sécurité juridique possible aux utilisateurs, en particulier dans le cadre des négociations internationales, notamment en ce qui concerne les discussions en cours sur l’IA et la révolution des données au niveau de l’OMPI; se félicite de la présentation récente par la Commission de la position de l’Union dans le cadre de la consultation publique de l’OMPI sur le projet de document de synthèse sur les politiques en matière de propriété intellectuelle et d’intelligence artificielle; rappelle à cet égard le devoir éthique de l’Union de soutenir le progrès dans le monde en facilitant la coopération transfrontière en matière d’IA, notamment au moyen de limitations et d’exceptions pour la recherche transfrontière et la fouille de textes et de données, comme le prévoit la directive sur le droit d’auteur et les droits voisins dans le marché unique numérique;

21.  a pleinement conscience que les progrès de l’IA, pour pouvoir porter pleinement leurs fruits, devront s’accompagner d’investissements publics dans les infrastructures, de formations aux compétences numériques et d’améliorations majeures de la connectivité et de l’interopérabilité; souligne dès lors l’importance de réseaux 5G qui soient sûrs et durables en vue du plein déploiement des technologies de l’IA, mais aussi et surtout l’importance des travaux nécessaires pour améliorer le niveau des infrastructures et de la sécurité de ces technologies dans toute l’Union; prend acte de l’intense activité de dépôt de brevets dans le secteur des transports en matière d’IA; s’inquiète de ce que cela risque d’entraîner un nombre considérable d’actions en justice qui nuiront à l’ensemble du secteur et d’avoir aussi des répercussions sur la sécurité routière si l’Union ne légifère pas sans plus attendre sur l’évolution des technologies liées à l’IA;

22.  approuve la volonté de la Commission d’inviter les acteurs clés du secteur manufacturier – constructeurs de véhicules, innovateurs dans l’IA et la connectivité, prestataires de services du secteur du tourisme et autres acteurs de la chaîne de valeur automobile – à se mettre d’accord sur les conditions auxquelles ils seraient disposés à partager leurs données;

23.  charge son Président de transmettre la présente résolution au Conseil et à la Commission, ainsi qu’aux parlements et aux gouvernements des États membres.

(1) JO L 123 du 12.5.2016, p. 1.
(2) JO L 130 du 17.5.2019, p. 92.
(3) JO L 77 du 27.3.1996, p. 20.
(4) JO L 111 du 5.5.2009, p. 16.
(5) JO L 157 du 15.6.2016, p. 1.
(6) JO L 172 du 26.6.2019, p. 56.
(7) JO L 119 du 4.5.2016, p. 1.
(8) JO L 303 du 28.11.2018, p. 59.
(9) JO L 186 du 11.7.2019, p. 57.
(10) JO C 252 du 18.7.2018, p. 239.
(11) Renforcer la confiance dans l’intelligence artificielle axée sur le facteur humain (COM(2019)0168).


Recommandation au Conseil et au VP/HR concernant la mise en œuvre et la gouvernance de la coopération structurée permanente (CSP)
PDF 152kWORD 54k
Recommandation du Parlement européen du 20 octobre 2020 au Conseil et au vice-président de la Commission européenne/haut représentant de l’Union pour les affaires étrangères et la politique de sécurité concernant la mise en œuvre et la gouvernance de la coopération structurée permanente (CSP) (2020/2080(INI))
P9_TA(2020)0278A9-0165/2020

Le Parlement européen,

–  vu le traité de l’Union européenne (traité UE) et notamment son article 36, son article 42, paragraphe 6, son article 46 ainsi que son protocole (nº 10) sur la coopération structurée permanente,

–  vu la décision (PESC) 2017/2315 du Conseil du 11 décembre 2017 établissant une coopération structurée permanente (CSP) et fixant la liste des États membres participants(1),

–  vu la décision (PESC) 2018/340 du Conseil du 6 mars 2018 établissant la liste des projets à mettre sur pied dans le cadre de la CSP(2),

–  vu la décision (PESC) 2018/909 du Conseil du 25 juin 2018 établissant un ensemble commun de règles de gouvernance pour les projets CSP(3),

–  vu la décision (PESC) 2018/1797 du Conseil du 19 novembre 2018 modifiant et mettant à jour la décision (PESC) 2018/340 établissant la liste des projets à mettre sur pied dans le cadre de la CSP(4),

–  vu la décision (PESC) 2019/1909 du Conseil du 12 novembre 2019 modifiant et mettant à jour la décision (PESC) 2018/340 établissant la liste des projets à mettre sur pied dans le cadre de la CSP(5),

–  vu les conclusions du Conseil du 13 novembre 2017 sur la sécurité et la défense dans le contexte de la stratégie globale de l’Union européenne,

–  vu les conclusions du Conseil du 19 novembre 2018 sur la sécurité et la défense dans le contexte de la stratégie globale de l’Union européenne,

–  vu les conclusions du Conseil du 17 juin 2019 sur la sécurité et la défense dans le contexte de la stratégie globale de l’Union européenne,

–  vu la recommandation du Conseil du 15 octobre 2018 définissant les différentes étapes de la réalisation des engagements plus contraignants pris dans le cadre de la coopération structurée permanente (CSP) et déterminant des objectifs plus précis (2018/C374/01)(6),

–  vu sa résolution du 16 mars 2017 sur les conséquences constitutionnelles, juridiques et institutionnelles de la politique de sécurité et de défense commune: possibilités offertes par le traité de Lisbonne(7),

–  vu le traité sur le commerce des armes, entré en vigueur en décembre 2014,

–  vu le document d’analyse nº 09/2019 de la Cour des comptes européenne de septembre 2019 sur la défense européenne,

–  vu l’article 118 de son règlement intérieur,

–  vu le rapport de la commission des affaires étrangères (A9-0165/2020),

A.  considérant que, conformément à l’article 42, paragraphe 2, du traité UE, la politique de sécurité et de défense commune (PSDC) inclut la définition progressive d’une politique de défense commune de l’Union, qui conduira à la mise en place d’une défense commune lorsque le Conseil, statuant à l’unanimité, le décidera; que la CSP constitue une étape importante vers la réalisation de cet objectif;

B.  considérant que la CSP devrait être utilisée pour mettre en pratique et développer plus avant le devoir d’aide et d’assistance mutuelles énoncé à l’article 42, paragraphe 7, du traité UE, comme l’a rappelé la notification conjointe concernant la CSP adressée par les États membres au Conseil et à la haute représentante de l’Union pour les affaires étrangères et la politique de sécurité, signée par 23 États membres le 13 novembre 2017, afin de mieux préparer les États membres à faire preuve de solidarité envers un autre État membre si celui-ci est l’objet d’une agression armée sur son territoire;

C.  considérant que, conformément à l’article premier, point a), du protocole (nº 10) sur la coopération structurée permanente établie par l’article 42 du traité UE, l’un des objectifs de la CSP est de permettre aux États membres de développer plus intensivement leurs capacités de défense en renforçant leurs contributions nationales et leur participation, le cas échéant, à des forces multinationales, aux principaux programmes européens d’équipement et aux activités de l’Agence européenne de défense;

D.  considérant que l’article premier, point b), du protocole (nº 10) dispose que les États membres doivent «avoir la capacité de fournir, au plus tard en 2010, soit à titre national, soit comme composante de groupes multinationaux de forces, des unités de combat ciblées pour les missions envisagées, configurées sur le plan tactique comme un groupement tactique, avec les éléments de soutien, y compris le transport et la logistique, capables d’entreprendre, dans un délai de 5 à 30 jours, des missions visées à l’article 43 du traité sur l’Union européenne, en particulier pour répondre à des demandes de l’Organisation des Nations unies, et soutenables pour une période initiale de 30 jours, prorogeable jusqu’au moins 120 jours»; qu’il convient de réviser l’article premier, point b), afin de réagir adéquatement au contexte géopolitique difficile; que les États membres sont encore loin d’atteindre cet objectif;

E.  considérant que l’élaboration d’une stratégie de défense commune de l’Union est plus que jamais nécessaire dans un contexte de menaces multiples et croissantes;

F.  considérant que la stratégie globale de l’Union dans le domaine de la sécurité et de la défense affiche un niveau d’ambition qui couvre la gestion de crise et le renforcement des capacités des pays partenaires en vue de protéger l’Europe et ses citoyens; qu’aucun État membre ne peut à lui seul se protéger, étant donné que les menaces qui pèsent sur la sécurité et la défense de l’Union et qui visent ses citoyens, ses territoires et ses infrastructures sont souvent des menaces à multiples facettes qui ne peuvent être affrontées par un État membre à lui seul; qu’un système efficace de l’Union pour une utilisation rationnelle, cohérente, stratégique et commune des ressources serait profitable pour le niveau global de sécurité et de défense de l’Union, et est plus que jamais nécessaire face à une dégradation rapide de la situation sécuritaire; qu’il est nécessaire de multiplier les efforts de coopération en matière de cyberdéfense, notamment au niveau de l’échange d’informations, de la formation et du soutien opérationnel, afin de mieux lutter contre les menaces hybrides;

G.  considérant que les principaux acteurs de la CSP sont les États membres participants, qui fournissent les capacités pour mettre en œuvre la PSDC (article 42, paragraphe 1, et article 42, paragraphe 3, du traité UE), qui les déploient dans des opérations et des missions de l’Union dans lesquelles le Conseil leur confie l’exécution d’une tâche dans le cadre de l’Union (article 42, paragraphes 1, 4 et 5, article 43 et article 44 du traité UE), et qui développent leurs capacités de défense, entre autres, le cas échéant, dans le cadre de l’Agence européenne de défense (article 42, paragraphe 3, et article 45 du traité UE);

H.  considérant que la vision à long terme de la CSP est d’assurer à l’Union une capacité opérationnelle en s’appuyant sur des moyens militaires, complétés par des moyens civils, afin de mettre à la disposition des États membres, pour les opérations militaires relevant de la PSDC, un ensemble cohérent de forces couvrant tout le spectre des opérations; que la CSP devrait renforcer la capacité de l’Union à agir en tant que garante de la sécurité internationale afin de contribuer de manière efficace et crédible à la sécurité internationale, régionale et européenne, notamment en empêchant l’importation de l’insécurité, et à renforcer l’interopérabilité afin de protéger les citoyens de l’Union et d’optimiser l’efficacité des dépenses de défense en réduisant les doubles emplois, la surcapacité et les passations de marché non coordonnées;

I.  considérant que, conformément à la décision (PESC) 2017/2315 du Conseil établissant une CSP, le développement des capacités de défense des États membres sera également bénéfique à l’OTAN, en application du principe du réservoir unique de forces, à condition d’éviter les doubles emplois et de donner la priorité à l’interopérabilité et que, dans le même temps, ces capacités renforceront le pilier européen de l’Alliance et répondront aux demandes réitérées d’un partage plus équilibré du fardeau de part et d’autre de l’Atlantique; que l’OTAN reste la pierre angulaire de l’architecture de sécurité de nombreux États membres;

J.  considérant que la CSP crée un cadre contraignant entre les États membres participants, qui se sont engagés à planifier, à développer et à exploiter conjointement, de manière structurée et permanente, des capacités de défense dans le cadre de l’Union, ainsi qu’à investir de cette même manière dans ces capacités, en souscrivant à 20 engagements contraignants dans cinq domaines définis par le traité UE; que ces engagements devraient constituer le passage d’une simple coopération en matière de défense à la pleine interopérabilité ainsi qu’à l’amélioration des forces de défense des États membres par le biais de partenariats bilatéraux mutuellement bénéfiques; que ces engagements contraignants sont évalués chaque année par le secrétariat de la CSP dans le cadre des plans nationaux de mise en œuvre, qui peuvent être consultés par les États membres participants; que, malgré ces engagements contraignants, il n’existe pas de mécanisme de contrôle efficace dans le cadre de la CSP; que les projets CSP devraient être mis en œuvre de manière à ce qu’il soit tenu compte des capacités industrielles, des préoccupations liées aux doubles emplois et des contraintes budgétaires des États membres participants; que le mécanisme de contrôle dans le cadre de la CSP devrait être amélioré;

K.  considérant que les États membres participants doivent montrer un engagement politique plein et entier vis-à-vis des 20 engagements contraignants auxquels ils ont souscrit; que les cycles de planification des capacités militaires durent généralement plus de trois ans; que les cycles nationaux actuels de planification des capacités militaires suivent principalement le processus d’établissement des plans de défense de l’OTAN précédemment défini; qu’il conviendrait d’accomplir plus de progrès en vue d’une intégration appréciable de la CSP dans les processus de planification de défense nationale afin de garantir la capacité des États membres participants de mener à bien les projets CSP;

L.  considérant que la CSP a été conçue à l’origine comme une avant-garde d’États membres disposés à porter leur coopération en matière de défense à un nouveau niveau d’ambition et en mesure de le faire; que le fait qu’il y ait 25 États membres participants ne doit pas amener la CSP à être limitée par l’approche du plus petit dénominateur commun; que le nombre d’États membres participants indique une volonté de coopérer plus étroitement dans le domaine de la sécurité et de la défense;

M.  considérant que, sur les trois premières vagues de projets CSP, 47 projets ont été conçus et adoptés; qu’à l’heure actuelle, aucun n’a abouti; que les projets de la première vague sont essentiellement des projets capacitaires associant le plus possible d’États membres; que l’inclusion souhaitée de la participation aux projets de la CSP ne doit pas compromettre une ambition de haut niveau de la part des États membres participants; qu’il est essentiel que la CSP se concentre sur des projets qui apportent une véritable valeur ajoutée;

N.  considérant qu’il ne semble pas y avoir de logique générale commune aux 47 projets CSP; que la liste actuelle des projets manque de cohérence, d’envergure et d’ambition stratégique, ce qui ne permet pas de pallier les lacunes capacitaires les plus évidentes et n’aborde pas de manière adéquate ou complète les insuffisances critiques recensées par le processus relatif à l’objectif global dans le cadre du plan de développement des capacités (PDC) et de l’examen annuel coordonné en matière de défense (EACD); qu’il a été mis fin à l’un de ces projets afin d’éviter les doubles emplois inutiles; que d’autres projets n’ont pas suffisamment progressé ou risquent d’être interrompus, et qu’environ 30 projets sont encore en phase de développement conceptuel et de préparation; que le développement de projets ambitieux portant sur les capacités militaires peut prendre jusqu’à 10 ans; que la grande majorité des projets CSP coïncident avec des insuffisances du Fonds européen de défense (FED) et de l’OTAN;

O.  considérant que la deuxième phase de la CSP doit commencer en 2021; que cette deuxième phase donnera des résultats concrets et significatifs, ce qui signifie qu’il est nécessaire de classer les projets par ordre de priorité;

P.  considérant que certains projets CSP sont axés sur le déploiement opérationnel, tels que le noyau opérationnel EUFOR de réaction aux crises (EUFOR CROC), la mobilité militaire et le réseau de plateformes logistiques, tandis que d’autres se concentrent davantage sur le développement de capacités militaires, tels que les équipes d’intervention rapide en cas d’incident informatique et l’assistance mutuelle dans le domaine de la cybersécurité; que les deux approches sont nécessaires pour contribuer de manière décisive à l’évolution vers une stratégie de défense et de sécurité intégrée commune de l’Union;

Q.  considérant que certains des projets CSP les plus stratégiques sont susceptibles de contribuer de manière décisive à l’autonomie stratégique de l’Union et à la création d’un ensemble cohérent de forces couvrant tout le spectre des opérations;

R.  considérant que les grands projets de défense européens, tels que le système de combat aérien futur et le système principal de combat terrestre, restent pour l’instant en dehors du champ d’application de la CSP;

S.  considérant qu’il est essentiel de donner la priorité et de remédier aux lacunes en matière de capacités mises en évidence dans le PDC et de s’appuyer sur l’EACD en vue d’accroître l’autonomie stratégique de l’Europe;

T.  considérant que seuls certains des projets CSP actuels s’emploient de manière suffisante à résoudre les lacunes en matière de capacités recensées dans le PDC et dans le cadre de l’EACD ou tiennent déjà suffisamment compte des objectifs de capacités à fort impact découlant du PDC et que ces projets devraient être considérés comme une priorité;

U.  considérant que la cohérence, la cohésion et le renforcement mutuel entre la CSP, l’EACD, les plans nationaux de mise en œuvre et le PDC doivent encore être améliorés;

V.  considérant que, dans 21 États membres participants par ailleurs membres de l’OTAN, le processus d’établissement des plans de défense de l’OTAN contribue au processus de planification de défense nationale;

W.  considérant que les interactions entre les priorités nationales des États membres, les priorités de l’Union et les priorités de l’OTAN devraient avoir lieu dès que possible, lorsque cela est approprié et pertinent; que les priorités de l’Union et de l’OTAN devraient être mieux harmonisées afin d’atteindre les objectifs de l’Union en matière de capacités;

X.  considérant que, tout en tenant compte de la nature différente des deux organisations et de leurs responsabilités respectives, la CSP devrait être un outil efficace et complémentaire pour répondre aux priorités en matière de développement des capacités et fournir les capacités militaires recensées dans l’Union et qu’elle peut contribuer à la réalisation des objectifs de l’OTAN;

Y.  considérant que, combinée à la stratégie globale de l’Union, une stratégie de défense et de sécurité spécifique, telle que le livre blanc sur la sécurité et la défense de l’Union, proposé dans de nombreux rapports du Parlement, pourrait faciliter une compréhension commune des défis actuels et à venir et fournir des orientations importantes pour la CSP et le PDC, qui découlent d’une compréhension des ambitions stratégiques et des mesures à prendre à long terme;

Z.  considérant qu’actuellement, les projets CSP dépendent des contributions financières des 25 États membres participants; qu’en raison de la pandémie de COVID-19, les budgets nationaux de défense devraient faire l’objet de réductions; que, paradoxalement, plusieurs des 47 projets CSP actuels, s’ils sont financés en conséquence, pourraient renforcer la préparation des États membres en cas de nouvelle crise majeure de santé publique: la mobilité militaire, le commandement médical européen et de nombreux autres projets dans des domaines liés à la logistique et aux transports, aux soins de santé, aux secours en cas de catastrophe, à la préparation face à la menace des armes chimiques, biologiques, radiologiques et nucléaires (CBRN) et à la lutte contre les actes de cybermalveillance et contre les campagnes de désinformation hostiles; que la diminution du niveau de financement des capacités stratégiques dont l’Union et ses États membres manquent actuellement affaiblirait également leur capacité à agir conjointement contre de futures pandémies, des menaces CBRN et d’autres risques imprévisibles ayant de lourdes incidences internationales;

AA.  considérant que le financement d’infrastructures de transport à double usage bénéficiera à la fois à la mobilité civile et à la mobilité militaire et que l’application de procédures administratives harmonisées pourrait faire en sorte que des ressources soient transportées par des voies d’approvisionnement adéquates dans toute l’Union et pourrait contribuer à créer un environnement de sécurité et de défense commun;

AB.  considérant que la CSP et le futur FED doivent se renforcer mutuellement et qu’il convient de poursuivre le développement des liens qui existent entre eux pour fournir les capacités critiques recensées dans le PDC;

AC.  considérant que la perspective de recevoir un cofinancement pour la recherche et le développement de capacités découlant de certains projets CSP par l’intermédiaire du futur FED a incité les États membres participants à multiplier leurs propositions et a favorisé les échanges et la coopération; que toutes les propositions doivent avoir l’intérêt stratégique commun de l’Union à l’esprit;

AD.  considérant que, dans certains cas spécifiques, la participation de pays tiers, sous réserve du respect d’un ensemble convenu d’importantes conditions politiques et juridiques, à des projets CSP individuels pourrait être dans l’intérêt stratégique de l’Union, en particulier en ce qui concerne la fourniture d’une expertise technique ou de capacités supplémentaires, ainsi que dans le cas de partenaires stratégiques; qu’aucune participation de pays tiers à des projets CSP ne devrait nuire à l’objectif de promouvoir la PSDC de l’Union;

AE.  considérant que la participation de pays tiers ne peut être qu’exceptionnelle, décidée au cas par cas et à l’invitation des États membres de l’Union; que toute participation de ce type devrait apporter une valeur ajoutée à certains projets et devrait contribuer à renforcer la CSP et la PSDC et à répondre à des exigences plus élevées, sous réserve de conditions très strictes et sur la base d’une réciprocité établie et effective;

AF.  considérant qu’un accord sur la participation de pays tiers à des projets CSP est attendu depuis longtemps;

AG.  considérant qu’en ce qui concerne le rôle actuel du Comité politique et de sécurité (COPS) dans le contexte de la CSP et du développement des capacités, le Parlement a déjà demandé que «le mandat du [COPS] visé à l’article 38 du traité UE [soit] interprété de manière restrictive»;

AH.  considérant que la gouvernance de la CSP est assurée par les États membres participants; que le secrétariat de la CSP devrait continuer de faciliter les relations avec d’autres acteurs de l’Union en ce qui concerne les synergies potentielles avec d’autres instruments et initiatives de l’Union, afin de garantir transparence et inclusivité ainsi que d’éviter les doubles emplois inutiles;

AI.  considérant que l’approfondissement de la coopération en matière de défense entre États membres au niveau de l’Union devrait aller de pair avec le renforcement des pouvoirs de contrôle des parlements des États membres et du Parlement européen;

AJ.  considérant que le mécanisme pour l’interconnexion en Europe devrait privilégier les projets liés à la mobilité militaire et à l’interopérabilité, qui sont essentiels en cas de crise et de conflit imprévus; que la CSP devrait contribuer à la création d’un véritable espace Schengen pour la mobilité militaire, en vue de réduire les procédures aux frontières et de limiter le plus possible les charges infrastructurelles; considérant que le projet Rail Baltica, qui est essentiel à l’intégration des pays baltes dans le réseau ferroviaire européen, devrait être accueilli favorablement à cet égard, et que sa pleine efficacité devrait être garantie;

AK.  considérant que la CSP peut à cet égard contribuer à améliorer la cohérence, la coordination et l’interopérabilité en matière de sécurité et de défense, et à renforcer la solidarité, la cohésion et la résilience de l’Union;

AL.  considérant que le Parlement devrait exercer, conjointement avec le Conseil, les fonctions législative et budgétaire, ainsi que des fonctions de contrôle politique et consultatives conformément aux conditions prévues par les traités;

AM.  considérant que le Parlement invite le vice-président de la Commission/haut représentant de l’Union pour les affaires étrangères et la politique de sécurité à transmettre son rapport annuel sur la mise en œuvre de la CSP;

AN.  considérant que les efforts communs de recherche et développement des États membres participants dans le cadre de la CSP généreront des innovations technologiques significatives, offrant ainsi à l’Union un avantage compétitif dans le domaine des capacités modernes de défense;

1.  recommande au Conseil et au vice-président de la Commission/haut représentant de l’Union pour les affaires étrangères et la politique de sécurité:

   a) d’informer et de consulter le Parlement sur l’examen de la CSP, et de veiller à ce que les vues du Parlement soient dûment prises en considération, conformément à l’article 36 du traité UE, en particulier dans le cadre de l’examen stratégique en cours de la première phase de la CSP, qui se termine en 2020, afin de garantir une responsabilité, une transparence et un contrôle accrus;
   b) de souligner l’importance de rechercher la résolution des conflits en tant que priorité;
   c) de mettre en œuvre la vision stratégique de l’Union et de définir les menaces communes, notamment en appliquant le niveau d’ambition défini par la stratégie globale de l’Union de 2016, y compris par l’intermédiaire des travaux en cours sur les orientations stratégiques («strategic compass»), qui doivent être réalisés en coopération avec l’ensemble des parties intéressées et des institutions concernées, et de renforcer la dimension opérationnelle de la CSP;
   d) de préparer dans les meilleurs délais, sur la base des résultats de la discussion sur les orientations stratégiques, un livre blanc sur la sécurité et la défense de l’Union à part entière; de prendre acte du fait que les premiers résultats des orientations stratégiques sont attendus pour le premier semestre 2022;
   e) de veiller aux effets de synergie et à la cohérence entre les différentes initiatives et opérations de défense de l’Union;
   f) d’encourager les États membres participants, par des propositions ciblées et une communication adéquate, à passer d’une vision strictement nationale de la défense à une approche européenne plus forte et à fournir des efforts structurés pour accroître le recours à l’approche collaborative européenne en tant que priorité, étant donné qu’aucun État membre participant n’est à lui seul en mesure de remédier aux lacunes recensées en matière de capacités; d’encourager les États membres participants, et plus généralement les États membres, à ne pas réduire leurs dépenses de défense dans les années à venir, et en particulier leur participation financière à des projets coopératifs européens;
   g) d’accroître l’ambition budgétaire de l’Union en faveur du renforcement des capacités de défense, notamment en garantissant un financement suffisant pour le futur FED et la mobilité militaire dans le prochain cadre financier pluriannuel (CFP);
   h) de veiller à ce que la CSP soit effectivement utilisée comme un instrument permettant d’atteindre une coopération de l’Union durable et efficace en matière de défense, en améliorant les capacités de défense des États membres participants et l’interopérabilité en tant qu’objectif commun, notamment en matière de disponibilité, d’interopérabilité, de flexibilité et de capacités de déploiement des forces, conformément à l’ambition d’accroître l’autonomie stratégique de l’Union, tout en maintenant une coopération étroite entre les États membres participants qui souhaitent participer, en intensifiant la coopération entre l’Union et l’OTAN en ce qui concerne les membres de l’OTAN faisant partie de l’Union et en préservant une coopération étroite avec les autres partenaires internationaux;
   i) de veiller à ce que le financement des capacités découlant des projets CSP par le FED soit axé sur un ensemble de projets stratégiques clés, conformément aux priorités du PDC, afin d’en maximiser l’impact; de veiller à ce que la sélection des projets CSP soit conforme aux objectifs de capacités à fort impact du PDC;
   j) de reconnaître que le Parlement exerce, conjointement avec le Conseil, les fonctions législative et budgétaire, ainsi que des fonctions de contrôle politique et consultatives conformément aux conditions prévues par les traités;
   k) d’incorporer directement dans le cycle des projets CSP le lien entre la CSP et le programme européen de développement industriel dans le domaine de la défense (EDIDP) et le FED, dans le but de contribuer plus efficacement à la réalisation des ambitions de l’Union dans le domaine de la sécurité et de la défense; d’exiger que chaque projet soit documenté avant qu’ait lieu la sélection budgétaire;
   l) d’axer les efforts de la CSP sur des projets destinés à renforcer systématiquement la PSDC militaire,
   i) qui contribuent à pallier d’importantes lacunes en matière de capacités en adoptant une approche plus opérationnelle, permettant ainsi de répondre directement aux besoins des armées européennes en opération,
   ii) qui présentent une dimension stratégique et intégrée, tels que l’EUFOR CROC, la mobilité militaire, le réseau de plateformes logistiques ou les équipes d’intervention rapide en cas d’incident informatique et l’assistance mutuelle dans le domaine de la cybersécurité, ou
   iii) qui créent des synergies supplémentaires et des effets d’échelle, le cas échéant;
   m) d’orienter la CSP sur des projets structurants ayant une réelle dimension européenne stratégique, de manière à renforcer la base industrielle et technologique de la défense européenne;
   n) de souligner l’importance d’un petit nombre de projets stratégiques, en particulier de catalyseurs stratégiques (commandement et contrôle, transport, renseignement), auxquels il convient de donner la priorité, car ils posent les fondements d’une défense européenne plus intégrée;
   o) de prendre acte du fait que la création de la CSP dans le cadre du traité de Lisbonne a été conçue comme la mise en place d’une avant-garde d’États membres désireux de mettre en commun leurs ressources et capacités en vue de la réalisation d’objectifs communs ambitieux dans le domaine de la sécurité et de la défense; d’examiner s’il est nécessaire que l’Union élabore progressivement un cadre commun sous la responsabilité du vice-président de la Commission/haut représentant de l’Union pour les affaires étrangères et la politique de sécurité, dans lequel les États membres mèneraient leurs propres contrôles de la politique de défense nationale, partageraient les résultats et centraliseraient les renseignements, de façon à mettre en place les bases d’une véritable défense européenne;
   p) de reconnaître, à cet égard, la valeur des orientations politiques de la Commission concernant la politique de défense, et en particulier la nécessité de prendre des mesures audacieuses en vue d’une véritable Union européenne de la défense, ainsi que d’adopter une approche intégrée et globale de la sécurité de l’Union; de considérer que la création d’une nouvelle direction générale de l’industrie de la défense et de l’espace à la Commission devrait servir de catalyseur pour une cohérence renforcée, une coopération loyale et une coordination intégrée dans la création de capacités de défense dans tous les États membres, ainsi que pour le renforcement des infrastructures militaires de l’Union et l’amélioration de l’efficacité de l’industrie de l’Union et du marché intérieur;
   q) de reconnaître que le Parlement devrait jouer un rôle majeur dans le contrôle et la surveillance de l’application et de l’évaluation de la PSDC; de veiller à ce que le Parlement soit pleinement informé et consulté dans le cadre de l’examen stratégique en cours de la première phase de la CSP, qui se termine en 2020; de considérer que l’accroissement de la coopération en matière de défense entre États membres au niveau de l’Union devrait aller de pair avec le renforcement du pouvoir de contrôle du Parlement;
   r) de s’efforcer de faire en sorte que les capacités essentielles telles que les futures plateformes clés terrestres, maritimes, aériennes et autres pour les forces armées des États membres relèvent de la CSP ou soient au moins étroitement associées à celle-ci, selon les besoins, afin:
   i) d’améliorer l’état de préparation opérationnelle de la PSDC militaire, et
   ii) de garantir que les efforts en matière de CSP complètent les capacités existantes et sont utilisés de façon à combler les lacunes existantes et à compenser les frais généraux;
   s) d’élaborer des mesures incitatives innovantes pour améliorer l’interopérabilité ainsi que le déploiement des missions et des opérations PSDC;
   t) d’augmenter les investissements dans les infrastructures de transport civil interconnectées compatibles avec la planification de la mobilité militaire;
   u) d’examiner, dans le cadre de la réforme du système de groupements tactiques de l’Union, s’il convient de l’intégrer à la CSP afin d’en accroître la capacité opérationnelle, la modularité et la souplesse, en créant des unités multinationales permanentes affectées à la réalisation des missions militaires prévues à l’article 43 du traité EU et au renforcement de la capacité de l’Union de mener des opérations de gestion de crise, y compris les plus exigeantes, telles que les opérations de maintien de la paix, et de l’employer comme force stratégique hors théâtre d’opération;
   v) de soutenir et de promouvoir, le cas échéant, le regroupement des projets CSP en fonction des capacités et d’évaluer leur importance stratégique, en gardant à l’esprit l’objectif d’obtenir un ensemble cohérent de forces couvrant tout le spectre des opérations, et de concentrer leurs efforts sur les projets les plus susceptibles de garantir l’autonomie stratégique de l’Union; d’examiner la liste de 47 projets actuelle et de regrouper ou d’annuler, à la discrétion des États membres participants, les projets qui ne progressent pas suffisamment ou qui ne présentent pas un bénéfice mutuel suffisant pour l’Union;
   w) de promouvoir le respect des 20 engagements pris dans le cadre de la CSP en donnant une définition simple et claire des critères de conformité et en veillant à ce que les futures propositions de projets portent sur une priorité spécifique de l’Union en matière de renforcement des capacités; de veiller à ce que tout examen de l’avancement d’un projet soit fondé sur des critères clairs et transparents, y compris lorsqu’il est cofinancé dans le cadre de l’EDIDP/du futur FED; de veiller à ce que ces critères servent d’indicateurs pour tous les États membres participant à des projets CSP; de veiller à ce que les États membres participants améliorent encore la qualité et le niveau de détail des informations fournies dans leurs plans nationaux de mise en œuvre, dans lesquels ils présentent la manière dont ils ont l’intention de respecter les 20 engagements pris dans le cadre de la CSP;
   x) de renforcer la cohérence des outils et des initiatives de développement et de planification de la défense de l’Union; d’utiliser les synergies entre le cycle des projets CSP et d’autres processus relatifs aux capacités de défense, tels que le processus relatif à l’objectif global de l’Union, le PDC et l’EACD, afin que des projets plus ciblés, plus aboutis, mieux développés et mieux structurés puissent être présentés; de veiller à ce que le cycle de soumission rende possible la mise en œuvre synchronisée de plusieurs initiatives européennes, y compris le FED;
   y) d’encourager les États membres participants à intégrer le PDC dans leurs processus de planification de défense nationale en vue de les aider à combler les lacunes en matière de capacités;
   z) de réaffirmer le rôle central du secrétariat de la CSP en tant que point de contact unique pour tous les projets et d’inviter le secrétariat à faire régulièrement le point sur l’état d’avancement des projets à l’intention du Parlement ainsi que de toutes les parties prenantes, sur la base d’informations recueillies auprès du ou des États membres chargés de la coordination des projets; d’encourager les États membres participants à continuer de dialoguer plus efficacement avec le secrétariat de la CSP en ce qui concerne l’examen et la mise à jour de leurs plans nationaux de mise en œuvre;
   aa) d’inviter les États membres participants à veiller à ce des progrès concrets soient réalisés dans la mise en œuvre des projets CSP actuels;
   ab) de clarifier le rôle du Comité politique et de sécurité dans le processus de la CSP, lequel n’est pas prévu par le traité UE, et de garantir, dans ce contexte, le rôle important joué par le Comité militaire de l’Union européenne (CMUE) dans la fourniture d’avis militaires ad hoc au vice-président de la Commission/haut représentant de l’Union pour les affaires étrangères et la politique de sécurité;
   ac) d’associer le CMUE aux travaux en matière de définition d’un ensemble cohérent de forces couvrant tout le spectre des opérations;
   ad) d’étudier la mise en place d’un conseil européen de la défense fondé sur l’actuel Conseil des affaires étrangères en configuration des ministres de la défense, qui correspond au comité directeur ministériel de l’AED et à la formation en format CSP des ministres de l’Union chargés de la défense, afin de garantir la hiérarchisation de ressources et une coopération et une intégration efficaces entre les États membres, le cas échéant;
   ae) de clarifier ou définir le lien entre la gouvernance de la CSP et celle du FED et d’informer le Parlement du processus de contrôle ex post dans le cadre du financement des projets CSP par le FED;
   af) d’envisager, comme l’ont demandé certains États membres participants, de modifier le cycle de soumission des projets CSP en vue de les rendre plus ciblés, plus aboutis et mieux structurés;
   ag) de préciser les règles régissant la participation des tiers à la CSP, en tenant compte de l’importance de l’autonomie décisionnelle de l’Union et de la pleine réciprocité et en gardant à l’esprit qu’une approche au cas par cas est plus avantageuse pour l’Union, compte tenu:
   i) de la nécessité de préparer et d’adopter un document fondamental et exhaustif pour régir la coopération future avec des tiers participant à des projets CSP, et
   ii) du fait que le processus décisionnel lié à la participation d’un tiers devrait avoir lieu au niveau de chaque projet CSP;
   ah) d’encourager à faire des «menaces futures» la base des futures propositions de projet CSP; de renforcer les partenariats avec l’OTAN, les Nations unies, l’Union africaine et d’autres organisations; de veiller à ce que la participation et l’inclusion des PME soient prises en considération dans tous les aspects pertinents des projets CSP;
   ai) de veiller à ce que les projets CSP développent et accroissent davantage la capacité industrielle des États membres participants dans les domaines des nanotechnologies, des superordinateurs, de l’intelligence artificielle, de la technologie des drones, de la robotique et autres, afin de garantir l’autosuffisance et l’indépendance de l’Union par rapport aux importateurs étrangers dans ces domaines ainsi que de faciliter la création de nouveaux emplois;
   aj) de prendre acte du fait que la pandémie de COVID-19 a montré que l’Union n’a pas de compétences suffisantes en matière de soins de santé; de reconnaître que, parallèlement, une stratégie de défense commune de l’Union doit être mise en place pour réagir en cas d’attaque aux frontières de l’Union et sur son territoire et que la CSP constitue une étape positive vers la réalisation de cet objectif;
   ak) de reconnaître le rôle essentiel joué par les forces armées européennes face aux défis posés par la pandémie de COVID-19, tant dans la gestion de l’urgence sanitaire que dans le soutien aux missions et opérations civiles, ainsi que le fait qu’elles ont également une dimension transfrontière et une fonction de solidarité; d’être conscient des avantages potentiels de nouveaux projets CSP ambitieux pour le développement de capacités européennes communes dans ce domaine, en s’appuyant sur les travaux de projets antérieurs, notamment le dispositif militaire permettant le déploiement de capacités de secours en cas de catastrophe et le commandement médical européen;
   al) d’inviter le Conseil et les États membres participants à se concentrer sur la cyber‑résilience et à élaborer une stratégie et des procédures collectives de réaction aux incidents cybernétiques grâce à des projets CSP, afin de créer un environnement plus résilient au sein des États membres;
   am) de prendre acte de la position du Parlement concernant la conférence sur l’avenir de l’Europe telle qu’exprimée dans sa résolution du 15 janvier 2020(8), à savoir que la sécurité et le rôle de l’Union dans le monde devraient faire partie des priorités politiques définies à l’avance, mais de manière non exhaustive, et de reconnaître que cela pourrait être l’occasion d’associer les citoyens au débat sur le renforcement de la CSP afin de progresser vers une politique de sécurité et de défense commune autonome pour notre Union;

2.  charge son Président de transmettre la présente recommandation au Conseil et au vice‑président de la Commission/haut représentant de l’Union pour les affaires étrangères et la politique de sécurité.

(1) JO L 331 du 14.12.2017, p. 57.
(2) JO L 65 du 8.3.2018, p. 24.
(3) JO L 161 du 26.6.2018, p. 37.
(4) JO L 294 du 21.11.2018, p. 18
(5) JO L 293 du 14.11.2019, p. 113.
(6) JO C 374 du 16.10.2018, p. 1.
(7) JO C 263 du 25.7.2018, p. 125.
(8) Textes adoptés de cette date, P9_TA(2020)0010.


Rapport sur la mise en œuvre de l’accord d’association entre l’Union européenne et la République de Moldavie
PDF 205kWORD 70k
Résolution du Parlement européen du 20 octobre 2020 sur la mise en œuvre de l’accord d’association entre l’Union européenne et la République de Moldavie (2019/2201(INI))
P9_TA(2020)0279A9-0166/2020

Le Parlement européen,

–  vu l’article 8 et le titre V, notamment les articles 21, 22, 36 et 37, du traité sur l’Union européenne (traité UE) ainsi que la cinquième partie du traité sur le fonctionnement de l’Union européenne (traité FUE),

–  vu l’accord d’association entre l’Union européenne et la Communauté européenne de l’énergie atomique et leurs États membres, d’une part, et la République de Moldavie, d’autre part, qui comprend une zone de libre-échange approfondi et complet et est entré en vigueur le 1er juillet 2016,

–  vu l’instauration, en mars 2014, d’un régime d’exemption de visa pour les ressortissants de la République de Moldavie, à la suite des modifications apportées au règlement (CE) n° 539/2001(1) du Conseil par le Parlement européen et le Conseil,

–  vu la signature, en novembre 2017, d’un protocole d’accord, d’une convention de prêt et d’un accord de subvention concernant une assistance microfinancière de 100 millions d’euros accordée pour la période 2017-2018,

–  vu le plan d’action national de la Moldavie pour la mise en œuvre de l’accord d’association entre l’Union européenne et la République de Moldavie pour la période 2017-2019,

–  vu ses précédentes résolutions relatives à la République de Moldavie, en particulier la précédente résolution, du 14 novembre 2018, sur la mise en œuvre de l’accord d’association de l’UE avec la Moldavie(2), sa résolution du 5 juillet 2018 sur la crise politique en Moldavie suite à l’invalidation des élections locales à Chișinău(3), du 15 novembre 2017 relative au partenariat oriental, dans la perspective du sommet de novembre 2017(4), du 4 juillet 2017 sur l’octroi d’une assistance macrofinancière à la République de Moldavie(5) et du 21 janvier 2016 sur les accords d’association et les zones de libre-échange approfondi et complet avec la Géorgie, la Moldavie et l’Ukraine(6),

–  vu la décision de l’Union européenne de juillet 2018 de geler le versement de la première tranche de l’assistance macrofinancière, à la suite de l’arrêt de la Cour suprême sur les élections municipales de Chișinău, et sa décision de novembre 2018 de réduire son aide financière, en raison d’inquiétudes relatives à l’état de droit et au recul démocratique du pays,

–  vu la décision ultérieure de l’Union européenne, en juillet 2019, de reprendre les versements au titre de l’appui budgétaire, compte tenu de l’engagement pris par la République de Moldavie de réformer le système judiciaire,

–  vu la décision de l’Union européenne, en octobre 2019, de verser une première tranche d’aide macrofinancière de 30 millions d’euros à la suite de la mise en œuvre de réformes essentielles visant à améliorer les normes démocratiques et à protéger l’état de droit,

–  vu le document de travail du 11 septembre 2019, élaboré conjointement par les services de la Commission et du Service européen d’action extérieure (SEAE), intitulé «Rapport sur la mise en œuvre de l’accord d’association avec la République de Moldavie»,

–  vu l’issue de la cinquième réunion du conseil d’association entre l’Union européenne et la République de Moldavie, qui s’est tenue le 30 septembre 2019,

–  vu les déclarations conjointes des sommets du partenariat oriental, notamment la dernière en date, émise à Bruxelles le 24 novembre 2017,

–  vu les conclusions du Conseil des affaires étrangères sur la République de Moldavie du 26 février 2018,

–  vu la résolution 2308 du 3 octobre 2019 de l’Assemblée parlementaire du Conseil de l’Europe sur le fonctionnement des institutions démocratiques en République de Moldavie,

–  vu l’indice de perception de la corruption 2019 publié par Transparency International, qui classe la République de Moldavie à la 120e place sur 180 pays et territoires évalués (la première place du classement étant la meilleure), alors qu’elle occupait la 117e place dans le classement de 2018,

–  vu l’indice de démocratie établi par The Economist Intelligence Unit, qui considère la République de Moldavie comme un «régime hybride»,

–  vu le rapport «Freedom in the World» 2020 de Freedom House, dans lequel la République de Moldavie est classée comme étant «partiellement libre», ainsi que son rapport «Nations in Transit» 2020, qui considère la République de Moldavie comme un «régime en transition ou hybride»,

–  vu le plan d’action national de la Moldavie relatif à la mise en œuvre de l’accord d’association UE-Moldavie, le plan d’action national 2018-2022 sur les droits de l’homme, la stratégie nationale 2018-2023 sur la prévention et la lutte contre la violence à l’égard des femmes et la violence domestique, qui mentionne explicitement la ratification de la convention d’Istanbul,

–  vu les analyses et recommandations formulées par l’Organisation pour la coopération et le développement économiques (OCDE), en particulier celles du 8 mars 2018 sur la jeunesse moldave: problèmes, valeurs et aspirations, et celles du 20 avril 2018 sur l’examen des politiques en matière de bien-être de la jeunesse en Moldavie,

–  vu les avis et les recommandations du Bureau européen des institutions démocratiques et des droits de l’homme de l’Organisation pour la sécurité et la coopération en Europe, et de la Commission de Venise du Conseil de l’Europe, notamment du 15 mars 2018 sur la réforme électorale en Moldavie, du 24 juin 2019 sur la situation constitutionnelle, notamment la possibilité de dissolution du Parlement, et du 14 octobre 2019 sur le projet de loi portant réforme de la Cour suprême de justice et du ministère public,

–  vu la communication conjointe de la Commission du 18 mars 2020 sur «La politique du partenariat oriental après 2020, renforcer la résilience – un partenariat oriental qui profite à tous»,

–  vu les conclusions du Conseil du 11 mai 2020 sur la politique du partenariat oriental au-delà de 2020,

–  vu la communication conjointe de la Commission et du haut représentant de l’Union pour les affaires étrangères et la politique de sécurité du 8 avril 2020 au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions sur la réaction de l’UE au niveau mondial face à la pandémie de COVID-19 et la décision (UE) 2020/701 du Parlement européen et du Conseil du 25 mai 2020 relative à l’octroi d’une assistance macrofinancière à des partenaires de l’élargissement et du voisinage dans le contexte de la pandémie de COVID-19(7),

–  vu le rapport du 10 juillet 2020 de la Commission au Parlement européen et au Conseil, troisième rapport établi dans le cadre du mécanisme de suspension de l’exemption de visa, et le document de travail des services de la Commission qui l’accompagne,

–  vu le rapport sur une recommandation du Parlement européen au Conseil, à la Commission et au vice-président de la Commission/haut représentant de l’Union pour les affaires étrangères et la politique de sécurité concernant le partenariat oriental, en vue du sommet de juin 2020,

—  vu les recommandations et les activités de la commission parlementaire d’association UE-Moldavie, de l’Assemblée parlementaire Euronest, du Forum de la société civile pour le partenariat oriental, de la plateforme de la société civile UE-Moldavie et d’autres représentants de la société civile en République de Moldavie,

–  vu la déclaration et les recommandations adoptées à l’occasion de la septième réunion de la commission parlementaire d’association UE-Moldavie, qui s’est tenue les 18 et 19 décembre 2019 à Strasbourg,

–  vu les conclusions de la mission d’observation des élections du Parlement européen déployée lors des élections parlementaires du 24 février 2019 en République de Moldavie, intégrée à la mission internationale d’observation des élections conduite par le BIDDH de l’OSCE,

–  vu le train de mesures d’aide économique de la Commission adopté le 29 mars 2020 pour aider la République de Moldavie, entre autres pays, dans sa lutte contre la pandémie de COVID-19, qui inclut la réorientation d’instruments existants pour atténuer les conséquences socio-économiques de la crise,

–  vu l’article 54 de son règlement intérieur, ainsi que l’article 1er, paragraphe 1, point e), et l’annexe 3 de la décision de la Conférence des présidents du 12 décembre 2002 relative à la procédure d’autorisation pour l’élaboration de rapports d’initiative,

–  vu l’avis de la commission du commerce international,

–  vu le rapport de la commission des affaires étrangères (A9-0166/2020),

A.  considérant que, à travers l’accord d’association et la zone de libre-échange approfondi et complet, l’Union et la République de Moldavie se sont engagées à promouvoir une association politique et à parvenir à une intégration économique, et que la République de Moldavie s’est engagée à intégrer l’acquis de l’Union dans ses propres lois et pratiques dans un grand nombre de domaines; que, pour soutenir ces efforts, l’Union s’est engagée à fournir une aide financière et budgétaire substantielle à la République de Moldavie, à la condition que les valeurs et principes fondamentaux européens, tels que l’état de droit, les droits de l’homme et les droits démocratiques, soient respectés, et que la lutte contre la corruption, la criminalité organisée, le blanchiment de capitaux, les structures oligarchiques et le népotisme soit garantie; que, en cas de recul sensible, cette coopération peut être annulée;

B.  considérant que, le 13 septembre 2017, le Parlement et le Conseil ont adopté une décision octroyant une assistance macrofinancière à la République de Moldavie à hauteur de 100 millions d’euros, dans le cadre du programme du FMI visant à soutenir les réformes économiques et financières du pays;

C.  considérant que l’Union européenne n’a cessé d’exprimer ses inquiétudes en ce qui concerne l’état de droit, l’absence de progrès dans la poursuite des responsables de la fraude bancaire dévoilée en 2014 et les violations persistantes des droits de l’homme;

D.  considérant que l’indice de perception de la corruption 2018 publié par Transparency International et les rapports 2020 de Freedom House font état d’une légère amélioration en République de Moldavie dans le passé récent, tandis qu’ils témoignent à long terme, à l’instar de l’indice de démocratie, d’une détérioration de la situation en République de Moldavie en matière de démocratie, de corruption, de droits politiques et de libertés civiles;

E.  considérant que malgré les changements intervenus au niveau du gouvernement, les institutions étatiques moldaves restent faibles et que la République de Moldavie reste aux prises avec un problème de captation de l’État, car la concentration des pouvoirs et du contrôle dans tous les secteurs et institutions majeurs au plus haut niveau du gouvernement n’a pas reculé de manière significative;

F.  considérant que, en raison de violations graves de l’état de droit et du processus démocratique, l’Union européenne a suspendu, en 2018, le versement des deux dernières tranches du programme de soutien budgétaire aux réformes du secteur judiciaire;

G.  considérant que le 11 juin 2019, la Cour européenne des droits de l’homme a jugé, dans l’affaire Ozdil et al. contre la République de Moldavie, que la République de Moldavie avait violé les droits à la liberté, à la sécurité, à la vie privée et à la vie de famille lorsqu’en septembre 2018, ses services de renseignement et de sécurité avaient arrêté et expulsé vers la Turquie cinq ressortissants turcs qui demandaient l’asile; que cette extradition déguisée n’est qu’un exemple d’une pratique systématique de disparition forcée et involontaire, d’arrestation illégale et d’expulsion vers la Turquie de ressortissants turcs dans des dizaines de pays du monde;

H.  considérant que, à la suite de la formation, en juin 2019, d’un gouvernement qui s’est engagé à mener des réformes ambitieuses, avec un programme axé sur la réforme du système judiciaire, la Commission a versé la première tranche de l’assistance macrofinancière et a repris les versements pour les programmes d’appui budgétaire sectoriel, tout en déclarant qu’elle continuerait d’appliquer une conditionnalité stricte; que le 10 juillet 2020, la Commission a approuvé le paiement de la seconde et dernière tranche, d’un montant de 30 millions d’euros, de son programme d’assistance macrofinancière (AMF);

I.  considérant que la République de Moldavie n’a toutefois pas été en mesure d’accéder au reste des fonds disponibles au titre de ce programme, qui est arrivé à échéance en juillet 2020; que cette assistance reste subordonnée à la mise en œuvre des réformes précédemment convenues, notamment celles visant à renforcer l’état de droit et les normes démocratiques, et à obtenir des résultats visibles pour les citoyens;

J.  considérant qu’en novembre 2019, le parlement moldave a adopté une motion de défiance contre le gouvernement constitué en juin 2019, qu’un gouvernement minoritaire et, par la suite, un nouveau gouvernement de coalition ont été formés; que des représentants des institutions de l’Union se sont déclarés préoccupés par la manière dont l’ancien gouvernement a été remplacé ainsi qu’au sujet des réformes entreprises par la République de Moldavie au titre de l’accord d’association et de l’accord de libre-échange approfondi et complet;

K.  considérant que la majorité du nouveau gouvernement de coalition au parlement de la République de Moldavie ne cesse de s’atténuer à mesure que des députés de l’alliance au pouvoir font défection; que la République de Moldavie organisera des élections présidentielles à l’automne et qu’elle connaît actuellement une période de grande instabilité politique; que le président Igor Dodon a souligné que le parlement devait être dissous et que des élections anticipées devaient être organisées le plus rapidement possible; que le 7 juillet 2020, la Cour constitutionnelle de la République de Moldavie a jugé que des élections anticipées ne pouvaient être organisées qu’après les élections présidentielles;

L.  considérant que le 17 avril 2020, les gouvernements russe et moldave ont signé un accord en vue de l’octroi d’un prêt de 200 millions d’euros par la Fédération de Russie à la République de Moldavie à un taux préférentiel de 2 % négocié par les présidents des deux pays; que cet accord a été ratifié le 23 avril et que, le même jour, à la suite d’un appel interjeté par les députés de l’opposition parlementaire, la Cour constitutionnelle de la République de Moldavie a suspendu la ratification de la loi relative à l’accord de prêt jusqu’au terme de l’examen de celle-ci en vue de déterminer sa compatibilité avec la Constitution; que le 6 mai, le président de la Cour constitutionnelle a fait état de pressions exercées par les autorités moldaves sur cette dernière ainsi que de tentatives de discréditer ses juges; que le 7 mai 2020, la Cour constitutionnelle a déclaré que l’accord de prêt était inconstitutionnel; qu’un nouvel accord de prêt avec la Fédération de Russie est en cours de négociation;

M.  considérant que la pandémie de COVID-19 a mis au jour la nécessité toujours plus pressante d’une coordination entre l’Union et les pays voisins dans la lutte contre les menaces communes; que l’Union a répondu à cette nécessité, entre autres, en fournissant une enveloppe d’aide financière à ses voisins;

N.  considérant que dans le contexte de la crise de la COVID-19, la solidarité avec les pays du partenariat oriental revêt une importance primordiale et que l’Union a apporté une aide notable pour faire face aux répercussions de l’épidémie dans la région; que, dans ce contexte, la République de Moldavie bénéficiera de 87 millions d’euros issus de la réorientation de fonds bilatéraux;

O.  considérant que l’Union met également à disposition de la République de Moldavie des prêts supplémentaires à hauteur de 100 millions d’euros au titre de la décision d’octroi d’une assistance macrofinancière à dix pays partenaires du voisinage de l’Union afin de les aider à limiter les retombées économiques de la pandémie de coronavirus; que la première tranche du dispositif exceptionnel d’assistance macrofinancière sera versée le plus rapidement possible, étant donné que le protocole d’accord avec la République de Moldavie a été ratifié; que pour recevoir la deuxième tranche, à verser dans un délai d’un an à compter de la signature du protocole d’accord, le pays devra respecter certaines conditions; qu’une condition préalable importante de l’octroi de cette assistance macrofinancière est respect de mécanismes démocratiques effectifs, notamment le pluralisme parlementaire, l’état de droit et des garanties de respect des droits de l’homme; que, s’il convient de saluer la conclusion du protocole d’accord, la concrétisation des engagements pris devrait être garantie;

P.  considérant que la République de Moldavie s’est engagée, à l’échelon national et international, à promouvoir l’égalité des sexes et l’émancipation des femmes; que le pays a adopté des mesures pour promouvoir la représentation politique des femmes, notamment par l’adoption d’un quota obligatoire de 40 % de femmes sur les listes électorales des partis politiques; que des efforts supplémentaires sont nécessaires pour avancer sur la voie des objectifs de la stratégie nationale 2017-2021 pour l’égalité des sexes, notamment des financements suffisants et des mécanismes de mise en œuvre plus efficaces;

Q.  considérant qu’en dépit des progrès économiques, l’incidence sociale de l’assistance financière et des efforts de réforme est plutôt insignifiante; que la République de Moldavie demeure l’un des pays les plus pauvres d’Europe, avec une situation sociale désastreuse, des villages désertés et une pauvreté extrême; qu’en 2018, 38,5 % des travailleurs de la République de Moldavie travaillaient dans le secteur informel, sans accès à aucune forme de protection sociale;

R.  considérant que depuis 1989, la population de la République de Moldavie a diminué de près d’un tiers; qu’en termes démographiques, ces chiffres sont les plus mauvais d’Europe; que les Moldaves quittent le pays pour des salaires plus élevés, ainsi qu’une éducation et des infrastructures de meilleure qualité; qu’une telle évolution a des répercussions politiques, économiques et sociales sensibles et durables; que la République de Moldavie est confrontée à des pénuries de main-d’œuvre et à un manque de professionnels tels que des infirmiers et des médecins; que les personnes âgées, qui dépendent pour beaucoup des fonds envoyés depuis l’étranger pour leur subsistance, constituent le groupe de population le plus vulnérable et le plus exposé à la pauvreté en République de Moldavie;

S.  considérant que la solution aux problèmes de la République de Moldavie ne peut venir de l’extérieur et qu’il convient de renforcer l’adhésion de la population locale à l’action déployée pour répondre aux enjeux auxquels le pays fait face; qu’il demeure important de répondre aux grands enjeux tels que la lutte contre la corruption et les structures oligarchiques, l’adhésion à des normes démocratiques ainsi que la nécessité de trouver des solutions à des problèmes sociaux protéiformes, de garantir la pluralité des médias et de lutter contre la pauvreté et l’émigration;

Valeurs communes et principes généraux

1.  rappelle que les valeurs communes qui ont présidé à la construction de l’Union, à savoir la démocratie, le respect des droits de l’homme et des libertés fondamentales, ainsi que l’état de droit, sont également au cœur de l’association politique et de l’intégration économique entre l’Union et la République de Moldavie; réaffirme l’engagement de l’Union à soutenir la trajectoire européenne de la République de Moldavie par l’association politique, l’intégration économique et les réformes correspondantes; relève que l’accord d’association/zone de libre-échange approfondi et complet reste d’une importance primordiale pour le développement de la République de Moldavie, en particulier dans les circonstances exceptionnelles du moment, et salue l’engagement durable de la société et des autorités moldaves dans ce processus; rappelle toutefois que des progrès doivent encore être accomplis dans sa mise en œuvre afin d’exploiter pleinement son potentiel et ses avantages, notamment en se concentrant sur l’indépendance des institutions publiques et leur résilience face à l’influence des oligarques, sur la lutte contre la corruption, sur la justice, sur le renforcement de l’état de droit et sur l’amélioration des conditions de vie des citoyens; souligne que l’accord d’association/zone de libre-échange approfondi et complet a été le principal facteur d’incitation et d’appui au regard des réformes structurelles, de la démocratie et de l’état de droit;

2.  se félicite des intentions de renforcer l’intégration avec l’Union sur le plan politique, humain et économique conformément au principe de différenciation et sur la base des performances, des résultats et des aspirations des autorités et de la société de la République de Moldavie;

3.  prend acte des conclusions des consultations au titre de l’article IV menées par le FMI en mars 2020 et de la sixième et dernière évaluation, par le conseil d’administration du FMI, des performances économiques de la République de Moldavie dans le cadre de la facilité élargie de crédit et du mécanisme élargi de crédit, notamment en ce qui concerne la réhabilitation du système bancaire moldave et le renforcement de la gouvernance du secteur financier;

4.  se félicite du versement de la deuxième tranche du programme d’assistance macrofinancière de l’Union; salue les efforts de réforme menés par la République de Moldavie dans des domaines tels que la lutte contre la corruption, le renforcement du cadre de lutte contre le blanchiment de capitaux et l’adoption d’une nouvelle loi sur l’activité des ONG, et relève que la République de Moldavie a adhéré au programme d’évaluation par les pairs de l’OCDE en matière de lutte contre la corruption (plan d’action d’Istanbul);

5.  estime que le versement de la deuxième tranche du programme d’assistance macrofinancière de l’Union pour 2017-2020 devrait être suivi d’efforts de la part des autorités moldaves pour répondre aux conditions requises dans les domaines liés au renforcement du cadre de lutte contre le blanchiment de capitaux et déboucher à cet égard sur des résultats tangibles et durables, ainsi que dans les domaines liés au renforcement de l’indépendance de la banque nationale;

6.  invite le gouvernement moldave et l’Union européenne à coopérer pour surmonter les conséquences négatives de la crise de la COVID-19 sur le développement socioéconomique;

7.  salue le résultat des négociations du protocole d’accord sur le nouveau programme d’assistance macrofinancière exceptionnelle de l’Union destiné à faire face aux incidences négatives de la pandémie de COVID-19 sur l’économie;

Importance de la mise en œuvre de l’accord d’association dans la situation politique actuelle et à l’approche des élections présidentielles du 1er novembre

8.  constate que le programme d’activité de la République de Moldavie de novembre 2019 est moins ambitieux que le programme général à l’horizon 2030 du gouvernement précédent et craint que l’instabilité politique et les changements fréquents de gouvernement n’affectent la mise en œuvre des dispositions de l’accord d’association/accord de libre-échange complet et approfondi et ne freinent le rythme des réformes; soutient l’idée de lier le prochain programme d’association au nouveau plan d’action national de la République de Moldavie pour la mise en œuvre de l’accord d’association entre l’Union européenne et la République de Moldavie et souligne l’importance d’une adoption rapide du nouveau programme d’association afin d’accélérer la mise en œuvre de l’accord d’association et de mettre à jour ses priorités, avec la participation active du Parlement et la contribution de la société civile et d’autres parties prenantes dans l’Union européenne et en République de Moldavie; insiste sur le fait que la poursuite de l’appui politique et financier de l’Union reste subordonnée à la réalisation de réformes concrètes, notamment dans le domaine de l’état de droit et du système judiciaire; rappelle à cet égard qu’il importe de mettre en œuvre l’ensemble des réformes prioritaires convenues dans le programme d’association ainsi que de respecter les conditionnalités convenues pour le versement de la deuxième et de la troisième tranches de l’assistance macrofinancière;

9.  salue la contribution constructive de la République de Moldavie à la coopération au sein du partenariat oriental et encourage un échange politique permanent et renforcé entre les pays parties à des accords d’association/accords de libre-échange complet et approfondi et la Commission sur les réformes entreprises dans le cadre de l’association; invite la Commission européenne à faire bon usage des mécanismes existants afin de continuer à contrôler la mise en œuvre concrète des réformes et à créer un mécanisme de conditionnalité, y compris au moyen de critères de référence clairs, avec la participation réelle de la société civile, notamment à l’échelon local; juge essentiel, dans ce contexte, de renforcer le soutien financier apporté aux organisations de la société civile, qui jouent un rôle de premier plan pour encourager la participation aux débats publics ainsi que pour surveiller l’action des autorités moldaves et l’efficacité des politiques menées par l’Union en faveur du pays; suggère en outre de prendre appui sur l’expérience du groupe de soutien à l’Ukraine pour créer une structure semblable pour la République de Moldavie, afin d’augmenter l’efficacité et la visibilité du soutien de l’Union;

10.  souligne que la situation en République de Moldavie devrait faire l’objet d’une surveillance étroite à long terme, y compris pendant la période préélectorale, conformément aux normes et aux pratiques courantes de l’OSCE/BIDDH, notamment en cette période de crise, étant donné que les élections présidentielles prochaines seront un test pour la démocratie et l’état de droit dans le pays;

11.  à cet égard, invite les autorités moldaves à veiller à la tenue d’élections présidentielles libres et régulières programmées le 1er novembre 2020 et exhorte les autorités moldaves à améliorer encore la législation électorale afin de garantir l’efficacité du droit de vote, le déroulement régulier des campagnes électorales, la transparence du processus législatif et le contrôle démocratique, afin de garantir un contrôle public adéquat de l’activité du gouvernement et du parlement; demande aux autorités moldaves de s’abstenir de modifier les règles et la réglementation pour en tirer un avantage politique, ce qui entraîne toujours des troubles et une instabilité politiques qui nuisent aux engagements en faveur de réformes structurelles; souligne, dans la perspective des futures élections, l’importance de la légitimité démocratique du gouvernement, de la transparence dans la formation de coalitions, du respect de la volonté des électeurs et de l’importance d’une majorité gouvernementale qui reflète le vote de la population;

12.  prie les autorités moldaves de renforcer les mécanismes démocratiques, notamment par un système parlementaire multipartite, et de garantir la liberté, l’indépendance et le pluralisme des médias ainsi qu’un accès équitable aux financements et aux médias; dans ce contexte, demande instamment aux autorités moldaves de renforcer la résilience contre la désinformation et la manipulation de l’information par des acteurs nationaux et étrangers, en ligne et hors ligne, et de mettre en place des mesures pour répondre au besoin encore plus urgent de lutter contre l’achat de votes, l’intimidation des observateurs électoraux, la corruption électorale et les autres pratiques de corruption, ainsi que l’utilisation frauduleuse des ressources de l’État, étant donné que ces pratiques sapent et détruisent tous les efforts démocratiques déployés par les acteurs politiques de la République de Moldavie;

13.  souligne la nécessité d’une rivalité politique forte et loyale entre les candidats à la présidence, ce qui ne serait pas possible sans un système sain et transparent de financement des partis et des campagnes présidentielles;

14.  demande instamment au gouvernement moldave de mettre en place toutes les mesures nécessaires pour que les ressortissants de la République de Moldavie habitant la région de Transnistrie ou en dehors du pays puissent participer aux élections de façon inclusive, transparente et régulière, sans ingérence étrangère;

Réformes et cadre institutionnel

15.  se félicite des réformes qui ont abouti à un régime d’exemption de visa avec l’Union; relève que ce dispositif a été largement utilisé par les citoyens de la République de Moldavie et constitue un très bon exemple de la manière dont la mise en œuvre de l’accord d’association/zone de libre-échange approfondi et complet a des répercussions sur la vie des citoyens en favorisant les contacts interpersonnels avec d’autres Européens; invite l’Union et la République de Moldavie à renforcer encore les échanges et les contacts interpersonnels afin de créer au sein de leurs populations une vision positive de l’autre partie;

16.  salue le fait que, depuis 2014, plus de 2,3 millions de citoyens moldaves ont bénéficié du régime d’exemption de visa et fait observer que, d’après le dernier rapport de la Commission, la République de Moldavie continue de satisfaire aux exigences en matière de libéralisation du régime des visas et que l’exemption de visa continue d’avoir une incidence positive en matière économique, sociale et culturelle, tant pour l’Union que pour la République de Moldavie; encourage les deux parties à préserver la libre circulation des personnes, y compris pendant les crises;

17.  salue les efforts réalisés par les autorités moldaves pour mettre en œuvre les recommandations formulées dans les rapports annuels sur le mécanisme de suspension de l’exemption de visa; recommande la poursuite de la mise en œuvre des critères de référence relatifs à la politique de libéralisation du régime des visas et appelle les autorités à poursuivre leurs efforts en vue de satisfaire aux critères relatifs à la libéralisation du régime des visas, en particulier dans le domaine de la lutte contre la corruption, de renforcer le pouvoir judiciaire, d’appliquer la législation en matière de lutte contre le blanchiment de capitaux et de prendre des mesures concrètes pour faire face à l’augmentation du nombre de demandes d’asile non fondées; à cet égard, se dit préoccupé par l’augmentation du nombre de ressortissants moldaves trouvés en séjour irrégulier dans l’espace Schengen+ (+47 %) ainsi que par l’augmentation du nombre de demandes d’asile (+48 %); exhorte les autorités moldaves à poursuivre la concrétisation des engagements pris dans le cadre de la libéralisation du régime des visas pour l’espace Schengen dans le domaine de la gestion effective de la migration ainsi qu’à garantir les droits des ressortissants de pays tiers qui demandent l’asile en République de Moldavie;

18.  se félicite de l’adoption, par le parlement de la République de Moldavie, de nombreux actes législatifs conformes aux engagements pris par le pays dans le cadre de l’accord d’association, à savoir dans le domaine de l’administration publique, de la gestion des finances publiques et des réformes du système judiciaire; souligne l’importance d’une mise en œuvre complète de ces actes, y compris par l’adoption de dispositions de droit dérivé;

19.  se félicite des progrès obtenus en matière de gestion financière publique et invite les autorités moldaves à accélérer la mise en œuvre d’autres réformes de l’accord d’association/zone de libre-échange complet et approfondi fondées sur l’amélioration de l’état de droit;

20.  salue les mesures essentielles de la République de Moldavie en vue d’améliorer la performance de l’administration publique; à cette fin, invite le gouvernement moldave à assurer la pleine mise en œuvre de la réforme de l’administration publique pour 2016-2020 conformément aux principes d’administration publique de l’OCDE/SIGMA; encourage en outre les autorités moldaves à renforcer la transparence et à lutter contre la corruption généralisée dans l’administration publique, ainsi qu’à créer une école nationale d’administration publique;

21.  souligne qu’une mise en œuvre plus efficiente et plus durable de l’accord d’association est le fait d’une administration professionnelle et impartiale des institutions et organismes publics; à cet égard, se dit une nouvelle fois préoccupé par l’absence de volonté permanente d’améliorer le secteur public, ce qui décourage les personnes compétentes de faire carrière dans l’administration publique, et souligne qu’il faut mettre en place une administration publique professionnelle et encourager les jeunes à faire carrière dans le secteur public afin de parvenir à une administration plus transparente où le népotisme et le favoritisme n’entraînent plus de politisation chronique;

22.  demande que soit engagée le plus rapidement possible une réforme plus importante en matière de décentralisation, notamment la réforme du système administratif-territorial du pays, le développement régional et la décentralisation administrative, assortie de la possibilité de prélever des impôts locaux; souligne à cet égard qu’il faut élargir et approfondir la coopération entre les autorités locales, réduire le nombre d’administrations locales et prendre des mesures supplémentaires leur garantissant une plus grande indépendance et une baisse de leur coût de fonctionnement; invite les autorités moldaves à respecter les principes de la démocratie locale et de l’autonomie locale, conformément à la charte européenne de l’autonomie locale, en accordant des pouvoirs et un financement suffisants aux administrations locales et en assurant leur efficacité;

23.  s’inquiète du niveau élevé de concentration et de politisation des secteurs des médias et de la publicité, ce qui entraîne un faible niveau de confiance des citoyens dans les médias; demande aux autorités moldaves de poursuivre la réforme du secteur des médias, en associant davantage la société civile à ce processus; demande à la République de Moldavie la révision du code audiovisuel et la libéralisation du marché de la publicité conformément aux normes européennes en matière de liberté et de pluralisme des médias, comme le recommandent la Commission européenne et la Commission de Venise, afin d’assurer une transparence totale de l’actionnariat dans le secteur des médias et le marché de la publicité;

24.  estime que le renforcement du pluralisme des médias et de leur indépendance devrait figurer parmi les priorités de l’Union et de la République de Moldavie, dans le cadre de leur partenariat, et que cet aspect devrait également être reflété comme il se doit dans les dotations financières; appelle la Commission à accroître son soutien aux médias indépendants, notamment dans les régions; exhorte les autorités moldaves à s’abstenir d’exploiter la pandémie de COVID-19 pour adopter des mesures réduisant la liberté d’expression et limitant la capacité des médias à rapporter l’ampleur réelle des retombées de la crise du coronavirus sur la société de manière indépendante et impartiale; se dit préoccupé par la propagation de fausses informations et de la désinformation en République de Moldavie pendant la crise du coronavirus et souligne que les autorités locales et l’Union doivent mettre en place des programmes spécifiques qui encouragent l’éducation aux médias, luttent contre la désinformation et soutiennent les contenus médiatiques de qualité rapportant des faits contrôlés;

25.  prie instamment les autorités moldaves d’encourager des médias libres et indépendants et, notamment en réalisant un audit indépendant du conseil de l’audiovisuel, d’assurer l’efficacité du conseil de l’audiovisuel en tant qu’autorité de réglementation indépendante afin de lutter contre l’intimidation constante des journalistes, la politisation et le manque de transparence des organismes publics et des organismes de réglementation, l’absence d’accès public aux informations et à des contenus médiatiques de qualité, et de garantir la transparence de l’actionnariat des médias;

26.  souligne que l’Union est le principal fournisseur d’aide à la République de Moldavie; note avec vive préoccupation la poursuite de la propagande, des campagnes de désinformation et des propos dénigrants des responsables politiques au pouvoir contre l’Union, lesquels en donnent une image déformée et irréaliste à la télévision publique et dans les médias; déplore ces attaques publiques contre l’aide et l’image de l’Union car elles sont préjudiciables à la mise en œuvre de l’accord d’association et aux relations entre l’Union et la République de Moldavie; demande aux autorités moldaves de mettre fin aux campagnes de désinformation et de propagande contre l’Union européenne dont les citoyens de la République de Moldavie sont généralement les destinataires et d’accroître leur soutien à la lutte contre les fausses informations, la guerre hybride au niveau de la communication, les campagnes de désinformation ciblées et la dégradation des programmes médiatiques; souligne que la politisation des médias est structurellement préjudiciable aux libertés fondamentales et à l’accès à l’information;

27.  regrette que les autorités actuelles de Chișinău s’éloignent peu à peu de la trajectoire européenne, au détriment des aspirations démocratiques du pays, et demande instamment à tous les partis politiques proeuropéens de trouver des solutions par le dialogue, et ce afin d’assurer la poursuite du processus d’intégration européenne de la République de Moldavie et de bénéficier pleinement de tous les avantages découlant de l’accord d’association/accord de libre-échange complet et approfondi;

28.  invite les autorités moldaves à redoubler d’efforts pour veiller à ce que les possibilités offertes par l’accord d’association/l’accord de libre-échange complet et approfondi ainsi que l’assistance et les programmes de l’Union soient déployés à l’échelon local, y compris dans les endroits reculés du pays, en particulier les zones rurales, afin de permettre aux habitants de favoriser une évolution positive de leurs communautés, en particulier celles qui sont plus vulnérables aux sentiments post-soviétiques et aux manipulations de la Russie;

29.  estime que les autorités devraient fournir des informations transparentes sur l’aide extérieure qu’elles ont l’intention de solliciter et que les financements en provenance de la Fédération de Russie devraient être discutés ouvertement au Parlement ainsi qu’avec les experts et la société civile, y compris les conditions géostratégiques et l’incidence à long terme de ce type de financement sur l’économie; estime qu’en ce qui concerne les conditions liées à l’aide financière de l’Union, les autorités devraient également apporter au grand public les explications nécessaires; souligne que les conditions fixées par l’Union doivent être considérées comme des occasions d’entreprendre les réformes nécessaires;

30.  souligne la nécessité de lutter contre la désinformation russe à l’aide d’informations accessibles, factuelles et de qualité ainsi que de campagnes publiques destinées à davantage sensibiliser la population; encourage les autorités de la République de Moldavie à s’efforcer de renforcer leur coopération avec l’Union et ses États membres afin d’améliorer la mise en œuvre des bonnes pratiques et de solutions pour lutter contre la désinformation, la propagande, les manipulations et les actes hostiles perpétrés par des forces extérieures en vue de diviser, de déstabiliser et de porter atteinte à l’intégrité des processus politiques internes et des relations avec l’Union;

31.  prend acte des progrès accomplis en vue de l’adoption, par le Parlement de la République de Moldavie, de la nouvelle loi sur les organisations non commerciales dans le cadre des conditions d’obtention de l’assistance macrofinancière de l’Union européenne; espère que sa mise en œuvre rapide et efficace favorisera le plein respect des droits et libertés de la société civile et des organisations non gouvernementales, ainsi que la liberté d’association, et demande au gouvernement moldave de soutenir davantage le développement de la société civile; attire l’attention sur le rôle central joué par les ONG dans toute société démocratique et espère que la nouvelle législation améliorera la transparence du processus décisionnel public et offrira un cadre modernisé au fonctionnement de la société civile dans le pays; invite les autorités moldaves à s’abstenir de faire pression sur les ONG et les autres acteurs de la société civile; déplore la méfiance et l’hostilité avec lesquelles les responsables politiques abordent la société civile en général; préconise une participation plus décisive et plus active de la société civile aux processus d’élaboration et de mise en œuvre des politiques, en particulier en ce qui concerne les droits de l’homme et les libertés fondamentales, à l’égard desquelles les ONG pourraient jouer un rôle de surveillance et faire en sorte que les institutions de l’État rendent compte de leurs actes; dans cette optique, invite la Commission et les États membres à offrir leur appui politique, technique et financier à la société civile et prie instamment les institutions de l’Union d’établir des règles claires permettant d’éviter que des subventions soient accordées à des «GONGO» (organisations non gouvernementales créées et financées par les gouvernements par des voies informelles);

32.  invite les autorités moldaves à encourager la transparence du processus décisionnel et à assurer la participation effective et la consultation des parties intéressées et de la société civile à toutes les étapes, ce qui permettra d’améliorer le contrôle public des réformes réalisées ainsi que leur acceptation par la société;

33.  se félicite des modifications de la législation électorale adoptées en août 2019 et de l’arrêt de la Cour constitutionnelle moldave de février 2020 sur les exigences territoriales en matière de création de partis politiques;

34.  souligne que la crise de la COVID-19 a révélé le sous-développement du système de santé de la République de Moldavie et sa difficulté à faire face à la récente augmentation du nombre de cas; demande instamment à la Commission, aux États membres et à la République de Moldavie de développer la coopération en matière de résilience des services de santé publique, d’échanger les bonnes pratiques et de travailler avec la société civile, les entreprises et les communautés de PME à la mise en place de stratégies de prévention épidémique axées sur les groupes sociaux les plus vulnérables; invite les autorités moldaves à renforcer le système de soins de santé, à améliorer les normes d’hygiène, notamment dans les hôpitaux, ainsi qu’à fournir à sa population toutes les informations pertinentes sur la pandémie de façon transparente et inclusive;

Coopération dans le domaine de la politique étrangère et de sécurité commune (PESC) et progrès dans la résolution du conflit en Transnistrie

35.  salue la participation de la République de Moldavie aux missions et opérations menées au titre de la politique de sécurité et de défense commune (PSDC) sur la cybersécurité et aux enquêtes en matière de cybersécurité et de cybercriminalité, de même que la coopération de la République Moldavie avec l’OTAN, et se réjouit qu’elle se soit alignée sur les déclarations PESC de l’Union; invite les institutions de l’Union à inclure la République de Moldavie dans de nouvelles formes de coopération en matière de cybersécurité, de menaces hybrides et d’enquêtes liées à la cybercriminalité;

36.  reconnaît l’importance de la mission de l’Union européenne d’assistance à la frontière entre la Moldavie et l’Ukraine (EUBAM) pour harmoniser la gestion des frontières et le régime douanier avec ceux de l’Union, mais aussi pour résoudre la question de la Transnistrie;

37.  reconnaît l’expérience et l’expertise uniques de la République de Moldavie et la contribution qu’elle peut apporter à la politique de sécurité et de défense commune de l’Union, et plaide pour un approfondissement de la coopération dans les politiques de défense liées à l’Union, y compris la participation à la coopération structurée permanente lorsque la question de l’association de pays tiers aura été résolue;

38.  réitère le soutien de l’Union en faveur de la souveraineté et de l’intégrité territoriale de la République de Moldavie et des efforts entrepris dans le cadre du processus de négociation dit «5+2» pour trouver un règlement politique pacifique, global et durable du conflit en Transnistrie, sur la base du respect de la souveraineté et de l’intégrité territoriale de la République de Moldavie à l’intérieur de ses frontières internationalement reconnues, avec un statut spécial pour la Transnistrie, qui garantirait la protection des droits de l’homme même dans les régions qui ne sont actuellement pas sous le contrôle des institutions constitutionnelles; rappelle que l’Assemblée générale des Nations unies a adopté, le 22 juin 2018, une résolution exhortant la Fédération de Russie à retirer sans condition ses forces et ses armements du territoire de la République de Moldavie et à réaffirmer son soutien à la mise en œuvre immédiate de cette résolution;

39.  encourage le gouvernement moldave à continuer de promouvoir un environnement propice au règlement des conflits et à soutenir des activités qui renforcent la confiance et les contacts interpersonnels au sein des communautés divisées par un conflit;

40.  reconnaît que l’interdépendance accrue entre la République de Moldavie et la région de Transnistrie en matière de sécurité et la stabilité de ces deux parties sont indispensables pour prévenir et résoudre les problèmes de sécurité, tels que les menaces hybrides, les cyberattaques, la cyberingérence dans les élections, les campagnes de désinformation et de propagande et l’ingérence de tiers dans les processus politiques, électoraux et autres processus démocratiques;

41.  se félicite des efforts déployés par le gouvernement moldave pour étendre les avantages de la zone de libre-échange approfondi et complet et du régime d’exemption de visa à la région de Transnistrie, ce qui a permis d’accroître sensiblement la mobilité et les échanges avec la région, ainsi que de toutes les activités qui renforcent la collaboration économique et augmentent le niveau des échanges de biens et de services entre la République de Moldavie et la Transnistrie;

42.  considère qu’en garantissant un accès en franchise de droits aux marchés de l’Union aux entreprises de Transnistrie enregistrées sur la rive ouest du Dniestr et soumises à des contrôles douaniers par des fonctionnaires moldaves, la zone de libre-échange approfondi et complet a profondément réorienté les échanges commerciaux de l’Union économique eurasiatique vers l’Union; encourage les autorités moldaves à progresser sur la voie des échanges et à coopérer avec les marchés de l’Union afin de favoriser l’accès au marché, la transparence et les bonnes pratiques commerciales, et de réduire la capacité des oligarques à manipuler et monopoliser le marché;

43.  souligne que toute solution à la question de la Transnistrie doit respecter le droit souverain de la République de Moldavie de choisir ses propres orientations en matière de défense et de politique étrangère;

44.  exhorte les autorités de la République de Moldavie à envisager l’adoption et l’application du train de mesures relatif à la prévention des conflits et à la gestion des crises, qui faisait partie du plan d’action national de la Moldavie pour la mise en œuvre de l’accord d’association entre l’Union européenne et la République de Moldavie pour la période 2017-2019;

État de droit et bonne gouvernance

45.  s’inquiète de la lenteur des réformes dans le domaine de l’état de droit et des institutions démocratiques; invite instamment le gouvernement de la République de Moldavie à achever sans délai les réformes judiciaires afin de garantir l’indépendance, l’impartialité et l’efficacité du pouvoir judiciaire et des institutions spécialisées dans la lutte contre la corruption; invite, ce faisant, le gouvernement moldave à garantir un processus transparent de rédaction des amendements à la Constitution moldave concernant le Conseil supérieur de la magistrature (CSM) et de leur adoption ultérieure, en s’appuyant sur la jurisprudence et les bonnes pratiques, conformément aux recommandations de la Commission de Venise et en consultation avec le Conseil de l’Europe et des experts de l’Union européenne, la société civile et d’autres acteurs intéressés; regrette que les amendements relatifs à la nomination des membres du CSM aient été adoptés dans la précipitation par le Parlement; souligne la nécessité de garantir l’indépendance du CSM et demande aux autorités moldaves de garantir des procédures fondées sur le mérite pour la sélection et la promotion des juges;

46.  invite les autorités à continuer de se concerter efficacement afin d’adopter un concept et un plan d’action pour une réforme de la justice fondée sur un diagnostic complet, garantissant un large consensus parmi les parties prenantes, dans le strict respect de la Constitution moldave et des normes européennes;

47.  s’inquiète du faible niveau de confiance dans l’intégrité et l’efficacité du système judiciaire et de la sensibilité du pouvoir judiciaire aux pressions politiques qui font obstacle à son indépendance; demande aux autorités de la République de Moldavie de garantir la transparence des procédures de nomination des juges et de veiller à ce que le procureur général, son personnel et le parquet dans son ensemble travaillent de manière indépendante et respectent les normes les plus élevées en matière de professionnalisme et d’intégrité;

48.  souligne à cet égard que le manque de ressources et de connaissances en matière de bonne gouvernance, d’état de droit et de droits de l’homme se répand et nuit au bon fonctionnement de l’administration moldave et invite la Commission européenne à augmenter le financement par le biais des instruments d’appui budgétaire et d’assistance technique disponibles, afin de renforcer la justice, ainsi que la capacité et l’efficacité des autorités répressives, en tenant compte des progrès accomplis dans la mise en œuvre des réformes;

49.  exhorte les autorités de la République de Moldavie à renforcer l’indépendance totale de la Cour constitutionnelle et à veiller à ce qu’elle ne fasse l’objet d’aucune forme d’ingérence politique; rejette fermement toute tentative d’intimidation ou de pression exercée sur les juges de la Cour constitutionnelle et condamne les pressions énormes, le chantage et le harcèlement dont ont été victimes les juges de la Cour avant de prendre leur décision sur le prêt russe; déplore vivement les tentatives de politiser la Cour constitutionnelle et l’inactivité du ministère public et du centre de lutte contre la corruption dans la défense de l’indépendance de la Cour constitutionnelle;

50.  s’inquiète de l’absence persistante et durable de progrès dans la lutte contre la corruption en République de Moldavie et demande donc instamment au gouvernement de renforcer la lutte contre corruption et la mainmise de l’État, ainsi que la lutte contre le blanchiment d’argent, la contrebande et la criminalité organisée, y compris la traite des êtres humains; invite le gouvernement de la République de Moldavie à adopter des mesures concrètes pour renforcer l’indépendance, l’intégrité et l’efficacité du Centre national anticorruption et du bureau du ministère public chargé de la lutte contre la corruption, et pour dépolitiser les institutions publiques chargées de la lutte contre la corruption et les services répressifs; souligne la nécessité d’efforts soutenus et cohérents pour prévenir et réprimer la corruption de haut niveau et la criminalité organisée; estime qu’il s’agit là du seul moyen de rétablir la confiance des citoyens moldaves et de garantir l’adoption de réformes durables en République de Moldavie; invite la Commission à apporter un soutien beaucoup plus cohérent aux organisations de la société civile chargées de contrôler les activités frauduleuses et le blanchiment d’argent;

51.  demande instamment aux autorités de redoubler d’efforts pour lutter contre la criminalité organisée et démanteler les organisations criminelles;

52.  se félicite de l’adoption, le 21 mai 2020, de la loi sur les sanctions contre le blanchiment de capitaux et demande l’élaboration rapide de lignes directrices pour l’application de la nouvelle législation, ainsi que la formation spécialisée des autorités concernées; invite toutes les parties intéressées à maintenir des efforts constants dans la lutte contre la contrebande et le blanchiment de capitaux, le démantèlement des réseaux criminels et la réduction de l’influence des oligarques; plaide en faveur d’une coopération renforcée avec Europol, Interpol et des organisations douanières telles que l’OMD et les réseaux de lutte contre la corruption de l’OCDE;

53.  relève avec préoccupation les conclusions du rapport 2019 de la Commission et du SEAE sur la mise en œuvre de l’accord d’association concernant la Moldavie, selon lesquelles la mise en place d’instruments et d’organes de prévention de la fraude et du blanchiment de capitaux a été lente; attend du nouveau gouvernement qu’il s’appuie sur les mesures prises récemment par le précédent gouvernement dans la lutte contre la corruption et le démantèlement d’organisations criminelles et de systèmes de blanchiment;

54.  prend acte des mesures prises en vue de poursuivre l’action engagée au regard de la fraude bancaire massive révélée en 2014 ainsi que d’autres cas de blanchiment de capitaux; rappelle toutefois ses préoccupations quant à l’absence persistante de poursuites transparentes à l’encontre de tous les responsables de la fraude bancaire dévoilée en 2014, et quant à la lenteur du processus de récupération des avoirs volés; exprime une nouvelle fois ses préoccupations au regard du recouvrement d’actifs, resté marginal jusqu’ici, et souligne qu’il convient de prendre de nouvelles mesures en ce sens; invite les autorités moldaves à accélérer les poursuites et à traduire sans délai tous les responsables devant la justice et à récupérer les fonds détournés; invite les États membres à fournir un soutien important aux autorités de la République de Moldavie pour instruire une affaire si celles-ci leur en font la demande;

55.  se félicite de l’adoption, le 18 juin 2020, de la nouvelle loi visant à abolir le programme de citoyenneté contre investissement à partir du 1er septembre 2020, au terme du moratoire actuel; estime qu’il s’agit d’une avancée essentielle pour réduire les risques de corruption, de fraude fiscale et de blanchiment de capitaux en République de Moldavie; note que, jusqu’à l’annulation du programme, seules les demandes déjà présentées seront traitées, et demande à la Commission de suivre ce processus de près;

56.  demande instamment aux autorités de la République de Moldavie d’accroître la transparence sur le financement des partis politiques et d’enquêter sur toutes les irrégularités de manière équitable et impartiale; insiste sur la nécessité de lutter contre la corruption au sein de la classe politique moldave; est profondément préoccupé par les récentes allégations d’achat de députés au Parlement visant à les faire changer d’affiliation politique, ainsi que par les allégations d’enlèvement, d’intimidation et de pression sur des représentants élus; souligne que ces allégations doivent faire l’objet d’une enquête et que ces comportements sont incompatibles avec les valeurs qui régissent l’accord d’association avec la République de Moldavie; attire également l’attention sur la responsabilité des partis politiques dans la lutte contre la corruption dans leurs propres rangs; invite en outre les autorités à veiller à ce que les fonds des fondations caritatives ne soient pas utilisés pour les campagnes électorales; demande instamment aux autorités d’interdire l’utilisation des crédits administratifs en faveur de la classe politique dominante pendant les campagnes électorales;

Droits de l’homme et libertés fondamentales

57.  prend acte de l’amélioration de législation sur la protection des droits de l’homme, notamment du fait de l’adoption du nouveau plan d’action 2018-2022 en faveur des droits de l’homme; invite les autorités moldaves à redoubler d’efforts et à adopter des mesures d’exécution et une législation dérivée pour défendre ces droits et les libertés fondamentales, notamment pour protéger les groupes vulnérables, tels que les femmes et les enfants maltraités par des trafiquants d’êtres humains, les minorités linguistiques, les personnes handicapées, les Roms et les personnes LGBT+, et à reconnaître ainsi le respect des droits de l’homme comme un aspect fondamental et une condition essentielle des sociétés démocratiques; constate avec inquiétude que des problèmes considérables subsistent et demeurent impunis en ce qui concerne les droits de l’homme, tels que des pressions ainsi que des poursuites et des détentions à caractère politique, des actes de torture, des détentions arbitraires, des conditions de détention difficiles et potentiellement mortelles, des atteintes arbitraires ou illégales à la vie privée et des cas de travail forcé des enfants;

58.  exprime sa profonde inquiétude quant à la situation des Moldaves bloqués dans des États membres de l’Union sans protection sociale en raison de la crise de la COVID-19; demande à la Commission et aux États membres de veiller, dans le contexte de la pandémie de COVID‑19, à l’égalité de traitement entre travailleurs saisonniers ressortissants de pays tiers et travailleurs saisonniers ressortissants de pays membres de l’Union, conformément à la directive 2014/36/UE(8), étant rappelé que ces travailleurs ressortissants de pays tiers bénéficient des mêmes droits sociaux et du travail que les citoyens de l’Union; demande aux États membres de veiller à la qualité des hébergements des travailleurs transfrontières et saisonniers, qui ne doivent pas être liés à leur rémunération, doivent offrir des aménagements décents et des espaces privés aux locataires, et être loués par contrats écrits, contrôlés par les inspections du travail, ainsi que de fixer des normes en la matière;

59.  relève avec inquiétude la mise en œuvre limitée des engagements pris dans le cadre de l’accord d’association dans le domaine social, au regard notamment de l’inspection du travail, de la lutte contre les discriminations et du dialogue social; est préoccupé par le fait que les progrès accomplis dans la résolution des vulnérabilités macrofinancières restent insuffisants pour améliorer sensiblement le niveau de vie, et que ceux-ci sont désormais menacés par les répercussions de la crise de la COVID-19; insiste sur la participation obligatoire des syndicats ainsi que des organisations de la société civile à la mise en œuvre des accords d’association;

60.  souligne que la République de Moldavie doit rendre des comptes à l’Union au regard des engagements pris par celle-ci au regard de la dimension sociale de l’accord d’association; demande à la Commission de présenter, concernant les progrès accomplis dans la mise en œuvre des aspects sociaux et professionnels de l’accord d’association, un rapport annuel détaillé qui analyse non seulement la transposition des directives et normes pertinentes de l’Union, mais également leur application effective; invite la Commission à donner suite aux propositions formulées par des experts du droit du travail en vue de la mise en place d’un mécanisme de sanction des infractions aux normes convenues; propose d’utiliser le versement de l’aide macrofinancière comme un levier ou de le subordonner à des conditions afin de contraindre la République de Moldavie à améliorer les conditions de travail de sa main-d’œuvre;

61.  signale que le respect des droits de l’homme dans la région de Transnistrie est un sujet de préoccupation, en particulier dans le contexte de la pandémie de COVID-19;

62.  invite la Commission à mettre à jour les secteurs négligés des AA, y compris des domaines d’action importants tels que la question de genre, le pacte vert pour l’Europe et la prévention des crises sanitaires;

63.  souligne que l’égalité entre les femmes et les hommes est une condition préalable essentielle à un développement durable et inclusif; exhorte le gouvernement et les autorités de Moldavie à mettre en œuvre des mesures pour améliorer encore la représentation des femmes et l’égalité de traitement à tous les niveaux de la vie politique et de la vie en société; demande à la Commission d’intégrer l’égalité entre les femmes et les hommes à l’ensemble de ses politiques, programmes et activités en lien avec la République de Moldavie et encourage les autorités de la République de Moldavie à promouvoir des programmes dotés d’une approche cohérente en matière d’égalité entre les hommes et les femmes, à apporter davantage de soutien aux groupes les plus défavorisés et les plus vulnérables de la société, et à mettre en œuvre la législation visant à lutter contre les discours de haine et la violence physique à l’encontre des groupes les plus vulnérables;

64.  demande instamment aux autorités moldaves de ratifier la convention d’Istanbul, qui a été signée par la République de Moldavie le 6 février 2017, mais qui tarde à être ratifiée, bien qu’il s’agisse un objectif explicite du plan d’action national 2018-2022 en faveur des droits de l’homme et de la stratégie nationale 2018-2023 sur la prévention et la lutte contre la violence à l’égard des femmes et la violence domestique; rappelle que la violence à l’égard des femmes et des filles est répandue en République de Moldavie et que deux femmes sur cinq ont subi des violences physiques ou sexuelles de la part de leur partenaire ou d’une autre personne après l’âge de 15 ans;

65.  demande que des mesures supplémentaires soient prises pour mettre en œuvre la législation nationale en matière de prévention et de lutte contre la traite des êtres humains ainsi que pour augmenter de manière substantielle la qualité des services offerts aux victimes, et appelle à davantage de protection, d’assistance et de soutien pour les victimes de la criminalité, en particulier les enfants, pendant les enquêtes et après la procédure judiciaire; appelle en outre à davantage de soutien au cours de la réintégration sociale des victimes; appelle de ses vœux une plus grande coopération entre les autorités judiciaires et les services répressifs de République de Moldavie et des États membres, afin de réduire la criminalité transfrontalière, en particulier la traite des êtres humains et le trafic de drogues illicites;

66.  exhorte les autorités à garantir le droit à un procès équitable et le respect des droits de l’homme dans les centres de détention et les établissements pénitentiaires, notamment en remédiant aux insuffisances en matière de soins de santé; souligne à cet égard la nécessité d’offrir un environnement sûr aux détenus; demande en outre que des mesures soient prises pour éviter la justice sélective et motivée par des raisons politiques;

67.  demande une nouvelle fois aux autorités moldaves de veiller à ce que toute demande d’extradition émanant de pays tiers soit traitée de façon transparente, dans le respect des procédures judiciaires, conformément aux normes et principes européens;

68.  demande que des mesures plus concrètes soient prises pour améliorer les conditions de détention et mettre un terme à la détention de personnes handicapées contre leur gré dans des hôpitaux psychiatriques; demande l’élimination complète de la torture et des mauvais traitements dans les prisons en tant que moyens de pression sur les opposants politiques emprisonnés ou détenus;

69.  prend acte des mesures prises au niveau national pour prévenir et combattre la torture, mais souligne que la République de Moldavie continue d’être condamnée régulièrement pour torture et mauvais traitements par la Cour européenne des droits de l’homme; demande dès lors que soit créée une agence totalement indépendante, chargée spécifiquement d’enquêter sur les allégations de torture et d’autres violations des droits de l’homme commises par la police ou par d’autres agents des forces de l’ordre;

70.  s’inquiète de la présence constante, dans le débat public, de discours de haine, y compris de la part de personnalités politiques ainsi que de chefs religieux et de responsables locaux; souligne à cet égard que les femmes et les personnes LGBTI+ sont particulièrement visées par ces attaques; invite les agents de la fonction publique à s’abstenir de prononcer des discours de haine et à s’exprimer publiquement contre ces derniers à chaque fois qu’ils ont lieu, et demande aux autorités d’ajuster le cadre juridique et institutionnel de la lutte contre les discours de haine afin de combattre ce phénomène à l’aide de tous les mécanismes disponibles;

71.  rappelle qu’un projet de loi visant à établir une législation de type «loi Magnitski» a déjà été présenté au Parlement moldave; encourage l’organe législatif à poursuivre l’examen de cette loi, qui, si elle était adoptée, contribuerait à lutter contre les violations des droits de l’homme, la corruption et le blanchiment de capitaux;

Commerce et coopération économique

72.  est d’avis que l’aide de l’Union à la République de Moldavie doit continuer à donner la priorité à l’amélioration du niveau de vie des citoyens, en s’attachant avant tout à faciliter le développement des PME, aider la jeunesse et contribuer à la réforme générale des secteurs de l’éducation et de la santé;

73.  salue les initiatives de chefs d’entreprise visant à développer les jeunes entreprises moldaves; reconnaît néanmoins qu’il faut poursuivre les réformes du secteur public et améliorer l’assistance financière pour créer des emplois supplémentaires qui inciteront les jeunes et les travailleurs qualifiés à rentrer dans leur pays d’origine;

74.  invite la Commission à contribuer à répondre aux problématiques économiques rencontrées par la jeunesse en République de Moldavie en investissant dans des programmes en faveur de l’entrepreneuriat des jeunes et de l’entrepreneuriat social, ainsi qu’à renforcer le lien entre la réforme du système éducatif et la demande du marché du travail; insiste sur la nécessité d’investir dans des programmes axés sur les jeunes issus de zones rurales, car ils comptent parmi les groupes de population les plus vulnérables et manquent de perspectives socioéconomiques par rapport aux jeunes des zones urbaines;

75.  reconnaît que le phénomène de «fuite des cerveaux», souvent causé par le manque de confiance dans le système judiciaire, le népotisme et l’absence de réformes appropriées dans le pays, constitue une grave menace pour l’avenir de la République de Moldavie et s’inquiète de l’émigration massive de citoyens moldaves, qui accentue les tendances démographiques négatives; encourage le gouvernement moldave à mettre en œuvre de nouvelles mesures pour prévenir et combattre ce phénomène, notamment en ouvrant de nouvelles perspectives aux jeunes travailleurs et en améliorant leurs conditions de travail et leurs salaires dans leur pays d’origine, afin qu’ils puissent rentrer après leurs études ou leur formation à l’étranger, mais aussi en soutenant l’entrepreneuriat des jeunes; invite la Commission à se pencher sur cette question dans ses programmes;

76.  se félicite de la diversification de l’économie moldave et de l’augmentation sensible des échanges commerciaux entre la République de Moldavie et l’Union et du fait que l’Union est le plus important investisseur dans ce pays; salue le fait qu’en 2018, l’Union représentait 70 % du total des exportations de la République de Moldavie et 56 % du total de ses échanges commerciaux; incite à progresser davantage dans des domaines tels que le code des douanes, la protection des droits de propriété intellectuelle, y compris les indications géographiques, l’amélioration des normes sanitaires et phytosanitaires, l’amélioration des conditions du marché dans le secteur de l’énergie, la passation de marchés publics et l’accès au financement pour les PME;

77.  encourage la mise en œuvre pleine et entière de la zone de libre-échange approfondi et complet afin de renforcer encore les relations bilatérales entre l’Union européenne et la Moldavie en matière d’échanges commerciaux et d’investissements, notamment en supprimant les obstacles tarifaires aux échanges, en facilitant l’accès au marché unique européen et en progressant sur la voie de l’intégration à ce marché; rappelle que l’accord de libre-échange approfondi et complet avec la République de Moldavie doit respecter les règles énoncées dans les chapitres sur le développement durable, conformément aux engagements internationaux, et en particulier l’accord de Paris, et aux règles de l’OMC;

78.  salue l’adoption par le Parlement moldave de l’approche européenne Leader comme base de sa politique rurale nationale; encourage cependant la République de Moldavie, notamment par la voie de mesures spécifiques dans la prochaine stratégie nationale pour l’agriculture et le développement rural, à tirer pleinement parti des possibilités d’exportation préférentielles vers l’Union au travers de la mise en place d’une culture plus efficace et durable des terres agricoles ainsi que de la démocratisation de l’accès aux terres et de l’usage de ces dernières, en vue de générer des produits agricoles qui contribueraient à amplifier les avantages relatifs dont dispose la République de Moldavie en matière d’agriculture;

79.  salue le rapprochement des réglementations avec l’acquis de l’Union et encourage la Commission à fournir une assistance technique et financière aux institutions et à l’administration publique moldaves pour ce projet et sa mise en œuvre ultérieure; souligne que cette assistance devrait être mise à profit pour approfondir la connaissance des droits de l’homme et de l’état de droit et invite les autorités moldaves à œuvrer à un rapprochement plus rapide avec l’accord d’association et la zone de libre-échange approfondi et complet en matière de santé animale et de sécurité alimentaire;

80.  salue la stratégie nationale «Moldavie numérique 2020», mais exhorte la Commission à soutenir et à seconder les programmes et réformes concernant l’éducation aux médias et à l’information afin que ceux-ci soient adaptés à l’ère numérique, ainsi qu’à renforcer la coopération sectorielle dans le cadre de l’économie numérique; invite la République de Moldavie à mettre en place une économie de marché numérique fiable, en renforçant la nécessité de progresser dans le domaine des données ouvertes, en élargissant l’accessibilité aux systèmes numériques et en améliorant l’accès des citoyens aux services électroniques et aux différentes solutions de communication;

81.  invite la Commission à soutenir les investissements dans les secteurs présentant un potentiel de développement, de croissance et de compétitivité dans l’Union, notamment dans trois secteurs d’importance stratégique, tels que l’énergie durable et le climat, le marché unique du numérique et la cybersécurité, ainsi que les transports;

82.  invite instamment le gouvernement moldave à se concentrer également sur la dimension sociale du commerce et du développement durables, en respectant et en appliquant les normes en matière de travail, en ratifiant et en mettant pleinement en œuvre l’ensemble des conventions de l’OIT et en remédiant aux lacunes qui persistent dans le système d’inspection du travail, mais aussi en s’attaquant aux limites et aux lacunes du système d’inspection du travail et aux problèmes du système judiciaire, qui empêchent la bonne application des normes du travail;

83.  invite les autorités moldaves à adopter et à mettre en œuvre des politiques visant à réglementer les relations commerciales (passation de marchés publics, privatisation, concession et partenariat public-privé) qu’entretiennent avec les pouvoirs publics les entités situées dans des juridictions n’appliquant pas les normes internationales de transparence (juridictions offshore) et les sociétés qui sont directement ou indirectement contrôlées par ces entreprises;

84.  invite l’Union à envisager de permettre aux pays ayant conclu un AA/ALEAC avec l’Union d’adhérer à l’espace unique de paiements en euros (SEPA), puisque cela profiterait aux citoyens et offrirait de nouvelles possibilités au développement des PME;

Énergie, environnement et changement climatique

85.  invite le gouvernement moldave à poursuivre la réforme du secteur de l’énergie afin d’accroître sa résilience ainsi que sa transparence en matière de coûts et de contrats et d’améliorer l’indépendance et l’efficacité énergétiques, notamment en multipliant les interconnexions énergétiques avec l’Union, en diversifiant les sources d’énergie, y compris d’énergies renouvelables, et en réduisant la dépendance à l’égard des combustibles fossiles; souligne que tous ces éléments sont d’une importance capitale pour renforcer la sécurité énergétique du pays;

86.  se félicite des mesures prises pour renforcer les capacités institutionnelles et l’indépendance du régulateur de l’énergie et incite à prendre les mesures nécessaires et urgentes en vue de la mise en œuvre intégrale du troisième paquet «Énergie», en particulier dans le domaine du gaz naturel, et du plein respect de l’acquis de la Communauté de l’énergie; invite en particulier l’agence nationale pour la régulation de l’énergie de la République de Moldavie à approuver les règles du marché de l’énergie fondées sur une concurrence loyale et à veiller au respect de ces règles par l’ensemble des intervenants du marché, y compris les opérateurs de l’État;

87.  souligne qu’il importe de renforcer la coopération en matière d’infrastructures dans la région, notamment en vue de diversifier l’approvisionnement énergétique de la République de Moldavie, et d’améliorer la connectivité du secteur énergétique moldave tout en assurant sa viabilité environnementale;

88.  souligne qu’il importe de diversifier le système électrique de la République de Moldavie; demande instamment aux autorités moldaves de veiller à ce que le projet d’interconnexion des réseaux électriques de la République de Moldavie et de Roumanie soit mis en œuvre en temps utile en mettant à disposition le soutien et les ressources nécessaires;

89.  encourage les autorités moldaves à poursuivre leurs efforts en vue du renforcement de la sécurité énergétique dans le pays et salue l’achèvement du gazoduc entre Ungheni et Chișinău avant la fin de l’année 2020; en outre, invite la Commission à associer la République de Moldavie aux tests de résistance menés pour le marché intérieur de l’énergie;

90.  se félicite des arrangements convenus entre la République de Moldavie, l’Ukraine et la Roumanie en décembre 2019 pour permettre des transferts de gaz vers l’Ukraine et la République de Moldavie via le gazoduc transbalkanique, ainsi que du plan d’action de février 2020 visant à garantir l’indépendance du gestionnaire de réseau de transport Moldovatransgaz;

91.  salue les mesures prises pour interconnecter de manière asynchrone le réseau électrique de la République de Moldavie et celui de l’Union par l’intermédiaire de la Roumanie, ce qui constitue un jalon important dans le renforcement et la diversification des infrastructures énergétiques de la République de Moldavie; invite toutes les autorités à réaliser l’objectif consistant à relier la République de Moldavie au réseau électrique de la Roumanie d’ici à 2024 avec le soutien de l’Union;

92.  se félicite du paquet de la République de Moldavie de février 2019 sur le climat et l’environnement ainsi que de la réaction du pays, le quatrième au monde à présenter au secrétariat de la convention-cadre des Nations unies sur les changements climatiques (CCNUCC) sa contribution déterminée au niveau national actualisée (NDC2), laquelle comprend un niveau d’ambition revu à la hausse en matière de réduction des émissions de gaz à effet de serre; demande des efforts accrus en ce qui concerne les engagements nationaux liés à l’accord de Paris de 2015 visant à lutter contre le changement climatique, ainsi que la mise en œuvre de l’intégration de la question du changement climatique dans l’ensemble des domaines d’action;

93.  invite la République de Moldavie à renforcer davantage son engagement dans la lutte contre le changement climatique, en particulier la gestion des déchets et la gestion des eaux du Dniestr, et invite la Commission à faciliter la participation de la République de Moldavie au pacte vert pour l’Europe et à veiller à ce que l’accord de libre-échange approfondi et complet n’aille pas à l’encontre des objectifs environnementaux et des initiatives pour l’environnement prévus dans ce pacte;

94.  reconnaît l’importance d’une modernisation du système éducatif de la République de Moldavie ainsi que le rôle croissant de la jeunesse dans tous les domaines de la vie, et invite l’Union à apporter un soutien supplémentaire, en particulier dans le domaine de l’enseignement et de la formation professionnels, afin de répondre aux besoins du marché du travail; insiste sur la nécessité d’ouvrir des perspectives en matière de volontariat et d’engagement civique pour les jeunes et d’investir davantage dans la jeunesse en élargissant le financement des programmes de mobilité existants, tels qu’Erasmus+, Europe créative et Horizon 2020, et en associant davantage les autorités moldaves à ces derniers;

95.  encourage la Commission à procéder à une consultation, à préparer des programmes adaptés aux citoyens et à les mettre sur pied, notamment en établissant un contact direct avec les bénéficiaires à travers une plateforme en ligne pour le dépôt des demandes et la communication relative à l’utilisation des fonds mis à leur disposition à travers ces programmes; demande, à cet égard, que les objectifs du pacte vert et les besoins quotidiens des citoyens moldaves soient pris en compte;

Dispositions institutionnelles

96.  souligne que sans ferme détermination de la classe politique à réformer le pays et à mettre véritablement en œuvre l’accord d’association avec l’Union, aucun développement tangible et durable n’est possible; à cet égard, encourage tous les acteurs politiques et toutes les forces politiques du pays à œuvrer de concert à la mise en place de modèles multipartites et à coopérer de bonne foi en vue d’atteindre les objectifs stratégiques de la République de Moldavie, contribuant ainsi à la qualité de la démocratie et à l’amélioration des conditions de vie de la population; à cet égard, encourage les autorités moldaves à recourir au dialogue Jean Monnet afin de favoriser le dialogue entre les partis et le renforcement des capacités parlementaires;

97.  invite toutes les institutions de l’Union européenne et les États membres, en étroite coopération avec les autorités de la République de Moldavie, à mieux communiquer aux citoyens de la République de Moldavie les avantages de l’accord d’association/zone de libre-échange approfondi et complet et de l’assistance fournie par l’Union;

98.  invite la Commission à renforcer la délégation de l’Union européenne en République de Moldavie, à intensifier le suivi et à consolider l’équipe de projet à Chișinău, afin d’aider la République de Moldavie à communiquer efficacement sur le rapprochement de son droit avec celui de l’Union, à lutter contre la désinformation et à promouvoir une image positive de l’Union et de la République de Moldavie auprès de toutes les parties concernées;

o
o   o

99.  charge son Président de transmettre la présente recommandation au Conseil, à la Commission européenne, au haut représentant de l’Union pour les affaires étrangères et la politique de sécurité et vice-président de la Commission européenne, ainsi qu’au président, au gouvernement et au Parlement de la République de Moldavie.

(1) Règlement (CE) n° 539/2001 du Conseil du 15 mars 2001 fixant la liste des pays tiers dont les ressortissants sont soumis à l’obligation de visa pour franchir les frontières extérieures des états membres et la liste de ceux dont les ressortissants sont exemptés de cette obligation (JO L 81 du 21.3.2001, p. 1).
(2) Textes adoptés de cette date, P8_TA(2018)0458.
(3) JO C 118 du 8.4.2020, p. 109.
(4) JO C 356 du 4.10.2018, p. 130.
(5) JO C 334 du 19.9.2018, p. 199.
(6) JO C 11 du 12.1.2018, p. 82.
(7) JO L 165 du 27.5.2020, p. 31.
(8) Directive 2014/36/UE du Parlement européen et du Conseil du 26 février 2014 établissant les conditions d’entrée et de séjour des ressortissants de pays tiers aux fins d’un emploi en tant que travailleur saisonnier (JO L 94 du 28.3.2014, p. 375).

Avis juridique - Politique de confidentialité