Procédure : 2020/2013(INI)
Cycle de vie en séance
Cycle relatif au document : A9-0001/2021

Textes déposés :

A9-0001/2021

Débats :

Votes :

Textes adoptés :

P9_TA(2021)0009

<Date>{04/01/2021}4.1.2021</Date>
<NoDocSe>A9-0001/2021</NoDocSe>
PDF 297kWORD 123k

<TitreType>RAPPORT</TitreType>

<Titre>sur l’intelligence artificielle: questions relatives à l’interprétation et à l’application du droit international dans la mesure où l’Union est concernée dans les domaines des utilisations civiles et militaires ainsi qu’à l’autorité de l’État en dehors du champ d’application de la justice pénale</Titre>

<DocRef>(2020/2013(INI))</DocRef>


<Commission>{JURI}Commission des affaires juridiques</Commission>

Rapporteur: <Depute>Gilles Lebreton</Depute>

Rapporteur pour avis (*):

Urmas Paet, commission des affaires étrangères

(*) Commissions associées – article 57 du règlement intérieur

AMENDEMENTS
PROPOSITION DE RÉSOLUTION DU PARLEMENT EUROPÉEN
 EXPOSÉ DES MOTIFS
 AVIS DE LA COMMISSION DES AFFAIRES ÉTRANGÈRES
 AVIS DE LA COMMISSION DU MARCHÉ INTÉRIEUR ET DE LA PROTECTION DES CONSOMMATEURS
 AVIS DE LA COMMISSION DES TRANSPORTS ET DU TOURISME
 AVIS DE LA COMMISSION DES LIBERTÉS CIVILES, DE LA JUSTICE ET DES AFFAIRES INTÉRIEURES
 INFORMATIONS SUR L’ADOPTION PAR LA COMMISSION COMPÉTENTE AU FOND
 VOTE FINAL PAR APPEL NOMINAL EN COMMISSION COMPÉTENTE AU FOND

PROPOSITION DE RÉSOLUTION DU PARLEMENT EUROPÉEN

sur l’intelligence artificielle: questions relatives à l’interprétation et à l’application du droit international dans la mesure où l’Union est concernée dans les domaines des utilisations civiles et militaires ainsi qu’à l’autorité de l’État en dehors du champ d’application de la justice pénale

(2020/2013(INI))

Le Parlement européen,

 vu le préambule et les articles 2, 3, 10, 19, 20, 21, 114, 167, 218, 225 et 227 du traité sur l’Union européenne (traité UE),

 vu le droit de pétition consacré par les articles 20 et  227 du traité sur le fonctionnement de l’Union européenne (traité FUE),

 vu la charte des droits fondamentaux de l’Union européenne,

 vu la directive 2000/43/CE du Conseil du 29 juin 2000 relative à la mise en œuvre du principe de l’égalité de traitement entre les personnes sans distinction de race ou d’origine ethnique (directive relative à l’égalité raciale)[1],

 vu la directive 2000/78/CE du Conseil du 27 novembre 2000 portant création d’un cadre général en faveur de l’égalité de traitement en matière d’emploi et de travail (directive sur l’égalité de traitement en matière d’emploi)[2],

 vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données) (RGPD)[3], et la directive (UE) 2016/680 du Parlement européen et du Conseil du 27 avril 2016 relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales, et à la libre circulation de ces données, et abrogeant la décision‑cadre 2008/977/JAI du Conseil[4],

 vu le règlement (UE) 2018/1488 du Conseil du 28 septembre 2018 établissant l’entreprise commune pour le calcul à haute performance européen[5],

 vu la proposition de règlement du Parlement européen et du Conseil du 6 juin 2018 établissant le programme pour une Europe numérique pour la période 2021-2027 (COM(2018)0434),

 vu sa résolution du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique[6],

 vu sa résolution du 1er juin 2017 sur le passage au numérique des entreprises européennes[7],

 vu sa résolution du 12 septembre 2018 sur les systèmes d’armes autonomes[8],

 vu sa résolution du 11 septembre 2018 sur l’égalité des langues à l’ère numérique[9],

 vu sa résolution du 12 février 2019 sur une politique industrielle européenne globale sur l’intelligence artificielle (IA) et la robotique[10],

 vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social et au Comité des régions du 11 décembre 2019 sur le pacte vert pour l’Europe (COM/2019/640),

 vu le livre blanc de la Commission du 19 février 2020 intitulé «Intelligence artificielle – Une approche européenne axée sur l’excellence et la confiance» (COM(2020)0065),

 vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 19 février 2020 intitulée «Une stratégie européenne pour les données» (COM(2020)0066),

 vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social européen et au Comité des régions du 19 février 2020 intitulée «Façonner l’avenir numérique de l’Europe» (COM(2020)0067),

 vu le rapport du 8 avril 2019 élaboré par le groupe d’experts de haut niveau sur l’intelligence artificielle constitué par la Commission en juin 2018, rapport intitulé «Lignes directrices en matière d’éthique pour une IA digne de confiance»,

 vu la convention-cadre du Conseil de l’Europe pour la protection des minorités nationales, le protocole nº 12 à la convention de sauvegarde des droits de l’homme et des libertés fondamentales et la charte européenne des langues régionales ou minoritaires,

 vu la charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement, adoptée par le groupe de travail sur la qualité de la justice du Conseil de l’Europe (CEPEJ-GT-QUAL) en décembre 2018,

 vu la recommandation du Conseil de l’OCDE sur l’intelligence artificielle adoptée le 22 mai 2019,

 vu l’article 54 de son règlement intérieur,

 vu les avis de la commission des affaires étrangères, de la commission du marché intérieur et de la protection des consommateurs, de la commission des transports et du tourisme et de la commission des libertés civiles, de la justice et des affaires intérieures,

 vu le rapport de la commission des affaires juridiques (A9-0001/2021),

Introduction

A. considérant que l’intelligence artificielle (IA), la robotique et les technologies connexes se développent rapidement et sont susceptibles d’avoir une incidence directe sur tous les aspects de nos sociétés, y compris les valeurs et les principes sociaux et économiques de base;

B. considérant que l’IA révolutionne totalement la doctrine et la pratique militaires par un changement profond dans la façon dont les armées opèrent, du fait notamment de l’intégration et de l’exploitation de nouvelles technologies et de capacités autonomes;

C. considérant que le développement et la conception de l’«intelligence artificielle», de la robotique et des technologies connexes sont le fait de l’être humain, et que ce sont les choix qu’il effectue qui déterminent les avantages potentiels de la technologie pour la société;

D. considérant qu’un cadre commun de l’Union doit couvrir le développement, le déploiement et l’utilisation de l’IA, de la robotique et des technologies connexes, et doit garantir le respect de la dignité humaine et des droits de l’homme, tels qu’ils sont consacrés dans la charte des droits fondamentaux de l’Union européenne;

E.  considérant que l’Union et ses États membres ont la responsabilité particulière de veiller à ce que l’IA, la robotique et les technologies connexes – compte tenu du fait qu’elles peuvent être utilisées par-delà les frontières – soient centrées sur l’humain, c’est-à-dire à ce qu’elles soient destinées à être utilisées au bénéfice de l’humanité et du bien commun et aient pour but de contribuer au bien-être et à l’intérêt général de leurs citoyens; que l’Union doit aider les États membres à relever ce défi, en particulier ceux qui ont commencé à réfléchir à l’évolution éventuelle de normes juridiques ou à des modifications législatives dans ce domaine;

F. considérant que les citoyens européens pourraient bénéficier d’une approche réglementaire appropriée, efficace, transparente et cohérente au niveau de l’Union qui définisse des conditions suffisamment claires pour que les entreprises mettent au point des applications et planifient leurs modèles d’entreprise, tout en veillant à ce que l’Union et ses États membres conservent le contrôle des réglementations, afin qu’ils ne soient pas obligés d’adopter ou d’accepter des normes fixées par d’autres;

G. considérant que les lignes directrices en matière d’éthique, telles que les principes adoptés par le groupe d’experts de haut niveau sur l’intelligence artificielle, constituent un bon point de départ mais qu’elles ne sont pas suffisantes pour garantir que les entreprises agissent loyalement et assurent la protection effective des individus;

H. considérant que cette responsabilité particulière implique notamment d’examiner les questions relatives à l’interprétation et à l’application du droit international dans le cadre de la participation active de l’Union européenne aux négociations internationales, dans la mesure où l’Union est concernée par les utilisations civiles et militaires de ce type d’IA, de robotique et de technologies connexes, et que les questions relatives à l’autorité de l’État vis-à-vis de ces technologies se situent en dehors du champ d’application de la justice pénale;

I. considérant qu’il est essentiel de fournir un cadre juridique approprié et complet pour les aspects éthiques de ces technologies ainsi que pour la responsabilité, la transparence et l’obligation de rendre des comptes (en particulier pour l’IA, la robotique et les technologies connexes considérées comme à haut risque); que ce cadre doit refléter le fait que les valeurs humanistes intrinsèquement européennes et universelles sont applicables à l’ensemble de la chaîne de valeur dans le cadre du développement, de la mise en œuvre et de l’utilisation de l’IA; que ce cadre éthique doit s’appliquer au développement (y compris à la recherche et à l’innovation), au déploiement et à l’utilisation de l’IA, dans le plein respect du droit de l’Union et des valeurs énoncées dans la charte des droits fondamentaux de l’Union européenne;

J. considérant que cet examen a pour but de rechercher dans quelle mesure les règles du droit international, tant public que privé, et du droit de l’Union sont adaptées à ces technologies, ainsi que de mettre en lumière les défis et les risques auxquels ces dernières confrontent l’autorité de l’État, de sorte que la gestion de ces défis et risques puisse s’effectuer de manière appropriée et proportionnée;

K. considérant que la Commission européenne ne tient pas compte des aspects militaires de l’utilisation de l’intelligence artificielle dans son livre blanc;

L. considérant qu’une approche européenne harmonisée de ces problèmes nécessite d’adopter une définition commune de l’intelligence artificielle et de veiller à ce que les valeurs fondamentales de l’Union européenne, les principes de la charte des droits fondamentaux de l’Union européenne et la législation internationale sur les droits de l’homme soient respectés;

M. considérant que l’IA offre des possibilités sans précédent d’améliorer les performances du secteur des transports, puisqu’elle permet de répondre à la demande croissante de déplacements et aux préoccupations en matière de sécurité et d’environnement, tout en rendant tous les modes de transport plus intelligents, plus efficaces et plus pratiques;

N. considérant qu’il est indispensable, pour renforcer les capacités de l’Union dans ce secteur, de soulever la question de l’IA dans le domaine de la défense au niveau européen;

Définition de l’intelligence artificielle

1. estime qu’il est nécessaire d’adopter un cadre juridique européen commun assorti de définitions harmonisées et de principes éthiques communs, y compris pour l’utilisation de l’IA à des fins militaires; invite par conséquent la Commission à adopter les définitions suivantes:

- «système d’IA», un système qui est soit fondé sur des logiciels, soit intégré dans des dispositifs matériels, et qui affiche un comportement simulant l’intelligence, notamment en collectant et en traitant des données, en analysant et en interprétant son environnement et en agissant, avec un certain degré d’autonomie, pour atteindre des objectifs spécifiques;

- «autonome», un système d’IA qui fonctionne en interprétant certaines données entrées et en utilisant un ensemble d’instructions prédéterminées, sans se limiter à de telles instructions, bien que le comportement du système vise à atteindre l’objectif qui lui a été assigné et qu’il soit soumis aux contraintes découlant de cet objectif et d’autres choix de conception posés par son développeur;

2. souligne que les politiques de sécurité et de défense de l’Union européenne et de ses États membres sont guidées par les principes consacrés par la charte des droits fondamentaux de l’Union européenne et la charte des Nations unies – cette dernière invitant l’ensemble des États à s’abstenir, dans leurs relations internationales, de recourir à la menace ou à l’emploi de la force – ainsi que par le droit international, par les principes des droits de l’homme et du respect de la dignité humaine, et par une compréhension commune des valeurs universelles que constituent les droits inviolables et inaliénables de la personne humaine, la liberté, la démocratie, l’égalité et l’état de droit; observe que toutes les activités liées à la défense dans le cadre de l’Union doivent respecter ces valeurs universelles tout en prônant la paix, la stabilité, la sécurité et le progrès, tant en Europe que dans le monde;

Droit international public et utilisations militaires de l’intelligence artificielle

3. considère que l’IA utilisée dans un contexte militaire et civil doit faire l’objet d’un véritable contrôle humain, de sorte qu’à tout moment, une personne humaine ait la possibilité de la corriger, de l’interrompre ou de la désactiver en cas de comportement imprévu, d’intervention accidentelle, de cyberattaques, d’ingérence de tiers dans une technologie fondée sur l’IA ou d’acquisition par des tiers d’une telle technologie;

4. estime que le respect du droit international public, en particulier du droit humanitaire, qui s’applique sans équivoque à tous les systèmes d’armes et à leurs opérateurs, est une exigence fondamentale à laquelle les États membres doivent se conformer, notamment lorsqu’il s’agit de protéger la population civile ou de prendre des mesures de précaution en cas d’attaque telle que l’agression militaire ou la cyberguerre;

5. souligne que l’IA et les technologies connexes peuvent également jouer un rôle dans la guerre irrégulière ou non conventionnelle; suggère que la recherche, le développement et l’utilisation de l’IA dans ces cas de figure soient soumis aux mêmes conditions que son utilisation dans des conflits conventionnels;

6. souligne que le recours à l’IA est l’occasion de renforcer la sécurité de l’Union européenne et de ses citoyens et qu’il est essentiel que l’Union adopte une démarche cohérente dans les prochains débats qui auront lieu à ce sujet au niveau international;

7. invite la communauté des chercheurs dans le domaine de l’IA à intégrer ce principe dans tous les systèmes précités fondés sur l’IA et destinés à un usage militaire; estime qu’aucune autorité ne peut établir d’exception à ces principes ou certifier un tel système;

8. réaffirme que la prise de décision autonome ne devrait pas exonérer l’être humain de sa responsabilité et que les humains doivent toujours assumer la responsabilité ultime des processus de prise de décision, de sorte que l’identité de la personne responsable de la décision puisse être établie;

9. souligne que lors du recours à l’IA dans un contexte militaire, les États membres, les parties à un conflit et les particuliers doivent, à tout moment, respecter les obligations qui leur incombent en vertu du droit international applicable et assumer la responsabilité des actions résultant de l’utilisation de ces systèmes; souligne qu’en toutes circonstances, les actions et effets prévisibles, accidentels ou indésirables des systèmes fondés sur l’IA doivent être considérés comme relevant de la responsabilité des États membres, des parties à un conflit et des individus;

10. se félicite des possibilités d’utiliser les systèmes d’intelligence artificielle à des fins de formation et d’exercices, dont le potentiel ne doit pas être sous-estimé, d’autant plus que l’Union mène des exercices à double caractère civil et militaire;

11. met l’accent sur la nécessité de prendre dûment en compte à tout moment, lors des phases de conception, de développement, d’essai, de déploiement et d’utilisation de systèmes fondés sur l’IA, les risques potentiels, notamment celui de victimes collatérales parmi la population civile, de pertes accidentelles de vies humaines et de dommages aux infrastructures civiles, ainsi que les risques liés à l’engagement involontaire, à la manipulation, à la prolifération, aux cyberattaques, à l’ingérence de tiers dans une technologie autonome fondée sur l’IA et à l’acquisition par des tiers d’une telle technologie;

12. rappelle que le principe de nouveauté, conformément à l’avis consultatif de la Cour internationale de Justice du 8 juillet 1996, ne peut être invoqué en soutien à une quelconque dérogation quant au respect des normes actuelles du droit international humanitaire;

13. estime que l’IA, en plus de soutenir les opérations, profitera également aux membres des forces armées en traitant massivement les données relatives à leur santé et en étendant la surveillance de leur santé, recensera les facteurs de risque liés à leur environnement et à leurs conditions de travail et proposera des garanties appropriées pour limiter les incidences sur la santé du personnel militaire;

14. réaffirme que les efforts réglementaires doivent être soutenus par des systèmes de certification et de surveillance rigoureux, ainsi que par des mécanismes clairs d’audit, d’explication, de responsabilité et de traçabilité, afin que le cadre réglementaire ne soit pas dépassé par les évolutions technologiques;

15. souligne l’importance que revêt, dans un monde hyperconnecté, la participation de l’Union européenne à la création d’un cadre juridique international pour l’utilisation de l’intelligence artificielle; invite instamment l’Union à prendre l’initiative et à jouer, avec les Nations unies et la communauté internationale, un rôle actif dans la promotion de ce cadre mondial régissant l’utilisation de l’IA à des fins militaires ou autres, en veillant à ce que cette utilisation observe les limites strictes fixées par le droit international et le droit humanitaire international, en particulier les conventions de Genève du 12 août 1949; souligne que ce cadre ne doit jamais enfreindre ou autoriser d’enfreindre les exigences de la conscience publique et le principe d’humanité tels que figurant dans la clause de Martens, et qu’il doit respecter les règles de sécurité et les exigences de protection des consommateurs; demande instamment à l’Union et aux États membres de définir des systèmes robustes de surveillance et d’évaluation pour le développement des technologies d’IA, en particulier celles utilisées à des fins militaires dans des États autoritaires;

16. souligne que la robotique permettra non seulement au personnel militaire de rester à distance, mais aussi d’offrir une meilleure autoprotection, par exemple dans le cadre d’opérations dans des environnements contaminés, de la lutte contre les incendies, du déminage sur terre ou en mer et de la défense contre les essaims de drones;

17. souligne que le développement, le déploiement, l’utilisation et la gestion de l’IA doivent respecter les droits fondamentaux, les valeurs et les libertés consacrés par les traités de l’Union, et invite les États membres à s’abstenir de déployer des systèmes d’IA à haut risque susceptibles de menacer les droits fondamentaux; prend acte de la publication du livre blanc de la Commission sur l’intelligence artificielle et demande que les risques potentiels, pour les droits fondamentaux, liés à l’utilisation de l’IA par les pouvoirs publics et par les institutions, organes et organismes de l’Union soient examinés de manière plus approfondie;

18. invite la Commission à faciliter la recherche sur les possibilités qu’offre l’utilisation de l’IA dans le cadre des opérations de secours en cas de catastrophe, de la prévention des crises et du maintien de la paix, et à encourager le débat sur ce sujet;

19. se félicite de la création d’un groupe d’experts gouvernementaux des Nations unies chargé de promouvoir un comportement responsable des États dans le cyberespace dans le contexte de la sécurité internationale et invite l’Union à participer pleinement à ses travaux;

20. invite le vice-président de la Commission / haut représentant pour les affaires étrangères et la politique de sécurité (VP/HR) à ouvrir la voie à des négociations mondiales en vue de mettre en place un régime de contrôle des armes recourant à l’IA et de mettre à jour tous les instruments existants prévus par les traités relatifs au contrôle des armes, au désarmement et à la non-prolifération afin de prendre en compte les systèmes fondés sur l’IA utilisés en temps de guerre; demande que la position commune du Conseil définissant des règles communes régissant le contrôle des exportations de technologie et d’équipements militaires tienne pleinement compte des systèmes d’armes fondés sur l’IA et s’y applique;

21. réaffirme que ces règles doivent toujours respecter les principes, rappelés par la convention de Rome du 17 juillet 1998, de prohibition des crimes de génocide, des crimes contre l’humanité et des crimes de guerre;

22. met l’accent sur les risques manifestes qu’implique toute décision prise par un être humain qui s’appuierait exclusivement sur des données, des profils et des recommandations générés par des machines; met l’accent sur le fait que la conception globale des systèmes d’IA devrait également intégrer des lignes directrices sur la supervision et la surveillance humaines; demande que soient imposées une obligation en matière de transparence et d’explicabilité des applications d’IA, ainsi que la nécessité d’une intervention humaine, et que d’autres mesures soient prévues, comme des audits indépendants et des tests de résistance spécifiques visant à faciliter et à assurer le respect de la conformité; souligne que ces audits devraient être effectués périodiquement par une autorité indépendante qui superviserait les applications d’IA à haut risque utilisées par les pouvoirs publics ou les autorités militaires;

23. souligne qu’il importe de vérifier par quel procédé les technologies d’IA à haut risque parviennent à des décisions; rappelle que les principes de non-discrimination et de proportionnalité doivent être respectés et que les questions de causalité, de responsabilité, de transparence, d’obligation de rendre compte et d’explicabilité doivent être clarifiées pour déterminer si, et dans quelle mesure, l’État, en tant que sujet de droit international et autorité souveraine, peut agir avec l’aide de systèmes d’IA dotés d’une certaine autonomie sans enfreindre les obligations découlant du droit international, telles que le droit à un procès équitable;

24. insiste sur l’importance d’investir dans les compétences humaines, y compris dans le domaine numérique, pour permettre aux personnes qui exercent des professions réglementées, y compris des activités liées à l’exercice de l’autorité de l’État, comme l’administration de la justice, de s’adapter aux avancées scientifiques en matière de solutions fondées sur l’IA; invite les États membres et la Commission à en tenir dûment compte dans le cadre de la mise en œuvre de la directive 2005/36/CE;

25. insiste sur le fait que les systèmes d’IA doivent toujours respecter les principes de responsabilité, d’équité, de gouvernabilité, de précaution, d’obligation de rendre compte, d’imputabilité, de prévisibilité, de traçabilité, de fiabilité, de loyauté, de transparence, d’explicabilité, de capacité à détecter d’éventuels changements de circonstances et d’environnement opérationnel, de distinction entre combattants et non-combattants, et de proportionnalité; souligne que ce dernier principe subordonne la légalité d’une action militaire au respect d’un équilibre entre l’objectif poursuivi et les moyens utilisés, et que l’appréciation de cette proportionnalité doit toujours émaner d’une personne humaine;

26. souligne que, lors de l’utilisation de systèmes fondés sur l’IA dans le domaine de la sécurité et de la défense, la pleine compréhension de la situation par l’opérateur humain, la prévisibilité, la fiabilité et la résilience du système fondé sur l’IA ainsi que la capacité de l’opérateur humain à détecter d’éventuels changements de circonstances et d’environnement opérationnel et sa capacité à intervenir lors d’une attaque ou à y mettre fin sont nécessaires pour garantir que les principes du droit international humanitaire, en particulier de discrimination, de proportionnalité et de précaution lors d’une attaque, soient pleinement appliqués tout au long de la chaîne de commandement et de contrôle; souligne que les systèmes fondés sur l’IA doivent permettre aux humains qui en ont la responsabilité d’exercer un véritable contrôle, d’assumer une responsabilité pleine et entière à l’égard de ces systèmes et de répondre de toutes leurs utilisations; invite la Commission à favoriser le dialogue, une coopération plus étroite et des synergies entre les États membres, les chercheurs, les universitaires, les acteurs de la société civile, le secteur privé, en particulier les entreprises de premier plan, et les forces militaires, pour garantir le caractère inclusif des processus d’élaboration des règles relatives à l’IA appliquée à la défense;

27. souligne que le Parlement a demandé l’élaboration et l’adoption, dans les plus brefs délais, d’une position commune sur les systèmes d’armes létales autonomes (SALA) empêchant la mise au point, la production et l’utilisation de SALA capables d’effectuer des frappes sans véritable contrôle humain, et a réclamé l’ouverture de négociations effectives en vue de leur interdiction; rappelle à cet égard sa résolution du 12 septembre 2018 sur les systèmes d’armes autonomes; rappelle que l’expression «systèmes d’armes létales autonomes» (SALA) désigne des systèmes d’armes dépourvus de véritable contrôle humain sur les fonctions critiques de sélection et d’attaque de cibles individuelles; souligne que la décision de sélectionner une cible et d’entreprendre une action létale au moyen de systèmes d’armes présentant un certain niveau d’autonomie doit toujours être prise par des opérateurs humains exerçant un contrôle et une surveillance véritables ainsi que le jugement nécessaire, conformément aux principes de proportionnalité et de nécessité; souligne que les systèmes fondés sur l’IA ne peuvent en aucun cas se substituer à la décision humaine dans ce domaine;

28. relève de surcroît que les systèmes d’armes autonomes, en tant que catégorie particulière de l’IA dans le domaine militaire, devraient faire l’objet de débats et d’un accord international, en particulier dans le cadre de la convention des Nations unies sur certaines armes classiques; rappelle que le débat international en cours sur les SALA visant à réglementer les nouvelles technologies militaires n’a pas encore abouti à un accord; souligne que l’Union n’a accepté que récemment de discuter des implications de l’évolution de l’IA et de la numérisation dans le secteur de la défense; estime que l’Union européenne peut jouer un rôle crucial pour aider les États membres à harmoniser leur stratégie en matière d’IA militaire, afin de mener des pourparlers à l’échelle internationale;

29. insiste sur la nécessité d’une stratégie à l’échelle de l’Union contre les SALA et d’une interdiction des «robots tueurs»;

30. souligne que l’IA utilisée dans un contexte militaire doit répondre à un ensemble minimal d’exigences, à savoir: être en mesure de faire la distinction entre combattants, non-combattants et combattants sur le champ de bataille, reconnaître lorsqu’un combattant se rend ou est hors de combat, ne pas avoir d’effets indiscriminés, ne pas causer de souffrances inutiles aux personnes, ne pas être partiale ou formée sur des données délibérément incomplètes, et respecter les principes du droit humanitaire international, la proportionnalité dans le recours à la force et la précaution avant l’intervention;

31. estime que l’utilisation de systèmes d’armes létales autonomes soulève des questions éthiques et juridiques fondamentales quant à la capacité des êtres humains à contrôler ces systèmes, et exige que les technologies fondées sur l’IA ne soient pas en mesure de prendre des décisions autonomes impliquant les principes juridiques de distinction, de proportionnalité et de précaution;

32. demande que des mesures transparentes de réduction des risques portant sur le développement et l’utilisation de l’IA à des fins militaires soient prises au niveau international, en particulier en ce qui concerne les principes d’intégrité territoriale, de non‑intervention et de recours à la force; souligne qu’il importe de prendre en considération les aspects militaires lors de l’examen des questions juridiques et éthiques dans le cadre européen relatif à l’IA; rappelle sa position sur l’interdiction de la mise au point, de la production et de l’utilisation de SALA; déplore qu’il n’existe pas, à l’échelle mondiale, de convention qui se prononce de manière explicite sur l’utilisation de ces armes;

33. reconnaît que la dynamique moderne résultant de la course aux armements entre les principaux États nations militaires qui développent des SALA connaît un rythme plus rapide que la mise en place, l’application et l’exécution efficaces et universelles de règles et de cadres juridiques communs, parce que l’information sur le développement et le déploiement de ces systèmes est classifiée et que les États nations ont un intérêt propre à créer les capacités offensives les plus rapides et les plus efficaces, indépendamment des cadres ou principes juridiques actuels et potentiels futurs;

34. estime que les SALA ne doivent être utilisés qu’en dernier ressort et ne sont licites qu’à condition d’être soumis à un contrôle humain strict, permettant à une personne humaine d’en reprendre le commandement à tout moment, étant donné qu’une véritable intervention et une véritable surveillance humaines sont essentielles dans les processus de décision susceptibles d’avoir des conséquences mortelles, et que la responsabilité de décisions entre la vie et la mort devrait toujours incomber à des êtres humains; est convaincu que les systèmes totalement soustraits à un contrôle humain («human off the loop») et à une surveillance humaine doivent être interdits sans aucune exception et en toutes circonstances;

35. invite le VP/HR, les États membres et le Conseil européen à élaborer et à adopter urgemment une position commune sur les systèmes d’armes autonomes qui garantisse un véritable contrôle humain sur les fonctions critiques des systèmes d’armes, y compris pendant le déploiement, à s’exprimer d’une seule voix dans les enceintes pertinentes et à agir en conséquence; invite, dans ce contexte, le VP/HR, les États membres et le Conseil à partager leurs bonnes pratiques et à recueillir les contributions d’experts, de scientifiques et de la société civile, comme indiqué dans sa résolution du 12 septembre 2018 sur les systèmes d’armes autonomes, qui précise que les attaques doivent toujours reposer sur une véritable intervention humaine;

36. encourage tous les États à procéder à une évaluation pour savoir si et de quelle manière les dispositifs militaires autonomes ont contribué à leur sécurité nationale et connaître le bénéfice que leur sécurité nationale pourrait tirer des systèmes d’armement fondés sur l’IA, en particulier en ce qui concerne le potentiel de ces technologies pour soutenir et améliorer la prise de décision humaine dans le respect du droit humanitaire international et de ses principes; rappelle que tout SALA ou toute arme au niveau d’autonomie élevé peut présenter un dysfonctionnement en raison d’un mauvais codage ou d’une cyberattaque commise par un État ennemi ou un acteur non étatique;

37. insiste pour que les SALA ne soient utilisés que dans des cas précis et selon des procédures d’autorisation fixées à l’avance de façon détaillée dans des textes dont l’État concerné – qu’il soit membre ou non de l’Organisation du traité de l’Atlantique Nord – assure l’accessibilité au public, ou au moins à son parlement national;

38. estime que les SALA doivent respecter les dispositions de la convention du 10 octobre 1980 sur certaines armes classiques, notamment l’interdiction de produire des «effets traumatiques excessifs»;

39. suggère, afin d’éviter leur dissémination incontrôlée, que les SALA soient inscrits dans la liste des armes soumises aux dispositions du traité sur le commerce des armes du 2 avril 2013, liste figurant à l’article 2 dudit traité;

40. réclame, pour éviter toute confusion entre une personne humaine et un robot, l’interdiction de l’anthropomorphisation des SALA;

41. se félicite à cet égard de l’accord conclu entre le Conseil et le Parlement pour exclure des actions financées au titre du Fonds européen de défense (FED) les armes létales autonomes «sans la possibilité d’un contrôle humain significatif sur les décisions de sélection et d’engagement prises dans le cadre de frappes»; rappelle sa position selon laquelle l’utilisation, le développement et la production de SALA sans véritable contrôle humain ne peuvent pas bénéficier d’un financement au titre du FED;

42. invite la Commission à soutenir la recherche, le développement, le déploiement et l’utilisation de l’IA dans le cadre du maintien de la paix et de la prévention des conflits;

43. signale que l’écosystème mondial de l’IA est dominé par les géants du numérique américains et chinois, qui renforcent leurs capacités nationales et achètent de nombreuses entreprises prometteuses; est dès lors fermement convaincu que, pour éviter de rester à la traîne dans le domaine des technologies de l’intelligence artificielle, l’Union européenne doit œuvrer à un meilleur équilibre entre la recherche fondamentale et les applications industrielles, tout en développant ses avantages stratégiques comparatifs par l’accroissement de son propre potentiel et de ses propres ressources;

44. souligne que, dans la mesure où ils relèvent de la définition des machines figurant dans la directive 2006/42/CE, les robots devraient être conçus et assemblés conformément aux normes et aux mesures de sécurité qui y sont prévues;

45. rappelle l’ambition de l’Union de se poser en acteur pour la paix au niveau mondial et l’exhorte à s’engager davantage dans le désarmement et la non-prolifération sur la scène internationale; demande à l’Union de s’efforcer, par ses politiques, de maintenir la paix et la sécurité internationales, de garantir le respect du droit international des droits de l’homme et du droit humanitaire ainsi que la protection des civils et des infrastructures civiles;

46. souligne la nécessité d’examiner l’incidence que peut avoir l’IA, en tant que facteur stratégique, sur la politique de sécurité et de défense commune (PSDC) de l’Union, en particulier en ce qui concerne les missions et les opérations militaires et civiles ainsi que le renforcement des capacités de l’Union;

47. rappelle que nos alliés, que ce soit au niveau national, dans le cadre de l’OTAN ou de l’Union, sont eux-mêmes en train d’intégrer l’IA dans leurs systèmes militaires; estime qu’il y a lieu de préserver l’interopérabilité avec nos alliés à travers des normes communes, qui sont essentielles pour la conduite des opérations en coalition; rappelle par ailleurs que la coopération en matière d’IA devrait se faire dans un cadre européen, seul cadre pertinent pour créer véritablement de puissantes synergies, comme proposé par la stratégie de l’Union en matière d’IA;

48. estime que l’Union doit suivre et examiner de près les implications des progrès de l’IA pour la défense et la guerre, y compris les développements et les déploiements potentiellement déstabilisateurs, et fournir des orientations en matière de recherche et de conception éthiques, en garantissant l’intégrité des données à caractère personnel, l’accès et le contrôle individuels et en tenant compte des questions économiques et humanitaires;

49. rappelle sa position du 12 septembre 2018 sur les systèmes d’armes autonomes selon laquelle les frappes ne doivent pas être effectuées sans véritable contrôle humain; invite le HR/VP, les États membres et le Conseil européen à adopter une position commune sur les systèmes d’armes autonomes garantissant un véritable contrôle humain des fonctions critiques des systèmes d’armes, y compris pendant le déploiement; réaffirme son soutien aux travaux menés sur les SALA par le groupe d’experts gouvernementaux des Nations unies des hautes parties contractantes à la convention sur l’emploi de certaines armes conventionnelles, qui reste le forum international pertinent pour les discussions et les négociations sur les défis juridiques posés par les systèmes d’armes autonomes; demande l’intensification de l’ensemble des efforts multilatéraux actuels afin que les cadres juridiques et réglementaires ne soient pas dépassés par les évolutions technologiques et les nouvelles méthodes de combat; invite le HR/VP, dans le cadre des discussions en cours sur la réglementation internationale des SALA par les États parties à la CCAC, à maintenir son engagement et à contribuer sans délai à faire progresser les travaux d’élaboration d’un nouveau cadre normatif mondial ainsi que d’un instrument juridiquement contraignant axé sur les définitions, les concepts et les caractéristiques des technologies émergentes relevant des SALA, les questions éthiques et juridiques du contrôle humain, notamment en ce qui concerne les fonctions critiques telles que la sélection et l’engagement d’un objectif, le maintien de la responsabilité humaine et de l’obligation de rendre des comptes et le degré d’interaction nécessaire entre l’humain et la machine, y compris la notion de contrôle et de jugement humains; demande que ces efforts assurent le respect du droit international humanitaire et du droit international relatif aux droits de l’homme à chaque étape du cycle de vie d’une arme fondée sur l’IA, en vue de convenir de recommandations spécifiques sur la clarification, l’examen et le développement des aspects du cadre normatif et opérationnel relatifs aux technologies émergentes dans le domaine des SALA;

50. estime qu’il est primordial, pour la sécurité mondiale, de disposer d’un mécanisme efficace pour faire appliquer les règles relatives à la non-prolifération des SALA et de toute technologie offensive nouvelle fondée sur l’IA;

Autorité de l’État: exemples du domaine civil, dont la santé et la justice

51. insiste sur le fait que les États membres doivent agir avec efficacité pour réduire leur dépendance à l’égard des données étrangères et veiller, sans fausser sensiblement le marché, à ce que la détention, par de puissants groupes privés, des technologies les plus élaborées en matière d’IA n’aboutisse pas à contester l’autorité de la puissance publique et encore moins à lui substituer des entités privées, en particulier lorsque le propriétaire de ces groupes privés est un pays tiers;

52. souligne que le recours à des systèmes d’IA dans le processus décisionnel des autorités publiques est susceptible de mener à des décisions biaisées ayant une incidence négative sur les citoyens et qu’il convient dès lors qu’il soit subordonné à des critères de contrôle stricts, notamment en matière de sécurité, de transparence, d’obligation de rendre des comptes, de non-discrimination et de responsabilité sociale et environnementale; invite instamment les États membres à évaluer les risques liés à des décisions prises par l’IA dans le cadre de l’exercice de l’autorité de l’État et à prévoir des garanties telles qu’une surveillance humaine véritable, des exigences de transparence et la possibilité de contester ces décisions;

53. invite instamment les États membres à évaluer les risques liés à l’IA avant d’automatiser les activités placées sous l’autorité de l’État, telles que l’administration de la justice; invite les États membres à envisager la mise en place de garanties, telles que la surveillance par un professionnel qualifié et des règles strictes de déontologie;

54. souligne qu’il importe de prendre des mesures au niveau européen pour contribuer à promouvoir les investissements indispensables, les infrastructures de données et la recherche, et notamment la recherche portant sur l’utilisation de l’intelligence artificielle par les pouvoirs publics et sur un cadre éthique commun;

55. souligne la nécessité pour l’Union européenne d’œuvrer au renforcement de la résilience stratégique afin de ne plus jamais être prise au dépourvu en temps de crise, et souligne l’importance cruciale de cette démarche, surtout en ce qui concerne l’intelligence artificielle et ses applications militaires; souligne que les chaînes d’approvisionnement des systèmes militaires fondés sur l’IA susceptibles de conduire à une dépendance technologique devraient être recalibrées, et que ces situations de dépendance devraient être progressivement éliminées; demande d’intensifier les investissements réalisés dans l’IA européenne dans le domaine de la défense et dans les infrastructures critiques sur lesquelles elle repose;

56. invite la Commission à évaluer les conséquences d’un moratoire sur l’utilisation des systèmes de reconnaissance faciale et, en fonction des résultats de cette évaluation, à envisager l’application d’un moratoire, d’une part, sur l’utilisation de ces systèmes par les autorités publiques dans l’espace public et dans les établissements d’éducation et de soins de santé et, d’autre part, sur l’utilisation des systèmes de reconnaissance faciale par les autorités répressives dans les espaces semi-publics tels que les aéroports, jusqu’à ce qu’il soit considéré que les normes techniques respectent pleinement les droits fondamentaux, que les résultats obtenus ne soient ni biaisés, ni discriminatoires, et que des garanties strictes soient mises en place pour prévenir les abus et veiller à ce que l’utilisation de ces technologies respecte les principes de nécessité et de proportionnalité;

57. souligne l’importance que revêt la cybersécurité pour l’IA, dans les scénarios tant offensifs que défensifs; relève à cet égard l’importance de la coopération internationale, ainsi que de la publication et du partage des failles de sécurité informatique et des mesures correctives; demande qu’une coopération internationale en matière de cybersécurité soit mise en place pour que l’IA puisse être utilisée et déployée efficacement et que des garanties contre les utilisations abusives de l’IA et les cyberattaques soient prévues; relève en outre le double usage (à des fins civiles et militaires) qui est inhérent aux systèmes informatiques et à l’IA, et demande qu’une réglementation efficace soit adoptée en la matière;

58. estime que les États membres devraient promouvoir des technologies de l’IA susceptibles de rendre service aux personnes et que les personnes ayant fait l’objet d’une décision prise par une autorité publique sur la base d’informations d’un système d’IA devraient en être avisées, recevoir rapidement les informations mentionnées au paragraphe précédent et avoir la possibilité de contester cette décision et de choisir que cette contestation soit résolue sans l’intervention d’un système d’IA; invite les États membres à envisager la mise en place de garanties, prévues dans la directive (UE) 2018/958, telles que la surveillance par un professionnel qualifié et l’élaboration de règles de déontologie;

59. souligne que le fait d’établir des prévisions à partir du partage de données, de l’utilisation de données et de l’accès à celles-ci doit être régi conformément aux exigences en matière de qualité, d’intégrité, de transparence, de sécurité, de confidentialité et de contrôle; insiste sur le fait qu’il y a lieu, tout au long du développement, du déploiement et de l’utilisation de l’IA, de la robotique et des technologies connexes, de respecter le cadre juridique de l’Union en matière de protection des données et de la vie privée afin d’accroître la sécurité des citoyens et leur confiance dans ces technologies;

60. constate que les applications d’IA évoluent rapidement dans le domaine de la reconnaissance d’éléments caractéristiques uniques, tels que les traits du visage, les mouvements et les attitudes; met en garde contre les problèmes ayant trait aux atteintes à la vie privée, à la non-discrimination et à la protection des données à caractère personnel liés à l’utilisation des applications de reconnaissance automatisée;

61. insiste sur le fait que toute décision concernant une personne physique fondée exclusivement sur un traitement automatisé, y compris le profilage, qui produit des effets juridiques défavorables à l’égard de la personne intéressée ou l’affecte de manière conséquente, est interdite en vertu du RGPD, à moins qu’elle ne soit autorisée par le droit de l’Union ou par la législation d’un État membre et subordonnée à des mesures appropriées de sauvegarde des droits et des libertés ainsi que des intérêts légitimes de la personne concernée;

62. demande que l’intelligence artificielle, lorsqu’elle est utilisée par les autorités publiques, s’accompagne systématiquement de l’explicabilité des algorithmes, de transparence ainsi que d’une surveillance réglementaire, et que des analyses d’impact soient effectuées avant que les pouvoirs publics déploient des instruments qui sollicitent des technologies d’IA; invite la Commission et le comité européen de la protection des données à publier des lignes directrices et des recommandations et à définir des bonnes pratiques afin d’apporter des précisions sur les critères et conditions applicables aux décisions fondées sur le profilage et l’utilisation de l’IA par les autorités publiques;

63. constate que l’intelligence artificielle est appelée à jouer un rôle de plus en plus fondamental en matière de santé, notamment grâce aux algorithmes d’aide au diagnostic, à la chirurgie assistée par robot, aux prothèses intelligentes, aux traitements personnalisés reposant sur la modélisation du corps de chaque patient en trois dimensions, aux robots sociaux destinés à assister les personnes âgées, aux thérapies numériques conçues pour améliorer l’autonomie de certains malades mentaux, à la médecine prédictive et aux logiciels d’anticipation des épidémies;

64. insiste toutefois pour que toutes les utilisations de l’IA en matière de santé publique respectent la protection des données personnelles des patients et évitent la dissémination incontrôlée de ces données;

65. demande que toutes les utilisations de l’IA dans le domaine de la santé publique respectent l’égalité des patients dans l’accès aux soins, préservent la relation patient-médecin et respectent en toute circonstance le serment d’Hippocrate de sorte que le médecin ait toujours la possibilité et la responsabilité de s’écarter de la solution donnée par l’IA;

66. fait observer que l’utilisation de l’IA dans la lutte contre la criminalité et la cybercriminalité pourrait offrir un large éventail de possibilités et de perspectives; affirme qu’il convient de veiller en parallèle à ce que le principe selon lequel ce qui est illégal hors ligne l’est également en ligne continue de prévaloir;

67. note que l’IA est de plus en plus souvent utilisée en matière de justice, afin de rendre des décisions à la fois plus rapides, plus rationnelles et mieux conformes au droit en vigueur; salut le fait que l’utilisation de l’IA devrait permettre d’accélérer les procédures judiciaires;

68. estime qu’il convient de déterminer s’il est approprié que les décisions relatives à l’application des lois soient en partie déléguées à l’IA, tout en conservant un contrôle humain sur la décision finale;

69. souligne que, dans le système judiciaire, l’utilisation de l’IA pourrait améliorer l’analyse et la collecte de données, ainsi que la protection des victimes, et qu’elle pourrait faire l’objet de travaux de recherche et de développement, y compris des analyses d’impact, en particulier en ce qui concerne les garanties permettant d’assurer un traitement équitable et de lutter contre les partis pris et les discriminations, tout en veillant à ce que le principe de précaution soit appliqué; rappelle cependant qu’elle ne saurait remplacer l’intervention d’un être humain pour rendre des jugements ou prendre une décision;

70. rappelle l’importance des principes de gouvernance, de transparence, d’impartialité, de responsabilité, d’équité et de rigueur intellectuelle dans l’utilisation de l’IA dans le domaine de la justice pénale;

71. invite instamment les États membres à évaluer les risques liés à l’IA avant d’automatiser les activités participant à l’exercice de la puissance publique, en particulier dans le domaine judiciaire; invite les États membres à envisager la mise en place de garanties, telles que la surveillance par un professionnel qualifié et des règles de déontologie professionnelle;

72. observe que certaines technologies d’IA permettent l’automatisation, à une échelle sans précédent, du traitement de l’information et des actions d’information, comme dans le cas de la surveillance de masse dans les domaines civil et militaire, ce qui représente une menace pour les droits fondamentaux et ouvre la voie aux ingérences illégales dans la souveraineté des États; demande que les activités de surveillance de masse fassent l’objet d’un contrôle conformément au droit international, notamment en ce qui concerne les questions de juridiction et d’application du droit; se déclare vivement préoccupé par le fait que certaines applications de notation sociale hautement intrusives qui ont été mises au point portent gravement atteinte au respect des droits fondamentaux; demande que le recours à la notation sociale à grande échelle par les autorités publiques pour limiter les droits des citoyens soit explicitement interdit; demande que la responsabilité des acteurs privés soit renforcée en vertu du droit international compte tenu de l’hégémonie décisionnelle et du contrôle que certains acteurs privés exercent sur le développement de ces technologies; invite la Commission, le Conseil et les États membres, dans ce contexte, à se montrer particulièrement attentifs dans le cadre des négociations, de la conclusion et de la ratification d’accords internationaux relatifs aux affaires familiales transfrontalières, telles que les enlèvements internationaux d’enfants, et à veiller à ce que, dans ce contexte, les systèmes d’IA soient toujours utilisés sous surveillance humaine effective et dans le respect de la légalité, au sein de l’Union et dans les pays signataires de ces accords;

73. demande que le public reste informé de l’utilisation de l’IA dans le domaine de la justice et que cette utilisation n’entraîne pas d’augmentation des discriminations par des biais de programmation; souligne que le droit de chaque individu d’accéder à un agent public soit respecté, ainsi que le droit de l’agent public concerné de prendre personnellement la décision et de s’écarter de l’information reçue de l’IA quand il l’estime nécessaire au regard des détails de l’affaire; insiste sur le droit du justiciable de faire appel de la décision conformément au droit national et demande que le juge ne puisse en aucun cas s’affranchir de sa responsabilité finale;

74. demande par conséquent que toutes ces utilisations dans les sphères publique et administrative soient considérées comme des informations relevant du domaine public et qu’elles n’entraînent pas de discriminations dues à des biais de programmation;

75. souligne qu’il importe de faire en sorte que l’IA puisse être déployée et utilisée correctement; invite les États membres à proposer une formation appropriée à leur personnel civil et militaire afin de leur permettre de déceler avec précision les discriminations et les partis pris et de les éviter dans les ensembles de données;

76. se déclare profondément préoccupé par les techniques de trucages vidéo ultra‑réalistes («deepfake») permettant de créer des photos et des enregistrements audio et vidéo falsifiés de plus en plus réalistes qui peuvent être utilisés pour exercer un chantage, produire de fausses informations de presse, entamer la confiance de la population ou influencer le discours public; estime que ces pratiques sont susceptibles de déstabiliser des États en diffusant de fausses informations et en influençant les élections; demande dès lors que les créateurs soient tenus de signaler, à propos des trucages vidéo ultra‑réalistes ou de tout autre montage vidéo réaliste, qu’il ne s’agit pas de la vidéo originale, que le recours à cette technique, lorsqu’elle poursuit des visées électorales, soit strictement encadré, et que cette obligation soit rigoureusement appliquée; demande que des travaux de recherche appropriés soient menés dans ce domaine afin de s’assurer que les technologies destinées à enrayer ces phénomènes ne se laissent pas distancer par l’utilisation malveillante de l’IA;

Transports

77. prend acte du potentiel économique important des applications d’IA, notamment pour l’optimisation des performances à long terme, la maintenance, la prévision des pannes et la planification de la construction des infrastructures de transport et des bâtiments ainsi que pour la sécurité, l’efficacité énergétique et les coûts; invite par conséquent la Commission à continuer de promouvoir la recherche sur l’IA et l’échange de bonnes pratiques dans le domaine des transports;

78. souligne la nécessité de renforcer l’intelligence artificielle pour favoriser la multimodalité, l’interopérabilité et l’efficacité énergétique de tous les modes de transport afin de renforcer l’efficacité de l’organisation et de la gestion des flux de transport de marchandises et de passagers, de mieux utiliser les infrastructures et les ressources le long du réseau transeuropéen de transport (RTE‑T) et de lever les obstacles à la création d’un véritable espace européen unique des transports;

79. rappelle les avantages du système européen de gestion du trafic ferroviaire (ERTMS), un système intégré de protection automatique des trains, et soutient le renforcement et la normalisation internationale de l’automatisation des opérations ferroviaires;

80. salue les travaux effectués dans le cadre du projet de recherche sur la gestion du trafic aérien dans le ciel unique européen (SESAR) dans le domaine des systèmes d’aéronefs sans équipage et des systèmes de gestion du trafic aérien, tant civils que militaires;

81. rappelle le fort potentiel des véhicules autonomes pour améliorer la mobilité, la sécurité et l’environnement et invite la Commission et les États membres à assurer la coopération entre les régulateurs et toutes les parties prenantes concernées par le déploiement de véhicules routiers automatisés dans l’Union;

82. souligne que le secteur du transport maritime mondial a considérablement évolué grâce à l’intégration de l’IA ces dernières années; rappelle les discussions approfondies en cours au sein de l’Organisation maritime internationale sur la bonne intégration des technologies nouvelles et émergentes, telles que les navires autonomes, dans son cadre réglementaire;

83. souligne que les systèmes de transport intelligents peuvent atténuer la congestion du trafic, renforcer la sécurité et l’accessibilité et améliorer la gestion des flux de trafic, l’efficacité et les solutions en matière de mobilité; attire l’attention sur l’exposition accrue des réseaux traditionnels de transport aux cybermenaces; rappelle l’importance de ressources suffisantes et de recherches plus poussées sur les risques en matière de sécurité pour garantir la sécurité des systèmes automatisés et de leurs données; se félicite de l’intention de la Commission d’inscrire la cybersécurité à l’ordre du jour des débats au sein des organisations internationales compétentes en matière de transport;

84. se félicite des efforts visant à mettre en place des systèmes d’IA dans le secteur public et soutiendra la poursuite des discussions sur le déploiement de l’IA dans les transports; demande à la Commission de procéder à une évaluation de l’utilisation de l’IA et des technologies connexes du secteur des transports et d’établir une liste non exhaustive de secteurs à haut risque au regard des systèmes d’IA qui se substituent aux décisions prises dans le cadre des prérogatives des pouvoirs publics dans ce domaine;

85. souligne que le Fonds européen de la défense et la coopération structurée permanente devraient encourager la coopération entre les États membres et les industries de la défense du continent afin de développer de nouvelles capacités de défense européennes dans le domaine de l’IA et de garantir la sécurité de l’approvisionnement, en tenant compte des considérations éthiques; insiste sur la nécessité d’éviter la fragmentation en établissant des liens entre les différents acteurs et domaines d’application, en favorisant la compatibilité et l’interopérabilité à tous les niveaux et en se concentrant sur l’élaboration commune de solutions pour l’architecture et les plateformes; rappelle, en outre, que le prochain mécanisme pour l’interconnexion en Europe, qui encourage également les infrastructures intelligentes, prévoira un fonds pour l’adaptation et le développement d’infrastructures de transport civil ou militaire à double usage dans le RTE‑T pour renforcer les synergies entre les besoins civils et de défense et améliorer la mobilité militaire au sein de l’Union; souligne dès lors la nécessité d’accroître les investissements, la recherche et le leadership européens dans les technologies ayant à la fois une forte incidence sur la croissance économique et un potentiel important de double usage;

86. souligne que de nombreux investissements dans les nouvelles technologies dans le domaine des transports et de la mobilité sont déterminés par le marché, mais que les technologies et les produits commerciaux à double usage sont souvent utilisés de manière innovante à des fins militaires; souligne dès lors que le potentiel de double usage des solutions utilisant l’IA doit être pris en compte dans l’élaboration de normes d’utilisation de l’IA dans plusieurs domaines des secteurs commerciaux et militaires; demande que des normes et des principes éthiques rigoureux soient pris en compte dans l’élaboration des technologies, des produits et des principes de fonctionnement dans le domaine de la défense;

87. souligne que le transport efficace de marchandises, de munitions, d’armements et de troupes est une composante essentielle du succès des opérations militaires; met en avant le rôle crucial que l’IA sera appelée à jouer et les perspectives multiples qu’elle pourrait ouvrir dans la logistique et les transports militaires; signale que plusieurs pays du monde, y compris des États membres de l’Union européenne, intègrent des armes d’intelligence artificielle et d’autres systèmes à des plateformes terrestres, navales ou aéroportées; rappelle que l’utilisation de l’IA dans le secteur des transports pourrait apporter de nouvelles capacités et permettre des tactiques nouvelles, comme la combinaison de nombreux systèmes tels que des drones, des embarcations ou des chars sans équipage, dans le cadre d’une opération indépendante et coordonnée;

Droit international privé

88. note que, un nombre croissant de litiges relevant du droit international privé étant engendré par l’internationalisation des activités humaines, en ligne ou dans le monde réel, l’IA peut aider à les résoudre en créant des modèles permettant de repérer la juridiction compétente et le droit applicable pour chaque affaire, mais aussi d’identifier les conflits de lois les plus délicats et de proposer des solutions pour les régler;

89. estime toutefois que les utilisations de l’IA en droit international privé doivent faire l’objet d’une information appropriée du public et éviter les discriminations par des biais de programmation, qui aboutiraient à favoriser systématiquement un droit national plutôt qu’un autre, et qu’elles doivent également respecter le droit conféré au juge par la loi, le droit de faire appel selon le droit applicable et le droit de tout juge de rejeter la solution suggérée par l’AI;

90. souligne que la circulation de véhicules autonomes dans l’Union européenne, susceptible de donner naissance à un nombre particulièrement élevé de litiges de droit international privé, doit faire l’objet d’une réglementation européenne particulière précisant le régime juridique applicable en cas de dommages transfrontaliers;

91. relève qu’au regard de l’importance croissante de la recherche et du développement dans le secteur privé et des investissements considérables de pays tiers, l’Europe est confrontée à une forte concurrence; soutient, par conséquent, les efforts déployés par l’Union pour continuer à développer ses avantages concurrentiels et estime que, dans un monde hyperconnecté, l’Union devrait s’efforcer de définir des normes pour l’IA en adoptant une stratégie efficace à l’égard de ses partenaires extérieurs et en renforçant son action pour fixer des normes éthiques pour l’IA à l’échelle mondiale dans le respect des règles de sécurité et des exigences de protection des consommateurs et conformément aux valeurs de l’Union et aux droits des citoyens, dont les droits fondamentaux; estime que cela est également essentiel pour la compétitivité et le caractère durable des entreprises européennes; invite la Commission et les États membres à renforcer leur coopération et le dialogue avec les pays tiers et les organisations internationales telles que les Nations unies, l’OCDE, le G7 et le G20 afin de relever les défis découlant de l’évolution rapide de cette technologie; estime que ces efforts doivent notamment viser à établir des normes communes et à améliorer l’interopérabilité des systèmes reposant sur l’IA; invite la Commission à favoriser le dialogue, une coopération plus étroite et des synergies entre les États membres, les chercheurs, les universitaires, les acteurs de la société civile, le secteur privé, en particulier les entreprises de premier plan, et les forces militaires, pour garantir le caractère inclusif des processus d’élaboration des règles relatives à l’IA appliquée à la défense;

Principes directeurs

92. estime que les technologies et les systèmes de réseaux d’IA devraient viser à assurer la sécurité juridique des citoyens; souligne par conséquent que les règles relatives aux conflits de lois et aux conflits de compétences devraient continuer à s’appliquer compte tenu de l’intérêt des citoyens ainsi que de la nécessité de réduire le risque de recherche de la juridiction la plus indulgente; rappelle que l’IA ne saurait remplacer l’être humain dans le processus judiciaire lorsqu’il est question de rendre des jugements ou de prendre une quelconque décision définitive étant donné que ces décisions doivent toujours être prises par un être humain et être strictement soumises à une vérification humaine et à une procédure régulière; souligne que, lors du recours à des éléments de preuve émanant de technologies faisant appel à l’IA, les autorités judiciaires devraient avoir l’obligation de motiver leurs décisions;

93. rappelle que l’IA est un progrès scientifique qui ne doit pas entraîner de régression du droit, mais qu’elle doit au contraire toujours être encadrée par celui-ci — dans l’Union européenne par le droit émanant de ses institutions et de ses États membres — et qu’en aucun cas l’IA, la robotique et les technologies connexes ne peuvent enfreindre les droits fondamentaux, la démocratie et l’état de droit;

94. souligne que l’IA au service de la défense doit être responsable, équitable, traçable, fiable et gouvernable;

95. estime que l’intelligence artificielle, la robotique et les technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, indépendamment du domaine dans lequel elles sont utilisées, devraient être développées de manière sûre et rigoureuse sur le plan technique;

°

° °

96. charge son Président de transmettre la présente résolution au Conseil et à la Commission.


EXPOSÉ DES MOTIFS

Le formidable développement de l’intelligence artificielle (IA) est un défi pour le droit international, tant public que privé, et plus largement pour l’autorité des États. Dans la mesure où l’encadrement juridique de l’IA est devenu l’une des priorités de l’UE, le Parlement européen ne peut se désintéresser de cette question. Le présent rapport s’efforce d’en aborder les principaux aspects.

Droit international public: utilisations militaires de l’IA

Conformément au document de travail du 29 avril 2020, une place importante du rapport est consacrée aux utilisations militaires de l’IA, dont les principales puissances du monde s’accordent à penser que leur développement constitue une priorité pour leurs armées. Les valeurs dont se réclame l’UE légitiment son souci de se pencher sur leur nécessaire encadrement juridique, dans le respect des compétences des États et de l’ONU.

Le choix a été fait d’aborder le sujet sous trois angles. Sont d’abord rappelés les principes qui devraient commander toute utilisation militaire de l’IA, quelle qu’elle soit: traitement de l’information à des fins militaires, logistique militaire, «combat collaboratif» et aide à la décision en temps réel, systèmes défensifs, ensemble des armes qui recourent à l’IA, dont les Systèmes d’Armes Létales Autonomes (SALA).

Puis des principes spécifiques sont dégagés pour les SALA, compte tenu de leur dangerosité particulière déjà soulignée par le Parlement européen dans sa résolution du 12 septembre 2018.

Est enfin abordé le rôle du Fonds européen de la défense, qui finance déjà des projets de recherche militaires mettant en œuvre l’IA, preuve que l’UE est d’ores et déjà directement concernée par les utilisations militaires de l’IA.

Autorité de l’État

L’IA a aussi des implications sur l’autorité des États dans des domaines autres que militaires. Suite au débat de la commission JURI du 16 juin 2020, lors duquel plusieurs membres ont estimé qu’il fallait aussi les évoquer, le choix a été fait de les aborder dans les deux domaines particulièrement sensibles que sont la santé et la justice.

Droit international privé

Lors du même débat, certains membres ont aussi demandé d’examiner les incidences de l’utilisation de l’IA sur le droit international privé. C’est pour en tenir compte que la fin du texte s’efforce d’évoquer cette question, certes brièvement, compte tenu des contraintes du Parlement relatives au volume de ce type de rapport.

Principe directeur

Au-delà de la diversité des points qu’il aborde, ce qui structure le rapport est la prise de conscience que l’IA peut présenter des dangers pour le respect des principes démocratiques et de primauté du droit, et qu’il faut les affronter avec lucidité. Car comme prévenait Martin Heidegger, «quand nous considérons la technique comme quelque chose de neutre, c’est alors que nous lui sommes livrés de la pire façon».

.


 

 

AVIS DE LA COMMISSION DES AFFAIRES ÉTRANGÈRES (7.7.2020)

<CommissionInt>à l’intention de la commission des affaires juridiques</CommissionInt>


<Titre>sur «Intelligence artificielle: questions relatives à l’interprétation et l’application du droit international dans la mesure où l’Union est concernée dans les domaines des utilisations civiles et militaires et à l’autorité de l’État en dehors du champ d’application de la justice pénale»</Titre>

<DocRef>(2020/2013(INI))</DocRef>

Rapporteur pour avis (*): <Depute>Urmas Paet</Depute>

(*) Commission associée – Article 57 du règlement intérieur

 

SUGGESTIONS

La commission des affaires étrangères invite la commission des affaires juridiques, compétente au fond, à incorporer dans la proposition de résolution qu’elle adoptera les suggestions suivantes:

1. souligne que les politiques de sécurité et de défense de l’Union européenne et de ses États membres sont guidées par les principes consacrés par la charte des droits fondamentaux de l’Union européenne et la charte des Nations unies - cette dernière invitant l’ensemble des États à s’abstenir, dans leurs relations internationales, de recourir à la menace ou à l’emploi de la force -, ainsi que par le droit international, par les principes des droits de l’homme et du respect de la dignité humaine, et par une compréhension commune des valeurs universelles que constituent les droits inviolables et inaliénables de la personne humaine, la liberté, la démocratie, l’égalité et l’état de droit; observe que tous les efforts liés à la défense dans le cadre de l’Union doivent respecter ces valeurs universelles tout en prônant la paix, la stabilité, la sécurité et le progrès, tant en Europe que dans le monde;

2. invite les Nations unies et la communauté internationale dans son ensemble à déployer tous les efforts réglementaires nécessaires pour faire en sorte que la mise au point et l’application de l’intelligence artificielle (IA) à des fins militaires et pour renforcer les capacités civiles de maintien de l’ordre, telles que celles des forces de police et de contrôle des frontières, ainsi que l’étude, le développement et l’utilisation de systèmes fondés sur l’IA par les forces armées, observent les limites strictes fixées par le droit international, y compris le droit international humanitaire (DIH) et le droit relatif aux droits de l’homme; insiste sur le fait que l’Union devrait œuvrer à l’adoption internationale de ses normes techniques et éthiques applicables aux systèmes militaires fondés sur l’IA, et s’engager, en étroite collaboration avec des partenaires animés du même esprit, en faveur d’un dispositif réglementaire international définissant des normes communes basées sur des valeurs démocratiques, encadré de manière adéquate pour empêcher l’utilisation desdits systèmes à des fins d’espionnage, de surveillance massive, ciblée et politique, de désinformation et de manipulation des données, et de course aux cyberarmes; invite à une coopération accrue avec l’OTAN en vue d’établir des normes communes et d’améliorer l’interopérabilité des systèmes reposant sur l’IA; invite la Commissiosn à favoriser le dialogue, une coopération plus étroite et des synergies entre les États membres, les chercheurs, les universitaires, les acteurs de la société civile, et le secteur privé, en particulier les entreprises de premier plan, et les forces militaires, pour garantir le caractère inclusif des processus d’élaboration des règles relatives à l’IA appliquée à la défense;

3. estime notamment que la conception, le développement et l’utilisation de systèmes fondés sur l’IA dans les conflits armés doit, comme le prévoit la clause de Martens, respecter les principes généraux du DIH et ne jamais enfreindre ni être autorisée à enfreindre les exigences de la conscience publique ou les lois de l’humanité; estime que le respect du DIH est la norme de recevabilité minimale applicable à l’utilisation de systèmes fondés sur l’IA en situation de guerre; invite la communauté des chercheurs dans le domaine de l’IA à intégrer ce principe dans tous les systèmes fondés sur l’IA destinés à être utilisés en situation de guerre; estime qu’aucune autorité ne peut accorder une dérogation à ces principes ni certifier un système fondé sur l’IA qui les enfreint; invite en conséquence les développeurs de systèmes d’armes létales autonomes (SALA) à cesser toute conception, tout prototypage et toute production de tels systèmes;

4. se félicite de la création d’un groupe d’experts gouvernementaux des Nations unies chargé de promouvoir un comportement responsable des États dans le cyberespace dans le contexte de la sécurité internationale et invite l’Union à participer pleinement à ses travaux;

5. invite le HR/VP à ouvrir la voie à des négociations mondiales en vue de mettre en place un régime de contrôle des armes recourant à l’IA et de mettre à jour tous les instruments de traités existants consacrés au contrôle des armes, au désarmement et à la non-prolifération afin de prendre en compte les systèmes fondés sur l’IA utilisés en temps de guerre; demande que la position commune du Conseil définissant des règles communes régissant le contrôle des exportations de technologie et d’équipements militaires tienne pleinement compte des systèmes d’armes fondés sur l’IA et s’y applique;

6. souligne que les États, les parties à un conflit et les particuliers, lorsqu’ils recourent à des systèmes fondés sur l’IA en situation de guerre, doivent, à tout moment, respecter les obligations et la responsabilité qui leur incombent en vertu du droit international applicable et rester responsables des actions résultant de l’utilisation de ces systèmes; rappelle que l’être humain reste responsable des effets recherchés, involontaires ou indésirables provoqués par les systèmes fondés sur l’IA sur le champ de bataille; souligne que la décision d’entreprendre une action létale au moyen de systèmes d’armes présentant un niveau d’autonomie élevé doit toujours être prise par des opérateurs humains exerçant un contrôle et une surveillance significatifs ainsi que le niveau de jugement nécessaire, conformément aux principes de proportionnalité et de nécessité; souligne que les systèmes fondés sur l’IA ne peuvent en aucun cas se substituer à la décision humaine;

7. met l’accent sur la nécessité de prendre dûment en compte, lors des phases de conception, de développement, d’essai et de déploiement d’un système fondé sur l’IA, les risques potentiels, notamment celui de faire des victimes collatérales parmi la population civile, de perdre la vie de manière accidentelle ou de causer des dommages aux infrastructures civiles, mais aussi les risques liés à l’engagement involontaire, à la manipulation, à la prolifération, aux cyberattaques, à l’interférence et à l’acquisition par la criminalité organisée et des groupes terroristes, qui conduisent à une escalade d’effets perturbateurs qui visent à fragiliser nos sociétés, nos forces militaires et nos institutions;

8. exprime l’inquiétude que lui inspire le fait que tous les membres de la communauté internationale n’adopteraient pas, en matière d’IA, une approche réglementaire de l’IA centrée sur l’humain; demande instamment à l’Union et aux États membres d’évaluer le développement des technologies de l’IA, en particulier celles utilisées à des fins militaires et de surveillance, dans des États autoritaires qui se soustraient au respect des règles impulsées par l’Union;

9. souligne qu’il est nécessaire de mettre en place des systèmes d’essai, d’évaluation, de certification, de surveillance et de vérification solides, basés sur des normes juridiques et démocratique claires ainsi que sur des dispositions claires en matière de sûreté et de sécurité, pour faire en sorte que, pendant toute la durée de vie des systèmes fondés sur l’IA utilisés dans le domaine militaire, en particulier pendant les phases d’interaction entre l’humain et la machine, d’apprentissage automatique et d’ajustement et d’adaptation à de nouvelles circonstances, ces systèmes et leurs effets n’aillent pas au-delà des limites prévues et soient à tout moment utilisés d’une manière conforme au droit international applicable; estime que dans l’hypothèse où ces limites seraient franchies sur un théâtre d’opération, les autorités civiles ou militaires ayant déployé les systèmes d’IA devraient en répondre;

10. souligne que tout système fondé sur l’IA utilisé dans le domaine militaire doit se conformer à un ensemble minimal d’exigences, à savoir être capable de faire la distinction entre les combattants et les non-combattants sur le champ de bataille, entre cibles militaires et civiles, pouvoir déterminer si un combattant se rend ou est hors de combat, ne pas avoir d’effets indiscriminés, individualiser l’usage de la force et ne pas cibler une certaine catégorie de personnes, ne pas causer de souffrances inutiles aux personnes ou les soumettre à des traitements cruels ou dégradants, ne pas être biaisé ni entraîné sur la base de données biaisées, et être utilisé dans le respect des principes généraux du DIH, à savoir les principes d’humanité, de distinction, de proportionnalité, et de nécessité militaire, avant l’engagement et lors des attaques; souligne l’importance de la qualité des algorithmes, des données originales et de l’examen ex ante des processus décisionnels;

11. souligne que, lors de l’utilisation de systèmes fondés sur l’IA dans le domaine de la sécurité et de la défense, la pleine compréhension de la situation par l’opérateur humain, la prévisibilité et la fiabilité du système fondé sur l’IA ainsi que la capacité de l’opérateur humain de détecter d’éventuels changements de circonstances et d’environnement opérationnel et sa capacité d’intervenir lors d’une attaque ou d’y mettre fin sont nécessaires pour garantir que les principes du droit international humanitaire, en particulier de discrimination, de proportionnalité et de précaution lors d’une attaque, soient pleinement appliqués tout au long de la chaîne de commandement et de contrôle; souligne que les systèmes fondés sur l’IA doivent permettre aux autorités militaires d’exercer un contrôle significatif, d’assumer leur pleine et entière responsabilité et de répondre de toutes les utilisations desdits systèmes;

12. encourage les États à procéder à une évaluation pour savoir si et de quelle manière les dispositifs militaires autonomes ont contribué à leur sécurité nationale et le bénéfice que leur sécurité nationale pourrait tirer des systèmes d’armement fondés sur l’IA, en particulier en ce qui concerne le potentiel de ces technologies pour soutenir et améliorer la prise de décision humaine dans le respect du DIH et de ses principes; rappelle que tout SALA ou toute arme au niveau d’autonomie élevé peut présenter un dysfonctionnement en raison d’un mauvais codage ou d’une cyberattaque commise par un État ennemi ou un acteur non étatique;

13. rappelle sa résolution du 12 septembre 2018 sur les systèmes d’armes autonomes; se félicite à cet égard de l’accord conclu entre le Conseil et le Parlement visant à exclure les armes létales autonomes «sans la possibilité d’un contrôle humain significatif sur les décisions de sélection et d’engagement prises dans le cadre de frappe]» des actions financées au titre du Fonds européen de défense;

14. demande la création d’une Agence européenne de l’intelligence artificielle, dont le mandat couvrirait des normes communes, des cadres de certification et de contrôle, ainsi qu’une coopération bilatérale solide avec l’OTAN en ce qui concerne le déploiement, le développement et l’utilisation de l’IA dans le domaine militaire;

15. rappelle sa position du 12 septembre 2018 sur les systèmes d’armes autonomes selon laquelle les frappes ne doivent pas être effectuées véritable contrôle humain; invite le HR/VP, les États membres et le Conseil européen à adopter une position commune sur les systèmes d’armes autonomes garantissant un véritable contrôle humain des fonctions critiques des systèmes d’armes, y compris pendant le déploiement; réaffirme son soutien aux travaux menés sur les SALA par le groupe d’experts gouvernementaux des Nations unies des hautes parties contractantes à la convention sur l’emploi de certaines armes conventionnelles (CCAC), qui reste le forum international pertinent pour les discussions et les négociations sur les défis juridiques posés par les systèmes d’armes autonomes; demande l’intensification de l’ensemble des efforts multilatéraux actuels afin que les cadres juridiques et réglementaires ne soient pas dépassés par les évolutions technologiques et les nouvelles méthodes de combat; invite le HR/VP, dans le cadre des discussions en cours sur la réglementation internationale des SALA par les États parties à la CCAC, à maintenir son engagement et à contribuer sans délai à faire progresser les travaux d’élaboration d’un nouveau cadre normatif mondial ainsi que d’un instrument juridiquement contraignant axé sur les définitions, les concepts et les caractéristiques des technologies émergentes relevant des SALA, les questions éthiques et juridiques du contrôle humain, notamment en ce qui concerne les fonctions critiques telles que la sélection et l’engagement d’un objectif, le maintien de la responsabilité humaine et de l’obligation de rendre des comptes et le degré d’interaction nécessaire entre l’humain et la machine, y compris la notion de contrôle et de jugement humains, pour assurer le respect du droit international humanitaire et du droit international relatif aux droits de l’homme à chaque étape du cycle de vie d’une arme fondée sur l’IA, en vue de convenir de recommandations concrètes sur la clarification, l’examen et le développement des aspects du cadre normatif et opérationnel relatifs aux technologies émergentes dans le domaine des SALA;

16. souligne la nécessité pour l’Union européenne d’œuvrer au renforcement de la résilience stratégique afin de ne plus jamais être prise au dépourvu en temps de crise, et souligne l’importance cruciale de cette démarche, surtout en ce qui concerne l’intelligence artificielle et ses applications militaires; souligne que les chaînes d’approvisionnement des systèmes militaires fondés sur l’IA susceptibles de conduire à une dépendance technologique devraient être recalibrées, et que ces situations de dépendance devraient être progressivement éliminées; demande d’intensifier les investissements réalisés dans l’IA européenne dans le domaine de la défense et dans les infrastructures critiques sur lesquelles elle repose;

17. reconnaît que la dynamique moderne de la course aux armements entre les principaux États nations militaires dans le développement de SALA connaît un rythme plus rapide que la mise en place, l’application et l’exécution efficaces et universelles de règles et de cadres juridiques communs, parce que l’information sur le développement et le déploiement de ces systèmes est classifiée et que les États nations ont un intérêt propre à créer les capacités offensives les plus rapides et les plus efficaces, indépendamment des cadres ou principes juridiques actuels et potentiels futurs;

18. estime qu’il est primordial, pour la sécurité mondiale, de disposer d’un mécanisme efficace pour faire appliquer les règles relatives à la non-prolifération des SALA et de toute technologie offensive nouvelle fondée sur l’IA.

 


INFORMATIONS SUR L’ADOPTION
PAR LA COMMISSION SAISIE POUR AVIS

Date de l’adoption

6.7.2020

 

 

 

Résultat du vote final

+:

–:

0:

60

6

4

Membres présents au moment du vote final

Alviina Alametsä, Alexander Alexandrov Yordanov, Maria Arena, Petras Auštrevičius, Traian Băsescu, Lars Patrick Berg, Anna Bonfrisco, Reinhard Bütikofer, Fabio Massimo Castaldo, Susanna Ceccardi, Włodzimierz Cimoszewicz, Katalin Cseh, Tanja Fajon, Anna Fotyga, Michael Gahler, Kinga Gál, Sunčana Glavak, Raphaël Glucksmann, Klemen Grošelj, Bernard Guetta, Márton Gyöngyösi, Sandra Kalniete, Karol Karski, Dietmar Köster, Andrius Kubilius, Ilhan Kyuchyuk, David Lega, Miriam Lexmann, Nathalie Loiseau, Antonio López-Istúriz White, Lukas Mandl, Thierry Mariani, David McAllister, Vangelis Meimarakis, Sven Mikser, Francisco José Millán Mon, Javier Nart, Gheorghe-Vlad Nistor, Urmas Paet, Kostas Papadakis, Tonino Picula, Manu Pineda, Kati Piri, Giuliano Pisapia, Diana Riba i Giner, Jérôme Rivière, María Soraya Rodríguez Ramos, Nacho Sánchez Amor, Isabel Santos, Jacek Saryusz-Wolski, Andreas Schieder, Radosław Sikorski, Sergei Stanishev, Tineke Strik, Hermann Tertsch, Hilde Vautmans, Harald Vilimsky, Idoia Villanueva Ruiz, Viola Von Cramon-Taubadel, Thomas Waitz, Witold Jan Waszczykowski, Charlie Weimers, Isabel Wiseler-Lima, Salima Yenbou, Željana Zovko

Suppléants présents au moment du vote final

Nikos Androulakis, Vladimír Bilčík, Marisa Matias, Juozas Olekas, Mick Wallace

 


VOTE FINAL PAR APPEL NOMINAL
EN COMMISSION SAISIE POUR AVIS

60

+

PPE

Alexander Alexandrov Yordanov, Traian Băsescu, Michael Gahler, Kinga Gál, Sunčana Glavak, Sandra Kalniete, Andrius Kubilius, David Lega, Miriam Lexmann, Antonio López-Istúriz White, David McAllister, Lukas Mandl, Vangelis Meimarakis, Francisco José Millán Mon, Gheorghe-Vlad Nistor, Radosław Sikorski, Isabel Wiseler-Lima, Željana Zovko, Vladimír Bilčík

S&D

Maria Arena, Włodzimierz Cimoszewicz, Tanja Fajon, Raphaël Glucksmann, Sven Mikser, Tonino Picula, Kati Piri, Giuliano Pisapia, Nacho Sánchez Amor, Isabel Santos, Andreas Schieder, Sergei Stanishev, Nikos Androulakis Nikos, Juozas Olekas

Renew

Petras Auštrevičius, Katalin Cseh, KLemen Grošelj, Bernard Guetta, Ilhan Kyuchyuk, Nathalie Loiseau, Javier Nart, Urmas Paet, María Soraya Rodríguez Ramos, Hilde Vautmans

ID

Anna Bonfrisco, Susanna Ceccardi

Verts

Alviina Alametsä, Reinhard Bütikofer, Diana Riba i Giner, Tineke Strik, Viola von Cramon-Taubadel, Thomas Waitz, Salima Yenbou

ECR

Anna Fotyga, Karol Karski, Jacek Saryusz-Wolski, Hermann Tertsch, Witold Jan Waszczykowski, Charlie Weimers

NI

Fabio Massimo Castaldo, Márton Gyöngyösi

 

6

-

S&D

Dietmar Köster

GUE

Manu Pineda, Idoia Villanueva Ruiz, Marisa Matias, Mick Wallace

NI

Kostas Papdakis

 

4

0

ID

Lars Patrick Berg, Thierry Mariani, Jérôme Rivière, Harald Vilimsky

 

Légende des signes utilisés:

+ : pour

- : contre

0 : abstention

 


 

 

AVIS DE LA COMMISSION DU MARCHÉ INTÉRIEUR ET DE LA PROTECTION DES CONSOMMATEURS (7.7.2020)

<CommissionInt>à l’intention de la commission des affaires juridiques</CommissionInt>


<Titre>sur « Intelligence artificielle: questions relatives à l’interprétation et l’application du droit international dans la mesure où l’Union est concernée dans les domaines des utilisations civiles et militaires et à l’autorité de l’État en dehors du champ d’application de la justice pénale»</Titre>

<DocRef>(2020/2013(INI))</DocRef>

Rapporteur pour avis: <Depute>Andreas Schwab</Depute>

 

 

SUGGESTIONS

La commission du marché intérieur et de la protection des consommateurs invite la commission des affaires juridiques, compétente au fond, à incorporer dans la proposition de résolution qu’elle adoptera les suggestions suivantes:

1. rappelle qu’il découle de la directive (UE) 2018/958 que les humains doivent toujours assumer la responsabilité ultime des décisions qui comportent des risques pour la réalisation des objectifs d’intérêt général; souligne que toute technologie d’IA devrait faire l’objet d’un contrôle humain; souligne que, pour orienter l’intelligence artificielle vers le bien des consommateurs et de la société dans son ensemble, le contrôle humain devrait toujours être le modèle de contrôle ultime dans l’interprétation et l’application de la législation en la matière;

2. estime que, dans un monde hyperconnecté, l’Union devrait s’efforcer de définir des normes pour l’IA en adoptant une stratégie efficace à l’égard de ses partenaires extérieurs et en les encourageant à fixer des normes éthiques à l’échelle mondiale, conformément aux valeurs de l’Union et aux droits fondamentaux et dans le respect des règles de sécurité et aux exigences de protection des consommateurs; estime que cela est également essentiel pour la compétitivité et le caractère durable des entreprises européennes; invite la Commission et les États membres à renforcer leur coopération et le dialogue avec les pays tiers et les organisations internationales afin de relever les défis découlant de l’évolution rapide de cette technologie;

3. rappelle que les principes de non-discrimination et de proportionnalité doivent être respectés et que les questions de causalité, de responsabilité, d’obligation de rendre compte, de transparence, de responsabilité et d’explicabilité, doivent être clarifiées pour déterminer si et dans quelle mesure, l’État, en tant que sujet de droit international et autorité souveraine, peut agir avec l’aide de systèmes d’AI disposant d’une certaine autonomie sans enfreindre les obligations découlant du droit international, telles que le droit à un procès équitable;

4. invite dès lors instamment les États membres à évaluer les risques liés à l’IA, tels que les risques liés à la protection des consommateurs et des destinataires de services, avant d’automatiser les activités placées sous l’autorité de l’État, telles que la bonne administration de la justice; invite les États membres à envisager la mise en place de garanties, prévues dans la directive (UE) 2018/958, telles que la surveillance par un professionnel qualifié et l’élaboration de règles de déontologie; souligne la nécessité d’une transposition et d’une mise en œuvre correctes de la présente directive par les États membres et encourage la Commission à suivre de près la question;

5. insiste sur l’importance d’investir dans les compétences humaines, y compris dans le domaine numérique, pour permettre aux personnes qui exercent des professions réglementées, y compris au plus près de l’autorité de l’État, comme l’administration de la justice, de s’adapter au progrès scientifique basé sur l’IA; invite les États membres et la Commission à en tenir dûment compte dans le cadre de la mise en œuvre de la directive 2005/36/CE;

6. estime qu’en ce qui concerne les produits ou dispositifs intelligents, le développement de l’IA offre également des possibilités d’améliorer la surveillance du marché à l’échelle mondiale et de s’attaquer à la question de la sécurité des produits et de la protection des consommateurs d’une manière beaucoup plus efficace et à grande échelle; invite par conséquent la Commission à mettre en place une gouvernance et des mécanismes de surveillance du marché des systèmes fondés sur l’IA pour transmettre des lignes directrices, des avis et des connaissances techniques aux autorités des États membres;

7. souligne que, dans la mesure où ils relèvent de la définition des machines figurant dans la directive 2006/42/CE, les robots devraient être conçus et assemblés conformément aux normes et aux mesures de sécurité qui y sont prévues;

8. rappelle que la directive SRI offre une approche européenne commune de la cybersécurité et de la résilience des réseaux et des systèmes d’information visant à renforcer le marché unique et la confiance des consommateurs; invite instamment les États membres et la Commission à prendre au sérieux la menace de cyberattaques liées à l’IA, qui peuvent porter atteinte à l’économie de l’Union, et à investir massivement en vue de porter à un niveau élevé la culture numérique générale et à réduire la dépendance vis-à-vis des fournisseurs de pays tiers;

9. estime que les autorités des États membres, régionales et locales y compris, et la Commission devraient promouvoir des technologies de l’IA susceptibles de rendre service aux personnes; invite les États membres et la Commission à coopérer étroitement pour développer des applications d’IA qui permettront d’automatiser et de simplifier les services d’administration en ligne, par exemple dans le domaine de l’administration fiscale, des douanes, de la protection des consommateurs ou de la déclaration des activités commerciales transfrontières; invite instamment les États membres à avoir recours aux marchés publics pour responsabiliser le développement de l’IA au profit des nouveaux arrivants sur le marché, des citoyens et des consommateurs; souligne que les algorithmes doivent être explicables et impartiaux et répondre à des normes minimales de transparence et considère qu’il est essentiel de favoriser l’utilisation des données ouvertes dans l’esprit de la directive (UE) 2019/1024 sur les données ouvertes et la réutilisation des informations du secteur public afin que les entreprises et les consommateurs puissent bénéficier en toute confiance de services publics de meilleure qualité, accessibles, non discriminatoires et fiables, à un coût équitable.


INFORMATIONS SUR L’ADOPTION
PAR LA COMMISSION SAISIE POUR AVIS

Date de l’adoption

7.7.2020

 

 

 

Résultat du vote final

+:

–:

0:

39

1

4

Membres présents au moment du vote final

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Suppléants présents au moment du vote final

Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin

 


 

 

VOTE FINAL PAR APPEL NOMINAL
EN COMMISSION SAISIE POUR AVIS

39

+

EPP

S&D

RENEW

GREENS/EFA

ECR

EUL/NGL

NI

Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

Andrus Ansip, Vlad-Marius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie Yon-Courtin

David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kim Van Sparrentak

Adam Bielan, Carlo Fidanza, Eugen Jurzyca, Beata Mazurek

Kateřina Konečná, Anne-Sophie Pelletier

Marco Zullo

 

1

-

ID

Hynek Blaško

 

4

0

ID

Alessandra Basso, Markus Buchheit, Virginie Joron, Jean-Lin Lacapelle

 

Légende des signes utilisés:

+ : pour

- : contre

0 : abstention

 

 


 

 

AVIS DE LA COMMISSION DES TRANSPORTS ET DU TOURISME (15.7.2020)

<CommissionInt>à l’intention de la commission des affaires juridiques</CommissionInt>


<Titre>sur «Intelligence artificielle: questions relatives à l’interprétation et l’application du droit international dans la mesure où l’Union est concernée dans les domaines des utilisations civiles et militaires et de l’autorité de l’État en dehors du champ d’application de la justice pénale»</Titre>

<DocRef>(2020/2013(INI))</DocRef>

Rapporteur pour avis: <Depute>Ondřej Kovařík</Depute>

 

 

SUGGESTIONS

La commission des transports et du tourisme invite la commission des affaires juridiques, compétente au fond, à incorporer dans la proposition de résolution qu’elle adoptera les suggestions suivantes:

A. considérant que l’intelligence artificielle (IA) offre des possibilités sans précédent d’améliorer les performances du secteur des transports, puisqu’elle permet de répondre à la demande croissante de déplacements et aux préoccupations en matière de sécurité et d’environnement, tout en rendant tous les modes de transport plus intelligents, plus efficaces et plus pratiques;

B. considérant qu’il est indispensable, pour renforcer les capacités de l’Union, de soulever la question de l’IA dans le domaine de la défense au niveau européen;

1. se félicite du livre blanc de la Commission sur l’intelligence artificielle (IA) et appuie l’ambition qu’a l’Union européenne de jouer un rôle de premier plan au niveau mondial dans le domaine de l’IA tout en coopérant plus étroitement avec les acteurs qui partagent des valeurs semblables;

2. relève qu’au regard de l’importance croissante de la recherche et du développement dans le secteur privé et des investissements considérables de pays tiers comme les États-Unis et la Chine, l’Europe est confrontée à une forte concurrence; soutient, par conséquent, les efforts déployés par l’Union pour continuer à développer ses avantages concurrentiels dans le secteur de l’IA et estime qu’elle devrait s’attacher à être une force normative au niveau mondial en matière d’IA dans les domaines des utilisations civiles et militaires et de l’autorité de l’État, et redoubler d’efforts en vue d’une stratégie efficace visant à renforcer son influence sur l’élaboration de normes mondiales et à réduire sa dépendance à l’égard des données étrangères, ce qui est essentiel pour les technologies algorithmiques; invite la Commission et les États membres à plaider en faveur d’une coopération plus large au sein des Nations unies, de l’OCDE, du G7, du G20 et d’autres enceintes internationales afin de mettre en avant la ligne de conduite de l’Union à l’égard de l’IA, en insistant sur les droits, libertés et valeurs fondamentaux consacrés par les traités de l’Union, la charte des droits fondamentaux de l’Union européenne et le droit international relatif aux droits de l’homme, et en tenant compte des normes éthiques et des questions de responsabilité;

3. prend acte du potentiel économique important des applications d’IA et invite par conséquent la Commission à continuer de promouvoir la recherche sur l’IA et l’échange de bonnes pratiques dans le domaine des transports; souligne la nécessité d’utiliser les données de manière innovante et intersectorielle et de favoriser la coopération entre les différents acteurs de l’écosystème afin de renforcer la base industrielle européenne en matière d’IA; souligne qu’il importe de prendre en considération non seulement les technologies de l’IA, mais aussi d’autres technologies de nouvelle génération, comme l’informatique quantique, qui sont d’ores et déjà en cours d’examen et représentent les prochains progrès technologiques transsectoriels;

4. soutient l’utilisation de l’IA à apprentissage automatique utilisant des mégadonnées pour l’optimisation des performances à long terme, la maintenance, la prévision des pannes et la planification de la construction des infrastructures de transport et des bâtiments, notamment des paramètres tels que la sécurité, l’efficacité énergétique ou les coûts; note qu’il faudra pour cela disposer de facteurs favorables et d’infrastructures d’aide, notamment en matière d’énergie pour le matériel, les logiciels, les ressources et les services de réseau, ainsi que pour garantir la bonne qualité de données en grand nombre; observe, en outre, que le déploiement de l’IA dans les transports, en particulier lorsque les utilisations civiles et militaires sont étroitement liées, devrait être conforme à la législation de l’Union en matière de protection des données et de la vie privée; demande à la Commission de continuer à travailler avec les États membres sur la sécurité et la protection des données;

5. estime que l’IA a modifié le secteur des transports et a contribué à son développement et à sa modernisation en augmentant l’automatisation et en renforçant l’intégration et la connectivité des réseaux de transport; souligne que l’automatisation et l’intégration de l’IA varient selon les modes de transport et les infrastructures en place dans l’ensemble de l’Union; souligne la nécessité de renforcer l’intelligence artificielle pour favoriser la multimodalité, l’interopérabilité et l’efficacité énergétique de tous les modes de transport afin de renforcer l’efficacité de l’organisation et de la gestion des flux de transport de marchandises et de passagers, de mieux utiliser les infrastructures et les ressources le long du réseau transeuropéen de transport (RTE-T) et de lever les obstacles à la création d’un véritable espace européen unique des transports;

6. souligne que l’un des principaux résultats du livre blanc de la Commission sur l’intelligence artificielle est de mettre en place une approche centrée sur le facteur humain dans les systèmes d’IA; rappelle l’importance constante du facteur humain sur la voie de l’automatisation complète; souligne que la technologie doit être suffisamment transparente et prévisible, qu’elle doit être fiable, que le déploiement doit être de haute qualité et que le personnel qui se sert de systèmes utilisant l’IA doit pouvoir se former correctement, se perfectionner et se reconvertir; souligne que l’utilisation de l’IA à des fins militaires devrait toujours renvoyer à une personne physique ou morale, et que les responsabilités et les obligations en matière de reddition de comptes devraient incomber aux décideurs responsables, en tenant compte de la chaîne de commandement militaire;

7. rappelle les avantages du système européen de gestion du trafic ferroviaire (ERTMS), un système intégré de protection automatique des trains qui remplace les systèmes nationaux incompatibles, en ce qui concerne la fiabilité, la capacité, les coûts, la sécurité, la vitesse et l’entretien, dont le déploiement complet est essentiel pour la création d’un espace ferroviaire européen unique; est favorable à son déploiement complet et à sa mise en place permanente en tant que système mondial de protection automatique des trains; prend acte des travaux de l’entreprise commune Shift2Rail;

8. soutient le développement et la normalisation internationale de l’automatisation des opérations ferroviaires, notamment afin de promouvoir l’interopérabilité, l’efficacité et la sécurité des transports; encourage le développement de l’attribution automatique des créneaux horaires dans différents modes de transport et l’utilisation de l’IA dans la logistique et d’autres domaines de transport;

9. salue les travaux effectués dans le cadre du projet de recherche sur la gestion du trafic aérien dans le ciel unique européen (SESAR) dans le domaine des systèmes d’aéronefs sans équipage et des systèmes de gestion du trafic aérien, tant civils que militaires, et se félicite de leur apport dans la lutte contre la fragmentation du ciel européen; rappelle que l’usage civil et militaire des véhicules aériens sans pilote (UAV), communément appelés «drones», est en augmentation; attire l’attention, entre autres, sur le potentiel que les livraisons, les inspections et la surveillance effectués par des drones représentent pour les citoyens et la société; souligne qu’il ne saurait y avoir de système de gestion du trafic aérien mondial sûr, fonctionnel et sécurisé sans interopérabilité et harmonisation mondiales; encourage la Commission et les États membres à promouvoir le système européen de nouvelle génération pour la gestion du trafic aérien international (SESAR), à contribuer aux travaux d’organisations internationales telles que l’Organisation de l’aviation civile internationale (OACI) ou l’Association internationale du transport aérien (International Air Transport Association) à cet égard, et à définir de concert des normes internationales pour l’utilisation civile et militaire des drones;

10. invite la Commission et les États membres à participer aux activités de réglementation et aux discussions internationales sur les véhicules autonomes, en particulier dans le domaine de la sécurité, tout en assurant la coopération entre les régulateurs et toutes les parties prenantes concernées par le déploiement de véhicules automatisés sur les routes de l’Union; demande une normalisation et une interopérabilité des données entrantes géographiques et souligne la nécessité de l’exactitude de ces données;

11. rappelle le fort potentiel des véhicules autonomes pour améliorer la mobilité, la sécurité et l’environnement; se félicite, à cet égard, de l’adoption du document-cadre sur les véhicules automatisés/autonomes par le Forum mondial de l’harmonisation des règlements concernant les véhicules de la Commission économique pour l’Europe des Nations unies; prend acte des travaux du nouveau comité technique de l’Organisation internationale de normalisation en matière d’IA; invite la Commission européenne à proposer une stratégie efficace pour garantir un cadre juridique international clair s’appliquant au concept de conducteur et aux questions de responsabilité, au sens des conventions des Nations unies et des autres lois sur le trafic international;

12. souligne que le secteur du transport maritime mondial a considérablement évolué grâce à l’intégration de l’IA ces dernières années; rappelle les discussions approfondies en cours au sein de l’Organisation maritime internationale sur la bonne intégration des technologies nouvelles et émergentes, telles que les navires autonomes, dans le cadre réglementaire;

13. souligne que les systèmes de transport intelligents peuvent atténuer la congestion du trafic, renforcer la sécurité et l’accessibilité et améliorer la gestion des flux de trafic, l’efficacité et les solutions en matière de mobilité; attire l’attention sur l’exposition accrue des réseaux traditionnels de transport aux cybermenaces; rappelle l’importance des ressources et des recherches plus poussées sur les risques en matière de sécurité pour garantir la sécurité des systèmes automatisés et de leurs données; se félicite de l’intention de la Commission d’inscrire la cybersécurité à l’ordre du jour des débats au sein des organisations internationales compétentes en matière de transport;

14. se félicite des efforts visant à mettre en place des systèmes d’IA dans le secteur public et soutiendra la poursuite des discussions sur le déploiement de l’IA dans les transports; demande à la Commission de procéder à une évaluation de l’utilisation de l’IA et des technologies connexes du secteur des transports et d’établir une liste non exhaustive de secteurs à haut risque au regard des systèmes d’IA qui se substituent aux décisions prises dans le cadre des prérogatives des pouvoirs publics dans ce domaine;

15. souligne que le Fonds européen de la défense et la coopération structurée permanente devraient encourager la coopération entre les États membres et les industries de la défense du continent afin de développer de nouvelles capacités de défense européennes dans le domaine de l’IA et de garantir la sécurité de l’approvisionnement, en tenant compte des considérations éthiques; insiste sur la nécessité d’éviter la fragmentation en établissant des liens entre les différents acteurs et domaines d’application, en favorisant la compatibilité et l’interopérabilité à tous les niveaux et en se concentrant sur des solutions communes pour les structures et les plateformes; rappelle, en outre, que le prochain mécanisme pour l’interconnexion en Europe, qui encourage également les infrastructures intelligentes, prévoira un fonds pour l’adaptation et le développement d’infrastructures de transport civil et militaire à double usage dans le RTE-T pour renforcer les synergies entre les besoins civils et de défense et améliorer la mobilité militaire au sein de l’Union; souligne dès lors la nécessité d’accroître les investissements, la recherche et le leadership européens dans les technologies ayant à la fois une forte incidence sur la croissance économique et un potentiel important de double usage;

16. souligne que de nombreux investissements dans les nouvelles technologies dans le domaine des transports et de la mobilité sont déterminés par le marché, mais que les technologies et les produits commerciaux à double usage sont souvent utilisés de manière innovante à des fins militaires; souligne dès lors que le potentiel de double usage des solutions utilisant l’IA doit être pris en compte dans l’élaboration de normes d’utilisation de l’IA dans plusieurs domaines des secteurs commerciaux et militaires; demande que des normes et des principes éthiques rigoureux soient pris en compte dans l’élaboration des technologies, des produits et des principes de fonctionnement dans le domaine de la défense;

17. souligne que le transport efficace de marchandises, de munitions, d’armements et de troupes est une composante essentielle du succès des opérations militaires; met en avant le rôle crucial que l’IA sera appelée à jouer et les perspectives multiples qu’elle pourrait ouvrir dans la logistique et les transports militaires; signale que plusieurs pays du monde, y compris des États membres de l’Union européenne, intègrent des armes d’intelligence artificielle et d’autres systèmes utilisés à des plateformes terrestres, navales ou aéroportées; rappelle que l’utilisation de l’IA dans le secteur des transports pourrait apporter de nouvelles capacités et permettre des tactiques nouvelles, comme la combinaison de nombreux systèmes tels que des drones, des embarcations ou des chars sans équipage, dans le cadre d’une opération indépendante et coordonnée;

18. relève de surcroît que les systèmes d’armes autonomes, en tant que catégorie particulière de l’IA dans le domaine militaire, devraient faire l’objet de débats et d’un accord international, en particulier dans le cadre de la convention des Nations Unies sur certaines armes classiques; rappelle que le débat international en cours sur les systèmes d’armes létales autonomes n’a pas encore été conclu et souligne que l’Union, dans son ensemble, n’a accepté que récemment de discuter des implications de l’évolution de l’IA et de la numérisation dans le secteur de la défense; estime que l’Union européenne peut jouer un rôle crucial si elle aide les États membres à harmoniser leur stratégie en matière d’IA militaire afin qu’ils puissent prendre la tête des pourparlers à l’échelle internationale.

 


INFORMATIONS SUR L’ADOPTION
PAR LA COMMISSION SAISIE POUR AVIS

Date de l’adoption

14.7.2020

 

 

 

Résultat du vote final

+:

–:

0:

36

8

5

Membres présents au moment du vote final

Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Sven Schulze, Barbara Thaler, István Ujhelyi, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski

Suppléants présents au moment du vote final

Leila Chaibi, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti

 


 

VOTE FINAL PAR APPEL NOMINAL
EN COMMISSION SAISIE POUR AVIS

36

+

ECR

Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski

NI

Mario Furore, Dorien Rookmaker

PPE

Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian-Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Elżbieta Katarzyna Łukacijewska

Renew

José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan-Christoph Oetjen, Dominique Riquet

S&D

Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi

 

8

-

GUE/NGL

Leila Chaibi, Kateřina Konečná, Elena Kountoura

Verts/ALE

Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay-Grunenberg, Tilly Metz

 

5

0

ID

Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo

 

Légende des signes utilisés:

+ : pour

- : contre

0 : abstention

 

 


 

 

AVIS DE LA COMMISSION DES LIBERTÉS CIVILES, DE LA JUSTICE ET DES AFFAIRES INTÉRIEURES (23.11.2020)

<CommissionInt>à l’intention de la commission des affaires juridiques</CommissionInt>


<Titre>sur l’intelligence artificielle: questions relatives à l’interprétation et l’application du droit international dans la mesure où l’Union est concernée dans les domaines des utilisations civiles et militaires et à l’autorité de l’État en dehors du champ d’application de la justice pénale</Titre>

<DocRef>(2020/2013(INI))</DocRef>

Rapporteur pour avis: <Depute>Patryk Jaki</Depute>

 

 

SUGGESTIONS

La commission des libertés civiles, de la justice et des affaires intérieures invite la commission des affaires juridiques, compétente au fond, à incorporer dans la proposition de résolution qu’elle adoptera les suggestions suivantes:

 vu les articles 2 et 3 du traité sur l’Union européenne (traité UE),

 vu les articles 10, 19, 21 et 167 du traité sur le fonctionnement de l’Union européenne (traité FUE),

 vu le droit de pétition consacré par les articles 20 et 227 du traité FUE et par l’article 44 de la charte des droits fondamentaux de l’Union européenne,

 vu les articles 21 et 22 de la charte des droits fondamentaux de l’Union européenne,

 vu le préambule du traité UE,

 vu la convention-cadre du Conseil de l’Europe pour la protection des minorités nationales, le protocole nº 12 à la convention de sauvegarde des droits de l’homme et des libertés fondamentales et la charte européenne des langues régionales ou minoritaires,

 vu la directive 2000/43/CE du Conseil du 29 juin 2000 relative à la mise en œuvre du principe de l’égalité de traitement entre les personnes sans distinction de race ou d’origine ethnique[11] (directive relative à l’égalité raciale),

 vu la directive 2000/78/CE du Conseil du 27 novembre 2000 portant création d’un cadre général en faveur de l’égalité de traitement en matière d’emploi et de travail[12] (directive sur l’égalité de traitement en matière d’emploi),

 vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données)[13] (RGPD), et la directive (UE) 2016/680 du Parlement européen et du Conseil du 27 avril 2016 relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales, et à la libre circulation de ces données, et abrogeant la décision‑cadre 2008/977/JAI du Conseil[14],

 vu la communication de la Commission au Parlement européen, au Conseil, au Comité économique et social et au Comité des régions du 11 décembre 2019 sur le pacte vert pour l’Europe,

 vu sa résolution du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique[15],

 vu la recommandation du Conseil de l’OCDE sur l’intelligence artificielle adoptée le 22 mai 2019,

 vu sa résolution du 12 septembre 2018 sur les systèmes d’armes autonomes[16],

A. considérant que le développement et la conception de l’«intelligence artificielle», de la robotique et des technologies connexes sont le fait de l’être humain, et que ce sont les choix qu’il effectue qui déterminent les avantages potentiels de la technologie pour la société;

B. considérant que les lignes directrices en matière d’éthique, telles que les principes adoptés par le groupe d’experts de haut niveau sur l’intelligence artificielle, constituent un bon point de départ mais qu’elles ne sont pas suffisantes pour que les entreprises agissent loyalement et garantissent la protection effective des individus;

1. reconnaît le potentiel et les risques associés au développement, au déploiement et à l’utilisation de l’intelligence artificielle (IA) pour garantir la sécurité tant au sein de l’Union que dans le cadre de ses relations extérieures; attire l’attention sur le fait que de nombreux États membres utilisent l’IA à la fois dans le domaine civil et dans le domaine militaire, et souligne qu’il importe que l’Union joue un rôle de premier plan et approprié dans le cadre des futures discussions internationales qui se tiendront sur ce sujet;

2. observe que certains États membres ont déjà réalisé des avancées en matière de réglementation dans le domaine de l’IA; insiste sur l’importance que revêt une approche européenne commune en mesure d’harmoniser la situation juridique entre les États membres et d’apporter une sécurité juridique à ceux qui développent et déploient l’IA;

3. souligne que le développement, le déploiement, l’utilisation et la gestion de l’IA doivent respecter les droits fondamentaux, les valeurs et les libertés énoncés dans les traités de l’Union, et invite les États membres à s’abstenir de déployer des systèmes d’IA à haut risque susceptibles de menacer les droits fondamentaux; prend acte de la publication du livre blanc de la Commission sur l’intelligence artificielle et demande que les risques potentiels, pour les droits fondamentaux, de l’utilisation de l’IA par les pouvoirs publics et par les institutions, organes et organismes de l’Union soient examinés de manière plus approfondie;

4. souligne que, pour tirer parti des possibilités offertes par l’IA, l’Union devrait adopter un cadre juridique approprié afin d’atténuer les risques, de garantir une utilisation éthique de l’IA et d’empêcher qu’elle soit utilisée à des fins malveillantes; estime qu’un tel cadre devrait définir clairement les régimes qu’il convient d’appliquer en matière de responsabilité, d’obligation de rendre des comptes, de sécurité et de traçabilité; insiste sur l’importance que revêt l’aide de l’Union destinée à développer les investissements indispensables, les infrastructures de données, la recherche et les normes communes en matière d’éthique;

5. souligne que l’Union se doit de figurer à l’avant-garde de l’élaboration d’un cadre juridique et éthique international régissant la recherche et le développement, la création, l’utilisation et la maintenance dans le domaine de l’IA, qui soit ancré dans les principes des droits de l’homme et en mesure de contrecarrer les risques potentiels et de remédier à ceux-ci; estime qu’il est nécessaire d’établir un régime international clair et équitable d’attribution de la responsabilité juridique des conséquences négatives produites par ces technologies numériques avancées; souligne que l’objectif à atteindre en priorité est de prévenir ces conséquences;

6. invite la Commission à faciliter la recherche sur les possibilités qu’offre l’utilisation de l’IA dans le cadre des opérations de secours en cas de catastrophe, de la prévention des crises et du maintien de la paix, et à encourager le débat sur ce sujet;

7. met l’accent sur les risques manifestes que représente toute décision prise par un être humain s’appuyant exclusivement sur des données, des profils et des recommandations générés par des machines; met l’accent sur le fait que la conception globale des systèmes d’IA devrait également intégrer des lignes directrices sur la supervision et la surveillance humaine; demande que soient imposées une obligation en matière de transparence et d’explicabilité des applications d’IA, ainsi que la nécessité d’une intervention humaine, et que d’autres mesures soient prévues, comme des audits indépendants et des tests de résistance spécifiques visant à faciliter et à assurer le respect de la conformité; souligne que ces audits devraient être effectués périodiquement par une autorité indépendante afin de superviser les applications d’IA à haut risque utilisées par les pouvoirs publics ou les autorités militaires;

8. note avec inquiétude que l’IA, lorsqu’elle est conçue et développée de manière inappropriée, peut mener à des partis pris et à des discriminations; s’engage à trouver des solutions réglementaires et stratégiques pour s’assurer que l’utilisation des technologies existantes et émergentes n’aggrave pas les discriminations mais que, au contraire, elle s’attelle à les éliminer;

9. souligne que le fait d’établir des prévisions à partir du traitement, du partage, de l’utilisation de données et de l’accès à celles-ci doit être régi conformément aux exigences en matière de qualité, d’intégrité, de transparence, de sécurité, de confidentialité et de contrôle; insiste sur le fait qu’il y a lieu, tout au long du développement, du déploiement et de l’utilisation de l’IA, de la robotique et des technologies connexes, de respecter le cadre juridique de l’Union en matière de protection des données et de la vie privée afin d’accroître la sécurité des citoyens et leur confiance dans ces technologies;

10. constate que les applications d’IA évoluent rapidement dans le domaine de la reconnaissance d’éléments caractéristiques uniques, tels que les traits du visage, les mouvements et les attitudes; met en garde contre les problèmes ayant trait aux atteintes à la vie privée, à la non-discrimination et à la protection des données à caractère personnel liés à l’utilisation des applications de reconnaissance automatisée;

11. insiste sur le fait que toute décision concernant une personne physique fondée exclusivement sur un traitement automatisé, y compris le profilage, qui produit des effets juridiques défavorables à l’égard de la personne intéressée ou l’affecte de manière conséquente, est interdite en vertu du RGPD, à moins qu’elle ne soit autorisée par le droit de l’Union ou par la législation d’un État membre et subordonnée à des mesures appropriées de sauvegarde des droits et des libertés ainsi que des intérêts légitimes de la personne concernée;

12. demande que l’intelligence artificielle, lorsqu’elle est utilisée par les autorités publiques, s’accompagne systématiquement de l’explicabilité des algorithmes, de transparence ainsi que d’une surveillance réglementaire, et que des analyses d’impact soient effectuées avant que les pouvoirs publics déploient des instruments qui sollicitent des technologies d’IA; invite la Commission et le comité européen de la protection des données à publier des lignes directrices, des recommandations et des bonnes pratiques afin d’apporter des précisions sur les critères et conditions applicables aux décisions fondées sur le profilage et l’utilisation de l’IA par les autorités publiques;

13. demande que des mesures transparentes et de réduction des risques portant sur le développement et l’utilisation de l’IA à des fins militaires soient prises au niveau international, en particulier en ce qui concerne les principes d’intégrité territoriale, de non‑intervention et de recours à la force; souligne qu’il importe de prendre en considération les aspects militaires lors de l’examen des questions juridiques et éthiques dans le cadre européen relatif à l’IA; rappelle sa position sur l’interdiction de la mise au point, de la production et de l’utilisation de systèmes d’armes létales autonomes; déplore qu’il n’existe pas, à l’échelle mondiale, de convention qui se prononce de manière explicite sur l’utilisation de ces armes;

14. observe que certaines technologies d’IA permettent l’automatisation, à une échelle sans précédent, du traitement de l’information et des actions d’information, comme dans le cas de la surveillance de masse dans les domaines civil et militaire, ce qui représente une menace pour les droits fondamentaux et ouvre la voie aux ingérences illégales dans la souveraineté des États; demande que les activités de surveillance de masse fassent l’objet d’un contrôle conformément aux normes de droit international en matière de juridiction et d’application du droit; se déclare vivement préoccupé par le fait que certaines applications de notation sociale hautement intrusives qui ont été mises au point portent gravement atteinte au respect des droits fondamentaux; demande que le recours à la notation sociale à grande échelle par les autorités publiques pour limiter les droits des citoyens soit explicitement interdit; demande que la responsabilité de certains acteurs privés, compte tenu de l’hégémonie décisionnelle et du contrôle qu’ils exercent sur le développement de ces technologies, soit renforcée en vertu du droit international;

15. invite la Commission à évaluer les conséquences d’un moratoire sur l’utilisation des systèmes de reconnaissance faciale et, en fonction des résultats de cette évaluation, à envisager l’application d’un moratoire, d’une part, sur l’utilisation de ces systèmes par les autorités publiques dans l’espace public et dans les établissements d’éducation et de soins de santé et, d’autre part, sur l’utilisation des systèmes de reconnaissance faciale par les autorités répressives dans les espaces semi-publics tels que les aéroports, jusqu’à ce qu’il soit considéré que les normes techniques respectent pleinement les droits fondamentaux, que les résultats obtenus ne soient ni biaisés, ni discriminatoires, et que des garanties strictes soient mises en place pour prévenir les abus et veiller à ce que l’utilisation de ces technologies respecte les principes de nécessité et de proportionnalité;

16. estime que l’intelligence artificielle, la robotique et les technologies connexes, y compris les logiciels, les données et les algorithmes utilisés ou produits par ces technologies, indépendamment du domaine dans lequel elles sont utilisées, devraient être développées de manière sûre et rigoureuse sur le plan technique;

17. souligne qu’il importe de faire en sorte que l’IA puisse être déployée et utilisée correctement; invite les États membres à proposer une formation appropriée à leur personnel civil et militaire afin de leur permettre de déceler avec précision les discriminations et les partis pris et de les éviter dans les ensembles de données;

18. fait observer que l’utilisation de l’IA dans la lutte contre la criminalité et la cybercriminalité pourrait offrir un large éventail de possibilités et de perspectives, et qu’il convient de veiller en parallèle à ce que le principe selon lequel «ce qui est illégal hors ligne l’est également en ligne» continue de prévaloir;

19. se déclare profondément préoccupé par les techniques de trucages vidéo ultra‑réalistes («deepfake») permettant de créer des photos et des enregistrements audio et vidéo falsifiés de plus en plus réalistes qui peuvent être utilisés pour exercer un chantage, produire de fausses informations de presse, entamer la confiance de la population ou influencer le discours public; estime que ces pratiques sont susceptibles de déstabiliser des États en diffusant de fausses informations et en influençant les élections; demande dès lors que les créateurs soient tenus de signaler, à propos des trucages vidéo ultra‑réalistes ou de tout autre montage vidéo réaliste, qu’il ne s’agit pas de la vidéo originale, que le recours à cette technique, lorsqu’elle poursuit des visées électorales, soit strictement encadré, et que cette obligation soit rigoureusement appliquée; demande, à cet égard, que des travaux de recherche appropriés soient menés afin de s’assurer que les technologies destinées à enrayer cette évolution ne se laissent pas distancer par l’utilisation malveillante de l’IA;

20. souligne que, dans le système judiciaire, l’utilisation de l’IA pourrait améliorer l’analyse et la collecte de données, ainsi que la protection des victimes, et qu’elle pourrait faire l’objet de travaux de recherche et de développement, y compris des analyses d’impact, en particulier en ce qui concerne les garanties permettant d’assurer un traitement équitable et de lutter contre les partis pris et les discriminations, tout en veillant à ce que le principe de précaution soit appliqué; rappelle, cependant, qu’elle ne saurait remplacer un être humain lorsqu’il s’agit de rendre des jugements ou de prendre une décision;

21. souligne l’importance que revêt la cybersécurité pour l’IA, dans les scénarios tant offensifs que défensifs; relève à cet égard l’importance de la coopération internationale, ainsi que de la publication et du partage des failles de sécurité informatique et des mesures correctives; demande qu’une coopération internationale en matière de cybersécurité soit mise en place pour que l’IA puisse être utilisée et déployée efficacement et que des garanties contre les utilisations abusives de l’IA et les cyberattaques soient prévues; relève en outre le double usage (à des fins civiles et militaires) qui est inhérent aux systèmes informatiques et à l’IA, et demande qu’une réglementation efficace soit adoptée en la matière;

22. invite les États membres à envisager la mise en place de garanties concernant l’utilisation de l’IA, telles que des règles de déontologie professionnelle; invite la Commission à établir un ensemble de critères clairement définis afin de déterminer les différents niveaux de risque dans les domaines pour lesquels les technologies d’IA sont conçues et déployées, compte tenu de la législation de l’Union en vigueur;

23. souligne qu’il importe de vérifier par quel procédé les technologies d’IA à haut risque parviennent à une décision; rappelle qu’il est indispensable de respecter le principe de proportionnalité et de clarifier les questions de causalité et de responsabilité;

24. rappelle l’importance des principes de gouvernance, de transparence, d’impartialité, de responsabilité, d’équité et de rigueur intellectuelle dans l’utilisation de l’IA dans le domaine de la justice pénale;

25. invite instamment les États membres à évaluer les risques liés à l’IA avant d’automatiser les activités participant à l’exercice de la puissance publique, en particulier dans le domaine judiciaire; invite les États membres à envisager la mise en place de garanties, telles que la surveillance par un professionnel qualifié et des règles de déontologie professionnelle.


INFORMATIONS SUR L’ADOPTION EN COMMISSION SAISIE POUR AVIS

Date de l’adoption

17.11.2020

 

 

 

Résultat du vote final

+:

–:

0:

56

4

0

Membres présents au moment du vote final

Malik Azmani, Pietro Bartolo, Nicolas Bay, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Patrick Breyer, Saskia Bricmont, Jorge Buxadé Villalba, Damien Carême, Caterina Chinnici, Clare Daly, Anna Júlia Donáth, Lena Düpont, Cornelia Ernst, Laura Ferrara, Nicolaus Fest, Jean-Paul Garraud, Maria Grapini, Sylvie Guillaume, Andrzej Halicki, Evin Incir, Patryk Jaki, Marina Kaljurand, Assita Kanko, Fabienne Keller, Peter Kofod, Łukasz Kohut, Alice Kuhnke, Moritz Körner, Jeroen Lenaers, Juan Fernando López Aguilar, Nuno Melo, Nadine Morano, Javier Moreno Sánchez, Maite Pagazaurtundúa, Nicola Procaccini, Emil Radev, Terry Reintke, Diana Riba i Giner, Ralf Seekatz, Birgit Sippel, Tineke Strik, Ramona Strugariu, Annalisa Tardino, Tomas Tobé, Dragoş Tudorache, Tom Vandendriessche, Bettina Vollath, Jadwiga Wiśniewska, Elena Yoncheva, Javier Zarzalejos, Sophia in ’t Veld, Michal Šimečka

Suppléants présents au moment du vote final

Malin Björk, Delara Burkhardt, Klára Dobrev, Rasa Juknevičienė, Kris Peeters, Karlo Ressler

 


VOTE FINAL PAR APPEL NOMINAL EN COMMISSION SAISIE POUR AVIS

56

+

PPE

Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Lena Düpont, Andrzej Halicki, Rasa Juknevičienė, Jeroen Lenaers, Nuno Melo, Kris Peeters, Emil Radev, Karlo Ressler, Ralf Seekatz, Tomas Tobé, Javier Zarzalejos

S&D

Pietro Bartolo, Delara Burkhardt, Caterina Chinnici, Klára Dobrev, Maria Grapini, Sylvie Guillaume, Evin Incir, Marina Kaljurand, Łukasz Kohut, Juan Fernando López Aguilar, Javier Moreno Sánchez, Birgit Sippel, Bettina Vollath, Elena Yoncheva

Renew

Malik Azmani, Anna Júlia Donáth, Fabienne Keller, Moritz Körner, Maite Pagazaurtundúa, Ramona Strugariu, Dragoş Tudorache, Sophia in ’t Veld, Michal Šimečka

ID

Nicolas Bay, Nicolaus Fest, Jean-Paul Garraud, Peter Kofod, Annalisa Tardino, Tom Vandendriessche

Verts/ALE

Patrick Breyer, Saskia Bricmont, Damien Carême, Alice Kuhnke, Terry Reintke, Diana Riba i Giner, Tineke Strik

ECR

Jorge Buxadé Villalba, Patryk Jaki, Assita Kanko, Nicola Procaccini, Jadwiga Wiśniewska

NI

Laura Ferrara

 

4

-

PPE

Nadine Morano

GUE/NGL

Malin Björk, Clare Daly, Cornelia Ernst

 

0

0

 

Légende des signes utilisés:

+ : pour

- : contre

0 : abstention

 

 


 

 

INFORMATIONS SUR L’ADOPTION PAR LA COMMISSION COMPÉTENTE AU FOND

Date de l’adoption

10.12.2020

 

 

 

Résultat du vote final

+:

–:

0:

16

4

0

Membres présents au moment du vote final

Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Sergey Lagodinsky, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Stéphane Séjourné, Raffaele Stancanelli, Adrián Vázquez Lázara, Axel Voss, Marion Walsmann, Tiemo Wölken

Suppléants présents au moment du vote final

Daniel Buda, Pascal Durand, Heidi Hautala, Emmanuel Maurel, Sabrina Pignedoli, Bettina Vollath

Suppléants (art. 209, par. 7) présents au moment du vote final

Juan Ignacio Zoido Álvarez

 


VOTE FINAL PAR APPEL NOMINAL EN COMMISSION COMPÉTENTE AU FOND

16

+

EPP

Daniel Buda, Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, Axel Voss, Marion Walsmann, Juan Ignacio Zoido Álvarez

RENEW

Karen Melchior, Adrián Vázquez Lázara

ID

Gunnar Beck, Jean-Paul Garraud, Gilles Lebreton

VERTS/ALE

Heidi Hautala

ECR

Angel Dzhambazki, Raffaele Stancanelli

NI

Sabrina Pignedoli

 

4

-

RENEW

Pascal Durand, Stéphane Séjourné

GREENS/EFA

Sergey Lagodinsky

GUE/NGL

Emmanuel Maurel

 

0

0

 

 

 

 Légende des signes utilisés:

+ : pour

- : contre

0 : abstention

 

[1] JO L 180 du 19.7.2000, p. 22.

[2] JO L 303 du 2.12.2000, p. 16.

[3] JO L 119 du 4.5.2016, p. 1.

[4] JO L 119 du 4.5.2016, p. 89.

[5] JO L 252 du 8.10.2018, p. 1.

[6] JO C 252 du  18.7.2018, p. 239.

[7] JO C 307 du 30.8.2018, p. 163.

[8] JO C 433 du 23.12.2019, p. 86.

[9] Textes adoptés de cette date, P8_TA(2018)0332.

[10] Textes adoptés de cette date, P8_TA(2019)0081.

[11] JO L 180 du 19.7.2000, p. 22.

[12] JO L 303 du 2.12.2000, p. 16.

[13] JO L 119 du 4.5.2016, p. 1.

[14] JO L 119 du 4.5.2016, p. 89.

[15] JO C 252 du 18.7.2018, p. 239.

[16] JO C 433 du 23.12.2019, p. 86.

Dernière mise à jour: 14 janvier 2021Avis juridique - Politique de confidentialité