Indeks 
 Poprzedni 
 Następny 
 Pełny tekst 
Procedura : 2020/2013(INI)
Przebieg prac nad dokumentem podczas sesji
Dokument w ramach procedury : A9-0001/2021

Teksty złożone :

A9-0001/2021

Debaty :

Głosowanie :

Teksty przyjęte :

P9_TA(2021)0009

Teksty przyjęte
PDF 208kWORD 67k
Środa, 20 stycznia 2021 r. - Bruksela
Sztuczna inteligencja: kwestie wykładni i stosowania prawa międzynarodowego
P9_TA(2021)0009A9-0001/2021

Rezolucja Parlamentu Europejskiego z dnia 20 stycznia 2021 r. w sprawie sztucznej inteligencji: kwestie wykładni i stosowania prawa międzynarodowego w zakresie, w jakim dotyczy ono UE, w dziedzinie zastosowań cywilnych i wojskowych oraz kwestie kompetencji państwa poza wymiarem sprawiedliwości w sprawach karnych (2020/2013(INI))

Parlament Europejski,

–  uwzględniając preambułę Traktatu o Unii Europejskiej oraz jego art. 2, 3, 10, 19, 20, 21, 114, 167, 218, 225 i 227,

–  uwzględniając prawo do składania petycji zawarte w art. 20 i 227 Traktatu o funkcjonowaniu Unii Europejskiej,

–  uwzględniając Kartę praw podstawowych Unii Europejskiej,

–  uwzględniając dyrektywę Rady 2000/43/WE z dnia 29 czerwca 2000 r. wprowadzającą w życie zasadę równego traktowania osób bez względu na pochodzenie rasowe lub etniczne(1) (dyrektywa w sprawie równości rasowej),

–  uwzględniając dyrektywę Rady 2000/78/WE z dnia 27 listopada 2000 r. ustanawiającą ogólne warunki ramowe równego traktowania w zakresie zatrudnienia i pracy(2) (dyrektywa o równym traktowaniu w zakresie zatrudnienia),

–  uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych)(3) (RODO) i dyrektywę Parlamentu Europejskiego i Rady (UE) 2016/680 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych przez właściwe organy do celów zapobiegania przestępczości, prowadzenia postępowań przygotowawczych, wykrywania i ścigania czynów zabronionych i wykonywania kar, w sprawie swobodnego przepływu takich danych oraz uchylającą decyzję ramową Rady 2008/977/WSiSW(4),

–  uwzględniając rozporządzenie Rady (UE) 2018/1488 z dnia 28 września 2018 r. w sprawie ustanowienia Wspólnego Przedsięwzięcia w dziedzinie Europejskich Obliczeń Wielkiej Skali(5),

–  uwzględniając wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady z dnia 6 czerwca 2018 r. ustanawiającego program „Cyfrowa Europa” na lata 2021–2027 (COM(2018)0434),

–  uwzględniając swoją rezolucję z dnia 16 lutego 2017 r. zawierającą zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki(6),

–  uwzględniając swoją rezolucję z dnia 1 czerwca 2017 r. w sprawie cyfryzacji europejskiego przemysłu(7),

–  uwzględniając swoją rezolucję z dnia 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia(8),

–  uwzględniając swoją rezolucję z dnia 11 września 2018 r. w sprawie równości językowej w erze cyfrowej(9),

–  uwzględniając swoją rezolucję z dnia 12 lutego 2019 r. w sprawie kompleksowej europejskiej polityki przemysłowej w dziedzinie sztucznej inteligencji i robotyki(10),

–  uwzględniając komunikat Komisji z dnia 11 grudnia 2019 r. do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów w sprawie Europejskiego Zielonego Ładu (COM(2019)0640),

–  uwzględniając białą księgę Komisji z dnia 19 lutego 2020 r. w sprawie sztucznej inteligencji – Europejskie podejście do doskonałości i zaufania (COM(2020)0065),

–  uwzględniając komunikat Komisji z dnia 19 lutego 2020 r. do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów zatytułowany „Europejska strategia w zakresie danych” (COM(2020)0066),

–  uwzględniając komunikat Komisji z dnia 19 lutego 2020 r. do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów zatytułowany „Kształtowanie cyfrowej przyszłości Europy” (COM(2020)0067),

–  uwzględniając sprawozdanie z dnia 8 kwietnia 2019 r., które opracowała powołana przez Komisję w czerwcu 2018 r. grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji, zatytułowane „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji”,

–  uwzględniając przyjętą przez Radę Europy Konwencję ramową o ochronie mniejszości narodowych, Protokół nr 12 do Konwencji o ochronie praw człowieka i podstawowych wolności oraz Europejską kartę języków regionalnych lub mniejszościowych,

–  uwzględniając Europejską kartę etyczną dotyczącą stosowania sztucznej inteligencji w systemach sądownictwa karnego i środowiskach pokrewnych, przyjętą przez Grupę Roboczą Rady Europy ds. Jakości Wymiaru Sprawiedliwości (CEPEJ-GT-QUAL) w grudniu 2018 r.,

–  uwzględniając zalecenie Rady OECD w sprawie sztucznej inteligencji przyjęte 22 maja 2019 r.,

–  uwzględniając art. 54 Regulaminu,

–  uwzględniając opinie przedstawione przez Komisję Spraw Zagranicznych, Komisję Rynku Wewnętrznego i Ochrony Konsumentów, Komisję Transportu i Turystyki oraz Komisję Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych,

–  uwzględniając sprawozdanie Komisji Prawnej (A9-0001/2021),

Wprowadzenie

A.  mając na uwadze, że sztuczna inteligencja (AI), robotyka i powiązane z nimi technologie bardzo szybko się rozwijają i mają bezpośredni wpływ na wszystkie aspekty naszego społeczeństwa, w tym podstawowe zasady i wartości społeczne i ekonomiczne;

B.  mając na uwadze, że sztuczna inteligencja prowadzi do rewolucji w doktrynie wojskowej i sprzęcie wojskowym poprzez gruntowną zmianę sposobu działania armii, wynikającą głównie z wprowadzenia i wykorzystania nowych technologii i zdolności autonomicznych;

C.  mając na uwadze, że rozwojem i projektowaniem tzw. sztucznej inteligencji, robotyki i powiązanych z nimi technologii zajmują się ludzie, a dokonywane przez nich wybory decydują o potencjalnych korzyściach, jakie te technologie mogą przynieść społeczeństwu;

D.  mając na uwadze, że wspólne ramy unijne muszą obejmować opracowywanie, wdrażanie i stosowanie AI, robotyki i powiązanych z nimi technologii oraz muszą zapewniać poszanowanie godności ludzkiej i praw człowieka zapisanych w Karcie praw podstawowych Unii Europejskiej;

E.  mając na uwadze, że Unia i jej państwa członkowskie ponoszą szczególną odpowiedzialność za zagwarantowanie, aby AI, robotyka i powiązane z nimi technologie – jako że mogą być wykorzystywane ponad granicami – koncentrowały się na człowieku, a więc były przede wszystkim przeznaczone do stosowania w służbie ludzkości i dla wspólnego dobra, żeby przyczyniać się do dobrostanu obywateli i służyć ich ogólnie pojętym interesom; mając na uwadze, że Unia powinna pomóc państwom członkowskim w osiągnięciu tego celu, w szczególności tym, które zaczęły zastanawiać się nad ewentualnym rozwojem norm prawnych lub zmianami legislacyjnymi w tej dziedzinie;

F.  mając na uwadze, że obywatele europejscy mogliby odnieść korzyści z odpowiedniego, skutecznego, przejrzystego i spójnego podejścia regulacyjnego na szczeblu Unii, które określałoby wystarczająco jasne warunki opracowywania aplikacji i planowania modeli biznesowych przez przedsiębiorstwa, przy jednoczesnym zapewnieniu, aby Unia i jej państwa członkowskie zachowały kontrolę nad uregulowaniami, które zostaną przyjęte, tak aby nie były zmuszane do wprowadzenia lub przyjęcia norm ustanowionych przez inne strony;

G.  mając na uwadze, że wskazówki etyczne, takie jak zasady przyjęte przez grupę ekspertów wysokiego szczebla ds. AI, stanowią dobry punkt wyjścia, ale nie są wystarczające, aby zapewnić uczciwe działanie przedsiębiorstw i zagwarantować skuteczną ochronę osób fizycznych;

H.  mając na uwadze, że ta szczególna odpowiedzialność obejmuje ocenę kwestii wykładni i stosowania prawa międzynarodowego w odniesieniu do czynnego udziału UE w negocjacjach międzynarodowych, w zakresie, w jakim dotyczy ono UE w dziedzinie zastosowań cywilnych i wojskowych tego rodzaju AI, robotyki i powiązanych z nimi technologii, a także kwestii kompetencji państwa względem takich technologii poza wymiarem sprawiedliwości w sprawach karnych;

I.  mając na uwadze, że niezbędne jest zapewnienie odpowiednich i kompleksowych ram prawnych dla etycznych aspektów tych technologii, a także dla odpowiedzialności, przejrzystości i odpowiedzialności (w szczególności w odniesieniu do AI, robotyki i powiązanych technologii uznawanych za obarczone wysokim ryzykiem); mając na uwadze, że ramy te muszą odzwierciedlać fakt, iż niezbywalne europejskie i uniwersalne wartości humanistyczne mają zastosowanie do całego łańcucha wartości w procesie opracowywania, wdrażania i stosowania AI; mając na uwadze, że wspomniane ramy etyczne muszą mieć zastosowanie do opracowywania (w tym badań i innowacji), wdrażania i stosowania AI w pełnym poszanowaniu prawa Unii i wartości określonych w Karcie praw podstawowych Unii Europejskiej;

J.  mając na uwadze, że celem tej oceny jest sprawdzenie stopnia dostosowania do tych technologii przepisów prawa międzynarodowego, zarówno publicznego, jak i prywatnego oraz prawa UE, a także zwrócenie uwagi na wyzwania i zagrożenia, jakie technologie te stwarzają w zakresie kompetencji państwa, tak aby można było nimi zarządzać w sposób najbardziej odpowiedni i proporcjonalny;

K.  mając na uwadze, że w swojej białej księdze Komisja Europejska nie bierze pod uwagę wojskowych aspektów stosowania AI;

L.  mając na uwadze, że zharmonizowane europejskie podejście do tych problemów wymaga przyjęcia wspólnej definicji AI i zapewnienia przestrzegania podstawowych wartości Unii Europejskiej, zasad określonych w Karcie praw podstawowych oraz międzynarodowych przepisów dotyczących praw człowieka;

M.  mając na uwadze, że AI stwarza niespotykane dotąd możliwości poprawy wyników sektora transportu poprzez stawienie czoła wyzwaniom związanym z rosnącym popytem na podróże, bezpieczeństwem i ochroną środowiska, prowadząc do usprawnienia wszystkich rodzajów transportu pod względem inteligentnych rozwiązań, wydajności i wygody;

N.  mając na uwadze, że zajęcie się kwestią AI w sektorze obrony na szczeblu UE jest niezbędne do rozwoju zdolności UE w tym sektorze;

Definicja sztucznej inteligencji

1.  uważa, że konieczne jest przyjęcie wspólnych europejskich ram prawnych obejmujących zharmonizowane definicje i wspólne zasady etyczne, w tym wykorzystanie AI do celów wojskowych; wzywa zatem Komisję do przyjęcia następujących definicji:

   „system AI” oznacza system, który opiera się na oprogramowaniu albo jest wbudowany w urządzenia, wykazuje się zachowaniem symulującym inteligencję m.in. w oparciu o gromadzenie i przetwarzanie danych, analizowanie otoczenia i wyciąganie wniosków go dotyczących oraz podejmuje działania w pewnym stopniu autonomicznie, aby osiągnąć konkretne cele;
   „autonomiczny” oznacza system AI, który działa na podstawie interpretacji określonych danych wejściowych i wykorzystuje zestaw wcześniej zdefiniowanych instrukcji, lecz nie jest do tych instrukcji ograniczony, mimo że zachowanie systemu jest ograniczone celem, który mu postawiono, ukierunkowane na jego osiągnięcie i uwarunkowane innymi odnośnymi wyborami twórcy systemu;

2.  podkreśla, że polityka bezpieczeństwa i obrony Unii Europejskiej i jej państw członkowskich opiera się na zasadach Karty praw podstawowych Unii Europejskiej i Karty Narodów Zjednoczonych – ta ostatnia wzywa wszystkie państwa do powstrzymania się od stosowania groźby lub użycia siły we wzajemnych stosunkach – a także na prawie międzynarodowym, na zasadach poszanowania praw człowieka i godności ludzkiej oraz na wspólnym rozumieniu uniwersalnych wartości, takich jak nienaruszalne i niezbywalne prawa człowieka, wolność, demokracja, równość i państwo prawa; podkreśla, że we wszystkich działaniach związanych z obronnością w ramach Unii Europejskiej należy przestrzegać tych uniwersalnych wartości, jednocześnie wspierając pokój, stabilność, bezpieczeństwo oraz postęp w Europie i na świecie;

Prawo międzynarodowe publiczne i wojskowe zastosowania sztucznej inteligencji

3.  uważa, że AI stosowana w kontekście wojskowym i cywilnym musi podlegać znaczącej kontroli ze strony człowieka, tak aby przez cały czas człowiek dysponował środkami umożliwiającymi jej skorygowanie, przerwanie jej działania lub jej zdezaktywowanie w przypadku nieprzewidzianego zachowania, przypadkowej interwencji, cyberataków lub ingerencji osób trzecich w technologię opartą na AI lub w przypadku, gdy osoby trzecie nabywają taką technologię;

4.  uważa, że poszanowanie międzynarodowego prawa publicznego, w szczególności prawa humanitarnego, które ma jednoznaczne zastosowanie w odniesieniu do wszystkich systemów uzbrojenia i ich operatorów, jest podstawowym wymogiem, który państwa członkowskie muszą spełnić, w szczególności jeśli chodzi o ochronę ludności cywilnej lub przyjmowanie środków ostrożnościowych w przypadku ataku wojskowego i cyberwojny;

5.  podkreśla, że AI i powiązane z nią technologie mogą również odgrywać rolę w wojnie nieregularnej lub niekonwencjonalnej; proponuje, aby badania, rozwój i wykorzystanie AI w takich przypadkach podlegały takim samym warunkom, jakie mają zastosowanie w przypadku konfliktów konwencjonalnych;

6.  kładzie nacisk na to, że stosowanie AI oznacza szansę na poprawę bezpieczeństwa Unii Europejskiej i jej obywateli oraz że zasadnicze znaczenie ma przyjęcie przez UE zintegrowanego podejścia w przyszłych debatach międzynarodowych w tej kwestii;

7.  wzywa środowisko naukowe zajmujące się badaniami nad AI do uwzględniania tej zasady we wszystkich ww. systemach opartych na AI przeznaczonych do użytku wojskowego; uważa, że żaden organ nie może ustanawiać wyjątków od tych zasad ani certyfikować takiego systemu;

8.  przypomina, że autonomiczne podejmowanie decyzji nie powinno zwalniać człowieka z odpowiedzialności oraz że ludzie muszą zawsze ponosić ostateczną odpowiedzialność za procesy decyzyjne, tak aby można było zidentyfikować człowieka odpowiedzialnego za daną decyzję;

9.  podkreśla, że podczas stosowania AI w kontekście wojskowym państwa członkowskie, strony konfliktu i indywidualni użytkownicy muszą zawsze przestrzegać zobowiązań wynikających z obowiązującego prawa międzynarodowego i ponosić odpowiedzialność za działania wynikające z wykorzystania takich systemów; podkreśla, że w każdej sytuacji przewidywane, przypadkowe lub niepożądane działania i skutki systemów opartych na AI muszą podlegać odpowiedzialności państw członkowskich, stron konfliktu i indywidualnych użytkowników;

10.  z zadowoleniem przyjmuje możliwości stosowania systemów AI do szkoleń i ćwiczeń oraz zaznacza, że nie należy lekceważyć ich potencjału, w szczególności biorąc pod uwagę, że UE prowadzi zarówno ćwiczenia cywilne, jak i wojskowe;

11.  podkreśla, że podczas projektowania, opracowywania, testowania, wdrażania i stosowania systemów opartych na AI należy przez cały czas należycie brać pod uwagę potencjalne ryzyko, ze szczególnym uwzględnieniem przypadkowych ofiar cywilnych i obrażeń, przypadkowej utraty życia oraz szkód w infrastrukturze cywilnej, a także ryzyka związanego z niezamierzonym zaangażowaniem, manipulacją, rozprzestrzenianiem, cyberatakami, ingerowaniem osób trzecich w technologię opartą na AI lub w przypadku, gdy osoby trzecie nabywają taką technologię;

12.  przypomina, że zgodnie z opinią doradczą Międzynarodowego Trybunału Sprawiedliwości z 8 lipca 1996 r. nie można powoływać się na zasadę nowości przy przyznawaniu jakichkolwiek odstępstw od przestrzegania obecnie obowiązujących norm międzynarodowego prawa humanitarnego;

13.  uważa, że oprócz operacji wspierających AI przyniesie korzyści również personelowi służby sił zbrojnych dzięki masowemu przetwarzaniu danych dotyczących zdrowia i rozszerzeniu monitorowania zdrowia, pozwoli na określenie czynników ryzyka związanego ze środowiskiem i warunkami pracy oraz na zaproponowanie odpowiednich zabezpieczeń, aby ograniczyć wpływ tych czynników na zdrowie personelu służby;

14.  przypomina, że działaniom regulacyjnym muszą towarzyszyć znaczące systemy certyfikacji i nadzoru, a także jasne mechanizmy kontroli, wytłumaczalności, rozliczalności i identyfikowalności, tak aby ramy regulacyjne nie stały się przestarzałe w wyniku rozwoju technologicznego;

15.  podkreśla znaczenie zaangażowania Unii Europejskiej w tworzenie międzynarodowych ram prawnych dotyczących stosowania sztucznej inteligencji w świecie, w którym istnieje bardzo gęsta sieć wzajemnych połączeń: wzywa UE, by wraz z Organizacją Narodów Zjednoczonych i społecznością międzynarodową objęła przewodnictwo i odgrywała aktywną rolę w promowaniu tych globalnych ram regulacyjnych dotyczących wykorzystywania AI do celów wojskowych i innych, zapewniając, by nie wykraczało ono poza ściśle określone granice ustalone na mocy prawa międzynarodowego i międzynarodowego prawa humanitarnego, w szczególności konwencje genewskie z dnia 12 sierpnia 1949 r.; podkreśla, że ramy te nie mogą naruszać nakazów sumienia społecznego i humanitaryzmu ani dawać przyzwolenia na ich naruszanie, jak określono w klauzuli Martensa, oraz muszą być zgodne z zasadami bezpieczeństwa i wymogami ochrony konsumentów; wzywa UE i państwa członkowskie do określenia solidnych systemów nadzoru i oceny rozwoju technologii AI, w szczególności tych wykorzystywanych do celów wojskowych w państwach autorytarnych;

16.  podkreśla, że robotyka nie tylko umożliwi personelowi wojskowemu pozostanie w bezpiecznej odległości, lecz również zapewni mu lepszą samoochronę, np. w przypadku operacji w skażonym środowisku, przy gaszeniu pożarów, usuwaniu min na lądzie lub na morzu oraz ochronę przed rojami dronów;

17.  podkreśla, że rozwój, wdrażanie i stosowanie AI oraz zarządzanie nią musi odbywać się z poszanowaniem podstawowych praw, wartości i wolności zapisanych w traktatach UE, oraz wzywa państwa członkowskie, aby powstrzymały się od wdrażania systemów AI wysokiego ryzyka, które stanowią zagrożenie dla praw podstawowych; odnotowuje publikację białej księgi Komisji w sprawie sztucznej inteligencji i zachęca do głębszych badań nad potencjalnym zagrożeniem dla praw podstawowych wynikającym ze stosowania AI przez władze państwowe oraz agencje, organy i instytucje Unii Europejskiej;

18.  wzywa Komisję, aby ułatwiła prowadzenie badań i dialogu dotyczących możliwości wykorzystania AI do udzielania pomocy w przypadku klęsk żywiołowych, zapobiegania kryzysom i utrzymania pokoju;

19.  z zadowoleniem przyjmuje utworzenie grupy ekspertów rządowych ONZ ds. promocji odpowiedzialnego zachowania państw w cyberprzestrzeni w kontekście bezpieczeństwa międzynarodowego oraz wzywa UE do pełnego uczestnictwa w pracach tej grupy;

20.  wzywa wiceprzewodniczącego Komisji / wysokiego przedstawiciela do spraw zagranicznych i polityki bezpieczeństwa, aby utorował drogę do globalnych negocjacji dotyczących wprowadzenia systemu kontroli zbrojeń opartych na AI oraz aktualizacji wszystkich istniejących instrumentów traktatowych dotyczących kontroli zbrojeń, rozbrojenia i nierozprzestrzeniania, tak aby uwzględnić systemy oparte na AI wykorzystywane w działaniach wojennych; wzywa do tego, aby wspólne stanowisko Rady określające wspólne zasady kontroli wywozu technologii wojskowych i sprzętu wojskowego w pełni uwzględniało i obejmowało systemy uzbrojenia oparte na AI;

21.  potwierdza, że zasady te muszą być zawsze zgodne z przypomnianymi w konwencji rzymskiej z dnia 17 lipca 1998 r. zasadami zakazującymi zbrodni ludobójstwa, zbrodni przeciwko ludzkości i zbrodni wojennych;

22.  wskazuje na wyraźne ryzyko związane z decyzjami podejmowanymi przez człowieka wyłącznie na podstawie danych, profili i zaleceń generowanych przez maszyny; wskazuje, że w ogólnym projekcie systemów AI należy uwzględniać także wytyczne dotyczące kontroli i nadzoru sprawowanych przez człowieka; postuluje wprowadzenie obowiązku w odniesieniu do przejrzystości i wytłumaczalności zastosowań AI oraz konieczności interwencji człowieka, jak również innych środków, np. niezależnych audytów i specjalnych testów warunków skrajnych, aby ułatwić zachowanie zgodności z przepisami i ich egzekwowanie; podkreśla, że takie audyty powinny być przeprowadzane okresowo przez niezależny organ, który nadzorowałby zastosowania AI wysokiego ryzyka wykorzystywane przez władze państwowe lub wojsko;

23.  podkreśla, jak ważne jest sprawdzenie, w jaki sposób technologie AI wysokiego ryzyka generują decyzje; przypomina, że należy przestrzegać zasad niedyskryminacji i proporcjonalności oraz wyjaśnić kwestie związku przyczynowego i odpowiedzialności, a także przejrzystości, rozliczalności i wytłumaczalności, aby określić, w jakim stopniu państwo jako podmiot prawa międzynarodowego publicznego, ale także wykonując swoje uprawnienia, może działać przy użyciu systemów opartych na AI, które posiadają pewną autonomię, bez naruszania zobowiązań wynikających z prawa międzynarodowego, takich jak sprawiedliwość proceduralna;

24.  podkreśla znaczenie inwestowania w umiejętności ludzkie, w tym w umiejętności cyfrowe, w celu dostosowania się do postępu naukowego z wykorzystaniem rozwiązań opartych na AI dla osób wykonujących zawody regulowane, w tym działań związanych z wykonywaniem uprawnień władzy publicznej, takich jak sprawowanie wymiaru sprawiedliwości; wzywa państwa członkowskie i Komisję do należytego wzięcia tego pod uwagę podczas wdrażania dyrektywy 2005/36/WE(11);

25.  podkreśla, że systemy AI muszą zawsze być zgodne z zasadami odpowiedzialności, sprawiedliwości, rządzenia, ostrożności, odpowiedzialności, możliwości przypisania, przewidywalności, identyfikowalności, niezawodności, wiarygodności, przejrzystości, wytłumaczalności, zdolności wykrywania ewentualnych zmian okoliczności i środowiska operacyjnego, odróżniania walczących od osób nieuczestniczących w walce oraz proporcjonalności; podkreśla, że ta ostatnia zasada uzależnia legalność działań wojskowych od poszanowania równowagi między celem a użytymi środkami, oraz że ocena proporcjonalności zawsze musi być dokonywana przez człowieka;

26.  podkreśla, że w korzystaniu z systemów opartych na AI w dziedzinie bezpieczeństwa i obrony wymaga się kompleksowego zrozumienia sytuacji ze strony operatora-człowieka, przewidywalności, niezawodności i odporności systemu opartego na AI, a także zdolności operatora-człowieka do wykrywania ewentualnych zmian okoliczności oraz środowiska operacyjnego i zdolności do zaprzestania ataku lub interweniowania podczas ataku, aby zagwarantować, że zasady międzynarodowego prawa humanitarnego, w szczególności zasada rozróżniania, proporcjonalności i ostrożności przed atakiem, są w pełni stosowane w całym łańcuchu dowodzenia i kontroli; podkreśla, że systemy oparte na AI muszą umożliwiać osobom sprawującym odpowiedzialność dokonywanie znaczącej kontroli, podejmowanie pełnej odpowiedzialności i rozliczalność za każde ich wykorzystanie; wzywa Komisję do wspierania dialogu, ściślejszej współpracy i synergii między państwami członkowskimi, naukowcami, pracownikami naukowymi, podmiotami społeczeństwa obywatelskiego i sektorem prywatnym, w szczególności wiodącymi przedsiębiorstwami, a także wojskiem, aby zagwarantować inkluzywny charakter procesów kształtowania polityki w dziedzinie regulacji dotyczących AI związanej z obronnością;

27.  podkreśla, że Parlament wezwał do opracowania i pilnego przyjęcia wspólnego stanowiska w sprawie autonomicznych śmiercionośnych systemów uzbrojenia, zapobiegającego opracowywaniu, produkowaniu i stosowaniu autonomicznych śmiercionośnych systemów uzbrojenia umożliwiających atak bez znaczącej kontroli ze strony człowieka, oraz do rozpoczęcia skutecznych negocjacji w sprawie zakazu stosowania tego rodzaju broni; przypomina w związku z tym o swojej rezolucji z dnia 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia; przypomina, że termin „autonomiczne śmiercionośne systemy uzbrojenia” odnosi się do systemów uzbrojenia działających bez znaczącej kontroli człowieka nad takimi kluczowymi funkcjami jak namierzenie i zaatakowanie konkretnego celu; podkreśla, że decyzja o wyborze celu i podejmowaniu śmiercionośnych działań z wykorzystaniem systemów uzbrojenia o pewnym stopniu autonomii musi być zawsze podejmowana przez operatorów będących ludźmi, sprawujących znaczącą kontrolę i nadzór, na podstawie koniecznej oceny sytuacji, zgodnie z zasadami proporcjonalności i konieczności; podkreśla, że w żadnych okolicznościach nie można dopuścić, by systemy oparte na AI zastępowały człowieka w podejmowaniu decyzji w tej dziedzinie;

28.  zauważa ponadto, że autonomiczne systemy uzbrojenia, jako szczególna kategoria AI w dziedzinie wojskowej, powinny być omawiane i uzgadniane na szczeblu międzynarodowym, zwłaszcza na forum Konwencji ONZ w sprawie niektórych rodzajów broni konwencjonalnej; zwraca uwagę, że tocząca się międzynarodowa debata na temat autonomicznych śmiercionośnych systemów uzbrojenia w celu uregulowania powstających technologii wojskowych jak dotąd nie doprowadziła do osiągnięcia porozumienia; zwraca uwagę, że UE dopiero niedawno zgodziła się podjąć debatę na temat wpływu rozwoju AI i cyfryzacji na sektor obrony; uważa, że UE może odegrać kluczową rolę we wspieraniu państw członkowskich w harmonizowaniu ich podejścia do AI stosowanej do celów wojskowych, tak aby poprowadzić debatę w tej kwestii na szczeblu międzynarodowym;

29.  zwraca uwagę na potrzebę ogólnounijnej strategii zwalczania autonomicznych śmiercionośnych systemów uzbrojenia oraz zakazu stosowania tzw. robotów zabójców;

30.  podkreśla, że AI stosowana w kontekście wojskowym musi spełniać minimalny zestaw wymogów, a mianowicie rozróżniać walczących, osoby nieuczestniczące w walce i walczących na polu walki, rozpoznawać, kiedy walczący poddaje się lub jest wyłączony z walki, nie może powodować niekontrolowanych skutków, nadmiernego cierpienia osób, nie może być stronnicza ani trenowana na celowo niekompletnych danych, a także musi przestrzegać zasad międzynarodowego prawa humanitarnego, proporcjonalności użycia siły i zachować ostrożność przed interwencją;

31.  uważa, że stosowanie autonomicznych śmiercionośnych systemów uzbrojenia rodzi podstawowe wątpliwości natury etycznej i prawnej dotyczące zdolności człowieka do kontrolowania tych systemów i wymaga, aby technologia oparta na AI nie była w stanie podejmować autonomicznych decyzji obejmujących prawne zasady rozróżnienia, proporcjonalności i ostrożności;

32.  postuluje wprowadzenie na szczeblu międzynarodowym przejrzystych środków ograniczających ryzyko dotyczących rozwoju i stosowania AI do celów wojskowych, w szczególności w odniesieniu do zasad integralności terytorialnej, nieingerowania oraz użycia siły; podkreśla, jak ważne jest uwzględnienie aspektów wojskowych przy rozpatrywaniu kwestii prawnych i etycznych w europejskich ramach dotyczących AI; przypomina swoje stanowisko w sprawie zakazu rozwoju, produkcji i stosowania autonomicznych śmiercionośnych systemów uzbrojenia; ubolewa, że nie ma żadnych jednoznacznych globalnych konwencji dotyczących użycia takiej broni;

33.  przyznaje, że dynamika współczesnego wyścigu zbrojeń państw narodowych będących potęgami wojskowymi, które rozwijają autonomiczne śmiercionośne systemy uzbrojenia, prześciga postępy oraz skuteczne i uniwersalne zastosowanie i egzekwowanie wspólnych zasad i ram prawnych, ponieważ informacje na temat rozwoju i wdrażania tych systemów są niejawne, a tworzenie najszybszych i najskuteczniejszych zdolności ofensywnych, niezależnie od obecnych czy ewentualnych przyszłych ram prawnych lub zasad, leży w ogólnym interesie państw narodowych;

34.  uważa, że autonomiczne śmiercionośne systemy uzbrojenia powinny być stosowane tylko w ostateczności i że są one legalne wyłącznie pod warunkiem, że podlegają ścisłej kontroli człowieka, umożliwiającej człowiekowi przejęcie sterowania nimi w dowolnym momencie, ponieważ istotna interwencja i nadzór człowieka mają zasadnicze znaczenie w procesie podejmowania decyzji, których skutkiem są ofiary śmiertelne, a ludzie powinni zawsze ponosić odpowiedzialność za decyzje o życiu i śmierci; uważa, że systemy całkowicie wyłączone spod kontroli człowieka („human off the loop”) i nadzoru ze strony człowieka muszą być zakazane bez żadnych wyjątków i we wszystkich okolicznościach;

35.  wzywa wiceprzewodniczącego Komisji / wysokiego przedstawiciela, państwa członkowskie i Radę Europejską do opracowania i przyjęcia w trybie pilnym wspólnego stanowiska w sprawie autonomicznych systemów uzbrojenia, zapewniającego istotną kontrolę człowieka nad kluczowymi funkcjami systemów uzbrojenia, w tym w trakcie ich rozmieszczania, do zajmowania wspólnego stanowiska na odpowiednich forach i do podejmowania adekwatnych działań; wzywa w tym kontekście wiceprzewodniczącego Komisji / wysokiego przedstawiciela, państwa członkowskie i Radę do dzielenia się najlepszymi praktykami i gromadzenia opinii ekspertów, środowiska naukowego i społeczeństwa obywatelskiego, jak postulowano w stanowisku z dnia 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia, zgodnie z którym prowadzenie ataków powinno zawsze podlegać znaczącej interwencji człowieka;

36.  zachęca wszystkie państwa do przeprowadzenia oceny, czy i w jaki sposób autonomiczny sprzęt wojskowy przyczynił się do zwiększenia ich bezpieczeństwa narodowego, oraz tego, jak ich bezpieczeństwo narodowe mogłoby zyskać na systemach uzbrojenia opartych na AI, w szczególności na potencjale takich technologii dla wspierania i wzmacniania podejmowania decyzji przez człowieka zgodnie z międzynarodowym prawem humanitarnym i jego zasadami; przypomina, że każdy autonomiczny śmiercionośny system uzbrojenia lub broń o wysokim stopniu autonomii może działać nieprawidłowo z powodu błędnego kodowania lub cyberataku przeprowadzonego przez wrogie państwo lub podmiot niepaństwowy;

37.  nalega, by systemy śmiercionośnej broni autonomicznej były stosowane wyłącznie w jasno określonych przypadkach i zgodnie z procedurami wydawania zezwoleń szczegółowo określonymi z wyprzedzeniem w tekstach, do których zainteresowane państwo – niezależnie od tego, czy należy do Organizacji Traktatu Północnoatlantyckiego – zapewnia dostęp społeczeństwu lub przynajmniej swojemu parlamentowi narodowemu;

38.  uważa, że systemy śmiercionośnej broni autonomicznej muszą być zgodne z postanowieniami konwencji CCW z dnia 10 października 1980 r., w szczególności z zakazem powodowania „nadmiernego cierpienia”;

39.  proponuje, by w celu uniknięcia niekontrolowanego rozprzestrzeniania autonomicznych śmiercionośnych systemów uzbrojenia włączyć je do wykazu broni podlegającej postanowieniom Traktatu o handlu bronią z dnia 2 kwietnia 2013 r., zawartego się w art. 2 tego traktatu;

40.  domaga się zakazu antropomorfizacji autonomicznych śmiercionośnych systemów uzbrojenia, aby wykluczyć możliwość jakiejkolwiek pomyłki między człowiekiem a robotem;

41.  z zadowoleniem przyjmuje porozumienie między Radą a Parlamentem w sprawie wykluczenia śmiercionośnej broni autonomicznej „bez możliwości istotnej ludzkiej kontroli nad decyzjami o wyborze i zaangażowaniu podczas przeprowadzania ataków” z działań finansowanych w ramach Europejskiego Funduszu Obronnego (EFO);przypomina, że wykorzystywanie, opracowywanie lub wytwarzanie autonomicznych śmiercionośnych systemów uzbrojenia bez skutecznej kontroli ze strony człowieka nie kwalifikuje się do finansowania z EFO;

42.  wzywa Komisję, aby wspierała badania naukowe, rozwój, wdrażanie i wykorzystywanie AI z myślą o utrzymaniu pokoju i zapobieganiu konfliktom;

43.  zauważa, że globalny ekosystem AI jest zdominowany przez amerykańskich i chińskich gigantów cyfrowych, rozwijających potencjał krajowy i wykupujących wiele obiecujących przedsiębiorstw; jest zatem głęboko przekonany, że w celu uniknięcia opóźnień w rozwoju technologii sztucznej inteligencji UE musi dążyć do osiągnięcia lepszej równowagi między podstawowymi badaniami a zastosowaniami przemysłowymi, przy jednoczesnym rozwijaniu stosunkowej przewagi strategicznej przez dalsze budowanie własnego potencjału i zasobów;

44.  podkreśla, że roboty w zakresie, w jakim są objęte definicją maszyn określoną w dyrektywie 2006/42/WE(12), powinny być projektowane i montowane zgodnie z określonymi w niej normami i środkami bezpieczeństwa;

45.  przypomina o ambicjach UE, by być globalnym podmiotem działającym na rzecz pokoju, i wzywa do zwiększenia jej roli w światowym rozbrojeniu i wysiłkach na rzecz nierozprzestrzeniania broni, a także do tego, by w swoich działaniach i strategiach politycznych dążyła do utrzymania międzynarodowego pokoju i bezpieczeństwa, do zapewnienia poszanowania międzynarodowego prawa humanitarnego i prawa dotyczącego praw człowieka oraz ochrony ludności cywilnej i infrastruktury cywilnej;

46.  zaznacza, że należy rozważyć skutki, jakie AI może mieć jako czynnik strategiczny dla unijnej wspólnej polityki bezpieczeństwa i obrony (WPBiO), zwłaszcza w odniesieniu do misji i operacji wojskowych i cywilnych oraz do rozwoju zdolności UE;

47.  przypomina, że nasi sojusznicy w ramach krajowych lub w ramach NATO bądź UE sami znajdują się w procesie włączania AI do swoich systemów wojskowych; uważa, że interoperacyjność z naszymi sojusznikami należy utrzymywać w oparciu o wspólne normy, które są niezbędne do prowadzenia operacji w ramach koalicji; przypomina ponadto, że współpraca w zakresie AI powinna odbywać się w ramach europejskich, które stanowią jedyne stosowne ramy umożliwiające skuteczne tworzenie silnych synergii, zgodnie z unijną strategią dotyczącą AI;

48.  uważa, że UE musi uważnie monitorować i rozważać skutki postępu w zakresie AI dla obronności i działań wojennych, w tym potencjalnie destabilizujące zmiany i zastosowania, oraz dbać o etyczność badań i projektowania, zapewniając integralność danych osobowych oraz indywidualny dostęp i indywidualną kontrolę, a także uwzględniając kwestie gospodarcze i humanitarne;

49.  przypomina o swoim stanowisku z 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia, w którym stwierdzono, że nie można przeprowadzać ataków bez istotnej interwencji człowieka; wzywa wiceprzewodniczącego / wysokiego przedstawiciela Komisji, państwa członkowskie i Radę Europejską do przyjęcia wspólnego stanowiska w sprawie autonomicznych systemów uzbrojenia, które zapewni istotną kontrolę człowieka nad funkcjami krytycznymi systemów uzbrojenia, w tym podczas wdrażania; potwierdza poparcie dla prac dotyczących autonomicznych śmiercionośnych systemów uzbrojenia prowadzonych przez grupę ekspertów rządowych ONZ Wysokich Umawiających się Stron Konwencji o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych, która stanowi odpowiednie forum międzynarodowe umożliwiające prowadzenie dyskusji i negocjacji na temat wyzwań prawnych wynikających z autonomicznych systemów uzbrojenia; domaga się przyspieszenia wszystkich podejmowanych obecnie wielostronnych wysiłków, aby ramy normatywne i regulacyjne nadążały za rozwojem technologicznym i nowymi metodami prowadzenia działań wojennych; wzywa wiceprzewodniczącego Komisji / wysokiego przedstawiciela, aby w ramach trwających dyskusji na temat międzynarodowego uregulowania autonomicznych śmiercionośnych systemów uzbrojenia przez państwa-strony Konwencji CCW nadal pozostawał zaangażowany i przyczynił się do niezwłocznego przyspieszenia wysiłków w zakresie opracowywania nowych globalnych ram normatywnych i prawnie wiążącego instrumentu, koncentrujących się na definicjach, pojęciach i charakterystyce powstających technologii w zakresie autonomicznych śmiercionośnych systemów uzbrojenia, etycznych i prawnych kwestiach kontroli człowieka, w szczególności w odniesieniu do funkcji krytycznych takich jak wybór i zaatakowanie celu, utrzymanie odpowiedzialności i rozliczalności człowieka oraz koniecznego stopnia interakcji między człowiekiem a maszyną, w tym pojęcie kontroli człowieka i osądu ludzkiego; wzywa do podjęcia tych wysiłków w celu zapewnienia zgodności z międzynarodowym prawem humanitarnym i prawami człowieka na różnych etapach cyklu życia broni wspomaganej AI, w celu ustalenia konkretnych zaleceń dotyczących wyjaśnienia, rozpatrzenia i rozwoju aspektów ram normatywnych odnoszących się do powstających technologii w zakresie autonomicznych śmiercionośnych systemów uzbrojenia;

50.  uważa, że skuteczny mechanizm egzekwowania przepisów dotyczących nierozprzestrzeniania autonomicznych śmiercionośnych systemów uzbrojenia i wszelkich przyszłych ofensywnych technologii wspomaganych AI ma kluczowe znaczenie dla globalnego bezpieczeństwa;

Kompetencje państwa: przykłady z dziedzin cywilnych, w tym zdrowia i wymiaru sprawiedliwości

51.  podkreśla, że państwa członkowskie muszą podjąć skuteczne działania, by zmniejszyć swoją zależność od danych zagranicznych, nie zakłócając przy tym znacząco rynku, aby zadbać o to, by posiadanie przez potężne grupy prywatne najbardziej zaawansowanych technologii AI nie prowadziło do kwestionowania lub nawet uzurpowania kompetencji państwa przez podmioty prywatne, zwłaszcza jeżeli te grupy prywatne są własnością państwa trzeciego poza Unią Europejską;

52.  podkreśla, że stosowanie systemów wspomaganych AI w procesie podejmowania decyzji przez władze publiczne może skutkować stronniczymi decyzjami niekorzystnymi dla obywateli, a zatem musi ono podlegać ścisłym kryteriom kontroli m.in. w zakresie ich bezpieczeństwa, przejrzystości, rozliczalności, niedyskryminacji oraz odpowiedzialności społecznej i środowiskowej; wzywa państwa członkowskie do oceny ryzyka związanego z decyzjami opartymi na AI dotyczącymi wykonywania władzy państwowej, a także do zapewnienia gwarancji takich jak znaczący nadzór ze strony człowieka, wymogi w zakresie przejrzystości i możliwość zakwestionowania takich decyzji;

53.  apeluje do państw członkowskich o dokonanie oceny ryzyka związanego z technologiami opartymi na AI przed automatyzacją działań powiązanych z wykonywaniem władzy państwowej, takich jak sprawowanie wymiaru sprawiedliwości; wzywa państwa członkowskie do rozważenia potrzeby zapewnienia zabezpieczeń, takich jak nadzór ze strony wykwalifikowanych specjalistów i stosowanie rygorystycznych zasad etyki zawodowej;

54.  zwraca uwagę na znaczenie podjęcia działań na szczeblu europejskim, aby pomóc we wspieraniu bardzo potrzebnych inwestycji, infrastruktury danych, badań naukowych, w tym badań nad wykorzystaniem sztucznej inteligencji przez organy publiczne, oraz wspólnych ram etycznych;

55.  podkreśla, że Unia Europejska musi dążyć do osiągnięcia odporności strategicznej, aby nigdy więcej nie była nieprzygotowana w razie kryzysu, oraz zwraca uwagę, że ma to zasadnicze znaczenie, w szczególności w odniesieniu do sztucznej inteligencji i jej zastosowań wojskowych; podkreśla, że łańcuchy dostaw dla wojskowych systemów opartych na AI mogące prowadzić do zależności technologicznej powinny zostać zmodyfikowane, a taka zależność powinna być stopniowo eliminowana; domaga się zwiększonych inwestycji w europejską AI w obszarze obronności oraz we wspierającą ją infrastrukturę krytyczną;

56.  zwraca się do Komisji o ocenę skutków moratorium na stosowanie systemów rozpoznawania twarzy i, w zależności od wyników takiej oceny, o rozważenie moratorium na stosowanie tych systemów przez organy publiczne w przestrzeni publicznej oraz w placówkach edukacyjnych i w obiektach opieki zdrowotnej, a także na stosowanie systemów rozpoznawania twarzy przez organy ścigania w przestrzeniach częściowo publicznych, takich jak porty lotnicze, dopóki nie będzie można uznać, że normy techniczne są w pełni zgodne z prawami podstawowymi, uzyskane wyniki są bezstronne i niedyskryminujące, istnieją solidne zabezpieczenia przed niewłaściwym wykorzystaniem i że zapewnione są zasady konieczności korzystania z takich technologii i proporcjonalności ich zastosowania;

57.  podkreśla znaczenie cyberbezpieczeństwa dla AI, zarówno w scenariuszach ofensywnych, jak i defensywnych; zwraca w związku z powyższym uwagę na znaczenie współpracy międzynarodowej oraz publikacji i wymiany wiedzy o lukach w zabezpieczeniach IT i środkach zaradczych w tym zakresie; apeluje o międzynarodową współpracę w dziedzinie cyberbezpieczeństwa w celu skutecznego stosowania i wdrażania AI oraz o zabezpieczenia przed niewłaściwym wykorzystaniem AI i cyberatakami; zwraca ponadto uwagę na możliwość podwójnego zastosowania systemów IT (tj. wykorzystanie do celów cywilnych i wojskowych) oraz AI i wzywa do skutecznego uregulowania tej kwestii;

58.  uważa, że państwa członkowskie powinny promować technologie AI niosące korzyści obywatelom oraz że osoby, wobec których organ publiczny podjął decyzję w oparciu o informacje pochodzące z systemu AI, powinny zostać o tym powiadomione i niezwłocznie otrzymać informacje, o których mowa w poprzednim ustępie, powinny mieć możliwość odwołania się od tej decyzji i móc opowiedzieć się za rozstrzygnięciem odwołania bez wykorzystania systemu AI; wzywa państwa członkowskie do rozważenia potrzeby zapewnienia zabezpieczeń przewidzianych w dyrektywie (UE) 2018/958(13), takich jak nadzór prowadzony przez wykwalifikowany personel i stosowanie zasad etyki zawodowej;

59.  podkreśla, że prognozowanie na podstawie wymiany danych, dostępu do nich i korzystania z nich musi być regulowane zgodnie z wymogami dotyczącymi jakości, integralności, przejrzystości, bezpieczeństwa, prywatności i kontroli; podkreśla, że aby zwiększyć bezpieczeństwo obywateli i ich zaufanie do AI, robotyki i powiązanych technologii, na wszystkich etapach rozwoju, wdrażania i wykorzystania tych technologii należy przestrzegać unijnych ram prawnych dotyczących ochrony danych i prywatności;

60.  obserwuje szybki rozwój zastosowań AI, które są w stanie rozpoznać niepowtarzalne charakterystyczne elementy, takie jak rysy twarzy, ruchy ciała czy postawa; ostrzega przed problemami dotyczącymi ingerencji w prywatność, niedyskryminacji i ochrony danych osobowych, związanymi z korzystaniem z aplikacji do automatycznego rozpoznawania;

61.  podkreśla, że każda decyzja dotycząca osoby fizycznej, podjęta wyłącznie w wyniku automatycznego przetwarzania danych, w tym na podstawie profilowania, i wywołująca negatywny skutek prawny dla osoby, której dane dotyczą, lub mająca znaczny wpływ na tę osobę, jest zakazana na podstawie RODO, chyba że jest usankcjonowana na mocy prawa Unii lub prawa państwa członkowskiego, z zastrzeżeniem odpowiednich środków gwarantujących prawa osoby, której dane dotyczą, oraz jej wolności i uzasadnione interesy;

62.  apeluje o wytłumaczalność algorytmów, przejrzystość i nadzór regulacyjny w przypadku wykorzystywania sztucznej inteligencji przez organy publiczne oraz o przeprowadzanie ocen skutków, zanim organy państwowe wdrożą narzędzia stosujące technologie AI; wzywa Komisję i Europejską Radę Ochrony Danych, aby wydały wytyczne i zalecenia oraz opracowały najlepsze praktyki w celu dodatkowego uściślenia kryteriów i warunków podejmowania przez organy publiczne decyzji na podstawie profilowania i wykorzystania AI;

63.  stwierdza, że sztuczna inteligencja odgrywa coraz ważniejszą rolę w sektorze opieki zdrowotnej, w szczególności dzięki algorytmom wspomagającym diagnostykę, chirurgii wspomaganej robotem, inteligentnym protezom, spersonalizowanym zabiegom opartym na trójwymiarowym modelowaniu ciała każdego pacjenta, robotom społecznym wspierającym osoby starsze, cyfrowym terapiom mającym na celu zwiększenie autonomii niektórych osób chorych psychicznie, a także dzięki medycynie prognostycznej oraz oprogramowaniu służącemu do reagowania na epidemię;

64.  nalega jednak, aby we wszystkich przypadkach wykorzystywania AI w celach związanych ze zdrowiem publicznym gwarantowano ochronę danych osobowych pacjentów i zapobiegano niekontrolowanemu rozpowszechnianiu tych danych;

65.  apeluje, aby we wszystkich przypadkach stosowania AI w dziedzinie zdrowia publicznego przestrzegano zasady równego traktowania pacjentów w dostępie do leczenia, zachowywano relację między pacjentem a lekarzem i we wszystkich okolicznościach przestrzegano przysięgi Hipokratesa, tak by lekarz miał zawsze możliwość odstąpienia od rozwiązania zaproponowanego przez AI i zachował odpowiedzialność za wszelkie decyzje;

66.  zwraca uwagę, że stosowanie sztucznej inteligencji w walce z przestępczością i cyberprzestępczością może przynieść wiele możliwości i perspektyw; jednocześnie potwierdza, że zasada, zgodnie z którą to, co jest nielegalne poza internetem, jest nielegalne w internecie, powinna nadal obowiązywać;

67.  zwraca uwagę, że AI jest coraz częściej wykorzystywana w sądownictwie w celu wydawania orzeczeń, które są bardziej racjonalne, w większym stopniu zgodne z obowiązującymi przepisami i szybsze; z zadowoleniem przyjmuje fakt, że oczekuje się przyspieszenia postępowań sądowych dzięki zastosowaniu sztucznej inteligencji;

68.  za konieczne uważa sprecyzowanie, czy właściwe jest częściowe powierzenie AI decyzji w zakresie egzekwowania prawa, przy jednoczesnym zachowaniu kontroli człowieka nad ostateczną decyzją;

69.  podkreśla, że wykorzystanie AI w wymiarze sprawiedliwości mogłoby poprawić analizę i gromadzenie danych oraz ochronę ofiar, a także że mogłoby stanowić przedmiot prac badawczo-rozwojowych, którym towarzyszy ocena skutków, w szczególności pod względem gwarancji sprawiedliwości proceduralnej oraz ochrony przed stronniczością i dyskryminacją, z zastosowaniem zasady ostrożności; przypomina jednak, że AI nie może zastąpić człowieka w wydawaniu wyroków czy podejmowaniu decyzji;

70.  przypomina o znaczeniu zasad zarządzania, przejrzystości, bezstronności, rozliczalności, uczciwości i integralności intelektualnej w stosowaniu AI w wymiarze sprawiedliwości w sprawach karnych;

71.  nalega na państwa członkowskie, aby przed automatyzacją działań związanych ze sprawowaniem władzy publicznej, zwłaszcza w obszarze wymiaru sprawiedliwości, oceniły ryzyko związane z technologiami opartymi na AI; wzywa państwa członkowskie, aby rozważyły, czy konieczne jest zapewnienie zabezpieczeń, takich jak nadzór ze strony wykwalifikowanego specjalisty i zasady etyki zawodowej;

72.  zwraca uwagę, że technologie AI umożliwiają automatyzację przetwarzania informacji i działań informacyjnych na niespotykaną dotychczas skalę, na przykład w przypadku masowej inwigilacji w strefie cywilnej i wojskowej, co grozi łamaniem praw podstawowych i prowadzi do bezprawnej ingerencji w suwerenność państw; apeluje, by na mocy prawa międzynarodowego prowadzić kontrolę działań w zakresie masowej inwigilacji, w tym zagadnień dotyczących jurysdykcji i egzekwowania prawa; wyraża głębokie zaniepokojenie z powodu opracowania kilku wysoce inwazyjnych aplikacji do oceny punktowej obywateli, gdyż stanowią one poważne zagrożenie dla poszanowania praw podstawowych; apeluje, aby wyraźnie zakazać stosowania przez organy publiczne na masową skalę ocen punktowych w celu ograniczenia praw obywateli; wzywa do zwiększenia odpowiedzialności podmiotów prywatnych na mocy prawa międzynarodowego, z uwagi na hegemonię decyzyjną i kontrolę sprawowaną przez niektóre podmioty prywatne nad rozwojem tych technologii; w związku z tym wzywa Komisję, Radę i państwa członkowskie, aby były szczególnie uważne przy negocjowaniu, zawieraniu i ratyfikowaniu umów międzynarodowych dotyczących transgranicznych spraw rodzinnych, np. uprowadzeń dzieci za granicę, oraz dbały o to, by w tych sytuacjach systemy AI były zawsze wykorzystywane przy skutecznej weryfikacji ze strony człowieka i z poszanowaniem sprawiedliwości proceduralnej w UE i w państwach będących sygnatariuszami tych umów;

73.  domaga się informowania opinii publicznej o stosowaniu AI w dziedzinie wymiaru sprawiedliwości oraz tego, by takie zastosowania nie powodowały dyskryminacji wynikającej z tendencyjności programowania; podkreśla, że należy szanować prawo każdej osoby do dostępu do urzędnika publicznego, a także prawo odpowiedzialnego urzędnika do osobistego podjęcia decyzji i odejścia od informacji otrzymanych z AI, jeżeli uzna to za konieczne w świetle szczegółowych informacji dotyczących danej sprawy; podkreśla prawo oskarżonego do odwołania się od decyzji zgodnie z prawem krajowym, co jednak nie eliminuje ostatecznej odpowiedzialności wymiaru sprawiedliwości;

74.  apeluje zatem, aby wszystkie te zastosowania w sferze publicznej i administracyjnej były uznawane za informację należącą do domeny publicznej oraz aby uniknąć dyskryminacji wynikającej z tendencyjności programowania;

75.  podkreśla, że należy umożliwić właściwe wdrażanie i wykorzystywanie AI; apeluje do państw członkowskich o zapewnienie personelowi cywilnemu i wojskowemu odpowiedniego szkolenia, aby umożliwić mu dokładne identyfikowanie i unikanie dyskryminacji i stronniczości w zbiorach danych;

76.  jest głęboko zaniepokojony technologiami deepfake umożliwiającymi tworzenie coraz bardziej realistycznych sfałszowanych zdjęć oraz nagrań audio i wideo, które mogą być wykorzystywane do szantażu, generowania nieprawdziwych informacji lub do podkopywania zaufania publicznego i wpływania na debatę publiczną; uważa, że takie praktyki mogą potencjalnie powodować destabilizację państw poprzez szerzenie dezinformacji i wpływanie na wybory; apeluje w związku z tym, aby zobowiązać twórców wszystkich materiałów typu deepfake lub wszelkich innych realistycznie wykonanych montaży wideo do zamieszczania w nich informacji, że nie są one oryginalne, oraz by wprowadzić ścisłe ograniczenia korzystania z takich materiałów do celów wyborczych, a także rygorystycznie egzekwować te zasady; wzywa do przeprowadzenia odpowiednich badań w tej dziedzinie, aby zadbać o to, by technologie uniemożliwiające takie praktyki dotrzymywały kroku wykorzystaniu AI w złych zamiarach;

Transport

77.  zwraca uwagę na istotny potencjał gospodarczy zastosowań AI, w tym dla optymalizacji długoterminowej wydajności, konserwacji, prognozowania awarii i planowania budowy infrastruktury transportowej i budynków, a także dla bezpieczeństwa, efektywności energetycznej i kosztów; wzywa zatem Komisję do dalszego promowania badań nad AI i wymiany dobrych praktyk w dziedzinie transportu;

78.  podkreśla konieczność promowania sztucznej inteligencji w celu wspierania multimodalności, interoperacyjności i efektywności energetycznej wszystkich środków transportu, aby zapewnić skuteczniejszą organizację przepływów towarów i pasażerów oraz skuteczniejsze zarządzanie nimi, a także lepsze wykorzystanie infrastruktury i zasobów w całej transeuropejskiej sieci transportowej (TEN-T), oraz aby usunąć przeszkody w tworzeniu rzeczywistego jednolitego europejskiego obszaru transportu;

79.  przypomina o korzyściach płynących z europejskiego systemu zarządzania ruchem kolejowym (ERTMS), płynnego automatycznego systemu kontroli pociągów, oraz wspiera rozwój i międzynarodową normalizację automatyzacji ruchu kolejowego;

80.  z zadowoleniem przyjmuje prace nad projektem badawczym w dziedzinie zarządzania ruchem lotniczym w kontekście jednolitej europejskiej przestrzeni powietrznej (SESAR) dotyczącym bezzałogowych systemów powietrznych oraz systemów zarządzania ruchem lotniczym, zarówno cywilnych, jak i wojskowych;

81.  przypomina, że pojazdy autonomiczne mają ogromny potencjał w zakresie poprawy mobilności, bezpieczeństwa i korzyści dla środowiska, oraz wzywa Komisję i państwa członkowskie do zapewnienia współpracy między organami regulacyjnymi i wszystkimi zainteresowanymi stronami zaangażowanymi we wdrażanie zautomatyzowanych pojazdów drogowych w UE;

82.  zwraca uwagę, że dzięki wykorzystaniu AI w ostatnich latach światowy sektor żeglugi uległ poważnym zmianom; przypomina o prowadzonych obecnie szeroko zakrojonych dyskusjach w ramach Międzynarodowej Organizacji Morskiej na temat skutecznego włączenia nowych i powstających technologii, takich jak autonomiczne statki, do ram regulacyjnych;

83.  podkreśla, że inteligentne systemy transportowe łagodzą zatory w ruchu, zwiększają bezpieczeństwo i dostępność, a także przyczyniają się do sprawniejszego zarządzania ruchem, poprawy wydajności i ulepszenia rozwiązań w zakresie mobilności; zwraca uwagę na większe narażenie tradycyjnych sieci transportowych na cyberzagrożenia; przypomina o znaczeniu wystarczających zasobów i dalszych badań nad zagrożeniami bezpieczeństwa w zapewnianiu bezpieczeństwa zautomatyzowanych systemów i ich danych; wyraża zadowolenie, że Komisja zamierza włączyć cyberbezpieczeństwo jako stały punkt do dyskusji z organizacjami międzynarodowymi związanymi z transportem;

84.  z zadowoleniem przyjmuje starania na rzecz wprowadzenia systemów AI w sektorze publicznym i będzie wspierać dalsze dyskusje na temat wdrażania AI w transporcie; wzywa Komisję do przeprowadzenia oceny wykorzystania AI i innych podobnych technologii w sektorze transportu oraz do sporządzenia niewyczerpującego wykazu segmentów wysokiego ryzyka w systemach AI, zastępujących decyzje w ramach prerogatyw władzy publicznej w tej dziedzinie;

85.  podkreśla, że Europejski Fundusz Obronny i stała współpraca strukturalna powinny stymulować współpracę między państwami członkowskimi a europejskim przemysłem obronnym w celu rozwijania nowych europejskich zdolności obronnych w dziedzinie AI i zapewnienia bezpieczeństwa dostaw, z uwzględnieniem kwestii etycznych; podkreśla potrzebę unikania fragmentacji poprzez budowanie pomostów między różnymi podmiotami i dziedzinami stosowania, promowanie kompatybilności i interoperacyjności na wszystkich poziomach oraz skupienie się na wspólnym wypracowaniu rozwiązań dotyczących architektury i platform; przypomina ponadto, że następny instrument „Łącząc Europę”, który również promuje inteligentną infrastrukturę, będzie obejmował fundusz przeznaczony na dostosowanie i rozwój cywilnej lub wojskowej infrastruktury transportowej podwójnego zastosowania w ramach TEN-T w celu zwiększenia synergii między potrzebami cywilnymi i w zakresie obrony oraz z myślą o poprawie mobilności cywilnej i wojskowej w Unii; podkreśla w związku z tym potrzebę dalszych europejskich inwestycji, badań i przywództwa w zakresie technologii mających zarówno duży wpływ na wzrost gospodarczy, jak i znaczny potencjał podwójnego zastosowania;

86.  podkreśla, że wiele inwestycji w nowe technologie w dziedzinie transportu i mobilności jest opartych na zasadach rynkowych, ale komercyjne gotowe technologie i produkty podwójnego zastosowania są często wykorzystywane w innowacyjny sposób do celów wojskowych; podkreśla zatem, że przy opracowywaniu standardów stosowania AI w różnych obszarach sektora handlu i obronności należy wziąć pod uwagę potencjał podwójnego zastosowania rozwiązań wykorzystujących AI; wzywa do uwzględnienia wysokich standardów etycznych i polityki w opracowywaniu technologii, produktów i zasad działania w dziedzinie obronności;

87.  podkreśla, że skuteczny transport towarów, amunicji, uzbrojenia i wojsk stanowi istotny element udanych operacji wojskowych; podkreśla, że należy się spodziewać, iż AI będzie odgrywać kluczową rolę i oferować liczne możliwości w dziedzinie logistyki i transportu do celów wojskowych; zwraca uwagę, że kraje na całym świecie, w tym państwa członkowskie UE, włączają zastosowanie broni i innych systemów wykorzystujących AI do swojego arsenału środków na lądzie, morzu i w powietrzu; przypomina, że zastosowanie AI w sektorze transportu mogłoby zapewnić nowe zdolności i umożliwić nowe rodzaje taktyki, takie jak połączenie wielu systemów, np. dronów, bezzałogowych łodzi lub czołgów w ramach niezależnej i skoordynowanej operacji;

Prawo prywatne międzynarodowe

88.  zwraca uwagę, że w związku z faktem, iż coraz więcej sporów z zakresu prawa prywatnego międzynarodowego powstaje w wyniku umiędzynarodowienia działalności człowieka, zarówno w internecie, jak i w świecie rzeczywistym, AI może pomóc w ich rozstrzyganiu, tworząc modele pozwalające ustalić sąd właściwy i prawo właściwe w każdej sprawie, ale także wskazać najbardziej problematyczne kolizje ustawodawstw i zaproponować sposoby ich rozwiązania;

89.  uważa jednak, że o stosowaniu AI w dziedzinie prawa prywatnego międzynarodowego należy odpowiednio informować opinię publiczną, a stosowanie to nie może prowadzić do dyskryminacji wskutek programowania, która prowadziłaby do systematycznego faworyzowania jednego prawa krajowego kosztem innego, należy zapewnić poszanowanie właściwości sądu określonego z góry przez prawo, dopuszczać odwołania zgodnie z obowiązującym prawem oraz umożliwić wszystkim sędziom nieuwzględnienie rozwiązania zaproponowanego przez AI;

90.  podkreśla, że ruch pojazdów autonomicznych w Unii Europejskiej, który może być źródłem szczególnie dużej liczby sporów z zakresu prawa prywatnego międzynarodowego, musi być przedmiotem szczególnych przepisów europejskich określających system prawny mający zastosowanie w przypadku szkód transgranicznych;

91.  wskazuje, że z uwagi na rosnące znaczenie badań i rozwoju w sektorze prywatnym oraz ogromne inwestycje państw trzecich UE mierzy się z silną konkurencją; popiera zatem starania UE na rzecz dalszego zwiększania swojej przewagi konkurencyjnej i uważa, UE powinna dążyć do tego, by to ona ustalała normy dotyczące AI w świecie, w którym istnieje bardzo gęsta sieć wzajemnych połączeń, dzięki przyjęciu skutecznej strategii wobec swoich partnerów zewnętrznych, wspieraniu ich wysiłków na rzecz ustanowienia ogólnoświatowych norm etycznych w zakresie AI na szczeblu międzynarodowym, zgodnie z zasadami bezpieczeństwa i wymogami w zakresie ochrony konsumentów, a także zgodnie z europejskimi wartościami i prawami podstawowymi; uważa, że ma to również kluczowe znaczenie dla konkurencyjności i zrównoważonego charakteru europejskich przedsiębiorstw; wzywa Komisję i państwa członkowskie do zacieśnienia współpracy z państwami trzecimi i organizacjami międzynarodowymi, takimi jak ONZ, OECD, grupy G7 i G20, oraz do zaangażowania się w szerszy dialog mający na celu sprostanie wyzwaniom wynikającym z rozwoju tej szybko zmieniającej się technologii; uważa, że te starania powinny zmierzać w szczególności do ustanowienia wspólnych norm i zwiększenia interoperacyjności systemów opartych na AI; wzywa Komisję do wspierania dialogu, ściślejszej współpracy i synergii między państwami członkowskimi, naukowcami, pracownikami naukowymi, podmiotami społeczeństwa obywatelskiego i sektorem prywatnym, w szczególności wiodącymi przedsiębiorstwami, a także wojskiem, aby zagwarantować inkluzywny charakter procesów kształtowania polityki w dziedzinie regulacji dotyczących AI związanej z obronnością;

Wytyczne

92.  uważa, że technologie i systemy sieciowe oparte na AI powinny służyć zagwarantowaniu obywatelom pewności prawa; w związku z powyższym podkreśla, że należy nadal stosować normy dotyczące konfliktu przepisów i jurysdykcji, a jednocześnie brać pod uwagę interesy obywateli oraz potrzebę ograniczenia ryzyka wykorzystywania różnic w systemach prawnych; przypomina, że sztuczna inteligencja nie może zastępować ludzi w procesie sądowym przy wydawaniu wyroków lub podejmowaniu jakichkolwiek ostatecznych decyzji, ponieważ decyzje takie muszą być zawsze podejmowane przez człowieka i podlegać ścisłej weryfikacji i rzetelnemu postępowaniu sądowemu; podkreśla, że w przypadku wykorzystywania dowodów pochodzących z technologii wspomaganych przez AI organy sądowe powinny mieć obowiązek uzasadniania swoich decyzji;

93.  przypomina, że AI jest wyrazem postępu naukowego, który nie może naruszać prawa, a wręcz przeciwnie, musi mu zawsze podlegać – w Unii Europejskiej prawu ustanawianemu przez instytucje i państwa członkowskie – i że w żadnych okolicznościach AI, robotyka i powiązane technologie nie mogą być sprzeczne z prawami podstawowymi oraz zasadami demokracji i praworządności;

94.  podkreśla, że sztuczna inteligencja wykorzystywana do celów obronnych powinna być odpowiedzialna, sprawiedliwa, możliwa do śledzenia, wiarygodna i poddająca się zarządzaniu;

95.  uważa, że sztuczna inteligencja, robotyka i powiązane z nimi technologie, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, bez względu na dziedzinę, w której są stosowane, należy opracowywać w sposób bezpieczny i precyzyjny pod względem technicznym;

o
o   o

96.  zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji Radzie i Komisji.

(1) Dz.U. L 180 z 19.7.2000, s. 22.
(2) Dz.U. L 303 z 2.12.2000, s. 16.
(3) Dz.U. L 119 z 4.5.2016, s. 1.
(4) Dz.U. L 119 z 4.5.2016, s. 89.
(5) Dz.U. L 252 z 8.10.2018, s. 1.
(6) Dz.U. C 252 z 18.7.2018, s. 239.
(7) Dz.U. C 307 z 30.8.2018, s. 163.
(8) Dz.U. C 433 z 23.12.2019, s. 86.
(9) Dz.U. C 433 z 23.12.2019, s. 42.
(10) Dz.U. C 449 z 23.12.2020, s. 37.
(11) Dyrektywa 2005/36/WE Parlamentu Europejskiego i Rady z dnia 7 września 2005 r. w sprawie uznawania kwalifikacji zawodowych (Dz.U. L 255 z 30.9.2005, s. 22).
(12) Dyrektywa 2006/42/WE Parlamentu Europejskiego i Rady z dnia 17 maja 2006 r. w sprawie maszyn, zmieniająca dyrektywę 95/16/WE (Dz.U. L 157 z 9.6.2006, s. 24).
(13) Dyrektywa Parlamentu Europejskiego i Rady (UE) 2018/958 z dnia 28 czerwca 2018 r. w sprawie analizy proporcjonalności przed przyjęciem nowych regulacji dotyczących zawodów (Dz.U. L 173 z 9.7.2018, s. 25).

Ostatnia aktualizacja: 22 kwietnia 2021Informacja prawna - Polityka ochrony prywatności