Zmiana rozporządzenia (UE) nr 168/2013 w odniesieniu do szczególnych środków dotyczących pojazdów kategorii L z końcowej partii produkcji w odpowiedzi na pandemię COVID-19 ***I
Rezolucja ustawodawcza Parlamentu Europejskiego z dnia 20 października 2020 r. w sprawie wniosku dotyczącego rozporządzenia Parlamentu Europejskiego i Rady zmieniającego rozporządzenie (UE) nr 168/2013 w odniesieniu do szczególnych środków dotyczących pojazdów kategorii L z końcowej partii produkcji w odpowiedzi na pandemię COVID-19 (COM(2020)0491 – C9-0285/2020 – 2020/0251(COD))
(Zwykła procedura ustawodawcza: pierwsze czytanie)
Parlament Europejski,
– uwzględniając wniosek Komisji przedstawiony Parlamentowi Europejskiemu i Radzie (COM(2020)0491),
– uwzględniając art. 294 ust. 2 i art. 114 Traktatu o funkcjonowaniu Unii Europejskiej, zgodnie z którymi wniosek został przedstawiony Parlamentowi przez Komisję (C9-0285/2020),
– uwzględniając art. 294 ust. 3 Traktatu o funkcjonowaniu Unii Europejskiej,
– po konsultacji z Europejskim Komitetem Ekonomiczno-Społecznym,
– uwzględniając zobowiązanie przedstawiciela Rady, przekazane pismem z dnia 14 października 2020 r., do zatwierdzenia stanowiska Parlamentu Europejskiego, zgodnie z art. 294 ust. 4 Traktatu o funkcjonowaniu Unii Europejskiej,
– uwzględniając art. 59 oraz art. 52 ust. 1 Regulaminu,
– uwzględniając sprawozdanie Komisji Rynku Wewnętrznego i Ochrony Konsumentów (A9-0190/2020),
1. przyjmuje poniższe stanowisko w pierwszym czytaniu;
2. zwraca się do Komisji o ponowne przekazanie mu sprawy, jeśli zastąpi ona pierwotny wniosek, wprowadzi w nim istotne zmiany lub planuje ich wprowadzenie;
3. zobowiązuje swojego przewodniczącego do przekazania stanowiska Parlamentu Radzie i Komisji oraz parlamentom narodowym.
Stanowisko Parlamentu Europejskiego przyjęte w pierwszym czytaniu w dniu 20 października 2020 r. w celu przyjęcia rozporządzenia Parlamentu Europejskiego i Rady (UE) 2020/... zmieniającego rozporządzenie (UE) nr 168/2013 w odniesieniu do szczególnych środków dotyczących pojazdów kategorii L z końcowej partii produkcji w odpowiedzi na pandemię COVID-19
(Jako że pomiędzy Parlamentem i Radą osiągnięte zostało porozumienie, stanowisko Parlamentu odpowiada ostatecznej wersji aktu prawnego, rozporządzenia (UE) 2020/1694.)
Uruchomienie Europejskiego Funduszu Dostosowania do Globalizacji w następstwie wniosku Hiszpanii – EGF/2020/001 ES/Galicia shipbuilding ancillary sectors
Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. w sprawie wniosku dotyczącego decyzji Parlamentu Europejskiego i Rady w sprawie uruchomienia Europejskiego Funduszu Dostosowania do Globalizacji w następstwie wniosku Hiszpanii – EGF/2020/001 ES/Galicia shipbuilding ancillary sectors (COM(2020)0485 – C9-0294/2020 – 2020/1996(BUD))
– uwzględniając wniosek Komisji przedłożony Parlamentowi Europejskiemu i Radzie (COM(2020)0485 – C9-0294/2020),
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) nr 1309/2013 z 17 grudnia 2013 r. w sprawie Europejskiego Funduszu Dostosowania do Globalizacji (2014–2020) i uchylenia rozporządzenia (WE) nr 1927/2006(1) (rozporządzenie w sprawie EFG),
– uwzględniając rozporządzenie Rady (UE, Euratom) nr 1311/2013 z 2 grudnia 2013 r. określające wieloletnie ramy finansowe na lata 2014–2020(2), w szczególności jego art. 12,
– uwzględniając zawarte pomiędzy Parlamentem Europejskim, Radą i Komisją Porozumienie międzyinstytucjonalne z 2 grudnia 2013 r. w sprawie dyscypliny budżetowej, współpracy w sprawach budżetowych i należytego zarządzania finansami(3) (PMI z 2 grudnia 2013 r.), w szczególności jego pkt 13,
– uwzględniając procedurę rozmów trójstronnych przewidzianą w pkt 13 Porozumienia międzyinstytucjonalnego z 2 grudnia 2013 r.,
– uwzględniając pismo Komisji Zatrudnienia i Spraw Socjalnych oraz Komisji Rozwoju Regionalnego,
– uwzględniając sprawozdanie Komisji Budżetowej (A9-0192/2020),
A. mając na uwadze, że Unia opracowała instrumenty ustawodawcze i budżetowe w celu udzielenia dodatkowego wsparcia pracownikom dotkniętym skutkami istotnych zmian w strukturze światowego handlu lub światowego kryzysu finansowego i gospodarczego oraz z myślą o ułatwieniu im powrotu na rynek pracy; mając na uwadze, że pomoc ta przybiera postać wsparcia finansowego udzielanego pracownikom i przedsiębiorstwom, dla których pracowali;
B. mając na uwadze, że Hiszpania złożyła wniosek EGF/2020/001 ES/Galicia shipbuilding ancillary sectors o przyznanie wkładu finansowego z EFG w związku ze zwolnieniem 960 pracowników(4) w sektorach gospodarki zaklasyfikowanych według NACE Rev. 2 do działu 24 (Produkcja metali), 25 (Produkcja metalowych wyrobów gotowych, z wyłączeniem maszyn i urządzeń), 30 (Produkcja pozostałego sprzętu transportowego), 32 (Produkcja wyrobów, pozostała), 33 (Naprawa i instalowanie maszyn i urządzeń) oraz 43 (Roboty budowlane specjalistyczne) w zaliczanym do poziomu NUTS 2 regionie Galicji (ES11) w Hiszpanii;
C. mając na uwadze, że wniosek oparty jest na kryteriach interwencji przewidzianych w art. 4 ust. 2 lit. a) rozporządzenia w sprawie EFG, które dopuszczają objęcie wnioskiem zbiorowym dotyczącym MŚP położonych w jednym regionie MŚP działających w różnych sektorach gospodarczych według klasyfikacji NACE Rev. 2, pod warunkiem że w regionie tym funkcjonują głównie lub wyłącznie MŚP;
D. mając na uwadze, że MŚP stanowią trzon gospodarki regionu, w którym ponad 95 % jego przedsiębiorstw zatrudnia mniej niż 250 pracowników, oraz że 38 przedsiębiorstw, których dotyczy niniejszy wniosek, to MŚP; mając na uwadze, że Galicja jest częścią stowarzyszenia osi atlantyckiej, a jej gospodarka w znacznym stopniu opiera się na przedsiębiorstwach i pracownikach transgranicznych;
E. mając na uwadze, że sektor stoczniowy w Galicji stosuje ten sam schemat podwykonawstwa co europejski sektor stoczniowy, który składa się głównie z małych i średnich stoczni, o bardzo dużym odsetku podwykonawstwa pod względem wartości i zatrudnienia;
F. mając na uwadze, że Hiszpania argumentuje, iż od 2004 r. Europa traci swój przemysł stoczniowy(5) zajmujący się statkami handlowymi na rzecz Azji Wschodniej, oraz że kryzys gospodarczy i finansowy, który rozpoczął się w 2008 r., spowodował znaczny spadek zamówień, ekspansję przemysłu stoczniowego w Azji i intensywną konkurencję w skali światowej(6);
G. mając na uwadze, że w wyniku polityki dotacji i preferencyjnego traktowania podatkowego, takiego jak pomoc państwa, oraz niższych kosztów pracy w krajach Azji Wschodniej, stocznie w Unii poniosły straty rynkowe;
H. mając na uwadze, że stocznie w Galicji budują zaawansowane technologicznie okręty, zbiornikowce olejowe i chemikaliowce, statki obsługujące instalacje przybrzeżne, statki do badań oceanograficznych i sejsmicznych, holowniki, statki pasażerskie i statki rybackie;
I. mając na uwadze, że zamknięcie stoczni Factorias Vulcano w lipcu 2019 r. oraz wystosowane do wierzycieli wezwanie do rozpoczęcia negocjacji w celu uniknięcia ogłoszenia upadłości przez stocznię HJ Barreras w październiku 2019 r. doprowadziło do zwolnień, ponieważ połowa zwolnień będących przedmiotem niniejszego wniosku miała miejsce w przedsiębiorstwach będących wierzycielami HJ Barreras;
J. mając na uwadze, że podwykonawcy Factorias Vulcano mają wysoki poziom specjalizacji i w związku z tym wysoki stopień zależności od głównej stoczni, co pociąga za sobą współzależności i konsekwencje dla zatrudnienia w stoczniowym sektorze pomocniczym, takie same jak w przypadku przedsiębiorstw należących do jednego sektora gospodarczego według klasyfikacji NACE;
1. zgadza się z Komisją, że warunki wymienione w art. 4 ust. 2 rozporządzenia w sprawie EFG zostały spełnione i że Hiszpania ma prawo do wkładu finansowego w wysokości 2 054 400 EUR na mocy tego rozporządzenia, co stanowi 60 % łącznych kosztów wynoszących 3 424 000 EUR, na które składają się wydatki na zindywidualizowane usługi w wysokości 3 274 000 EUR oraz wydatki na działania przygotowawcze, działania w zakresie zarządzania, informacji, reklamy, kontroli i sprawozdawczości w wysokości 150 000 EUR;
2. zauważa, że władze hiszpańskie złożyły wniosek 13 maja 2020 r. oraz że po przekazaniu przez Hiszpanię dodatkowych informacji Komisja zakończyła ocenę wniosku 11 września 2020 r. i przekazała ją Parlamentowi tego samego dnia;
3. zauważa, że Hiszpania rozpoczęła świadczenie zindywidualizowanych usług na rzecz beneficjentów objętych pomocą 13 sierpnia 2020 r. oraz że okres kwalifikowalności do uzyskania wkładu finansowego z EFG będzie zatem trwał od 13 sierpnia 2020 r. do 13 sierpnia 2022 r.;
4. zauważa, że Hiszpania zaczęła ponosić wydatki administracyjne w celu wdrożenia EFG 8 czerwca 2020 r. oraz że wydatki na działania przygotowawcze, działania w zakresie zarządzania, informacji, reklamy, kontroli i sprawozdawczości od 8 czerwca 2020 r. do 13 lutego 2023 r. kwalifikują się zatem do przyznania wkładu finansowego z EFG;
5. przyjmuje z zadowoleniem, że skoordynowany pakiet zindywidualizowanych usług został opracowany przez Hiszpanię w drodze konsultacji z partnerami społecznymi oraz że na podstawie umowy o współpracy partnerzy społeczni również będą zaangażowani w realizację usług;
6. z zadowoleniem przyjmuje zaangażowanie ASIME(7) i związków zawodowych CCOO(8) i UGT, partnerów społecznych, którzy uczestniczą w dialogu społecznym w Galicji, w opracowanie skoordynowanego pakietu zindywidualizowanych usług i w realizację tych usług; podkreśla, że partnerzy społeczni byli aktywnie zaangażowani w przygotowywanie środków;
7. bierze pod uwagę, że w 2018 r. obroty sektora stoczniowego i sektorów pomocniczych w Galicji wynosiły około 2 000 mln EUR rocznie, a 10 000 bezpośrednich miejsc pracy i 25 000 pośrednich miejsc pracy zależnych było od przemysłu stoczniowego, podczas gdy w ubiegłym roku obroty sektora spadły o 11 %, a liczba miejsc pracy o 20,8 % (około 2000);
8. podkreśla, że zwolnienia te miały miejsce w kontekście wysokiego poziomu bezrobocia (11,7 % w 2019 r.) w regionie Galicji; w związku z tym z zadowoleniem przyjmuje środki na rzecz przekwalifikowania i podnoszenia kwalifikacji oferowane w ramach tego wsparcia z EFG, dzięki którym regionalny sektor stoczniowy, gospodarka transgraniczna i cały rynek pracy staną się w przyszłości bardziej odporne i konkurencyjne;
9. podkreśla, że efektywne badania naukowe, specjalizacja i innowacje technologiczne mają kluczowe znaczenie dla wzmocnienia europejskiego sektora stoczniowego i umożliwienia mu konkurowania w skali globalnej z krajami stosującymi niższe koszty pracy, politykę subwencji i preferencyjne traktowanie podatkowe;
10. podkreśla, że zindywidualizowane usługi, które mają być świadczone zwolnionym pracownikom, muszą być dostosowane do każdego profilu;
11. zauważa, że 94 % beneficjentów objętych pomocą to mężczyźni, a 78,2 % z nich jest w wieku od 30 do 54 lat; zauważa, że usługi zindywidualizowane, które mają być świadczone na rzecz zwolnionych pracowników, obejmują: spotkania informacyjne i warsztaty przygotowawcze, poradnictwo zawodowe na temat zatrudnienia w stosunku pracy lub samozatrudnienia, szkolenia (w tym szkolenia w zakresie przedsiębiorczości dla osób dążących do samozatrudnienia), opiekę dydaktyczną po reintegracji na rynku pracy, intensywną pomoc w poszukiwaniu pracy oraz szereg zachęt;
12. z zadowoleniem przyjmuje włączenie zachęt do uczestnictwa w wysokości do 400 EUR, dopłat do kosztów dojazdów w wysokości 0,19 EUR/kilometr plus dodatkowe koszty, takie jak opłaty drogowe i koszty parkowania, dopłat do wydatków na opiekę nad osobami pozostającymi na utrzymaniu w wysokości do 20 EUR za każdy dzień uczestnictwa i środków zachęcających w związku ze zwolnieniami monitorowanymi, dzięki którym osoby, które powrócą do pracy jako pracownicy zależni lub samozatrudnieni, będą otrzymywać 200 EUR miesięcznie przez okres maksymalnie sześciu miesięcy, w celu wsparcia objętych pomocą beneficjentów w poszukiwaniu pracy lub szkoleniach, pod warunkiem czynnego uczestnictwa w środkach;
13. przypomina, że zaproponowane działania stanowią aktywne instrumenty rynku pracy należące do działań kwalifikowalnych określonych w art. 7 rozporządzenia w sprawie EFG i nie zastępują biernych środków ochrony socjalnej;
14. zauważa, że zarządzanie wkładem finansowym i nadzór nad nim będą leżeć w gestii tych samych organów, które są odpowiedzialne za zarządzanie Europejskim Funduszem Społecznym i nadzór nad nim, i że Xunta de Galicia(9) (rząd Galicji) będzie instytucją pośredniczącą dla instytucji zarządzającej;
15. podkreśla, że władze Hiszpanii potwierdziły, że działania kwalifikowalne nie są objęte pomocą z innych funduszy lub instrumentów finansowych Unii;
16. przypomina, że pomoc z EFG nie może zastępować działań, za które na mocy prawa krajowego lub umów zbiorowych odpowiedzialne są przedsiębiorstwa;
17. przypomina, że zgodnie z obowiązującymi przepisami możliwe jest uruchomienie EFG, aby udzielić stałego wsparcia zwolnionym pracownikom i osobom samozatrudnionym w kontekście globalnego kryzysu spowodowanego COVID-19 bez zmiany rozporządzenia w sprawie EFG, ponieważ Hiszpania jest jednym z tych państw członkowskich, w których pandemia ma poważne negatywne skutki;
18. zatwierdza decyzję załączoną do niniejszej rezolucji;
19. zobowiązuje swojego przewodniczącego do podpisania wraz z przewodniczącym Rady niniejszej decyzji i zapewnienia jej publikacji w Dzienniku Urzędowym Unii Europejskiej;
20. zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji wraz z załącznikiem Radzie i Komisji.
ZAŁĄCZNIK
DECYZJA PARLAMENTU EUROPEJSKIEGO I RADY
w sprawie uruchomienia Europejskiego Funduszu Dostosowania do Globalizacji w następstwie wniosku z Hiszpanii – EGF/2020/001 ES/Galicia shipbuilding ancillary sectors
(Tekst tego załącznika nie został powtórzony w tym miejscu, ponieważ odpowiada on końcowej wersji decyzji (UE) 2020/1598.)
Do 2018 r. Chiny stały się liderem (35,5 %), następne w kolejności były Japonia (23,4 %) i Korea Południowa (22,7 %), natomiast udział Europy w rynku spadł do zaledwie 6,8 %. Jeżeli chodzi o portfel zamówień w 2019 r., udział Chin jako lidera rynku wyniósł 34 %, Korei Południowej – 26 %, a Japonii – 15 %.
Rząd Galicji, a w szczególności Consellería de Facenda – Dirección General de política financiera, tesoro y fondos europeos / Servicio de inspección y control de fondos comunitarios we współpracy z Consellería de Economía, Emprego e Industria – Secretaría Xeral de Emprego / Subdirección Xeral de Relacións Laborais będzie instytucją pośredniczącą dla instytucji zarządzającej.
Absolutorium za rok 2018: budżet ogólny UE – Europejski Komitet Gospodarczy i Społeczny
1. Decyzja Parlamentu Europejskiego z dnia 20 października 2020 r. w sprawie absolutorium z wykonania budżetu ogólnego Unii Europejskiej za rok budżetowy 2018, sekcja VI – Europejski Komitet Ekonomiczno-Społeczny (2019/2060(DEC))
– uwzględniając budżet ogólny Unii Europejskiej na rok budżetowy 2018(1),
– uwzględniając skonsolidowane roczne sprawozdanie finansowe Unii Europejskiej za rok 2018 (COM(2019)0316 – C9‑0055/2019)(2),
– uwzględniając sprawozdanie roczne Europejskiego Komitetu Ekonomiczno-Społecznego dla organu udzielającego absolutorium w sprawie audytów wewnętrznych przeprowadzonych w 2018 r.,
– uwzględniając sprawozdanie roczne Trybunału Obrachunkowego dotyczące wykonania budżetu za rok budżetowy 2018 wraz z odpowiedziami instytucji(3),
– uwzględniając poświadczenie wiarygodności(4) rachunków, jak również legalności i prawidłowości operacji leżących u ich podstaw przedłożone przez Trybunał Obrachunkowy za rok budżetowy 2018 zgodnie z art. 287 Traktatu o funkcjonowaniu Unii Europejskiej,
– uwzględniając swoją decyzję z dnia 13 maja 2020 r.(5) odraczającą udzielenie absolutorium za rok budżetowy 2018 oraz załączoną do niej rezolucję,
– uwzględniając art. 314 ust. 10 oraz art. 317, 318 i 319 Traktatu o funkcjonowaniu Unii Europejskiej,
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE, Euratom) nr 966/2012 z dnia 25 października 2012 r. w sprawie zasad finansowych mających zastosowanie do budżetu ogólnego Unii oraz uchylające rozporządzenie Rady (WE, Euratom) nr 1605/2002(6), w szczególności jego art. 55, 99, 164, 165 i 166,
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE, Euratom) 2018/1046 z dnia 18 lipca 2018 r. w sprawie zasad finansowych mających zastosowanie do budżetu ogólnego Unii, zmieniające rozporządzenia (UE) nr 1296/2013, (UE) nr 1301/2013, (UE) nr 1303/2013, (UE) nr 1304/2013, (UE) nr 1309/2013, (UE) nr 1316/2013, (UE) nr 223/2014 i (UE) nr 283/2014 oraz decyzję nr 541/2014/UE, a także uchylające rozporządzenie (UE, Euratom) nr 966/2012(7), w szczególności jego art. 59, 118, 260, 261 i 262,
– uwzględniając art. 100 Regulaminu i załącznik V do Regulaminu,
– uwzględniając drugie sprawozdanie Komisji Kontroli Budżetowej (A9-0188/2020),
1. odmawia udzielenia sekretarzowi generalnemu Europejskiego Komitetu Ekonomiczno-Społecznego absolutorium z wykonania budżetu Europejskiego Komitetu Ekonomiczno-Społecznego za rok budżetowy 2018;
2. przedstawia swoje uwagi w poniższej rezolucji;
3. zobowiązuje swojego przewodniczącego do przekazania niniejszej decyzji wraz z rezolucją, która stanowi jej integralną część, Europejskiemu Komitetowi Ekonomiczno-Społecznemu, Radzie Europejskiej, Radzie, Komisji i Trybunałowi Obrachunkowemu oraz do zarządzenia jej publikacji w Dzienniku Urzędowym Unii Europejskiej (seria L).
2. Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. zawierająca uwagi stanowiące integralną część decyzji w sprawie absolutorium z wykonania budżetu ogólnego Unii Europejskiej za rok budżetowy 2018, sekcja VI – Europejski Komitet Ekonomiczno-Społeczny (2019/2060(DEC))
Parlament Europejski,
– uwzględniając swoją decyzję w sprawie absolutorium z wykonania budżetu ogólnego Unii Europejskiej za rok budżetowy 2018, sekcja VI – Europejski Komitet Ekonomiczno-Społeczny,
– uwzględniając art. 100 Regulaminu i załącznik V do Regulaminu,
– uwzględniając drugie sprawozdanie Komisji Kontroli Budżetowej (A9-0188/2020),
A. mając na uwadze, że w ramach procedury udzielania absolutorium organ udzielający absolutorium pragnie podkreślić szczególne znaczenie dalszego wzmacniania legitymacji demokratycznej organów Unii przez zwiększanie przejrzystości i rozliczalności oraz wdrażanie koncepcji budżetowania celowego i właściwego zarządzania zasobami ludzkimi;
B. mając na uwadze, że na podstawie wyników dochodzenia przeprowadzonego przez Europejski Urząd ds. Zwalczania Nadużyć Finansowych (OLAF) i wydanych w jego toku zaleceń Komisja Kontroli Budżetowej Parlamentu oczekuje, że zostanie poinformowana przez Europejski Komitet Ekonomiczno-Społeczny („Komitet”) o środkach podjętych w celu wyeliminowania nieprawidłowości;
1. z zadowoleniem przyjmuje poprawę sytuacji w zakresie przenoszenia środków w odniesieniu do linii budżetowej „Członkowie instytucji i delegaci” poprzez wyznaczenie terminu sześciu tygodni na składanie wniosków o zwrot kosztów; docenia, że od 1 stycznia 2019 r. rzadziej dochodzi do przenoszenia środków;
2. zauważa, że ze względu na większą liczbę wydanych opinii i sprawozdań, których opracowanie wymagało większego zaangażowania członków, odnotowano wyższe koszty podróży i innych zwrotów;
3. docenia, że Komitet planuje znacznie zwiększyć swój budżet na technologie informatyczne w celu nadrobienia zaległości, wypełnienia luki w porównaniu do innych organów Unii oraz dalszej realizacji strategii cyfrowej na rzecz Komitetu, przyjętej w czerwcu 2019 r.; odnotowuje wysiłki niezbędne do wzmocnienia wydajności sieci i wyposażenia użytkowników końcowych w celu umożliwienia telepracy 100 % pracowników;
4. zauważa, że nowa struktura Komitetu, obowiązująca od 1 stycznia 2020 r., powiązała służbę prawną bezpośrednio z sekretarzem generalnym, realizując deklarowane cele zwiększenia widoczności i wpływu służby prawnej oraz umożliwiając jej zapewnianie horyzontalnego wsparcia prawnego; przyjmuje do wiadomości uzasadnienie przedstawione przez Komitet, jednak wyraża zaniepokojenie, że może to mieć wpływ na autonomię i pełną niezależność służby prawnej; zwraca się do Komitetu o zapewnienie oficjalnego i systematycznego zaangażowania służby prawnej w najważniejsze sprawy Komitetu, tak aby decyzja o zasięgnięciu jej opinii nie pozostawała w gestii poszczególnych służb; z zadowoleniem przyjmuje wzmocnienie zdolności prawnej w zakresie warunków pracy członków, które pozwala na rozpatrzenie szczególnych kwestii związanych ze statutem członków; zwraca uwagę na rozważania na temat wyłączenia z polityki mobilności Komitetu wyspecjalizowanych członków personelu, w tym pracowników służby prawnej, i wzywa Komitet do przedstawienia organowi udzielającemu absolutorium sprawozdania z wyników tego procesu;
5. potwierdza, że Komitet otrzymał świadectwo bezpieczeństwa budynku VMA pod kątem obecności azbestu, wskazujące na brak zagrożenia przy normalnym użytkowaniu budynku; zauważa jednak, że dalsze analizy potwierdziły nieznaczną ilość azbestu; uznaje, że niewielka ilość materiałów zawierających włókna azbestu znajduje się poza terenem biurowym budynku VMA oraz że planuje się usunięcie wszystkich tych materiałów w trakcie prac remontowych;
6. popiera wniosek Komitetu, by zintensyfikować wszelkie wysiłki podejmowane w celu poszanowania treści porozumienia o współpracy między Parlamentem a Komitetem; przypomina jednak, że na mocy porozumienia z 2014 r. Komitet przeniósł łącznie 36 tłumaczy pisemnych do Parlamentu, a w zamian otrzymał jedynie możliwość korzystania z usług Biura Analiz Parlamentu Europejskiego; zauważa, że w rezultacie Komitet musiał zatrudnić pracowników kontraktowych i dokonywać outsourcingu tłumaczeń pisemnych; z zaniepokojeniem zauważa, że aby zrekompensować ograniczenie liczby tłumaczy pisemnych, Parlament przekazał Komitetowi dodatkowe środki na pokrycie kosztów outsourcingu tłumaczeń pisemnych, przy czym Komitet może przenieść te środki na inne dziedziny polityki, jeżeli nie zostaną one w pełni wykorzystane na outsourcing tłumaczeń pisemnych, co miało miejsce w ostatnich latach; jest zdania, że rozwiązanie ta jest nie do pogodzenia z zasadami ostrożnościowego i należytego zarządzania finansami i należy je poddać ponownej ocenie w przyszłości;;
Aktualna sytuacja
7. przypomina, że w sprawozdaniu ze stycznia 2020 r. OLAF stwierdził, iż ówczesny przewodniczący Grupy I Komitetu był odpowiedzialny za akty molestowania wobec dwóch pracowników, za niewłaściwe zachowanie (poważne uchybienie) wobec jednego członka Komitetu i członka personelu oraz za przewinienie służbowe wobec innych pracowników sekretariatu Grupy I;
8. przypomina, że OLAF stwierdził, iż ówczesny przewodniczący Grupy I dopuścił się naruszeń obowiązków wynikających z regulaminu oraz kodeksu postępowania Komitetu; przypomina, że OLAF zalecił, aby Komitet wszczął odpowiednie procedury w odniesieniu do tego członka zgodnie z art. 8 cz. 4 regulaminu Komitetu oraz by podjął wszelkie niezbędne kroki, by zapobiec ewentualnym dalszym przypadkom molestowania ze strony tego członka w miejscu pracy;
9. ubolewa, że kilku pracowników przez niewytłumaczalnie długi czas było nękanych psychicznie przez ówczesnego przewodniczącego Grupy I; ubolewa, że mimo wprowadzonych w Komitecie środków przeciwdziałania molestowaniu nie udało się wcześniej położyć kresu tej sprawie ze względu na wysokie stanowisko jego członka; ubolewa, że środki przedsięwzięte w celu ochrony ofiar do czasu zakończenia dochodzenia przez OLAF były prawdopodobnie prowizoryczne i niewystarczające, zwłaszcza w świetle wyroku w sprawie F-50/15(8)FS przeciwko Europejskiemu Komitetowi Ekonomiczno-Społecznemu (EKES), który powinien był służyć jako lekcja dla Komitetu; zauważa z zaniepokojeniem, że niedociągnięcia w procedurach wewnętrznych doprowadziły do braku działań ze strony administracji Komitetu, co przełożyło się na naruszenie obowiązku staranności i obowiązku zgłaszania OLAF-owi; wzywa Komitet do zwrócenia uwagi na ten fakt w ramach podjętego przeglądu odnośnych decyzji;
10. zauważa, że 17 stycznia 2020 r. przewodniczący Komitetu otrzymał sprawozdanie i zalecenia OLAF; zauważa, że 23 stycznia 2020 r. sprawę przekazano komitetowi doradczemu ds. postępowania członków Komitetu; ponadto zauważa, że 28 kwietnia 2020 r. komitet doradczy przedstawił swoje wnioski, zgodnie z którymi członek, którego dotyczy sprawa, został poproszony o przedstawienie swoich uwag, a przewodniczący Komitetu zwrócił się do poszerzonego kierownictwa Komitetu o komentarz;
11. odnotowuje, że Prezydium Komitetu podjęło większością głosów decyzję, by zwrócić się do tego członka o rezygnację ze stanowiska przewodniczącego Grupy I i wycofanie zgłoszenia na stanowisko przewodniczącego Komitetu; zauważa, że Prezydium zwolniło tego członka z wszelkich działań związanych z zarządzaniem lub administrowaniem personelem; zauważa, że Prezydium upoważniło sekretarza generalnego do podjęcia niezbędnych kroków w celu zagwarantowania, że w przypadku wszczęcia postępowania przeciwko temu członkowi przez prokuratora Komitet przyłączy się do tego postępowania w charakterze powoda cywilnego; zauważa, że Prezydium upoważniło sekretarza generalnego do przekazania tej decyzji OLAF-owi i Parlamentowi; zauważa, że decyzja ta może w razie potrzeby zostać również przekazana innym instytucjom lub organom państw członkowskich;
12. z zaniepokojeniem zauważa, że decyzja Prezydium Komitetu dotycząca ówczesnego przewodniczącego Grupy I nie mogła zostać w pełni wykonana w ramach wewnętrznych procedur Komitetu; zauważa, że członek, którego dotyczy sprawa, postanowił wycofać swoją kandydaturę na stanowisko przewodniczącego Komitetu prawie cztery miesiące po podjęciu decyzji przez Prezydium, a do tego jedynie z własnej inicjatywy; zauważa z zaniepokojeniem, że mimo ustaleń OLAF i decyzji Prezydium członek ten mógł narzucić swoją wolę i pozostać przewodniczącym Grupy I do końca swojej kadencji; wzywa Komitet do kontynuowania przeglądu regulaminu i kodeksu postępowania Komitetu, aby uniknąć takiej sytuacji w przyszłości;
13. zauważa, że OLAF przekazał sprawę władzom belgijskim, a belgijski prokurator wszczął postępowanie sądowe przeciwko temu członkowi, ponieważ mobbing może być ścigany na mocy prawa belgijskiego; zauważa, że na posiedzeniu plenarnym Komitetu podjęto decyzję o uchyleniu immunitetu tego członka na posiedzeniu w lipcu 2020 r., aby umożliwić prokuratorowi belgijskiemu kontynuowanie postępowania sądowego;
14. podkreśla, że uchybienia Komitetu w tej sprawie doprowadziły do istotnej straty środków publicznych w związku z usługami prawniczymi, zwolnieniami chorobowymi, ochroną ofiar, ograniczoną produktywnością, posiedzeniami Prezydium i innych organów itp.; uważa zatem, że jest to sprawa budząca niepokój w odniesieniu do rozliczalności, kontroli budżetowej i dobrego zarządzania zasobami ludzkimi w unijnych instytucjach, organach, urzędach i agencjach; w tym kontekście przypomina, że Trybunał Obrachunkowy stwierdził w sprawozdaniu specjalnym nr 13/2019 pt. „Ramy etyczne skontrolowanych instytucji UE – obszar, który można udoskonalić”, że etyczne postępowanie w sprawach publicznych przyczynia się do lepszego zarządzania finansami i zwiększenia zaufania publicznego oraz że wszelkie nieetyczne zachowania pracowników i członków instytucji i organów Unii wzbudzają duże zainteresowanie społeczne i zmniejszają zaufanie do instytucji Unii;
15. wyraża zdziwienie, że na stronie internetowej Komitetu znajduje się oświadczenie członka, którego dotyczy sprawa, w charakterze przewodniczącego Grupy I, które jest w rzeczywistości osobistym oświadczeniem złożonym w samoobronie, a dodatkową okolicznością obciążającą jest fakt, że sprawy te już się toczą bądź oczekują na rozpoczęcie przed unijnymi i belgijskimi organami sądowymi; wyraża głębokie ubolewanie, że spór między przewodniczącym Komitetu a przewodniczącym Grupy I został w ten sposób upubliczniony, co pociąga za sobą ogromne koszty dla reputacji i wiarygodności unijnych instytucji, organów, urzędów i agencji;
16. z zadowoleniem przyjmuje fakt, że Komitet zainicjował dogłębną ocenę i refleksję nad ogólnymi obowiązującymi ramami wspierającymi stosowaną przezeń politykę „zero tolerancji” wobec wszelkich zachowań, które mogą naruszać godność ludzką; zauważa, że proces ten ma na celu zidentyfikowanie ewentualnych luk i poszukiwanie dalszych ulepszeń w interesie pracowników i członków Komitetu;
17. wzywa Komitet do informowania organu udzielającego absolutorium o wszelkich toczących się obecnie dochodzeniach OLAF oraz o wszczynaniu przez OLAF nowych dochodzeń dotyczących członków lub pracowników Komitetu w związku z molestowaniem lub wszelkimi innymi niepokojącymi kwestiami;
18. zauważa, że przepisy regulaminu pracowniczego nie mają zastosowania do członków Komitetu, ponieważ nie są oni jego pracownikami, lecz mianowanymi członkami; zauważa, że okoliczność ta nie uniemożliwia innym unijnym instytucjom, organom, urzędom i agencjom posiadania szczegółowych, odpowiednich i użytecznych przepisów mających zastosowanie do ich członków; w tym kontekście przypomina na przykład, że art. 8 ust. 4 kodeksu postępowania Komitetu Regionów zakazuje wyboru członka naruszającego przepisy na wysokie stanowisko w Komitecie, a jeżeli członek już sprawuje taką funkcję, nakazuje jego odwołanie; z zadowoleniem przyjmuje fakt, że Komitet jest gotowy rozważyć dalsze ulepszenia systemu po okresie refleksji, który trwa już ponad dwa lata; uważa, że jest to nieracjonalnie długi okres; ubolewa, że po tym okresie Komitet może jedynie zaproponować podnoszenie świadomości i szkolenia dla członków mimo wyraźnej potrzeby podjęcia dalszych działań, określonych w sprawozdaniu Europejskiego Rzecznika Praw Obywatelskich w sprawie godności w pracy w instytucjach i agencjach UE (SI/2/2018/AMF) oraz w zaleceniach Parlamentu;
19. zwraca się do Komitetu o poinformowanie organu udzielającego absolutorium o procedurach i procesach, które Komitet wprowadził lub zamierza wprowadzić i które dotyczą tego, w jaki sposób można w przyszłości uniknąć przypadków molestowania lub podobnych kwestii dotyczących pracowników, tak aby zagwarantować, że nie powtórzą się podobne godne ubolewania wydarzenia, które negatywnie wpłynęły na wizerunek Komitetu i podważyły jego reputację;
20. z zadowoleniem przyjmuje zwiększenie liczby zaufanych doradców w celu usprawnienia nieformalnej procedury i umożliwienia pracownikom podzielenia się swoimi obawami w związku z wszelkimi zaobserwowanymi przypadkami molestowania;
21. z dużym zadowoleniem przyjmuje rozważania Komitetu, które doprowadzą do opracowania szczegółowego planu działania na rzecz wzmocnienia polityki „zero tolerancji” wobec molestowania w Komitecie, tak aby zagwarantować, że tego typu zachowania nie będą tolerowane; z zadowoleniem przyjmuje i popiera obecny pakiet zmian dotyczących molestowania, informowania o nieprawidłowościach i procedur dyscyplinarnych, który przyczyni się do dalszej poprawy mechanizmów umożliwiających pracownikom składanie formalnych skarg dotyczących molestowania i wzmocnienie odpowiednich struktur prawnych; przypomina jednak, że Komitet od lat informuje Parlament o tym procesie i dopiero teraz wydaje się, iż podjęto konkretne działania; z zadowoleniem przyjmuje utworzenie grupy roboczej obejmującej przedstawicieli administracji i komitetu pracowniczego, której celem jest jak najszerszy wkład w poprawę sytuacji; wyraża rozczarowanie faktem, że w ostatnich latach Komitet osiągnął minimalne postępy pomimo konkretnych zaleceń Parlamentu wzywających Komitet do wprowadzenia przepisów i procedur dotyczących członków zamieszanych w przypadki molestowania;
22. z zadowoleniem przyjmuje kontynuację różnych inicjatyw na rzecz podnoszenia świadomości w celu odpowiedniego poinformowania personelu o działaniach następczych w związku z kampanią „Respect@work” [Szacunek w pracy]; z zadowoleniem przyjmuje organizację szkoleń mających na celu zapoznanie pracowników z odpowiednimi wartościami etycznymi i organizacyjnymi oraz odnośnymi zasadami i procedurami.
Wyrok Sądu do spraw Służby Publicznej (trzecia izba) z dnia 12 maja 2016 r., FS przeciwko Europejskiemu Komitetowi Ekonomiczno-Społecznemu (EKES), F-50/15, ECLI:EU:2016:119.
Absolutorium za rok 2018: budżet ogólny UE – Rada Europejska i Rada
1. Decyzja Parlamentu Europejskiego z dnia 20 października 2020 r. w sprawie absolutorium z wykonania budżetu ogólnego Unii Europejskiej za rok budżetowy 2018, sekcja II – Rada Europejska i Rada (2019/2057(DEC))
– uwzględniając budżet ogólny Unii Europejskiej na rok budżetowy 2018(1),
– uwzględniając skonsolidowane roczne sprawozdanie finansowe Unii Europejskiej za rok budżetowy 2018 (COM(2019)0316 – C9-0052/2019)(2),
– uwzględniając sprawozdanie roczne Rady dla organu udzielającego absolutorium w sprawie audytów wewnętrznych przeprowadzonych w 2018 r.,
– uwzględniając sprawozdanie roczne Trybunału Obrachunkowego dotyczące wykonania budżetu za rok budżetowy 2018 wraz z odpowiedziami instytucji(3),
– uwzględniając poświadczenie wiarygodności rachunków(4), jak również legalności i prawidłowości operacji leżących u ich podstaw przedłożone przez Trybunał Obrachunkowy za rok budżetowy 2018 zgodnie z art. 287 Traktatu o funkcjonowaniu Unii Europejskiej,
– uwzględniając swoją decyzję z 13 maja 2020 r.(5) odraczającą udzielenie absolutorium za rok budżetowy 2018, jak również załączoną do niej rezolucję,
– uwzględniając art. 314 ust. 10 oraz art. 317, 318 i 319 Traktatu o funkcjonowaniu Unii Europejskiej,
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE, Euratom) nr 966/2012 z dnia 25 października 2012 r. w sprawie zasad finansowych mających zastosowanie do budżetu ogólnego Unii oraz uchylające rozporządzenie Rady (WE, Euratom) nr 1605/2002(6), w szczególności jego art. 55, 99, 164, 165 i 166,
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE, Euratom) 2018/1046 z dnia 18 lipca 2018 r. w sprawie zasad finansowych mających zastosowanie do budżetu ogólnego Unii, zmieniające rozporządzenia (UE) nr 1296/2013, (UE) nr 1301/2013, (UE) nr 1303/2013, (UE) nr 1304/2013, (UE) nr 1309/2013, (UE) nr 1316/2013, (UE) nr 223/2014 i (UE) nr 283/2014 oraz decyzję nr 541/2014/UE, a także uchylające rozporządzenie (UE, Euratom) nr 966/2012(7), w szczególności jego art. 59, 118, 260, 261 i 262,
– uwzględniając art. 100 Regulaminu i załącznik V do Regulaminu,
– uwzględniając drugie sprawozdanie Komisji Kontroli Budżetowej (A9-0189/2020),
1. odmawia udzielenia Sekretarzowi Generalnemu Rady absolutorium z wykonania budżetu Rady Europejskiej i Rady za rok budżetowy 2018;
2. przedstawia swoje uwagi w poniższej rezolucji;
3. zobowiązuje swojego przewodniczącego do przekazania niniejszej decyzji wraz z rezolucją, która stanowi jej integralną część, Radzie Europejskiej, Radzie, Komisji i Trybunałowi Obrachunkowemu oraz do zarządzenia jej publikacji w Dzienniku Urzędowym Unii Europejskiej (seria L).
2. Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. zawierająca uwagi stanowiące integralną część decyzji w sprawie absolutorium z wykonania budżetu ogólnego Unii Europejskiej za rok budżetowy 2018, sekcja II – Rada Europejska i Rada (2019/2057(DEC))
Parlament Europejski,
– uwzględniając swoją decyzję w sprawie absolutorium z wykonania budżetu ogólnego Unii Europejskiej za rok budżetowy 2018, sekcja II – Rada Europejska i Rada,
– uwzględniając art. 100 Regulaminu i załącznik V do Regulaminu,
– uwzględniając drugie sprawozdanie Komisji Kontroli Budżetowej (A9-0189/2020),
A. mając na uwadze, że Rada Europejska i Rada jako instytucje unijne powinny ponosić demokratyczną odpowiedzialność przed obywatelami Unii za fundusze powierzone im w celu wykonywania obowiązków;
B. mając na uwadze, że Parlament jest jedynym organem spośród instytucji unijnych wyłonionym w wyborach bezpośrednich, odpowiadającym za udzielenie absolutorium z wykonania budżetu ogólnego Unii Europejskiej;
C. mając na uwadze, że otwarta i przejrzysta procedura udzielania absolutorium jest konieczna do ochrony interesów finansowych Unii, prowadzenia niezbędnej walki z nadużyciami finansowymi oraz zagwarantowania przejrzystości i demokratycznej odpowiedzialności przed obywatelami Unii, zgodnie z którą każda instytucja Unii odpowiada za wykonywany przez siebie budżet;
1. podkreśla, że od dziesięciu kolejnych lat Rada odmawia poddania się procedurze udzielania absolutorium budżetowego, przez co zmusiła Parlament do odmowy udzielenia absolutorium; zauważa, że decyzja o tym, czy udzielić absolutorium za 2018 r. została przełożona w maju 2020 r., podobnie jak w latach poprzednich;
2. podkreśla, że taki stan rzeczy jest nie do przyjęcia dla żadnej z instytucji: dla Rady, ponieważ od 2009 r. nie wydano żadnej pozytywnej decyzji w związku z wykonaniem jej budżetu, i dla Parlamentu, ponieważ świadczy o braku szacunku dla roli Parlamentu jako organu udzielającego absolutorium oraz gwaranta przejrzystości i demokratycznej rozliczalności budżetu Unii;
3. stwierdza, że taka sytuacja podważa zaufanie publiczne do zarządzania finansami instytucji unijnych; uznaje przedłużanie obecnej sytuacji za szkodliwe dla rozliczalności Unii i jej instytucji;
4. przypomina, że zgodnie z Traktatem o funkcjonowaniu Unii Europejskiej (TFUE) i rozporządzeniem finansowym Parlament jest jedynym unijnym organem udzielającym absolutorium, który jednak w pełni uznaje rolę Rady jako instytucji wydającej zalecenia w kwestii procedury udzielania absolutorium; w związku z tym zwraca się do Rady o wydanie zaleceń w sprawie udzielenia absolutorium pozostałym instytucjom Unii;
5. przypomina, że w myśl TFUE instytucje korzystają z autonomii administracyjnej, są indywidualnie odpowiedzialne za wykonanie swoich budżetów, a ich wydatki są określone w odrębnych częściach budżetu;
6. przypomina, że Parlament udziela absolutorium wszystkim instytucjom i organom unijnym w oparciu o dokumentację techniczną, odpowiedzi na zapytania pisemne parlamentarzystów i przesłuchania; ubolewa nad powtarzającym się trudnościami z uzyskaniem odpowiedzi od Rady, które wynikają z braku współpracy z jej strony, co prowadzi do odmowy udzielenia absolutorium przez ponad 10 lat;
7. przypomina, że skuteczna kontrola wykonywania budżetu unijnego wymaga lojalnej współpracy instytucji; przypomina, że życzeniem Parlamentu jest rozpoczęcie negocjacji z Radą z myślą o osiągnięciu wzajemnie zadowalającego porozumienia, by skutecznie przełamać obecny impas;
8. podkreśla znaczenie pisma wysłanego przez Komisję Kontroli Budżetowej Parlamentu w dniu 25 maja 2020 r. do Sekretarza Generalnego Rady z informacją, że Konferencja Przewodniczących Parlamentu upoważniła Komisję Kontroli Budżetowej do ponownego rozpoczęcia negocjacji z Radą w sprawie procedury udzielania absolutorium;
9. informuje, że w imieniu Parlamentu w skład zespołu negocjacyjnego wchodzi przewodnicząca Komisji Kontroli Budżetowej Parlamentu Monika Hohlmeier, sprawozdawca w sprawie absolutorium dla Rady za 2018 r. Tomáš Zdechovský oraz pierwsza wiceprzewodnicząca Komisji Kontroli Budżetowej Parlamentu Isabel García Muñoz;
10. informuje, że do pisma, wspomnianego w pkt 8, dołączono zaktualizowaną wersję nieoficjalnego dokumentu w sprawie współpracy Parlamentu i Rady podczas corocznej procedury udzielania absolutorium, przedstawionego przez zespół negocjacyjny Parlamentu w dniu 20 lutego 2020 r.; zauważa, że dla Parlamentu ten nieoficjalny dokument jest punktem wyjścia do negocjacji;
11. informuje, że w nieoficjalnym dokumencie uznaje się różne role obu instytucji w procedurze udzielania absolutorium, stwierdzając, że Parlament i Rada potrzebują podobnych danych, aby przedstawić zalecenie (Rada) lub podjąć decyzję (Parlament);
12. wyjaśnia, że w piśmie, o którym mowa w pkt 8, zwrócono się do Rady o zaproponowanie dogodnego terminu rozpoczęcia negocjacji; informuje, że pozytywny rozwój tego procesu przerwała pandemia COVID-19;
13. zwraca uwagę, że dopóki strony nie prowadzą negocjacji, poglądy Parlamentu pozostają bez zmian, a negocjacje między stronami są warunkiem wstępnym rozwiązania przedmiotowej kwestii;
14. nalega, by budżet Rady Europejskiej i budżet Rady zostały rozdzielone, co poprawi przejrzystość, rozliczalność i skuteczność w odniesieniu do wydatków obu instytucji, zgodnie z zaleceniami Parlamentu zawartymi w wielu jego rezolucjach w sprawie absolutorium na przestrzeni ostatnich lat;
15. podkreśla, że jedynie poprzez połączenie wysiłków na rzecz osiągnięcia porozumienia międzyinstytucjonalnego w sprawie obowiązkowego rejestru przejrzystości dla lobbystów, w formacie nadającym się do odczytu maszynowego, można zwiększyć otwartość unijnego procesu decyzyjnego i odpowiedzialność instytucji Unii; ponownie wyraża głębokie ubolewanie, że Rada nie uczestniczy w rejestrze służącym przejrzystości; wzywa Radę, aby nadal uczestniczyła w dyskusjach nad ustanowieniem wspólnego rejestru wraz z Parlamentem, który zgodził się na wznowienie negocjacji w marcu 2020 r., oraz z Komisją w celu wprowadzenia faktycznego obowiązku rejestracji lobbystów, którzy chcą uczestniczyć w spotkaniach z decydentami Unii; ponownie wzywa wszystkie prezydencje państw członkowskich, by dawały dobry przykład, odmawiając spotkań z niezarejestrowanymi lobbystami;
16. Z zadowoleniem przyjmuje pozytywną odpowiedź Rady na zalecenie Europejskiego Rzecznika Praw Obywatelskich w sprawie 1069/2019/MIG, dotyczące sponsorowania prezydencji Rady Unii Europejskiej; przyjmuje do wiadomości projekt wytycznych przesłany przez Sekretariat Generalny Rady delegacjom państw członkowskich w dniu 29 czerwca 2020 r.; przypomina, że każdy rzeczywisty lub domniemany konflikt interesów zagraża reputacji Rady i Unii jako całości; wzywa Radę do zastanowienia się nad niewiążącym charakterem wytycznych; wzywa Radę do niezwłocznego podjęcia działań następczych w tej sprawie;
17. podkreśla jak ważne jest, aby obywatele mogli łatwiej śledzić proces legislacyjny Unii; przypomina Radzie, by dopasowała metody pracy do standardów demokracji parlamentarnej, zgodnie z wymogami traktatów; przypomina Radzie, by kontynuowała działania następcze w stosunku do zaleceń, o których mowa w decyzji Europejskiej Rzecznik Praw Obywatelskich z dochodzenia strategicznego OI/2/2017/TE w sprawie przejrzystości procesu legislacyjnego Rady; przypomina, że Parlament zachęcał Europejską Rzecznik Praw Obywatelskich do kontynuowania działań w związku z prowadzonym przez nią dochodzeniem;
18. wzywa Radę do zwiększenia wysiłków na rzecz przejrzystości, m.in. poprzez publikowanie dokumentów legislacyjnych Rady, w tym protokołów posiedzeń grup roboczych oraz rozmów trójstronnych i innych ważnych dokumentów roboczych zgodnie z zaleceniami Europejskiego Rzecznika Praw Obywatelskich; z zadowoleniem przyjmuje zmiany na stronie internetowej Rady, w szczególności te dotyczące przejrzystości i dostępu do dokumentów; z zadowoleniem przyjmuje jasne rozdziały dotyczące przejrzystości ustawodawczej, porządki obrad i kalendarz posiedzeń Rady, jak również protokoły i listy do głosowania; przyznaje, że Rada podejmuje działania na rzecz większej przejrzystości;
19. ponownie wyraża głębokie zaniepokojenie w związku ze sponsoringiem korporacyjnym państw członkowskich, które sprawują prezydencję Unii, oraz podziela obawy wyrażane w tym kontekście przez obywateli Unii i posłów; wyraża głębokie zaniepokojenie możliwą szkodą dla reputacji i ryzykiem utraty zaufania, jakie z powodu tej praktyki może ponieść Unia, jej instytucje, a w szczególności Rada w oczach obywateli Unii; ponadto zdecydowanie zaleca Radzie włączenie prezydencji do budżetu oraz zwraca się do Rady, by przekazała te obawy państwom członkowskim, w szczególności obecnym trzem prezydencjom, a także wyzwa aktualne trzy prezydencje do wzięcia tych zaleceń pod rozwagę i do przedstawienia Parlamentowi sprawozdania;
20. wyraża głębokie zaniepokojenie domniemanym konfliktem interesów szeregu przedstawicieli państw członkowskich zaangażowanych w procesy podejmowania decyzji politycznych i budżetowych; zwraca się do Rady o zadbanie o to, by przedstawiciele państw członkowskich, którzy osobiście korzystają z unijnych dotacji, nie uczestniczyli w odnośnych dyskusjach politycznych lub budżetowych ani w głosowaniu.
Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. zawierające zalecenia dla Komisji w sprawie aktu prawnego o usługach cyfrowych: poprawa funkcjonowania jednolitego rynku (2020/2018(INL))
– uwzględniając art. 225 Traktatu o funkcjonowaniu Unii Europejskiej,
– uwzględniając dyrektywę 2000/31/WE Parlamentu Europejskiego i Rady z dnia 8 czerwca 2000 r. w sprawie niektórych aspektów prawnych usług społeczeństwa informacyjnego, w szczególności handlu elektronicznego w ramach rynku wewnętrznego („dyrektywa o handlu elektronicznym”)(1),
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2019/1150 z dnia 20 czerwca 2019 r. w sprawie propagowania sprawiedliwości i przejrzystości dla użytkowników biznesowych korzystających z usług pośrednictwa internetowego(2),
– uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/770 z dnia 20 maja 2019 r. w sprawie niektórych aspektów umów o dostarczanie treści cyfrowych i usług cyfrowych(3),
– uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/771 z dnia 20 maja 2019 r. w sprawie niektórych aspektów umów sprzedaży towarów, zmieniającą rozporządzenie (UE) 2017/2394 oraz dyrektywę 2009/22/WE i uchylającą dyrektywę 1999/44/WE(4),
– uwzględniając dyrektywę 2005/29/WE Parlamentu Europejskiego i Rady z dnia 11 maja 2005 r. dotyczącą nieuczciwych praktyk handlowych stosowanych przez przedsiębiorstwa wobec konsumentów na rynku wewnętrznym oraz zmieniającą dyrektywę Rady 84/450/EWG, dyrektywy 97/7/WE, 98/27/WE i 2002/65/WE Parlamentu Europejskiego i Rady oraz rozporządzenie (WE) nr 2006/2004 Parlamentu Europejskiego i Rady („dyrektywa o nieuczciwych praktykach handlowych”)(5),
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2019/1020 z dnia 20 czerwca 2019 r. w sprawie nadzoru rynku i zgodności produktów oraz zmieniające dyrektywę 2004/42/WE oraz rozporządzenia (WE) nr 765/2008 i (UE) nr 305/2011(6),
– uwzględniając dyrektywę 2006/123/WE Parlamentu Europejskiego i Rady z dnia 12 grudnia 2006 r. dotyczącą usług na rynku wewnętrznym(7),
– uwzględniając swoją rezolucję z dnia 21 września 2010 r. w sprawie pełnego ukształtowania rynku wewnętrznego w handlu elektronicznym(8),
– uwzględniając swoją rezolucję z dnia 15 czerwca 2017 r. w sprawie platform internetowych i jednolitego rynku cyfrowego(9),
– uwzględniając komunikat Komisji z dnia 11 stycznia 2012 r. pt. „Spójne ramy na rzecz wzmocnienia zaufania na jednolitym rynku cyfrowym handlu elektronicznego i usług online” (COM(2011)0942),
– uwzględniając zalecenie Komisji (UE) 2018/334 z dnia 1 marca 2018 r. w sprawie działań na rzecz skutecznego zwalczania nielegalnych treści w internecie(10) oraz komunikat Komisji z dnia 28 września 2017 r. pt. „Zwalczanie nielegalnych treści w internecie. W kierunku większej odpowiedzialności platform internetowych” (COM(2017)0555),
– uwzględniając komunikat Komisji do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów z dnia 26 kwietnia 2018 r. pt. „Zwalczanie dezinformacji w internecie: podejście europejskie” (COM(2018)0236), który dotyczy nieprawdziwych lub wprowadzających w błąd informacji, tworzonych, przedstawianych i rozpowszechnianych w celu uzyskania korzyści gospodarczych lub wprowadzenia w błąd opinii publicznej, które mogą wyrządzić szkodę publiczną,
– uwzględniając Protokół ustaleń w sprawie sprzedaży podrobionych towarów w internecie z dnia 21 czerwca 2016 r. oraz jego przegląd w komunikacie Komisji do Parlamentu Europejskiego, Rady i Europejskiego Komitetu Ekonomiczno-Społecznego z dnia 29 listopada 2017 r. pt. „Zrównoważony system egzekwowania praw własności intelektualnej odpowiadający dzisiejszym wyzwaniom społecznym” (COM(2017)0707),
– uwzględniając opinię Europejskiego Komitetu Regionów (ECON-VI/048) z dnia 5 grudnia 2019 r. pt. „Europejskie ramy rozwiązań regulacyjnych w odniesieniu do gospodarki współpracy”,
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych)(11),
– uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/790 z dnia 17 kwietnia 2019 r. w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym oraz zmiany dyrektyw 96/9/WE i 2001/29/WE(12),
– uwzględniając dyrektywę 2002/58/WE Parlamentu Europejskiego i Rady z dnia 12 lipca 2002 r. dotyczącą przetwarzania danych osobowych i ochrony prywatności w sektorze łączności elektronicznej (dyrektywa o prywatności i łączności elektronicznej)(13),
– uwzględniając dyrektywę 96/9/WE Parlamentu Europejskiego i Rady z dnia 11 marca 1996 r. w sprawie ochrony prawnej baz danych(14), dyrektywę 2001/29/WE Parlamentu Europejskiego i Rady z dnia 22 maja 2001 r. w sprawie harmonizacji niektórych aspektów praw autorskich i pokrewnych w społeczeństwie informacyjnym(15) oraz dyrektywę Parlamentu Europejskiego i Rady 2010/13/UE z dnia 10 marca 2010 r. w sprawie koordynacji niektórych przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących świadczenia audiowizualnych usług medialnych (dyrektywa o audiowizualnych usługach medialnych)(16),
– uwzględniając komunikat Komisji z dnia 10 marca 2020 r. pt. „Strategia MŚP na rzecz zrównoważonej i cyfrowej Europy” (COM(2020)0103),
– uwzględniając „Białą księgę w sprawie sztucznej inteligencji. Europejskie podejście do doskonałości i zaufania” z dnia 19 lutego 2020 r. (COM(2020)0065),
– uwzględniając komunikat Komisji z dnia 19 lutego 2020 r. pt. „Kształtowanie cyfrowej przyszłości Europy” (COM(2020)0067),
– uwzględniając zobowiązania wyrażone przez Komisję w Wytycznych politycznych na następną kadencję Komisji Europejskiej na lata 2019–2024,
– uwzględniając studium Biura Analiz Parlamentu Europejskiego pt. „Zarys kosztów braku działań na poziomie europejskim, 2014–2019”, w którym wykazano, że potencjalne zyski wynikające z ukończenia jednolitego rynku cyfrowego dla usług mogą wynosić do 100 mld EUR,
– uwzględniając studium Departamentu Tematycznego ds. Polityki Gospodarczej, Naukowej i Jakości Życia Parlamentu Europejskiego pt. „The e-commerce Directive as the cornerstone of the Internal Market” [„Dyrektywa o handlu elektronicznym jako fundament rynku wewnętrznego”], wyróżniające cztery priorytety dla poprawy dyrektywy o handlu elektronicznym,
– uwzględniając studia dostarczone przez Departament Tematyczny ds. Polityki Gospodarczej, Naukowej i Jakości Życia na warsztaty pt. „E-commerce rules, fit for the digital age” [„Przepisy dotyczące handlu elektronicznego dostosowane do ery cyfrowej”] zorganizowane przez Komisję Rynku Wewnętrznego i Ochrony Konsumentów (IMCO),
– uwzględniając studium w sprawie oceny europejskiej wartości dodanej przygotowane przez Biuro Analiz Parlamentu Europejskiego, zatytułowane: „Digital Services Act: European Added Value Assessment” [„Akt prawny o usługach cyfrowych. Ocena europejskiej wartości dodanej”](17),
– uwzględniając wademekum użytkownika dyrektywy 98/48/WE, którą wprowadzono mechanizm przejrzystości przepisów w sprawie usług społeczeństwa informacyjnego,
– uwzględniając art. 47 i 54 Regulaminu,
– uwzględniając opinie Komisji Transportu i Turystyki, Komisji Kultury i Edukacji, Komisji Prawnej oraz Komisji Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych,
– uwzględniając sprawozdanie Komisji Rynku Wewnętrznego i Ochrony Konsumentów (A9‑0181/2020),
A. mając na uwadze, że handel elektroniczny ma wpływ na codzienne funkcjonowanie ludzi, przedsiębiorstw i konsumentów w Unii, a jeśli jest prowadzony na sprawiedliwych i uregulowanych równych warunkach działania, może pozytywnie przyczynić się do uwolnienia potencjału jednolitego rynku cyfrowego, zwiększyć zaufanie konsumentów i zapewnić przedsiębiorstwom wchodzącym na rynek, w tym mikroprzedsiębiorstwom oraz małym i średnim przedsiębiorstwom, nowe możliwości rynkowe pod względem zrównoważonego wzrostu gospodarczego i miejsc pracy;
B. mając na uwadze, że dyrektywa 2000/31/WE („dyrektywa o handlu elektronicznym”) była jednym z najbardziej udanych aktów prawnych Unii i ukształtowała jednolity rynek cyfrowy, jaki znamy dzisiaj; mając na uwadze, że dyrektywę o handlu elektronicznym przyjęto 20 lat temu, a pakiet dotyczący aktu prawnego o usługach cyfrowych powinien uwzględniać szybką transformację i rozwój handlu elektronicznego we wszystkich jego formach, z wieloma różnymi pojawiającymi się usługami, produktami, dostawcami i wyzwaniami oraz różnorodnymi przepisami sektorowymi; mając na uwadze, że od czasu przyjęcia dyrektywy o handlu elektronicznym Trybunał Sprawiedliwości („Trybunał”) wydał szereg wyroków z nią związanych;
C. mając na uwadze, że państwa członkowskie stosują obecnie fragmentaryczne podejście do zwalczania nielegalnych treści w internecie; mając na uwadze, że w rezultacie odpowiedni dostawcy usług mogą podlegać licznym różnym wymogom prawnym, rozbieżnym pod względem treści i zakresu; mając na uwadze, że wydaje się, iż brak jest egzekwowania i współpracy między państwami członkowskimi, oraz mając na uwadze wyzwania wynikające z istniejących ram prawnych;
D. mając na uwadze, że usługi cyfrowe muszą być w pełni zgodne z przepisami związanymi z prawami podstawowymi, w szczególności z prywatnością, ochroną danych osobowych, niedyskryminacją i wolnością wypowiedzi i informacji, a także z pluralizmem mediów i różnorodnością kulturową oraz z prawami dziecka, zapisanymi w Traktatach i Karcie praw podstawowych Unii Europejskiej („Karta”);
E. mając na uwadze, że w komunikacie pt. „Kształtowanie cyfrowej przyszłości Europy” Komisja zobowiązała się do przyjęcia, w ramach aktu prawnego o usługach cyfrowych, nowych i zmienionych przepisów dotyczących platform internetowych i dostawców usług informacyjnych, do wzmocnienia nadzoru nad polityką platform w zakresie treści w UE oraz do zbadania regulacji ex ante;
F. mając na uwadze, że pandemia COVID-19 przyniosła nowe wyzwania społeczne i gospodarcze, które wywarły duży wpływ na obywateli i gospodarkę; mając na uwadze, że pandemia COVID-19 jednocześnie pokazuje odporność sektora handlu elektronicznego i jego potencjał jako siły napędowej ożywienia gospodarki europejskiej; mając na uwadze, że pandemia obnażyła również niedociągnięcia obecnych ram regulacyjnych, w szczególności w odniesieniu do dorobku prawnego w dziedzinie ochrony konsumentów; mając na uwadze, że wymaga to podjęcia spójniejszych i bardziej skoordynowanych działań na szczeblu Unii w celu przezwyciężenia stwierdzonych trudności i zapobieżenia pojawieniu się ich w przyszłości;
G. mając na uwadze, że pandemia COVID-19 ukazała również, jak bardzo unijni konsumenci są narażeni na wprowadzające w błąd praktyki handlowe ze strony nieuczciwych przedsiębiorców sprzedających przez internet nielegalne produkty, które nie są zgodne z unijnymi przepisami bezpieczeństwa, i stosujących inne nieuczciwe warunki; mając na uwadze, że pandemia COVID-19 pokazała w szczególności, iż platformy i usługi pośrednictwa internetowego muszą zwiększyć wysiłki w celu wykrywania i usuwania fałszywych oświadczeń oraz zwalczania w spójny i skoordynowany sposób wprowadzających w błąd praktyk stosowanych przez nieuczciwych przedsiębiorców, w szczególności sprzedających fałszywy sprzęt medyczny lub produkty niebezpieczne przez internet; mając na uwadze, że Komisja z zadowoleniem przyjęła podejście wyrażone przez platformy po wysłaniu im pism w dniu 23 marca 2020 r.; mając na uwadze, że istnieje potrzeba spójniejszych i bardziej skoordynowanych działań na szczeblu Unii w celu zwalczania tych wprowadzających w błąd praktyk i zapewnienia ochrony konsumentów;
H. mając na uwadze, że akt prawny o usługach cyfrowych powinien zapewniać kompleksową ochronę praw konsumentów i użytkowników w Unii i w związku z tym powinien obejmować zasięgiem terytorialnym działalność dostawców usług społeczeństwa informacyjnego mających siedzibę w państwach trzecich, jeśli ich usługi – wchodzące w zakres stosowania aktu prawnego o usługach cyfrowych – są kierowane do konsumentów lub użytkowników w Unii;
I. mając na uwadze, że akt prawny o usługach cyfrowych powinien precyzować charakter usług cyfrowych wchodzących w zakres jego stosowania, a zarazem utrzymać horyzontalny charakter dyrektywy o handlu elektronicznym, mając zastosowanie nie tylko do platform internetowych, lecz także do wszystkich dostawców usług społeczeństwa informacyjnego określonych w prawie Unii;
J. mając na uwadze, że akt prawny o usługach cyfrowych powinien mieć zastosowanie bez uszczerbku dla rozporządzenia (UE) 2016/679 („RODO”) ustanawiającego ramy prawne ochrony danych osobowych, dyrektywy (UE) 2019/790 w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym, dyrektywy 2010/13/UE w sprawie koordynacji niektórych przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących świadczenia audiowizualnych usług medialnych oraz dyrektywy 2002/58/WE dotyczącej przetwarzania danych osobowych i ochrony prywatności w sektorze łączności elektronicznej;
K. mając na uwadze, że akt prawny o usługach cyfrowych nie powinien naruszać przepisów dyrektywy 2005/29/WE zmienionej dyrektywą (UE) 2019/2161, oraz dyrektyw (UE) 2019/770 i (UE) 2019/771 w sprawie niektórych aspektów umów o dostarczanie treści cyfrowych i usług cyfrowych oraz w sprawie niektórych aspektów umów sprzedaży towarów, oraz rozporządzenia (UE) 2019/1150 w sprawie propagowania sprawiedliwości i przejrzystości dla użytkowników biznesowych korzystających z usług pośrednictwa internetowego;
L. mając na uwadze, że akt prawny o usługach cyfrowych powinien mieć zastosowanie bez uszczerbku dla ram określonych w dyrektywie 2006/123/WE dotyczącej usług na rynku wewnętrznym;
M. mając na uwadze, że niektóre rodzaje nielegalnych treści, stanowiące główny powód do obaw, zostały już określone w prawie krajowym i prawie Unii, np. nielegalne nawoływanie do nienawiści, i nie powinny być ponownie definiowane w akcie prawnym o usługach cyfrowych;
N. mając na uwadze, że poprawa przejrzystości i pomaganie obywatelom w nabywaniu umiejętności korzystania z mediów i umiejętności cyfrowych w odniesieniu do rozpowszechniania szkodliwych treści, mowy nienawiści i dezinformacji, a także rozwój krytycznego myślenia i wzmocnienie niezależnego profesjonalnego dziennikarstwa oraz wysokiej jakości mediów pomoże w propagowaniu różnorodnych i wysokiej jakości treści;
O. mając na uwadze, że baza danych WHOIS jest publicznie dostępną bazą danych, która jest użytecznym instrumentem umożliwiającym znalezienie w internecie właściciela danej nazwy domeny, a także danych i osoby kontaktowej każdej nazwy domeny;
P. mając na uwadze, że akt prawny o usługach cyfrowych powinien dążyć do zapewnienia jasności i pewności prawa, w tym na rynku wynajmu krótkoterminowego i w sektorze usług w zakresie mobilności, poprzez promowanie przejrzystości i jaśniejszych obowiązków w zakresie informacji;
Q. mając na uwadze, że osiągnięte w marcu 2020 r. porozumienie Komisji z niektórymi platformami sektora wynajmu krótkoterminowego w sprawie wymiany danych umożliwi władzom lokalnym lepsze zrozumienie rozwoju gospodarki współpracy oraz wiarygodną i ciągłą wymianę danych, a także pozwoli na kształtowanie polityki w oparciu o dowody; mając na uwadze, że konieczne jest poczynienie dalszych kroków w celu zainicjowania bardziej kompleksowych ram wymiany danych dotyczących platform internetowych sektora wynajmu krótkoterminowego;
R. mając na uwadze, że pandemia COVID-19 wywarła istotny wpływ na unijny sektor turystyki i ukazała potrzebę dalszego wspierania współpracy w zakresie zielonych korytarzy w celu zapewnienia sprawnego funkcjonowania unijnych łańcuchów dostaw i przepływu towarów w całej sieci transportowej Unii;
S. mając na uwadze, że dynamiczny rozwój platform internetowych i zmieniający się sposób korzystania z nich w wielu rodzajach zakresu działalności, w tym w działalności handlowej, transportowej i turystycznej oraz w udostępnianiu towarów i usług, skutkowały zmianą metod interakcji między użytkownikami i przedsiębiorstwami a dostawcami treści, przedsiębiorcami i innymi osobami, które oferują towary i usługi; mając na uwadze, że jednolity rynek cyfrowy nie może odnieść sukcesu, jeśli użytkownicy nie będą mieć zaufania do platform internetowych przestrzegających wszystkich obowiązujących przepisów i szanujących uzasadnione interesy użytkowników; mając na uwadze, że wszelkie przyszłe ramy regulacyjne powinny także uwzględniać inwazyjne modele biznesowe, w tym manipulacje zachowaniami i praktyki dyskryminacyjne, które wywierają istotny negatywny wpływ na funkcjonowanie jednolitego rynku i na prawa podstawowe użytkowników;
T. mając na uwadze, że państwa członkowskie powinny dołożyć starań w celu poprawy dostępu do krajowych systemów wymiaru sprawiedliwości i organów ścigania oraz ich skuteczności w odniesieniu do ustalania nielegalności treści internetowych oraz rozstrzygania sporów dotyczących usuwania treści lub uniemożliwiania dostępu do nich;
U. mając na uwadze, że wymogi aktu prawnego o usługach cyfrowych powinny być łatwe do wdrożenia w praktyce przez dostawców usług społeczeństwa informacyjnego; mając na uwadze, że pośrednicy internetowi mogą stosować szyfrowanie lub w inny sposób uniemożliwiać dostęp do treści osobom trzecim, w tym pośrednikom hostingu samych treści;
V. mając na uwadze, że skutecznym sposobem osłabienia nielegalnej działalności jest umożliwienie rozwoju nowych innowacyjnych modeli biznesowych oraz wzmocnienie jednolitego rynku cyfrowego dzięki usunięciu nieuzasadnionych barier dla swobodnego przepływu treści cyfrowych; mając na uwadze, że bariery, które powodują fragmentację rynków krajowych, pomagają w tworzeniu popytu na nielegalne treści;
W. mając na uwadze, że usługi cyfrowe powinny zapewniać konsumentom bezpośrednie, skuteczne, przyjazne dla użytkownika, łatwe do zidentyfikowania i dostępne środki komunikacji, takie jak poczta elektroniczna, elektroniczne formularze kontaktowe, chatboty, komunikacja natychmiastowa lub telefoniczne wywołania zwrotne, oraz powinny przewidywać, aby informacje dotyczące tych środków komunikacji byłydostępne dla konsumentów w jasny, zrozumiały i, w miarę możliwości, jednolity sposób, a wnioski konsumentów były kierowane do poszczególnych źródłowych usług cyfrowych świadczonych przez dostawcę usług cyfrowych;
X. mając na uwadze, że akt prawny o usługach cyfrowych powinien gwarantować konsumentom prawo do otrzymywana informacji, czy dana usługa jest oparta na sztucznej inteligencji („AI”), wykorzystuje narzędzia zautomatyzowanego podejmowania decyzji, narzędzia do uczenia się maszyn lub narzędzia zautomatyzowanego rozpoznawania treści; mając na uwadze, że akt prawny o usługach cyfrowych powinien oferować możliwość rezygnacji (opt-out), ograniczenia lub spersonalizowania korzystania z wszelkich zautomatyzowanych funkcji personalizacji, zwłaszcza w związku z rankingami, a w szczególności oferować możliwość oglądania treści bez selekcji i dawać użytkownikom większą kontrolę nad sposobem klasyfikowania treści;
Y. mając na uwadze, że ochrona danych osobowych podlegających zautomatyzowanym procesom podejmowania decyzji jest już objęta zakresem między innymi RODO, a akt prawny o usługach cyfrowych nie powinien powtarzać ani zmieniać takich środków;
Z. mając na uwadze, ze Komisja powinna zapewnić, by w akcie prawnym o usługach cyfrowych zachowane zostało podejście do AI ukierunkowanej na człowieka, zgodnie z istniejącymi przepisami dotyczącymi swobodnego przepływu usług opartych na AI, przy jednoczesnym poszanowaniu wartości i praw podstawowych zapisanych w Traktatach;
AA. mając na uwadze, że krajowe organy nadzoru, o ile zezwala na to prawo Unii, powinny mieć dostęp do dokumentacji oprogramowania i zbiorów danych algorytmów objętych przeglądem;
AB. mając na uwadze, że koncepcje przejrzystości i wyjaśnialności algorytmów należy rozumieć jako wymóg przedstawienia użytkownikowi informacji w zwięzłej, przejrzystej, zrozumiałej i łatwo dostępnej formie, za pomocą jasnego i prostego języka;
AC. mając na uwadze, że istotne jest ustanowienie środków zapewniających skuteczne egzekwowanie przepisów oraz nadzór; mając na uwadze, że przestrzeganie przepisów należy wzmocnić skutecznymi, proporcjonalnymi i odstraszającymi karami, w tym nakładaniem proporcjonalnych grzywien;
AD. mając na uwadze, że w akcie prawnym o usługach cyfrowych należy zachować równowagę między prawami wszystkich użytkowników oraz zapewnić, by przewidziane w nim środki nie były opracowywane w sposób faworyzujący jeden uzasadniony interes względem innego, a także zapobiegać używaniu środków jako ofensywnych narzędzi w jakichkolwiek sporach między przedsiębiorstwami lub sektorami;
AE. mając na uwadze, że mechanizm rynku wewnętrznego ex ante powinien mieć zastosowanie w przypadkach, gdy samo prawo konkurencji nie wystarcza do odpowiedniego rozwiązania kwestii stwierdzonych niedoskonałości rynku;
AF. mając na uwadze, że środki legislacyjne zaproponowane w ramach aktu prawnego o usługach cyfrowych powinny być oparte na dowodach; mając na uwadze, że Komisja powinna przeprowadzić dokładną ocenę skutków na podstawie odpowiednich danych, statystyk, analiz i badań różnych dostępnych opcji; mając na uwadze, że ocena skutków powinna również zawierać ocenę i analizę niezdatnych do użytku i niebezpiecznych produktów sprzedawanych na internetowych platformach handlowych; mając na uwadze, że ocena skutków powinna również uwzględniać wnioski wyciągnięte z pandemii COVID-19 oraz rezolucje Parlamentu Europejskiego; mając na uwadze, że aktowi prawnemu o usługach cyfrowych powinny towarzyszyć wytyczne wykonawcze;
Zasady ogólne
1. z zadowoleniem przyjmuje zobowiązanie Komisji do przedłożenia wniosku w sprawie pakietu dotyczącego aktu prawnego o usługach cyfrowych, który powinien obejmować wniosek dotyczący zmiany dyrektywy o handlu elektronicznym i wniosek w sprawie regulacji ex ante dotyczących operatorów systemowych działających jako strażnicy dostępu, na podstawie art. 225 Traktatu o funkcjonowaniu Unii Europejskiej (TFUE); wzywa Komisję do przedłożenia takiego pakietu na podstawie art. 53 ust. 1, art. 62 i 114 TFUE zgodnie z zaleceniami zawartymi w załączniku do niniejszej rezolucji, na podstawie szczegółowej oceny skutków, która powinna zawierać informacje na temat skutków finansowych wniosków i opierać się na odpowiednich danych, statystykach i analizach;
2. uznaje znaczenie ram prawnych określonych w dyrektywie o handlu elektronicznym dla rozwoju usług online w Unii i uważa, że zasady, do których stosowali się prawodawcy podczas opracowywania przepisów w sprawie dostawców usług społeczeństwa informacyjnego pod koniec lat 90., są wciąż aktualne i powinny być stosowane podczas opracowywania wszelkich przyszłych wniosków; podkreśla, że pewność prawa wynikająca z dyrektywy o handlu elektronicznym dała małym i średnim przedsiębiorstwom (MŚP) możliwość rozszerzenia działalności i łatwiejszego prowadzenia działalności transgranicznej;
3. jest zdania, że wszyscy dostawcy usług cyfrowych z siedzibą poza Unią muszą przestrzegać przepisów aktu prawnego o usługach cyfrowych przy kierowaniu usług do Unii, aby zapewnić równe szanse dostawcom usług cyfrowych z Europy i z państw trzecich; zwraca się do Komisji o dodatkową ocenę, czy istnieje ryzyko zastosowania przez państwa trzecie działań odwetowych, przy jednoczesnym podnoszeniu świadomości na temat sposobu, w jaki prawo Unii ma zastosowanie do dostawców usług z państw trzecich ukierunkowanych na rynek unijny;
4. podkreśla kluczową rolę, jaką w rozwoju jednolitego rynku cyfrowego odegrała klauzula dotycząca rynku wewnętrznego, ustanawiająca kontrolę państwa pochodzenia i obowiązek państw członkowskich w zakresie zapewnienia swobodnego przepływu usług społeczeństwa informacyjnego; podkreśla potrzebę zajęcia się pozostałymi nieuzasadnionymi i nieproporcjonalnymi barierami w świadczeniu usług cyfrowych, takimi jak skomplikowane procedury administracyjne, kosztowne rozstrzyganie sporów transgranicznych i dostęp do informacji na temat odpowiednich wymogów regulacyjnych, w tym podatkowych, oraz zapewnienia, aby nie powstały żadne nowe nieuzasadnione i nieproporcjonalne bariery;
5. zauważa, że zgodnie z przepisami Unii dotyczącymi swobodnego przepływu usług państwa członkowskie mogą przedsięwziąć środki w celu ochrony uzasadnionych celów interesu publicznego, takich jak ochrona porządku publicznego, zdrowia publicznego, bezpieczeństwa publicznego, ochrona konsumentów, zwalczanie niedoboru mieszkań do wynajęcia oraz zapobieganie uchylaniu się od opodatkowania i unikaniu opodatkowania, pod warunkiem że środki te są zgodne z zasadami niedyskryminacji i proporcjonalności;
6. uznaje, że należy utrzymać główne zasady dyrektywy o handlu elektronicznym, takie jak klauzula dotycząca rynku wewnętrznego, swoboda przedsiębiorczości, swoboda świadczenia usług i zakaz nakładania ogólnego obowiązku w zakresie nadzoru; podkreśla, że zasada „to, co jest nielegalne poza internetem, jest również nielegalne w internecie”, a także zasady ochrony konsumentów i bezpieczeństwa użytkowników powinny również stać się zasadami przewodnimi przyszłych ram regulacyjnych;
7. podkreśla znaczenie platform gospodarki współpracy, w tym w sektorach transportu i turystyki, na których usługi świadczą zarówno osoby prywatne, jak i przedsiębiorcy; wzywa Komisję, by po przeprowadzeniu konsultacji ze wszystkimi odpowiednimi zainteresowanymi stronami zainicjowała bardziej zrozumiałą wymianę danych nieosobowych i ram koordynacji między platformami i władzami krajowymi, regionalnymi i lokalnymi, mającą na celu w szczególności wymianę najlepszych praktyk i ustanowienie zestawu obowiązków informacyjnych, zgodnie z europejską strategią w zakresie danych;
8. zauważa, że system ochrony danych został znacznie zaktualizowany od czasu przyjęcia dyrektywy o handlu elektronicznym, i podkreśla, że szybki rozwój usług cyfrowych wymaga silnych, zachowujących aktualność ram prawnych mających na celu ochronę danych osobowych i prywatności; podkreśla w tym względzie, że dostawcy usług cyfrowych muszą przestrzegać wymogów unijnych przepisów o ochronie danych, mianowicie RODO i dyrektywy 2002/58/WE („dyrektywa o e-prywatności”), które są obecnie poddawane przeglądowi, oraz szerokich ram praw podstawowych, w tym wolności wypowiedzi, godności i niedyskryminacji, a także prawa do skutecznego środka prawnego oraz do zapewnienia bezpieczeństwa i ochrony swoich systemów i usług;
9. uważa, że akt prawny o usługach cyfrowych powinien zapewnić zaufanie konsumentów i wyraźnie stanowić, że zachowuje zgodność z prawem ochrony konsumentów i wymogami dotyczącymi bezpieczeństwa produktów, aby zagwarantować pewność prawa; zwraca uwagę, że w akcie prawnym o usługach cyfrowych należy zwrócić szczególną uwagę na użytkowników z niepełnosprawnościami i zapewnić im dostęp do usług społeczeństwa informacyjnego; zwraca się do Komisji o zachęcenie dostawców usług do opracowania narzędzi technicznych umożliwiających osobom z niepełnosprawnościami skuteczny dostęp, użytkowanie i czerpanie korzyści z usług społeczeństwa informacyjnego;
10. podkreśla znaczenie zachowania podejścia horyzontalnego dyrektywy o handlu elektronicznym; podkreśla, że uniwersalne podejście nie jest odpowiednie, aby uwzględniać wszystkie nowe wyzwania w dzisiejszym otoczeniu cyfrowym, oraz że różnorodne podmioty i usługi oferowane w internecie wymagają dostosowanego podejścia regulacyjnego; zaleca wprowadzenie rozróżnienia między działalnością gospodarczą a działalnością o charakterze niegospodarczym oraz między różnymi rodzajami usług cyfrowych hostowanych na platformach, zamiast skupiania się na rodzaju platformy; uważa w tym kontekście, że wszelkie przyszłe wnioski ustawodawcze powinny mieć na celu zapewnienie, by nowe zobowiązania Unii wobec dostawców usług społeczeństwa informacyjnego miały proporcjonalny i jasny charakter;
11. przypomina, że duża liczba decyzji ustawodawczych i administracyjnych oraz stosunków umownych wykorzystuje definicje i zasady zawarte w dyrektywie o handlu elektronicznym oraz że wszelkie ich zmiany będą zatem wiązać się z poważnymi skutkami;
12. podkreśla, że przewidywalne, zachowujące aktualność, przejrzyste i kompleksowe ramy na szczeblu UE i uczciwa konkurencja mają kluczowe znaczenie dla wspierania rozwoju wszystkich europejskich przedsiębiorstw, w tym małych platform, MŚP, także mikroprzedsiębiorstw, przedsiębiorców oraz przedsiębiorstw typu start-up, dla zwiększania transgranicznego świadczenia usług społeczeństwa informacyjnego, usunięcia fragmentacji rynku oraz dla zapewniania europejskim przedsiębiorstwom równych warunków działania, które umożliwiają im w pełni czerpanie korzyści z rynku usług cyfrowych i zwiększenie konkurencyjności na arenie międzynarodowej;
13. podkreśla, że przyszły instrument rynku wewnętrznego dotyczący regulacji ex ante dla platform systemowych oraz zapowiedziane nowe narzędzie w zakresie konkurencji, mające na celu usunięcie luk w prawie konkurencji, należy utrzymać jako odrębne instrumenty prawne;
14. przypomina, że dyrektywa o handlu elektronicznym została opracowana zgodnie z zasadą neutralności technologicznej w celu zapewnienia, aby nie stała się przestarzała w wyniku rozwoju technologicznego wynikającego z szybkiego tempa innowacji w sektorze IT, i podkreśla, że akt prawny o usługach cyfrowych powinien nadal zachowywać aktualność i mieć zastosowanie do powstających nowych technologii wywierających wpływ na jednolity rynek cyfrowy; zwraca się do Komisji o zapewnienie, by we wszelkich rewizjach nadal przestrzegano tej zasady neutralności technologicznej w celu zagwarantowania długotrwałych korzyści dla przedsiębiorstw i konsumentów;
15. jest zdania, że potrzebne są równe warunki działania na rynku wewnętrznym dla gospodarki platformowej i gospodarki poza internetem, oparte na takich samych prawach i obowiązkach dla wszystkich zainteresowanych stron – konsumentów i przedsiębiorstw; uznaje, że w akcie prawnym o usługach cyfrowych nie należy poruszać kwestii osób pracujących za pośrednictwem platform internetowych; uznaje w związku z tym, że ochrona socjalna i prawa socjalne pracowników, w tym osób pracujących za pośrednictwem platform internetowych lub pracowników gospodarki współpracy, powinny zostać odpowiednio uwzględnione w odrębnym instrumencie, aby zapewnić właściwą i kompleksową reakcję na wyzwania dzisiejszej gospodarki cyfrowej;
16. uznaje, że akt prawny o usługach cyfrowych powinien opierać się na wspólnych wartościach Unii, chroniących prawa obywateli, i mieć na celu wspieranie tworzenia bogatego i zróżnicowanego ekosystemu internetowego z szeroką gamą usług online, konkurencyjnego środowiska cyfrowego, przejrzystości i pewności prawa, aby uwolnić pełny potencjał jednolitego rynku cyfrowego;
17. uznaje, że akt prawny o usługach cyfrowych daje Unii możliwość kształtowania gospodarki cyfrowej nie tylko na szczeblu unijnym, lecz także jako wzoru do naśladowania dla reszty świata;
Podstawowe prawa i wolności
18. zauważa, że dostawcy usług społeczeństwa informacyjnego, w szczególności platformy internetowe, w tym portale społecznościowe, mają dużą zdolność docierania do szerszego grona odbiorców, zachowań, opinii i praktyk, w tym do słabszych grup społecznych, takich jak małoletni, i wywierania na nie wpływu, i że dostawcy ci powinni przestrzegać prawa Unii w zakresie ochrony użytkowników, ich danych i całego społeczeństwa;
19. przypomina, że niedawne skandale związane z gromadzeniem i sprzedażą danych, np. Cambridge Analytica, nieprawdziwe informacje, dezinformacja, manipulowanie wyborcami i szereg innych szkód w internecie (od nawoływania do nienawiści po treści o charakterze terrorystycznym), ukazały potrzebę prowadzenia prac nad lepszym egzekwowaniem i ściślejszą współpracą między państwami członkowskimi w celu zrozumienia mocnych i słabych stron obowiązujących przepisów oraz potrzebę wzmocnienia ochrony praw podstawowych w internecie;
20. przypomina w związku z tym, że niektóre ustanowione programy samoregulacji i współregulacji, takie jak unijny kodeks postępowania w zakresie zwalczania dezinformacji, przyczyniły się do usystematyzowania dialogu z platformami i organami regulacyjnymi; sugeruje, że platformy internetowe powinny wprowadzić skuteczne i odpowiednie zabezpieczenia, w szczególności w celu zapewnienia działania w sposób staranny, proporcjonalny i niedyskryminujący oraz w celu zapobieżenia niezamierzonemu usuwaniu treści, które nie są nielegalne; środki takie nie powinny prowadzić do obowiązkowego filtrowania w chwili zamieszczania treści, co jest niezgodne z zakazem nakładania ogólnych obowiązków w zakresie nadzoru; sugeruje, że należy regularnie oceniać i dalej rozwijać środki zwalczania szkodliwych treści, mowy nienawiści i dezinformacji;
21. ponownie podkreśla znaczenie zagwarantowania wolności wypowiedzi, informacji i opinii oraz posiadania wolnego i zróżnicowanego środowiska prasowego i medialnego, również z myślą o ochronie niezależnego dziennikarstwa; nalega na ochronę i propagowanie wolności wypowiedzi oraz na znaczenie posiadania różnorodności opinii, informacji, prasy, mediów oraz form wyrazu artystycznego i kulturowego;
22. podkreśla, że akt prawny o usługach cyfrowych powinien wzmacniać swobody rynku wewnętrznego i gwarantować podstawowe prawa i zasady określone w Karcie; podkreśla, że prawa podstawowe konsumentów i użytkowników, w tym prawa małoletnich, należy chronić przed szkodliwymi internetowymi modelami biznesowymi, w tym prowadzącymi cyfrową działalność reklamową, a także przed manipulowaniem zachowaniami i praktykami dyskryminacyjnymi;
23. podkreśla znaczenie wzmocnienia pozycji użytkowników w odniesieniu do egzekwowania przysługujących im praw podstawowych w internecie; ponownie podkreśla, że dostawcy usług cyfrowych muszą przestrzegać ustanowionego w prawodawstwie Unii prawa użytkowników do przenoszenia danych oraz umożliwiać im korzystanie z tego prawa;
24. zwraca uwagę, że dane biometryczne są uważane za specjalną kategorię danych osobowych, w odniesieniu do których obowiązują szczegółowe przepisy dotyczące przetwarzania; zauważa, że dane biometryczne mogą być i coraz częściej są wykorzystywane do identyfikacji i uwierzytelniania osób fizycznych, co – niezależnie od potencjalnych korzyści – wiąże się ze znacznymi zagrożeniami i poważnymi naruszeniami praw do prywatności i ochrony danych, zwłaszcza gdy są one wykorzystywane bez zgody osoby, której dane dotyczą, a także umożliwia oszustwa dotyczące tożsamości; wzywa do tego, by w akcie prawnym o usługach cyfrowych przewidziano dla dostawców usług cyfrowych obowiązek przechowywania danych biometrycznych jedynie na samym urządzeniu, o ile prawo zezwala na centralne przechowywanie danych, każdorazowego oferowania użytkownikom usług cyfrowych alternatywy wobec domyślnego wykorzystywania danych biometrycznych do funkcjonowania usługi oraz obowiązek wyraźnego informowania klientów o zagrożeniach związanych z wykorzystywaniem danych biometrycznych;
25. podkreśla, że w duchu orzecznictwa dotyczącego metadanych komunikacyjnych organy publiczne mają dostęp do danych i metadanych abonenckich użytkownika wyłącznie w celu prowadzenia dochodzeń w sprawie osób podejrzanych o popełnienie poważnych przestępstw po uprzednim uzyskaniu zgody organu sądowego; jest jednak przekonany, że dostawcy usług cyfrowych nie mogą zatrzymywać danych do celów egzekwowania prawa, chyba że ukierunkowane zatrzymywanie danych danego użytkownika zostanie bezpośrednio nakazane przez niezależny właściwy organ publiczny zgodnie z prawem Unii;
26. podkreśla znaczenie stosowania skutecznego szyfrowania danych na wszystkich etapach transmisji, ponieważ jest ono konieczne dla zaufania do internetu oraz bezpieczeństwa w internecie oraz skutecznie zapobiega dostępowi nieuprawnionych podmiotów trzecich do danych;
Przejrzystość i ochrona konsumentów
27. zauważa, że pandemia COVID-19 ukazała znaczenie i odporność sektora handlu elektronicznego oraz jego potencjał jako siły napędowej ożywienia europejskiej gospodarki, ale jednocześnie to, jak bardzo konsumenci w UE są narażeni na wprowadzające w błąd praktyki handlowe ze strony nieuczciwych przedsiębiorców sprzedających przez internet podrobione, nielegalne lub niebezpieczne produkty i świadczących usługi online, które nie są zgodne z unijnymi przepisami bezpieczeństwa, lub narzucających konsumentom nieuzasadnione i nadmierne podwyżki cen lub inne nieuczciwe warunki; podkreśla pilną potrzebę wzmożenia egzekwowania przepisów Unii i zwiększenia ochrony konsumentów;
28. podkreśla, że problem ten pogłębiają trudności w ustaleniu tożsamości nieuczciwych użytkowników biznesowych, co utrudnia konsumentom dochodzenie odszkodowania za poniesione straty i szkody;
29. uznaje, że obecne wymagania dotyczące przejrzystości i informacji określone w dyrektywie o handlu elektronicznym nałożone na dostawców usług społeczeństwa informacyjnego i ich klientów biznesowych oraz minimalne wymagania w zakresie informacji handlowych należy wzmocnić równolegle ze środkami zwiększającymi zgodność z obowiązującymi zasadami, bez szkody dla konkurencyjności MŚP;
30. wzywa Komisję do zaostrzenia wymagań dotyczących informacji określonych w art. 5 dyrektywy o handlu elektronicznym oraz do nałożenia na dostawców usług hostingowych wymogu porównywania informacji i tożsamości użytkowników biznesowych, z którymi utrzymują oni bezpośrednie stosunki handlowe, z danymi identyfikacyjnymi w odpowiednich istniejących i dostępnych unijnych bazach danych, zgodnie z przepisami dotyczącymi protokołu danych; dostawcy usług hostingowych powinni zwrócić się do swoich użytkowników biznesowych o zapewnienie, aby informacje, które dostarczają, były dokładne, kompletne i aktualne, oraz powinni mieć prawo i obowiązek odmowy lub zaprzestania świadczenia usług na rzecz tych ostatnich, jeżeli informacje o tożsamości ich użytkowników biznesowych są fałszywe lub wprowadzające w błąd; użytkownicy biznesowi powinni być odpowiedzialni za powiadamianie dostawcy usług o wszelkich zmianach w swojej działalności gospodarczej (na przykład o zaprzestaniu prowadzenia działalności gospodarczej);
31. zwraca się do Komisji o wprowadzenie wobec dostawców usług społeczeństwa informacyjnego wykonalnych obowiązków mających na celu zwiększenie przejrzystości, zapewnienie pełniejszych informacji i rozliczalności; zwraca się do Komisji o zapewnienie, by środki egzekwowania były ukierunkowane tak, aby uwzględniać poszczególne usługi oraz nie prowadzić w sposób nieunikniony do naruszania prywatności i procesu prawnego; uważa, że obowiązki te powinny być proporcjonalne i egzekwowane za pomocą odpowiednich, skutecznych, proporcjonalnych i odstraszających kar;
32. podkreśla, że należy wzmocnić istniejące obowiązki, określone w dyrektywie o handlu elektronicznym i dyrektywie o nieuczciwych praktykach handlowych, w odniesieniu do przejrzystości informacji handlowych i reklamy cyfrowej; zwraca uwagę, że między innymi jasne obowiązki w zakresie przejrzystości i wymagania dotyczące informacji mogą stanowić rozwiązanie kwestii istotnych obaw o ochronę konsumentów związanych z profilowaniem, targetowaniem i spersonalizowanym ustalaniem cen;
33. podkreśla, że konsumenci w internecie są na straconej pozycji względem dostawców usług i przedsiębiorców oferujących usługi finansowane z dochodów z reklam oraz targetowania reklam bezpośrednio na indywidualnych konsumentów, na podstawie informacji zebranych za pomocą mechanizmów dużych zbiorów danych i AI; zwraca uwagę na potencjalnie negatywny wpływ reklamy spersonalizowanej, w szczególności reklamy mikrotargetowanej i behawioralnej; wzywa w związku z tym Komisję do wprowadzenia dodatkowych przepisów dotyczących targetowania reklam i mikrotargetowania opartych na gromadzeniu danych osobowych oraz do rozważenia bardziej rygorystycznych regulacji w zakresie reklamy mikrotargetowanej i behawioralnej reklamy targetowanej na rzecz mniej inwazyjnych form reklamy, które nie wymagają szeroko zakrojonego śledzenia interakcji użytkownika z treściami; wzywa Komisję, aby rozważyła również wprowadzenie środków ustawodawczych mających na celu zwiększenie przejrzystości reklam internetowych;
34. podkreśla, w związku z rozwojem usług cyfrowych, znaczenie zobowiązania państw członkowskich do zapewnienia, aby ich system prawny umożliwiał zawieranie umów drogą elektroniczną, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony konsumentów; zwraca się do Komisji o dokonanie przeglądu obowiązujących wymogów dotyczących umów zawieranych drogą elektroniczną, w tym w odniesieniu do powiadomień dokonywanych przez państwa członkowskie, oraz o ich aktualizację w razie potrzeby; zauważa w tym kontekście wzrost liczby „inteligentnych umów”, takich jak umowy oparte na technologiach rozproszonego rejestru, i zwraca się do Komisji o ocenę rozwoju i wykorzystania technologii rozproszonego rejestru, w tym „inteligentnych umów”, na przykład w kwestiach ważności i egzekwowania inteligentnych umów w sytuacjach transgranicznych, o przedstawienie wytycznych w tym zakresie w celu zapewnienia pewności prawa dla przedsiębiorstw i konsumentów oraz o podjęcie inicjatyw ustawodawczych tylko wtedy, gdy w wyniku tej oceny stwierdzone zostaną konkretne luki;
35. wzywa Komisję do wprowadzenia minimalnych norm dotyczących postanowień umownych i warunków ogólnych, w szczególności w odniesieniu do przejrzystości, dostępności, uczciwości i środków niedyskryminacyjnych, oraz do dalszego przeglądu praktyki stosowania uprzednio sformułowanych standardowych klauzul w warunkach umów, które nie zostały wcześniej indywidualnie wynegocjowane, w tym umów licencyjnych z użytkownikami końcowymi, do poszukiwania sposobów zwiększenia ich sprawiedliwości i zapewnienia zgodności z prawem Unii, aby umożliwić łatwiejsze zaangażowanie konsumentów, w tym w wybór klauzul umożliwiających uzyskanie bardziej świadomej zgody;
36. podkreśla konieczność poprawy sprawności interakcji elektronicznych między przedsiębiorstwami a konsumentami w świetle rozwoju technologii identyfikacji wirtualnej; uznaje, że aby zapewnić skuteczność aktu prawnego o usługach cyfrowych, Komisja powinna również zaktualizować ramy regulacyjne dotyczące identyfikacji cyfrowej, mianowicie rozporządzenie (UE) nr 910/2014(18) („rozporządzenie eIDAS”); uznaje, że stworzenie powszechnie akceptowanej, zaufanej tożsamości cyfrowej i zaufanych systemów uwierzytelniania byłoby użytecznym narzędziem pozwalającym na bezpieczne ustalenie tożsamości poszczególnych osób fizycznych, osób prawnych i maszyn w celu ochrony przed używaniem fałszywych profili; zauważa w tym kontekście, jak ważne jest, by konsumenci bezpiecznie korzystali z produktów i usług w internecie lub kupowali te produkty i usługi bez konieczności korzystania z niepowiązanych platform i niepotrzebnego dzielenia się danymi, w tym danymi osobowymi, które są gromadzone przez te platformy; wzywa Komisję do przeprowadzenia gruntownej oceny skutków w odniesieniu do stworzenia powszechnie akceptowanej publicznej tożsamości elektronicznej jako alternatywy wobec prywatnych systemów pojedynczego logowania i podkreśla, że usługa ta powinna być rozwijana tak, aby gromadzone dane były ograniczone do absolutnego minimum; uznaje, że Komisja powinna ocenić możliwość stworzenia systemu weryfikacji wieku użytkowników usług cyfrowych, zwłaszcza w celu ochrony osób małoletnich;
37. podkreśla, że akt prawny o usługach cyfrowych nie powinien mieć wpływu na zasadę minimalizacji danych ustanowioną w RODO, oraz że, o ile szczegółowe przepisy nie stanowią inaczej, pośrednicy usług cyfrowych powinni umożliwiać anonimowe korzystanie z ich usług w maksymalnym możliwym zakresie i przetwarzać jedynie dane niezbędne do identyfikacji użytkownika; oraz że takie zgromadzone dane nie powinny być wykorzystywane do jakichkolwiek innych usług cyfrowych poza tymi, które wymagają identyfikacji osobistej, uwierzytelnienia czy weryfikacji wieku, ponadto powinny być wykorzystywane wyłącznie w uzasadnionym celu, a w żadnym wypadku nie powinny być wykorzystywane do ograniczania powszechnego dostępu do internetu;
Sztuczna inteligencja i uczenie się maszyn
38. podkreśla, że chociaż usługi oparte na AI lub usługi wykorzystujące zautomatyzowane narzędzia podejmowania decyzji lub narzędzia do uczenia się maszyn – obecnie regulowane dyrektywą o handlu elektronicznym – mają ogromny potencjał w zakresie zapewnienia korzyści konsumentom i dostawcom usług, w akcie prawnym o usługach cyfrowych należy zająć się konkretnymi wyzwaniami, jakie stawiają one w zakresie zapewnienia niedyskryminacji, przejrzystości, w tym w odniesieniu do wykorzystywanych zbiorów danych i ukierunkowanych wyników, oraz zrozumiałego objaśnienia algorytmów, a także odpowiedzialności, które to wyzwania nie zostały uwzględnione w obowiązujących przepisach;
39. podkreśla ponadto, że leżące u ich podstaw algorytmy muszą być w pełni zgodne z wymogami związanymi z prawami podstawowymi, w szczególności prywatnością, ochroną danych osobowych, wolnością wypowiedzi i informacji, prawem do skutecznego środka prawnego oraz prawami dziecka, zapisanymi w Traktatach i Karcie;
40. uznaje, że zasadnicze znaczenie ma zapewnienie wykorzystywania niedyskryminujących, obiektywnych źródłowych zbiorów danych wysokiej jakości, a także pomaganie osobom fizycznym w uzyskaniu dostępu do różnorodnych treści, opinii, wysokiej jakości produktów i usług;
41. wzywa Komisję do wprowadzenia wymogów dotyczących przejrzystości i rozliczalności w odniesieniu do zautomatyzowanych procesów podejmowania decyzji przy zapewnieniu zgodności z wymogami dotyczącymi prywatności użytkowników i tajemnic handlowych; zwraca uwagę na potrzebę umożliwienia przeprowadzania przez właściwe organy zewnętrznych audytów regulacyjnych, nadzoru indywidualnego i okresowych ocen ryzyka oraz dokonania oceny związanego z nimi ryzyka, w szczególności ryzyka dla konsumentów lub osób trzecich, oraz uważa, że środki podjęte w celu zapobieżenia powstaniu tego ryzyka powinny być uzasadnione i proporcjonalne oraz nie powinny hamować innowacji; uważa, że należy przestrzegać zasady ludzkiej kontroli, między innymi aby zapobiegać występowaniu zagrożeń dla zdrowia i bezpieczeństwa, dyskryminacji, bezprawnemu nadzorowi lub nadużyciom, a także potencjalnym zagrożeniom dla praw podstawowych i wolności;
42. uznaje, że konsumenci i użytkownicy powinni mieć prawo do otrzymywania odpowiednich informacji w sposób terminowy, zwięzły, łatwo zrozumiały i przystępny, a ich prawa powinny być skutecznie gwarantowane w przypadku interakcji z systemami zautomatyzowanego podejmowania decyzji i innymi innowacyjnymi usługami lub aplikacjami cyfrowymi; wyraża zaniepokojenie w odniesieniu do istniejącego braku przejrzystości w wykorzystywaniu wirtualnych asystentów lub chatbotów, co może być szczególnie szkodliwe dla konsumentów podatnych na zagrożenia, oraz podkreśla, że dostawcy usług cyfrowych nie powinni wykorzystywać wyłącznie systemów zautomatyzowanego podejmowania decyzji na potrzeby wsparcia konsumentów;
43. uważa w tym kontekście, że konsumenci zawsze powinni być jasno informowani w przypadku interakcji z systemami zautomatyzowanego podejmowania decyzji oraz o sposobie kontaktowania się z osobą uprawnioną do podejmowania decyzji, żądania sprawdzenia i skorygowania ewentualnych błędów wynikających z decyzji podejmowanych w sposób zautomatyzowany, a także dochodzenia roszczeń za wszelkie szkody związane z wykorzystywaniem systemów zautomatyzowanego podejmowania decyzji;
44. podkreśla znaczenie zwiększenia możliwości wyboru, kontroli i zaufania konsumentów do usług i aplikacji opartych na AI; uważa w związku z tym, że należy poszerzyć zestaw praw konsumentów, aby zapewnić im lepszą ochronę w cyfrowym świecie, i wzywa Komisję do uwzględnienia w szczególności kryteriów rozliczalności, sprawiedliwości i kontroli, prawa do niedyskryminacji oraz obiektywnych zbiorów danych opartych na AI; uznaje, że konsumenci i użytkownicy powinni mieć większą kontrolę nad tym, w jaki sposób AI jest wykorzystywana, i mieć możliwość odmowy, ograniczenia lub personalizacji wykorzystania wszelkich opcji personalizacji opartych na AI;
45. zauważa, że zautomatyzowane narzędzia do moderowania treści nie są zdolne do skutecznego rozumienia subtelności kontekstu i znaczenia w komunikacji międzyludzkiej, co jest konieczne w celu określenia, czy oceniane treści mogą naruszać prawo lub warunki świadczenia usług; podkreśla w związku z tym, że stosowanie takich narzędzi nie powinno być narzucone w akcie prawnym o usługach cyfrowych;
Zwalczanie nielegalnych treści i działań w internecie
46. podkreśla, że istnienie i rozpowszechnienie nielegalnych treści i działań w internecie jest poważnym zagrożeniem, które podważa zaufanie i pewność obywateli wobec środowiska cyfrowego, szkodzi rozwojowi zdrowych ekosystemów cyfrowych i może mieć też poważne i długotrwałe skutki dla bezpieczeństwa i praw podstawowych osób fizycznych; zauważa zarazem, że nielegalne treści i działania można łatwo rozpowszechniać, a ich negatywny wpływ ulega spotęgowaniu w bardzo krótkim czasie;
47. zauważa, że nie ma uniwersalnego rozwiązania w odniesieniu do wszystkich rodzajów nielegalnych treści i działań; podkreśla, że treści, które w niektórych państwach członkowskich mogą być postrzegane jako nielegalne, mogą nie być uważane za takie w innych państwach, ponieważ w UE zharmonizowane są tylko niektóre rodzaje nielegalnych treści; wzywa do ścisłego rozróżnienia między nielegalnymi treściami, czynami karalnymi i nielegalnie udostępnianymi treściami z jednej strony, a szkodliwymi treściami, mową nienawiści i dezinformacją z drugiej strony, ponieważ nie zawsze są one nielegalne, obejmują wiele różnych aspektów, i w każdym z tych przypadków stosuje się odmienne podejście i przepisy; jest zdania, że system odpowiedzialności prawnej powinien dotyczyć wyłącznie nielegalnych treści zgodnie z definicją zawartą w prawie Unii i prawie krajowym;
48. uważa jednak, bez uszczerbku dla szerokich ram praw podstawowych i istniejących przepisów sektorowych, że bardziej jednolite i skoordynowane podejście na szczeblu Unii, uwzględniające różne rodzaje nielegalnych treści i działań oraz opierające się na współpracy i wymianie najlepszych praktyk między państwami członkowskimi, pomoże zwiększyć skuteczność zwalczania nielegalnych treści; podkreśla również potrzebę dostosowania surowości środków, które dostawcy usług muszą przedsięwziąć, do wagi naruszenia i wzywa do usprawnienia współpracy i wymiany informacji między właściwymi organami i dostawcami usług hostingowych;
49. uznaje, że działania dobrowolne i samoregulacja platform internetowych w całej Europie przyniosły pewne korzyści, lecz potrzebne są jasne ramy prawne w celu usuwania nielegalnych treści i działań, aby zapewnić szybkie powiadamianie i usuwanie takich treści w internecie; podkreśla potrzebę zapobiegania nakładaniu na dostawców usług cyfrowych ogólnego obowiązku monitorowania informacji, które przekazują lub przechowują, oraz zapobiegania aktywnemu wyszukiwaniu, moderowaniu lub filtrowaniu – zarówno de iure, jak i de facto – wszystkich treści i działań; podkreśla, że nielegalne treści powinny być usuwane w miejscu ich hostingu, a od dostawców dostępu nie należy wymagać blokowania dostępu do treści;
50. wzywa Komisję do zapewnienia, aby pośrednicy internetowi, którzy z własnej inicjatywy usuwają rzekomo nielegalne treści, czynili to w sposób staranny, proporcjonalny i niedyskryminujący oraz z należytym uwzględnieniem wszystkich okoliczności dotyczących podstawowych praw i wolności użytkowników; podkreśla, że wszelkim takim środkom powinny towarzyszyć trwałe gwarancje proceduralne i istotne wymogi w zakresie przejrzystości i rozliczalności; apeluje, aby w razie jakichkolwiek wątpliwości co do tego, czy dane treści mają nielegalny charakter, treści te podlegały weryfikacji przez człowieka i nie były usuwane bez przeprowadzenia dokładniejszego dochodzenia;
51. zwraca się do Komisji o przedstawienie analizy dotyczącej usuwania treści i danych za pomocą zautomatyzowanych procesów podejmowania decyzji przed pandemią COVID-19 i podczas tej pandemii oraz dotyczącej poziomu błędnych usunięć (fałszywych alarmów) w łącznej liczbie usuniętych pozycji;
52. zwraca się do Komisji o zajęcie się rosnącymi różnicami i fragmentacją przepisów krajowych w państwach członkowskich oraz o przyjęcie jasnych i przewidywalnych zharmonizowanych przepisów oraz przejrzystego, skutecznego i proporcjonalnego mechanizmu zgłaszania i usuwania nielegalnych treści; powinien on zapewnić wystarczające zabezpieczenia, stanowić narzędzie powiadamiania pośredników internetowych przez użytkowników o istnieniu potencjalnie nielegalnych treści lub działań w internecie oraz pomóc pośrednikom internetowym w szybszym i przejrzystszym podejmowaniu działań w odniesieniu do potencjalnie nielegalnych treści; jest zdania, że takie środki powinny być neutralne technologicznie i łatwo dostępne dla wszystkich podmiotów w celu zagwarantowania wysokiego poziomu ochrony użytkowników i konsumentów;
53. podkreśla, że taki mechanizm zgłaszania i usuwania nielegalnych treści musi być ukierunkowany na człowieka; zwraca uwagę, że należy wprowadzić zabezpieczenia przed nadużyciami systemu, w tym przed powtarzającymi się fałszywymi zgłoszeniami, nieuczciwymi praktykami handlowymi i innymi oszustwami; wzywa Komisję do zapewnienia dostępu do przejrzystych, skutecznych, sprawiedliwych i sprawnie działających mechanizmów zgłaszania sprzeciwu i składania skarg oraz pozasądowego rozstrzygania sporów oraz do zagwarantowania możliwości dochodzenia roszczeń na drodze sądowej w przypadku usunięcia treści, aby zaspokoić prawo do skutecznego środka prawnego;
54. z zadowoleniem przyjmuje wysiłki na rzecz zapewnienia przejrzystości w usuwaniu treści; wzywa Komisję do zapewnienia, by do wiadomości publicznej podawane były sprawozdania zawierające informacje o mechanizmach zgłaszania i usuwania nielegalnych treści, takie jak liczba zawiadomień, rodzaj podmiotów informujących o treściach, charakter treści będących przedmiotem wniosku, czas udzielenia odpowiedzi przez pośrednika, liczba odwołań, a także liczba przypadków, w których treści zostały błędnie uznane za nielegalne lub udostępnione nielegalnie;
55. odnotowuje wyzwania dotyczące egzekwowania nakazów sądowych wydanych w państwach członkowskich innych niż państwo pochodzenia dostawcy usług i podkreśla konieczność dalszego zbadania tej kwestii; podtrzymuje, że od dostawców usług hostingowych nie wymaga się usuwania ani blokowania dostępu do informacji, które są legalne w ich kraju pochodzenia;
56. zaznacza, że egzekwowanie prawa, rozstrzyganie o zgodności działań i treści internetowych z prawem, a także nakazywanie dostawcom usług hostingowych usunięcia lub zablokowania dostępu do nielegalnych treści oraz dopilnowanie, by nakazy te były precyzyjne, odpowiednio uzasadnione i wydawane z poszanowaniem praw podstawowych, pozostaje w gestii niezależnych właściwych organów publicznych;
57. podkreśla, że zabezpieczenia pośredników internetowych przed systemem odpowiedzialności prawnej określone w art. 12, 13 i 14 dyrektywy o handlu elektronicznym oraz zakaz nakładania ogólnego obowiązku w zakresie nadzoru określony w art. 15 dyrektywy o handlu elektronicznym mają kluczowe znaczenie dla ułatwienia swobodnego przepływu usług cyfrowych, zapewnienia dostępności treści w internecie oraz dla ochrony praw podstawowych użytkowników i muszą zostać zachowane; podkreśla w tym kontekście, że system odpowiedzialności prawnej i zakaz ogólnego nadzoru nie powinny zostać osłabione przez ewentualny nowy akt prawny lub zmianę innych sekcji dyrektywy o handlu elektronicznym;
58. uznaje zasadę, zgodnie z którą dostawcy usług cyfrowych odgrywający neutralną i pasywną rolę, na przykład dostawcy usług zaplecza i usług w zakresie infrastruktury, nie ponoszą odpowiedzialności za treść przekazywaną za pośrednictwem swoich usług, ponieważ nie mają nad nią żadnej kontroli, nie mają z nią czynnej interakcji ani jej nie optymalizują; podkreśla jednak, że konieczne są dalsze wyjaśnienia dotyczące roli aktywnej i pasywnej poprzez uwzględnienie orzecznictwa Trybunału w tej kwestii;
59. wzywa Komisję, aby rozważyła wymóg zgłaszania przez dostawców usług hostingowych właściwemu organowi ścigania nielegalnych treści, które mogą stanowić poważne przestępstwo, po uzyskaniu wiedzy o ich istnieniu;
Internetowe platformy handlowe
60. zauważa, że chociaż pojawienie się dostawców usług online takich jak internetowe platformy handlowe przynosiło korzyści zarówno konsumentom, jak i przedsiębiorcom, szczególnie dzięki zwiększeniu wyboru oraz obniżeniu kosztów i cen, jednocześnie sprawiło, że konsumenci stali się bardziej narażeni na wprowadzające w błąd praktyki handlowe ze strony coraz większej liczby sprzedawców, także z państw trzecich, którzy mogą oferować w internecie nielegalne, niebezpieczne lub podrobione produkty i usługi, które często są niezgodne z przepisami i normami Unii dotyczącymi bezpieczeństwa produktów i nie gwarantują w wystarczającym stopniu praw konsumentów;
61. podkreśla, że konsumenci powinni być równie bezpieczni, robiąc zakupy przez internet, co w sklepach stacjonarnych; zwraca uwagę, że niedopuszczalne jest, aby konsumenci unijni byli narażeni na nielegalne, podrobione i niebezpieczne produkty, zawierające niebezpieczne chemikalia, jak również na inne zagrożenia bezpieczeństwa stwarzające ryzyko dla zdrowia ludzkiego; nalega na konieczność wprowadzenia odpowiednich zabezpieczeń i środków dotyczących bezpieczeństwa produktów i ochrony konsumentów, mających na celu zapobieganie sprzedaży na internetowych platformach handlowych produktów lub usług niezgodnych z wymogami, i wzywa Komisję do wzmocnienia systemu odpowiedzialności na internetowych platformach handlowych;
62. podkreśla znaczenie przepisów rozporządzenia (UE) 2019/1020 w sprawie nadzoru rynku i zgodności produktów w odniesieniu do zgodności produktów wprowadzanych do Unii z państw trzecich; zwraca się do Komisji o podjęcie działań mających na celu poprawę przestrzegania przepisów przez sprzedawców mających siedzibę poza terytorium Unii, jeżeli w Unii nie ma siedziby żaden producent, importer ani dystrybutor, oraz do usunięcia wszelkich istniejących luk prawnych, które umożliwiają dostawcom mającym siedzibę poza terytorium Unii sprzedawanie przez internet konsumentom europejskim produktów niezgodnych z unijnymi przepisami dotyczącymi bezpieczeństwa i ochrony konsumentów, bez podlegania karom i bez ponoszenia odpowiedzialności za swoje działania, podczas gdy konsumentów pozostawia się bez żadnych środków prawnych umożliwiających im egzekwowanie ich praw lub uzyskanie rekompensaty za jakiekolwiek szkody; podkreśla w tym kontekście konieczność posiadania w każdym przypadku możliwości identyfikacji producentów i sprzedawców produktów z państw trzecich;
63. podkreśla potrzebę niezwłocznego informowania konsumentów przez internetowe platformy handlowe o usunięciu z platformy zakupionego przez nich wcześniej produktu po otrzymaniu powiadomienia o jego niezgodności z unijnymi przepisami dotyczącymi bezpieczeństwa produktów lub ochrony konsumentów;
64. podkreśla potrzebę dopilnowania, aby dostawcy internetowych platform handlowych korzystali z systemu RAPEX i powiadamiali właściwe organy, gdy tylko dowiedzą się o nielegalnych, niebezpiecznych i podrobionych produktach na swoich platformach;
65. uważa, że dostawcy internetowych platform handlowych powinni zacieśnić współpracę z organami nadzoru rynku i organami celnymi, w tym poprzez wymianę informacji na temat sprzedawcy nielegalnych, niebezpiecznych i podrobionych produktów;
66. apeluje do Komisji, aby wezwała państwa członkowskie do podjęcia bardziej intensywnych wspólnych działań w zakresie nadzoru rynku oraz do zacieśnienia współpracy z organami celnymi w celu sprawdzania bezpieczeństwa produktów sprzedawanych przez internet zanim dotrą one do konsumentów; zwraca się do Komisji o zbadanie możliwości utworzenia międzynarodowej sieci centrów konsumenckich, aby pomóc konsumentom UE w rozwiązywaniu sporów z przedsiębiorcami mającymi siedzibę w państwach niebędących członkami UE;
67. zwraca się do Komisji o zapewnienie, by w przypadkach gdy internetowe platformy handlowe oferują usługi profesjonalne, osiągnięto wystarczający poziom ochrony konsumentów poprzez zastosowanie odpowiednich zabezpieczeń i wymagań dotyczących informacji;
68. uważa, że w odniesieniu do rynku turystyki i transportu w akcie prawnym o usługach cyfrowych należy dążyć do zapewnienia pewności i jasności prawa poprzez stworzenie ram zarządzania formalizujących współpracę między platformami a władzami krajowymi, regionalnymi i lokalnymi, mających na celu w szczególności wymianę najlepszych praktyk i ustanowienie zestawu wymagań dotyczących informacji dla platform wynajmu krótkoterminowego i platform mobilności w odniesieniu do ich dostawców usług w zakresie odpowiednich przepisów krajowych, regionalnych i lokalnych; wzywa Komisję do dalszego usuwania nieuzasadnionych barier poprzez opracowanie sektorowych działań skoordynowanych na szczeblu unijnym, angażujących wszystkie zainteresowane strony w celu ustalenia zestawów kryteriów, takich jak zezwolenia albo licencje czy, w stosownych przypadkach, lokalny lub krajowy numer rejestracyjny dostawcy usług, zgodnych z zasadami jednolitego rynku i niezbędnych do oferowania usług na platformie wynajmu krótkoterminowego lub platformie mobilności; podkreśla, że należy unikać nakładania nieproporcjonalnych obowiązków informacyjnych i niepotrzebnych obciążeń administracyjnych na wszystkich dostawców usług, ze szczególnym uwzględnieniem podmiotów świadczących usługi w trybie partnerskim i MŚP;
69. apeluje, aby akt prawny o usługach cyfrowych, zgodnie z Europejskim Zielonym Ładem, promował trwały wzrost i zrównoważony rozwój handlu elektronicznego; podkreśla znaczenie internetowych platform handlowych dla promowania zrównoważonych produktów i usług oraz zachęcania do zrównoważonej konsumpcji; wzywa do przedsięwzięcia środków mających na celu zwalczanie wprowadzających w błąd praktyk i dezinformacji w odniesieniu do produktów i usług oferowanych w internecie, w tym fałszywych „twierdzeń dotyczących ekologiczności”, wzywając jednocześnie dostawców internetowych platform handlowych do promowania zrównoważonego rozwoju handlu elektronicznego poprzez dostarczanie konsumentom jasnych i łatwo zrozumiałych informacji na temat wpływu na środowisko produktów lub usług kupowanych przez nich w internecie;
70. zwraca się do Komisji o gruntowne przeanalizowanie jasności i spójności istniejących ram prawnych mających zastosowanie do sprzedaży przez internet produktów i usług, aby zidentyfikować możliwe luki i sprzeczności oraz brak skutecznego egzekwowania; wzywa Komisję do przeprowadzenia gruntownej analizy interakcji między aktem prawnym o usługach cyfrowych a unijnymi przepisami dotyczącymi bezpieczeństwa produktów i chemikaliów; zwraca się do Komisji o zapewnienie spójności między nowymi przepisami dotyczącymi internetowych platform handlowych a zmianą dyrektywy 2001/95/WE(19) („dyrektywa w sprawie ogólnego bezpieczeństwa produktów”) i dyrektywy 85/374/EWG(20) („dyrektywa w sprawie odpowiedzialności za produkty”);
71. zauważa utrzymujące się problemy związane z nadużywaniem lub niewłaściwym stosowaniem umów o dystrybucji selektywnej w celu ograniczenia dostępności produktów i usług za granicą w ramach jednolitego rynku i między platformami; zwraca się do Komisji o podjęcie działań w tej kwestii w ramach ewentualnego szerszego przeglądu wertykalnych wyłączeń grupowych i innych obszarów polityki na mocy art. 101 TFUE, a jednocześnie o powstrzymanie się od włączenia tej kwestii do aktu prawnego o usługach cyfrowych;
Regulacja ex ante operatorów systemowych
72. zauważa, że w dzisiejszych czasach niektóre rynki charakteryzują się dużymi operatorami o znaczących efektach sieciowych, którzy są w stanie pełnić funkcję faktycznych „strażników dostępu w internecie” w gospodarce cyfrowej („operatorzy systemowi”); podkreśla znaczenie uczciwej i skutecznej konkurencji między operatorami internetowymi o znaczącej obecności cyfrowej a innymi dostawcami, w celu wspierania dobrobytu konsumentów; zwraca się do Komisji o przeprowadzenie dokładnej analizy różnych kwestii zaobserwowanych dotychczas na rynku i ich konsekwencji, w tym dla konsumentów, MŚP i rynku wewnętrznego;
73. uważa, że dzięki ograniczeniu barier utrudniających wejście na rynek i uregulowaniom dla operatorów systemowych instrument rynku wewnętrznego nakładający regulacyjne środki zaradcze ex ante na tych operatorów systemowych o znaczącej pozycji rynkowej umożliwia otwarcie rynków na nowe podmioty, w tym MŚP, przedsiębiorców i przedsiębiorstwa typu start-up, wspierając tym samym wybór konsumencki i napędzając innowacje w sposób wykraczający poza to, co można osiągnąć przez samo egzekwowanie prawa konkurencji;
74. z zadowoleniem przyjmuje przeprowadzenie przez Komisję konsultacji publicznych w sprawie możliwości wprowadzenia w ramach przyszłego aktu prawnego o usługach cyfrowych ukierunkowanej regulacji ex ante służącej rozwiązaniu problemów systemowych charakterystycznych dla rynków cyfrowych; zwraca uwagę na nieodłączną komplementarność między regulacją rynku wewnętrznego a polityką konkurencji, co podkreślono w sprawozdaniu specjalnych doradców Komisji zatytułowanym „Competition Policy for the Digital Era” [„Polityka konkurencji w erze cyfrowej”];
75. wzywa Komisję do zdefiniowania pojęcia „operatorów systemowych” na podstawie jasnych wskaźników;
76. uważa, że regulacja ex ante powinna opierać się na rozporządzeniu (UE) 2019/1150 („rozporządzenie regulujące stosunki między platformami internetowymi a przedsiębiorstwami”), a jej środki powinny być zgodne z unijnymi przepisami antymonopolowymi oraz z unijną polityką konkurencji, która jest obecnie poddawana przeglądowi w celu lepszego sprostania wyzwaniom ery cyfrowej; regulacja ex ante powinna zapewniać uczciwe warunki handlu wszystkim operatorom, w tym ewentualne dodatkowe wymogi i zamknięty wykaz pozytywnych i negatywnych działań, do których przestrzegania operatorzy są zobowiązani lub w które nie mogą się angażować;
77. wzywa Komisję do przeanalizowania w szczególności braku przejrzystości systemów rekomendacji operatorów systemowych, w tym przepisów i kryteriów funkcjonowania takich systemów, a także konieczności nałożenia dodatkowych obowiązków w zakresie przejrzystości i wymagań dotyczących informacji;
78. podkreśla, że nałożenie regulacyjnych środków zaradczych ex ante w innych sektorach poprawiło w tych sektorach konkurencję; zauważa, że podobne ramy można by opracować w celu zidentyfikowania operatorów systemowych pełniących rolę „strażników dostępu” z uwzględnieniem specyfiki sektora cyfrowego;
79. zwraca uwagę na fakt, że wielkość użytkowników biznesowych operatorów systemowych jest zróżnicowana, od przedsiębiorstw wielonarodowych po mikroprzedsiębiorstwa; podkreśla, że regulacja ex ante dotycząca operatorów systemowych nie powinna prowadzić do nakładania dodatkowych wymogów dla przedsiębiorstw, które korzystają z tych operatorów;
80. podkreśla, że zbieranie i gromadzenie ogromnych ilości danych oraz wykorzystywanie tych danych przez operatorów systemowych do rozszerzania działalności na kolejne rynki, a także dalsza możliwość zmuszania użytkowników do korzystania z e-identyfikacji jednego operatora dla wielu platform może powodować brak równowagi siły przetargowej, a tym samym prowadzić do zakłócenia konkurencji na jednolitym rynku; uważa, że większa przejrzystość i wymiana danych między operatorami systemowymi a właściwymi organami ma kluczowe znaczenie dla zagwarantowania funkcjonowania regulacji dotyczącej zasady ex ante;
81. podkreśla, że interoperacyjność ma kluczowe znaczenie dla umożliwienia funkcjonowania konkurencyjnego rynku, jak również dla możliwości wyboru użytkowników i dla innowacyjnych usług oraz dla ograniczenia ryzyka efektu uzależnienia użytkowników i konsumentów; wzywa Komisję do zapewnienia odpowiedniego poziomu interoperacyjności operatorów systemowych oraz do zbadania różnych technologii oraz otwartych standardów i protokołów, w tym możliwości zastosowania interfejsu technicznego (interfejsu programowania aplikacji);
Nadzór, współpraca i egzekwowanie przepisów
82. uważa, że ze względu na transgraniczny charakter usług cyfrowych skuteczny nadzór i współpraca między państwami członkowskimi, w tym wymiana informacji i najlepszych praktyk, mają kluczowe znaczenie dla zapewnienia właściwego egzekwowania aktu prawnego o usługach cyfrowych; podkreśla, że niedoskonałe transponowanie, wdrażanie i egzekwowanie przepisów Unii przez państwa członkowskie tworzy nieuzasadnione bariery na jednolitym rynku cyfrowym; wzywa Komisję do zajęcia się nimi w ścisłej współpracy z państwami członkowskimi;
83. zwraca się do Komisji o dopilnowanie, aby państwa członkowskie wniosły wkład w pracę swoich krajowych organów nadzoru, zapewniając im odpowiednie środki finansowe i zasoby ludzkie oraz uprawnienia wykonawcze, by organy te skutecznie wykonywały swoje funkcje;
84. podkreśla, że współpraca między organami krajowymi, organami innych państw członkowskich, społeczeństwem obywatelskim i organizacjami konsumenckimi ma ogromne znaczenie dla osiągnięcia skutecznego egzekwowania aktu prawnego o usługach cyfrowych; proponuje wzmocnienie zasady kraju pochodzenia przez pogłębienie współpracy między państwami członkowskimi w celu poprawy nadzoru regulacyjnego nad usługami cyfrowymi oraz osiągnięcia skutecznego egzekwowania prawa w sprawach transgranicznych; zachęca państwa członkowskie do gromadzenia i wymiany najlepszych praktyk i danych między krajowymi organami regulacyjnymi oraz do zapewnienia organom regulacyjnym i organom sądowym sposobów komunikowania się między sobą w bezpieczny, interoperacyjny sposób;
85. wzywa Komisję do oceny najodpowiedniejszego modelu nadzoru i egzekwowania przepisów dotyczących aktu prawnego o usługach cyfrowych oraz do rozważenia utworzenia systemu hybrydowego, opartego na koordynacji i współpracy organów krajowych i unijnych, w celu skutecznego nadzoru nad egzekwowaniem przepisów i wdrażania aktu prawnego o usługach cyfrowych; uważa, że taki system nadzoru powinien być odpowiedzialny za nadzór, zgodność, monitorowanie i stosowanie aktu prawnego o usługach cyfrowych oraz posiadać dodatkowe uprawnienia do podejmowania inicjatyw transgranicznych i prowadzenia dochodzeń, a także zostać wyposażony w uprawnienia wykonawcze i kontrolne;
86. jest zdania, że w ramach koordynacji UE we współpracy z siecią organów krajowych należy nadać priorytet rozwiązaniu złożonych kwestii transgranicznych;
87. przypomina o znaczeniu ułatwiania wymiany danych nieosobowych i promowania dialogu zainteresowanych stron; i zachęca do utworzenia i utrzymywania europejskiego repozytorium badawczego, aby usprawnić wymianę tych danych z instytucjami publicznymi, badaczami, organizacjami pozarządowymi i uniwersytetami na potrzeby badań; wzywa Komisję do stworzenia takiego narzędzia na podstawie istniejących najlepszych praktyk i inicjatyw, takich jak Obserwatorium Gospodarki Platform Internetowych lub Unijne Obserwatorium ds. Łańcucha Bloków;
88. uważa, że Komisja, za pośrednictwem Wspólnego Centrum Badawczego, powinna być uprawniona do udzielania państwom członkowskim, na ich wniosek, fachowej pomocy w zakresie analizy kwestii technologicznych, administracyjnych lub innych kwestii związanych z egzekwowaniem przepisów dotyczących jednolitego rynku cyfrowego; wzywa krajowe organy regulacyjne i Komisję do udzielania dalszych porad i pomocy unijnym MŚP w zakresie przysługujących im praw;
89. zwraca się do Komisji o wzmocnienie i unowocześnienie istniejących unijnych ram prawnych dotyczących pozasądowego rozstrzygania sporów określonych w dyrektywie o handlu elektronicznym, z uwzględnieniem zmian przewidzianych w dyrektywie 2013/11/UE(21), a także postępowań sądowych, aby umożliwić skuteczne egzekwowanie przepisów i dochodzenie roszczeń przez konsumentów; podkreśla potrzebę wspierania konsumentów w korzystaniu z systemu sądownictwa; uważa, że wszelkie rewizje nie powinny osłabiać ochrony prawnej małych przedsiębiorstw i przedsiębiorców, którą zapewniają krajowe systemy prawne;
Kwestie końcowe
90. uznaje, że wszelkie skutki finansowe wymaganego wniosku powinny zostać pokryte z odpowiednich środków budżetowych;
o o o
91. zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji oraz szczegółowych zaleceń zawartych w załączniku Komisji i Radzie oraz parlamentom i rządom państw członkowskich.
ZAŁĄCZNIK DO REZOLUCJI:
ZALECENIA DOTYCZĄCE TREŚCI PROPONOWANEGO WNIOSKU
I. ZASADY OGÓLNE
Pakiet aktu prawnego o usługach cyfrowych powinien przyczynić się do wzmocnienia rynku wewnętrznego przez zapewnienie swobodnego przepływu usług cyfrowych i wolności prowadzenia działalności gospodarczej przy jednoczesnym zagwarantowaniu wysokiego poziomu ochrony konsumentów, poprawy w wymiarze praw, zaufania i bezpieczeństwa użytkowników w internecie.
Akt prawny o usługach cyfrowych powinien zagwarantować równe traktowanie działalności gospodarczej prowadzonej w internecie i poza nim oraz ich równe szanse, co w pełni odzwierciedla zasadę, zgodnie z którą „to, co jest nielegalne poza internetem, jest również nielegalne w internecie”, z uwzględnieniem szczególnego charakteru środowiska internetowego.
Akt prawny o usługach cyfrowych powinien zapewnić konsumentom i podmiotom gospodarczym, w szczególności mikroprzedsiębiorstwom oraz małym i średnim przedsiębiorstwom, pewność prawa i przejrzystość. Akt prawny o usługach cyfrowych powinien przyczyniać się do wspierania innowacji i usuwania nieuzasadnionych i nieproporcjonalnych barier i ograniczeń w świadczeniu usług cyfrowych.
Przepisy aktu prawnego o usługach cyfrowych powinny pozostawać bez uszczerbku dla szerokich ram podstawowych praw i wolności użytkowników i konsumentów, takich jak ochrona życia prywatnego i danych osobowych, niedyskryminacja, godność, wolność wypowiedzi i prawo do skutecznego środka prawnego.
Akt prawny o usługach cyfrowych powinien opierać się na przepisach mających obecnie zastosowanie do platform internetowych, mianowicie na dyrektywie o handlu elektronicznym i rozporządzeniu regulującym stosunki między platformami internetowymi a przedsiębiorstwami.
Akt prawny o usługach cyfrowych powinien przewidywać:
— kompleksowy przegląd dyrektywy o handlu elektronicznym, na podstawie art. 53 ust. 1, art. 62 i 114 TFUE, obejmujący:
— zmienione ramy z jasnymi obowiązkami w odniesieniu do przejrzystości i informacji;
— jasne i szczegółowe procedury i środki związane ze skutecznym zwalczaniem i usuwaniem nielegalnych treści w internecie, w tym zharmonizowany, prawnie wiążący europejski mechanizm zgłaszania i usuwania nielegalnych treści;
— skuteczny nadzór, współpracę oraz proporcjonalne, skuteczne i odstraszające sankcje;
— instrument prawny dotyczący rynku wewnętrznego oparty na art. 114 TFUE, nakładający obowiązki ex ante na duże platformy działające jako strażnicy dostępu w ekosystemie cyfrowym („operatorzy systemowi”), uzupełnione skutecznym instytucjonalnym mechanizmem egzekwowania.
II. ZAKRES STOSOWANIA
W interesie pewności prawa w akcie prawnym o usługach cyfrowych należy wyjaśnić, które usługi cyfrowe wchodzą w zakres jego stosowania. Akt prawny o usługach cyfrowych powinien być zgodny z horyzontalnym charakterem dyrektywy o handlu elektronicznym i mieć zastosowanie nie tylko do platform internetowych, lecz także do wszystkich dostawców usług społeczeństwa informacyjnego określonych w prawie Unii.
Należy unikać podejścia uniwersalnego. Konieczne może być wprowadzenie różnych środków w odniesieniu do usług cyfrowych oferowanych w ramach stosunków czysto biznesowych, usług, które mają jedynie ograniczony dostęp do osób trzecich lub ogółu społeczeństwa lub nie mają go wcale, oraz usług, które są skierowane bezpośrednio do konsumentów i ogółu społeczeństwa.
Terytorialny zakres stosowania aktu prawnego o usługach cyfrowych powinien zostać rozszerzony, tak aby obejmował również działalność przedsiębiorstw, usługodawców i podmiotów świadczących usługi społeczeństwa informacyjnego mających siedzibę w państwach trzecich, jeśli w ramach swojej działalności oferują usługi lub towary konsumentom lub użytkownikom w Unii i do nich skierowane.
Jeżeli po dokonaniu przeglądu Komisja uzna, że w akcie prawnym o usługach cyfrowych należy wprowadzić zmiany do załącznika do dyrektywy o handlu elektronicznym w odniesieniu do określonych w nim odstępstw, nie należy zmieniać w szczególności odstępstwa od zobowiązań umownych dotyczących umów konsumenckich.
Akt prawny o usługach cyfrowych powinien zapewnić, aby Unia i państwa członkowskie utrzymywały wysoki poziom ochrony konsumentów oraz aby państwa członkowskie mogły realizować uzasadnione cele leżące w interesie publicznym, jeżeli jest to konieczne, proporcjonalne i zgodne z prawem Unii.
W akcie prawnym o usługach cyfrowych należy spójnie określić, jak jego przepisy mają się do innych instrumentów prawnych służących ułatwieniu swobodnego przepływu usług, w celu doprecyzowania systemu prawnego mającego zastosowanie do usług profesjonalnych i nieprofesjonalnych we wszystkich sektorach, w tym działalności związanej z usługami transportowymi i wynajmem krótkoterminowym, w przypadku których potrzebne jest wyjaśnienie.
W akcie prawnym o usługach cyfrowych należy również spójnie wyjaśnić, jak jego przepisy mają się do niedawno przyjętych przepisów dotyczących między innymi blokowania geograficznego, bezpieczeństwa produktów, nadzoru rynku, stosunków między platformami internetowymi a przedsiębiorstwami, ochrony konsumentów, sprzedaży towarów i dostarczania treści cyfrowych i usług cyfrowych(22) oraz innych zapowiadanych inicjatyw, takich jak ramy regulacyjne dotyczące AI.
Akt prawny o usługach cyfrowych powinien mieć zastosowanie bez uszczerbku dla przepisów określonych w innych instrumentach, takich jak RODO, dyrektywa (UE) 2019/790 („dyrektywa w sprawie praw autorskich”) oraz dyrektywa 2010/13/UE („dyrektywa o audiowizualnych usługach medialnych”).
III. DEFINICJE
W definicjach, które mają być zawarte w akcie prawnym o usługach cyfrowych, należy:
— wyjaśnić zakres, w jakim nowe usługi cyfrowe, takie jak sieci mediów społecznościowych, usługi gospodarki współpracy, wyszukiwarki internetowe, hotspoty Wi-Fi, reklama internetowa, usługi w chmurze, web hosting, usługi przesyłania wiadomości, sklepy z aplikacjami, porównywarki, usługi oparte na AI, sieci dostarczania treści oraz usługi dotyczące nazw domen, wchodzą w zakres jego stosowania;
— wyjaśnić z jednej strony charakter pośredników usług hostingu treści (tekstu, obrazów, treści wideo lub audio), a z drugiej – komercyjnych internetowych platform handlowych (sprzedających towary, w tym towary z elementami cyfrowymi lub usługi);
— dokonać rozróżnienia pomiędzy działalnością gospodarczą i treściami o charakterze handlowym lub transakcjami za opłatą, zdefiniowanymi przez Trybunał, które obejmują również praktyki reklamowe i marketingowe, z jednej strony, a z drugiej strony – działalnością pozagospodarczą i treściami o charakterze niehandlowym;
— doprecyzować, co wchodzi w zakres definicji „nielegalnych treści”, wyjaśniając, że w zakres definicji nielegalnych treści wchodzi również naruszenie przepisów Unii dotyczących ochrony konsumentów, bezpieczeństwa produktów, oferowanie lub sprzedaż produktów spożywczych, wyrobów tytoniowych, kosmetyków lub leków sfałszowanych, produktów pochodzących z dzikiej fauny lub flory;
— zdefiniować pojęcie „operatora systemowego” przez określenie zestawu jasnych wskaźników, które umożliwią organom regulacyjnym zidentyfikowanie platform o znaczącej pozycji rynkowej działających jako „strażnicy dostępu”, a tym samym odgrywających rolę systemową w gospodarce cyfrowej; wskaźniki te mogłyby obejmować takie czynniki jak to, czy przedsiębiorstwo prowadzi działalność w znacznym stopniu na rynkach wielostronnych lub ma zdolność uzależniania użytkowników i konsumentów od jednego dostawcy, zakres jego sieci (liczbę użytkowników) oraz występowanie efektów sieciowych; bariery wejścia, jego kondycję finansową, możliwość dostępu do danych, gromadzenie i łączenie danych z różnych źródeł; integrację pionową i rolę przedsiębiorstwa jako nieuniknionego partnera oraz znaczenie jego działalności dla dostępu osób trzecich do dostaw i rynków itp.;
— dążyć do skodyfikowania decyzji Trybunału tam, gdzie jest to konieczne, i przy należytym uwzględnieniu wielu różnych aktów prawnych, w których wykorzystano te definicje.
IV. OBOWIĄZKI W ZAKRESIE PRZEJRZYSTOŚCI I INFORMACJI
W akcie prawnym o usługach cyfrowych należy wprowadzić jasne i proporcjonalne obowiązki w zakresie przejrzystości i informacji; obowiązki te nie powinny tworzyć żadnych odstępstw ani nowych zwolnień od obecnego systemu odpowiedzialności określonego w art. 12, 13 i 14 dyrektywy o handlu elektronicznym i powinny obejmować aspekty opisane poniżej:
1. Ogólne wymagania dotyczące informacji
Zmienione przepisy dyrektywy o handlu elektronicznym powinny rozszerzyć ogólne wymagania dotyczące informacji o następujące obowiązki:
— należy wzmocnić wymagania dotyczące informacji określone w art. 5, 6 i 10 dyrektywy o handlu elektronicznym;
— w odniesieniu do użytkowników biznesowych należy wprowadzić zasadę „znaj swojego klienta biznesowego” ograniczoną do bezpośrednich stosunków handlowych dostawcy usług hostingowych; dostawcy usług hostingowych powinni porównać dane identyfikacyjne dostarczone przez ich użytkowników biznesowych z bazami danych unijnego VAT-u i bazami danych zawierających numery rejestracyjne i identyfikacyjne przedsiębiorców („EORI”), gdzie zapisane są numery VAT lub EORI; w przypadku gdy przedsiębiorstwo jest zwolnione z podatku VAT lub rejestracji EORI, należy przedstawić dowód identyfikacji; gdy użytkownik biznesowy działa jako agent innych przedsiębiorstw, powinien się jako taki zadeklarować; dostawcy usług hostingowych powinni zwracać się do swoich użytkowników biznesowych o dopilnowanie, aby wszystkie dostarczone informacje były dokładne i aktualne, z zastrzeżeniem wszelkich zmian, a ponadto dostawcy usług hostingowych nie powinni mieć możliwości świadczenia usług użytkownikom biznesowym, jeżeli informacje te są niekompletne lub jeżeli dostawca usług hostingowych został poinformowany przez właściwe organy, że tożsamość użytkownika biznesowego jest nieprawdziwa, wprowadzająca w błąd lub w inny sposób nieważna;
— środek wykluczenia z usług, o którym mowa powyżej, powinien mieć zastosowanie wyłącznie do umownych relacji biznesowych i powinien pozostawać bez uszczerbku dla praw osób, których dane dotyczą, wynikających z RODO; środek ten powinien pozostawać bez uszczerbku dla ochrony anonimowości w internecie użytkowników innych niż użytkownicy biznesowi; w ramach nowych ogólnych wymagań dotyczących informacji należy rozszerzyć przepisy art. 5, 6 i 10 dyrektywy o handlu elektronicznym, aby dostosować te środki do wymagań dotyczących informacji ustanowionych w niedawno przyjętym prawodawstwie, w szczególności w dyrektywie 93/13/EWG(23) („dyrektywa w sprawie nieuczciwych warunków w umowach konsumenckich”), dyrektywie 2011/83/UE(24) („dyrektywa w sprawie praw konsumentów”) oraz rozporządzeniu regulującym stosunki między platformami internetowymi a przedsiębiorstwami;
— należy przeprowadzić dalszą aktualizację przepisów art. 5 dyrektywy o handlu elektronicznym, nakładając na dostawców usług cyfrowych obowiązek zapewnienia konsumentom bezpośrednich i skutecznych środków komunikacji, takich jak elektroniczne formularze kontaktowe, chatboty, komunikacja natychmiastowa lub telefoniczne wywołania zwrotne, pod warunkiem że informacje dotyczące tych środków komunikacji są dostępne dla konsumentów w jasny i zrozumiały sposób.
2. Uczciwe postanowienia umowne i ogólne warunki
W akcie prawnym o usługach cyfrowych należy ustanowić minimalne normy dla dostawców usług w celu przyjęcia uczciwych, przystępnych, niedyskryminujących i przejrzystych postanowień umownych i ogólnych warunków zgodnych przynajmniej z następującymi wymaganiami:
— należy sformułować jasne i jednoznaczne postanowienia umowne i ogólne warunki w prostym i zrozumiałym języku;
— w postanowieniach umownych i ogólnych warunkach należy wyraźnie wskazać, co zgodnie z prawem Unii lub prawem krajowym należy rozumieć jako nielegalne treści lub zachowania oraz wyjaśnić konsekwencje prawne, jakie ponoszą użytkownicy za świadome przechowywanie lub zamieszczanie nielegalnych treści;
— należy powiadamiać użytkowników o każdej istotnej zmianie w postanowieniach umownych i ogólnych warunkach, która może mieć wpływ na prawa użytkowników, oraz przedstawić wyjaśnienia w tym zakresie;
— należy zapewnić, aby uprzednio sformułowane standardowe klauzule w postanowieniach umownych i ogólnych warunkach, które nie zostały wcześniej indywidualnie wynegocjowane, w tym w umowach licencyjnych dla użytkowników końcowych, rozpoczynały się od podsumowania opartego na zharmonizowanym wzorze, który zostanie określony przez Komisję;
— należy zapewnić, aby proces anulowania rezerwacji był równie bezproblemowy, jak proces rejestracji (bez stosowania interfejsów typu „dark pattern” czy wywierania innego wpływu na decyzję konsumenta);
— w przypadku stosowania systemów zautomatyzowanych w postanowieniach umownych i warunkach ogólnych należy w sposób jasny i jednoznaczny określić dane wejściowe i docelowe dane wyjściowe zautomatyzowanych systemów oraz główne parametry decydujące o rankingu, a także powody względnego znaczenia tych głównych parametrów w porównaniu z innymi parametrami, przy jednoczesnym zapewnieniu spójności z rozporządzeniem regulującym stosunki między platformami internetowymi a przedsiębiorstwami;
— należy zapewnić, aby wymagania dotyczące postanowień umownych i ogólnych warunków były zgodne z wymaganiami dotyczącymi informacji określonymi w prawie Unii oraz je uzupełniały, w tym z wymaganiami określonymi w dyrektywie w sprawie nieuczciwych warunków w umowach konsumenckich, dyrektywie o nieuczciwych praktykach handlowych, dyrektywie w sprawie praw konsumentów zmienionej dyrektywą (UE) 2019/2161 oraz w RODO.
3. Wymagania w zakresie przejrzystości informacji handlowych
— Zmienione przepisy dyrektywy o handlu elektronicznym powinny wzmacniać obecne wymagania w zakresie przejrzystości informacji handlowych przez ustanowienie zasad uwzględnienia przejrzystości w fazie projektowania i przejrzystości domyślnej.
— Bazując na art. 6 i 7 dyrektywy o handlu elektronicznym, w proponowanych środkach należy ustanowić nowe ramy stosunków między platformami a konsumentami w zakresie przejrzystości w odniesieniu do reklamy w internecie, kierowania cyfrowego, mikrotargetowania, systemów rekomendacji reklam i preferencyjnego traktowania; w środkach tych należy:
— uwzględnić obowiązek ujawniania jasno określonych rodzajów informacji o reklamie internetowej w celu umożliwienia skutecznego prowadzenia audytu i kontroli, np. informacji o tożsamości reklamodawcy oraz o bezpośrednich i pośrednich płatnościach lub wszelkich innych wynagrodzeniach otrzymywanych przez dostawców usług; powinno to również umożliwić konsumentom i organom publicznym zidentyfikowanie, kogo należy pociągnąć do odpowiedzialności w przypadku na przykład reklamy fałszywej lub wprowadzającej w błąd; środki powinny także przyczyniać się do zapewnienia, aby nielegalne działania nie mogły być finansowane za pośrednictwem usług reklamowych;
— dokonać wyraźnego rozróżnienia pomiędzy komercyjną a polityczną reklamą internetową oraz zapewnić przejrzystość kryteriów profilowania grup docelowych i optymalizacji kampanii reklamowych; umożliwić konsumentom w ramach opcji domyślnej uniknięcie śledzenia lub mikrotargetowania oraz wyrażenie zgody na wykorzystanie danych dotyczących zachowania do celów reklamowych, a także zgody na marketing polityczny i reklamy polityczne;
— zapewnić konsumentom dostęp do ich dynamicznych profili marketingowych, tak aby mieli wiedzę o tym, czy i w jakim celu ich aktywność jest śledzona oraz czy informacje, które otrzymują, służą celom reklamowym, a także zagwarantować konsumentom prawo do odwoływania się od decyzji, które naruszają ich prawa;
— zapewnić, aby płatne reklamy lub płatne umieszczanie w rankingu wyników wyszukiwania były określone w sposób jasny, zwięzły i zrozumiały zgodnie z dyrektywą 2005/29/WE zmienioną dyrektywą (UE) 2019/2161;
— zapewnić zgodność z zasadą niedyskryminacji i z minimalnymi wymogami dywersyfikacji oraz określić praktyki stanowiące agresywną reklamę, zachęcając jednocześnie do stosowania przyjaznych dla konsumenta technologii opartych na AI;
— wprowadzić kryteria rozliczalności i uczciwości w odniesieniu do algorytmów stosowanych do reklamy targetowanej i optymalizacji reklamy oraz umożliwić przeprowadzanie przez właściwe organy zewnętrznych kontroli regulacyjnych oraz weryfikacji wyborów dotyczących projektowania algorytmicznego, które obejmują informacje o poszczególnych osobach, bez ryzyka naruszenia prywatności użytkowników i tajemnic handlowych;
— zapewnić dostęp do danych na temat dostarczania reklam oraz informacji o stopniu, w jakim reklamodawcy docierają do odbiorców, jeśli chodzi o miejsce i czas zamieszczania reklam, a także o skuteczność reklam płatnych w porównaniu z reklamami bezpłatnymi.
4. Sztuczna inteligencja i uczenie się maszyn
Zmienione przepisy powinny być zgodne z wymienionymi poniżej zasadami dotyczącymi świadczenia usług społeczeństwa informacyjnego opartych na AI lub korzystających z narzędzi zautomatyzowanego podejmowania decyzji lub narzędzi do uczenia się maszyn, poprzez:
— zapewnienie konsumentom prawa do otrzymywania informacji, jeżeli usługa jest oparta na AI, wykorzystuje narzędzia zautomatyzowanego podejmowania decyzji, narzędzia do uczenia się maszyn lub narzędzia do zautomatyzowanego rozpoznawania treści, oprócz prawa do niepodejmowania decyzji opartej wyłącznie na zautomatyzowanym przetwarzaniu oraz możliwości odmowy, ograniczenia lub personalizacji korzystania z wszelkich funkcji personalizacji opartych na AI, szczególnie w związku z rankingiem usług;
— ustanowienie kompleksowych zasad dotyczących niedyskryminacji i przejrzystości algorytmów i zbiorów danych;
— zapewnienie wyjaśnialności algorytmów właściwym organom, które mogą sprawdzić, w przypadku uzasadnionych podejrzeń, istnienie skrzywienia algorytmicznego;
— zapewnienie indywidualnego nadzoru nad poszczególnymi przypadkami i okresowej oceny ryzyka algorytmów przeprowadzanej przez właściwe organy, jak również kontroli człowieka nad procesem decyzyjnym, w celu zagwarantowania wyższego poziomu ochrony konsumentów; wymogi takie powinny być zgodne z mechanizmami kontroli przez człowieka i obowiązkami w zakresie oceny ryzyka w odniesieniu do automatyzacji usług określonymi w obowiązujących przepisach, takich jak dyrektywa (UE) 2018/958(25) („dyrektywa w sprawie analizy proporcjonalności”), i nie powinny stanowić nieuzasadnionego lub nieproporcjonalnego ograniczenia swobodnego przepływu usług;
— ustanowienie jasnych mechanizmów rozliczalności, odpowiedzialności i dochodzenia roszczeń na potrzeby zaradzania ewentualnym szkodom wynikającym z korzystania z aplikacji AI, narzędzi zautomatyzowanego podejmowania decyzji i narzędzi uczenia się maszyn;
— ustanowienie zasad bezpieczeństwa, uwzględnienia ochrony w fazie projektowania i ochrony domyślnej oraz określenie skutecznych i efektywnych praw i procedur dla podmiotów opracowujących AI w przypadkach, w których algorytmy generują podejmowanie decyzji wrażliwych dotyczących poszczególnych osób, a także właściwe uwzględnienie i wykorzystanie wpływu nadchodzących zmian technologicznych;
— zapewnienie zgodności z wymogami dotyczącymi poufności, prywatności użytkowników i tajemnic handlowych;
— zapewnienie, aby w przypadku gdy technologie oparte na AI wprowadzone w miejscu pracy mają bezpośredni wpływ na warunki zatrudnienia pracowników korzystających z usług cyfrowych, konieczne było kompleksowe informowanie pracowników.
5. Kary
Przestrzeganie tych przepisów należy wzmocnić skutecznymi, proporcjonalnymi i odstraszającymi karami, w tym nakładaniem proporcjonalnych grzywien.
V. ŚRODKI ZWIĄZANE ZE ZWALCZANIEM NIELEGALNYCH TREŚCI W INTERNECIE
Akt prawny o usługach cyfrowych powinien zapewniać jasność i wytyczne dotyczące sposobu zwalczania przez pośredników internetowych nielegalnych treści w internecie. W zmienionych przepisach dyrektywy o handlu elektronicznym należy:
— wyjaśnić, że jakiekolwiek usunięcie nielegalnych treści lub uniemożliwienie dostępu do nich nie powinno naruszać praw podstawowych i prawnie uzasadnionych interesów użytkowników i konsumentów oraz że legalne treści powinny pozostać w internecie;
— ulepszyć ramy prawe, uwzględniając centralną rolę pośredników internetowych i internetu w ułatwianiu prowadzenia debaty publicznej i swobodnego rozpowszechniania faktów, opinii i pomysłów;
— zachować podstawową zasadę prawną, zgodnie z którą pośrednicy internetowi nie powinni ponosić bezpośredniej odpowiedzialności za działania swoich użytkowników oraz mogą kontynuować moderowanie treści na sprawiedliwych, dostępnych, niedyskryminujących i przejrzystych zasadach i warunkach świadczenia usług;
— wyjaśnić, że decyzja podjęta przez pośredników internetowych odnośnie do tego, czy treści zamieszczone przez użytkowników są legalne, powinna mieć charakter tymczasowy i pośrednicy internetowi nie powinni ponosić za nią odpowiedzialności, ponieważ tylko sądy powszechne powinny ostatecznie zdecydować, co jest nielegalną treścią;
— zapewnić, aby zdolność państw członkowskich do decydowania, które treści są niezgodne z prawem krajowym, nie została naruszona;
— zapewnić proporcjonalność, skuteczność i adekwatność środków, do których przyjęcia wzywa się pośredników internetowych, w celu skutecznego zwalczania nielegalnych treści w internecie;
— dostosować surowość środków, które dostawcy usług muszą przedsięwziąć, do powagi naruszenia;
— zapewnić, aby zablokowanie dostępu do nielegalnych treści i ich usunięcie nie wymagało zablokowania dostępu do całej platformy i usług, których pozostałe treści są legalne;
— wprowadzić nową przejrzystość i niezależny nadzór w odniesieniu do procedur moderowania treści i narzędzi związanych z usuwaniem nielegalnych treści w internecie; takim systemom i procedurom powinny towarzyszyć solidne zabezpieczenia w zakresie przejrzystości i rozliczalności, oraz powinny one być dostępne do celów kontroli i badań przeprowadzanych przez właściwe organy.
1. Mechanizm zgłaszania i usuwania nielegalnych treści
W akcie prawnym o usługach cyfrowych należy ustanowić zharmonizowany i możliwy do wyegzekwowania na drodze prawnej mechanizm zgłaszania i usuwania nielegalnych treści oparty na zbiorze jasnych procesów i dokładnych ram czasowych w odniesieniu do każdego etapu procedury zgłaszania i usuwania nielegalnych treści. Ten mechanizm zgłaszania i usuwania nielegalnych treści powinien:
— mieć zastosowanie do nielegalnych treści lub zachowań w internecie;
— zawierać rozróżnienie poszczególnych rodzaje dostawców, sektorów lub nielegalnych treści i wagę naruszenia;
— zawierać łatwo dostępne, niezawodne i przyjazne dla użytkownika procedury dostosowane do rodzaju treści;
— umożliwiać użytkownikom łatwe zgłaszanie pośrednikom internetowym drogą elektroniczną potencjalnie nielegalnych treści lub zachowań w internecie;
— zawierać zrozumiałe wyjaśnienia istniejących pojęć i procesów takich jak „niezwłoczne podjęcie działań”, „faktyczna wiedza i świadomość”, „ukierunkowane działania”, „formaty zawiadomień” oraz „zasadność zawiadomień”;
— gwarantować, że zawiadomienia nie spowodują automatycznego powstania odpowiedzialności prawnej ani nie będą stanowić podstawy do nałożenia wymogu usunięcia określonych treści lub wymogu oceny legalności;
— zawierać wymóg, aby zawiadomienia były wystarczająco precyzyjne i odpowiednio uzasadnione, aby dostawcy usług, którzy je otrzymają, mogli z należytą starannością podjąć świadomą decyzję w odniesieniu do skutków, jakie będzie miało zawiadomienie, oraz określać wymogi konieczne do zapewnienia, aby zawiadomienia zawierały wszystkie informacje niezbędne do szybkiego usuwania nielegalnych treści;
— zawiadomienia powinny zawierać lokalizację (adres URL i znacznik czasu, w stosownych przypadkach) danej treści, co do której istnieje domniemanie niezgodności z prawem, wskazanie godziny i daty popełnienia domniemanego nadużycia, podaną przyczynę wniosku, w tym wyjaśnienie przyczyn, dla których podmiot zawiadamiający uważa dane treści za nielegalne, a także w stosownych przypadkach, w zależności od rodzaju treści, dodatkowe dowody na poparcie wniosku oraz deklarację dobrej wiary, że podane informacje są dokładne;
— podmioty zawiadamiające powinny mieć możliwość podania w zawiadomieniu swoich danych kontaktowych, lecz nie należy tego od nich wymagać; w przypadku podjęcia takiej decyzji należy zapewnić ich anonimowość wobec dostawcy treści; jeśli nie podano danych kontaktowych, można użyć adresu IP lub innego odpowiednika; anonimowe zawiadomienia nie powinny być dozwolone, gdy dotyczą naruszenia dóbr osobistych lub praw własności intelektualnej;
— ustanawiać zabezpieczenia mające na celu zapobieganie nadużyciom ze strony użytkowników, którzy systematycznie i wielokrotnie oraz w złej wierze wysyłają nieuzasadnione i niewłaściwe zawiadomienia;
— nakładać na pośredników internetowych obowiązek weryfikacji zgłaszanych treści oraz terminowego przekazywania podmiotowi zawiadamiającemu i podmiotowi zamieszczającemu treści odpowiedzi wraz z uzasadnioną decyzją; taki wymóg udzielenia odpowiedzi powinien obejmować informacje na temat uzasadnienia decyzji, sposobu jej podjęcia, tego, czy została ona podjęta przez człowieka, czy przez narzędzie służące do zautomatyzowanego podejmowania decyzji, oraz możliwości odwołania się od decyzji przez każdą ze stron do pośrednika, sądu lub innego podmiotu;
— zapewniać informacje i środki odwoławcze od decyzji w postaci zgłoszenia sprzeciwu, w tym w przypadku gdy treści usunięto przy użyciu rozwiązań zautomatyzowanych, chyba że takie zgłoszenie sprzeciwu kolidowałoby z dochodzeniem prowadzonym przez organy ścigania;
— zapewnić, aby nakazy sądowe wydane w państwie członkowskim innym niż państwo członkowskie pochodzenia pośrednika internetowego nie były rozpatrywane w ramach mechanizmu zgłaszania i usuwania nielegalnych treści.
Mechanizm zgłaszania i usuwania nielegalnych treści przewidziany w akcie prawnym o usługach cyfrowych powinien być wiążący jedynie w odniesieniu do nielegalnych treści. Nie powinno to jednak uniemożliwiać pośrednikom internetowym przyjęcia podobnego mechanizmu zgłaszania i usuwania nielegalnych treści w odniesieniu do innych treści.
2. Pozasądowe rozstrzyganie sporów związane z mechanizmami zgłaszania i usuwania nielegalnych treści
— Decyzja pośrednika internetowego o podjęciu lub niepodjęciu działań w związku z treściami oznaczonymi jako nielegalne powinna zawierać jasne uzasadnienie działań podjętych w odniesieniu do tych konkretnych treści. Podmiot zawiadamiający powinien otrzymać potwierdzenie odbioru oraz wiadomość na temat działań następczych w odniesieniu do zawiadomienia.
— Dostawców treści oznaczonych jako nielegalne należy niezwłocznie informować o zawiadomieniu i, w stosownych przypadkach, o powodach usunięcia, zawieszenia lub zablokowania dostępu do treści; wszystkie strony powinny być należycie poinformowane o wszystkich istniejących dostępnych opcjach prawnych i mechanizmach odwołania się od tej decyzji.
— Wszystkie zainteresowane strony powinny mieć prawo do zakwestionowania decyzji za pomocą zgłoszenia sprzeciwu, co powinno podlegać jasnym wymogom i wymagać uzasadnienia; zainteresowane strony powinny mieć również możliwość odwołania się do pozasądowych mechanizmów rozstrzygania sporów.
— Prawo do otrzymania zawiadomienia i prawo do zgłoszenia sprzeciwu przez użytkownika przed podjęciem decyzji o usunięciu treści może być ograniczone lub uchylone tylko w przypadku, gdy:
a) występuje krajowy wymóg prawny, aby pośrednicy internetowi całkowicie zakończyli świadczenie usług pośrednictwa internetowego na rzecz danego użytkownika w sposób, który nie pozwala mu na stosowanie mechanizmu zgłaszania i usuwania nielegalnych treści lub
b) zawiadomienie lub zgłoszenie sprzeciwu utrudniłoby toczące się postępowanie przygotowawcze, które wymaga zachowania w tajemnicy decyzji o zawieszeniu lub usunięciu dostępu do treści.
— Należy zmienić przepisy art. 17 dyrektywy o handlu elektronicznym w celu zapewnienia, aby niezależne mechanizmy pozasądowego rozstrzygania sporów zostały wprowadzone i były dostępne dla użytkowników w przypadku sporów dotyczących uniemożliwienia dostępu do utworów lub innych treści przez nich zamieszczonych lub usunięcia takich utworów lub treści.
— Mechanizm pozasądowego rozstrzygania sporów powinien spełniać określone standardy, w szczególności w zakresie sprawiedliwości proceduralnej, niezależności, bezstronności, przejrzystości i efektywności; takie mechanizmy muszą umożliwiać bezstronne rozwiązywanie sporów i nie mogą pozbawiać użytkownika ochrony prawnej zapewnianej przez prawo krajowe, z zastrzeżeniem praw użytkowników do korzystania ze skutecznych środków prawnych.
— Jeżeli w wyniku odwołania i zgłoszenia sprzeciwu okaże się, że zgłoszone działania lub informacje nie są nielegalne, pośrednik internetowy powinien bez zbędnej zwłoki przywrócić usunięte lub zawieszone treści lub umożliwić ponowne wysłanie ich przez użytkownika.
— Przy przekazywaniu, zakwestionowaniu lub otrzymaniu zawiadomienia wszystkie zainteresowane strony powinny być informowane zarówno o możliwości skorzystania z alternatywnego mechanizmu rozstrzygania sporów, jak i o prawie do odwołania się do właściwego sądu krajowego.
— Mechanizmy pozasądowego rozstrzygania sporów nie powinny w żaden sposób wpływać na prawa zainteresowanych stron do wszczęcia postępowania sądowego.
3. Przejrzystość mechanizmu zgłaszania i usuwania nielegalnych treści
Mechanizmy zgłaszania i usuwania nielegalnych treści powinny być przejrzyste i ogólnodostępne; w tym celu pośrednicy internetowi powinni być zobowiązani do publikowania sprawozdań rocznych, które powinny zostać znormalizowane i zawierać informacje dotyczące:
— liczby wszystkich zawiadomień otrzymanych w ramach mechanizmu zgłaszania i usuwania nielegalnych treści oraz rodzajów treści, których te zawiadomienia dotyczą;
— średniego czasu odpowiedzi w zależności od rodzaju treści;
— liczby błędnych usunięć;
— rodzaju podmiotów, które przekazały zawiadomienia (osoby prywatne, organizacje, korporacje, zaufane podmioty sygnalizujące itp.), oraz łącznej liczby ich zawiadomień;
— informacji o charakterze nielegalności treści lub rodzaju naruszenia, z powodu którego treści te zostały usunięte;
— liczby odwołań otrzymanych przez pośredników internetowych oraz sposobu, w jaki zostały one rozpatrzone;
— opisu modelu moderacji treści stosowanego przez pośrednika usług hostingowych, a także wszelkich zautomatyzowanych narzędzi, w tym istotnych informacji o zastosowanej logice;
— środków stosowanych w odniesieniu do podmiotów wielokrotnie dopuszczających się wykroczeń, aby zapewnić skuteczność tych środków w zwalczaniu takich systemowych nadużyć.
Obowiązek publikacji i wymagana szczegółowość tego sprawozdania powinny obejmować wielkość lub skalę działalności pośredników internetowych oraz to, czy dysponują oni jedynie ograniczonymi zasobami i ograniczoną wiedzą fachową. Mikroprzedsiębiorstwa i przedsiębiorstwa typu start-up powinny być zobowiązane do aktualizacji tego sprawozdania tylko w przypadku, gdy w ciągu roku nastąpiła znaczna zmiana.
Pośrednicy internetowi powinni także publikować informacje o stosowanych przez nich procedurach i ramach czasowych interwencji zainteresowanych stron, w tym o terminie, w jakim podmiot zamieszczający treści może zgłosić sprzeciw, terminie, w jakim pośrednik informuje obie strony o wyniku procedury, oraz terminie stosowania poszczególnych form odwołań od wszelkich decyzji.
4. Zasady „bezpiecznej przystani” określone w art. 12, 13 i 14 dyrektywy o handlu elektronicznym
Akt prawny o usługach cyfrowych powinien chronić i utrzymać obecne ograniczone zwolnienia od odpowiedzialności w odniesieniu do dostawców usług społeczeństwa informacyjnego (pośredników internetowych), przewidziane w art. 12, 13 i 14 dyrektywy o handlu elektronicznym.
5. Aktywni i pasywni dostawcy usług hostingowych
W akcie prawnym o usługach cyfrowych należy utrzymać odstępstwa od dyrektywy o handlu elektronicznym dla pośredników odgrywających neutralną i pasywną rolę oraz rozwiązać problem braku pewności prawa w odniesieniu do pojęcia „aktywnej roli” poprzez skodyfikowanie orzecznictwa Trybunału w tej sprawie. Należy w nim także wyjaśnić, że dostawcy usług hostingowych odgrywają aktywną rolę, jeśli tworzą treści lub mają do pewnego stopnia wpływ na nielegalność treści, albo jeśli jest to równoznaczne z przyjęciem treści osób trzecich jako własnych, według oceny przeciętnego użytkownika lub konsumenta.
Akt ten powinien zapewniać, aby dobrowolne środki podejmowane przez pośredników internetowych w celu zwalczania nielegalnych treści nie prowadziły do uznania tychże pośredników za podmioty odgrywające aktywną rolę, wyłącznie na podstawie tych środków. Wdrażaniu wszelkich takich środków powinny jednak towarzyszyć odpowiednie zabezpieczenia, a praktyki w zakresie moderacji treści powinny być sprawiedliwe, dostępne, niedyskryminujące i przejrzyste.
W akcie prawnym o usługach cyfrowych należy utrzymać zwolnienia od odpowiedzialności dostawców świadczących usługi zaplecza i usługi w zakresie infrastruktury, którzy nie są stroną stosunków umownych między pośrednikami internetowymi a ich klientami i jedynie wykonują decyzje pośredników internetowych lub ich klientów.
6. Zakaz nakładania ogólnego obowiązku w zakresie nadzoru – art. 15 dyrektywy o handlu elektronicznym
W akcie prawnym o usługach cyfrowych należy utrzymać zakaz nakładania ogólnego obowiązku w zakresie nadzoru określony w art. 15 dyrektywy o handlu elektronicznym. Pośrednicy internetowi nie powinni podlegać ogólnym obowiązkom w zakresie nadzoru.
VI. INTERNETOWE PLATFORMY HANDLOWE
W akcie prawnym o usługach cyfrowych należy przedstawić nowe konkretne przepisy dotyczące internetowych platform handlowych w odniesieniu do sprzedaży, promowania lub dostarczania konsumentom produktów i usług przez internet.
Te nowe przepisy powinny:
— być spójne ze zmianą dyrektywy w sprawie ogólnego bezpieczeństwa produktów oraz uzupełniać ją;
— obejmować wszystkie podmioty, które oferują usługi lub produkty konsumentom w Unii, w tym podmioty mające one siedzibę poza terytorium Unii;
— zawierać rozróżnienie między internetowymi platformami handlowymi a innymi rodzajami dostawców usług, w tym innymi pomocniczymi usługami pośrednictwa w ramach działalności tego samego przedsiębiorstwa; jeżeli jedna z usług świadczonych przez przedsiębiorstwo spełnia kryteria niezbędne do uznania jej za platformę handlową, przepisy powinny mieć w pełni zastosowanie do tej części przedsiębiorstwa niezależnie od jego struktury wewnętrznej;
— zapewniać, aby na internetowych platformach handlowych jasno określano, z którego państwa sprzedawane są produkty lub dostarczane są usługi, niezależnie od tego, czy są one dostarczane lub sprzedawane przez tę platformę handlową, osobę trzecią czy sprzedawcę mającego siedzibę w Unii lub poza jej terytorium;
— zapewniać, aby internetowe platformy handlowe szybko usuwały wszelkie znane wprowadzające w błąd informacje podane przez dostawcę, w tym dorozumiane wprowadzające w błąd gwarancje i oświadczenia złożone przez dostawcę;
— zapewniać, aby internetowe platformy handlowe oferujące profesjonalne usługi wskazywały, kiedy dany zawód jest regulowany w rozumieniu dyrektywy 2005/36/WE, aby umożliwić konsumentom zarówno dokonanie świadomego wyboru, jak i sprawdzenie, w razie konieczności, we właściwym organie, czy dany zawód spełnia wymogi dotyczące konkretnych kwalifikacji zawodowych;
— zapewniać przejrzystość i rozliczalność internetowych platform handlowych oraz współpracować z właściwymi organami państw członkowskich w celu zidentyfikowania poważnych zagrożeń związanych z produktami niebezpiecznymi oraz w celu ostrzegania ich, gdy tylko dowiedzą się o takich produktach na swoich platformach;
— zapewniać, aby internetowe platformy handlowe korzystały z unijnego systemu wczesnego ostrzegania o niebezpiecznych produktach nieżywnościowych (RAPEX) i przeprowadzały wyrywkowe kontrole produktów wycofanych z rynku i niebezpiecznych oraz, w miarę możliwości, podejmowały odpowiednie działania w odniesieniu do danych produktów;
— zapewniać wprowadzenie obowiązku wycofania produktów z platformy handlowej niezwłocznie i w ciągu maksymalnie dwóch dni roboczych od otrzymania zawiadomienia w przypadku uznania produktów za niebezpieczne lub podrobione przez unijne systemy wczesnego ostrzegania, krajowe organy nadzoru rynku, organy celne lub organy ochrony konsumentów;
— zapewniać obowiązek poinformowania konsumentów przez internetowe platformy handlowe o usunięciu zakupionego przez nich produktu z platformy po otrzymaniu zawiadomienia o jego niezgodności z unijnymi przepisami dotyczącymi bezpieczeństwa produktów i ochrony konsumentów; ponadto internetowe platformy handlowe powinny informować konsumentów o wszelkich problemach związanych z bezpieczeństwem oraz o wszelkich działaniach koniecznych do zapewnienia skutecznego wycofania produktu;
— zagwarantować, aby internetowe platformy handlowe wprowadziły środki mające na celu zwalczanie oferujących niebezpieczne produkty podmiotów wielokrotnie dopuszczających się wykroczeń, we współpracy z władzami, zgodnie z rozporządzeniem regulującym stosunki między platformami internetowymi a przedsiębiorstwami, oraz aby przyjęły środki mające na celu zapobieganie ponownemu pojawieniu się niebezpiecznych produktów, które zostały już usunięte;
— ewentualnie przewidywać zobowiązanie dostawców, którzy mają siedzibę w państwie trzecim, do założenia oddziału w Unii lub wyznaczenia przedstawiciela prawnego mającego siedzibę w Unii, który może być pociągnięty do odpowiedzialności za sprzedaż europejskim konsumentom produktów, które nie są zgodne z unijnymi przepisami dotyczącymi bezpieczeństwa;
— rozwiązać kwestię odpowiedzialności internetowych platform handlowych za szkody wyrządzone konsumentom oraz za niepodjęcie odpowiednich działań w celu usunięcia nielegalnych produktów po uzyskaniu faktycznej wiedzy o takich nielegalnych produktach;
— zawierać rozstrzygnięcie kwestii odpowiedzialności internetowych platform handlowych, w przypadku gdy platformy te mają dominujący wpływ na dostawców i istotne elementy transakcji gospodarczych, takie jak sposoby płatności, ceny, domyślne warunki lub postępowanie mające na celu ułatwienie sprzedaży towarów konsumentowi na rynku unijnym, a do odpowiedzialności nie można pociągnąć żadnego producenta, importera ani dystrybutora mającego siedzibę w Unii;
— zawierać rozstrzygnięcie kwestii odpowiedzialności internetowych platform handlowych, w przypadku gdy internetowa platforma handlowa nie poinformowała konsumenta, że faktycznym dostawcą towarów lub usług jest osoba trzecia, co powoduje powstanie odpowiedzialności umownej platformy handlowej wobec konsumenta; należy również rozważyć odpowiedzialność w przypadku, gdy platforma handlowa świadomie przekazuje wprowadzające w błąd informacje;
— zagwarantować, aby internetowe platformy handlowe miały prawo do dochodzenia roszczeń wobec dostawcy lub producenta, który zawinił;
— zawierać rozważenie możliwości rozszerzenia zobowiązania, które podjęli niektórzy sprzedawcy detaliczni z sektora handlu elektronicznego i Komisja, do szybszego wycofywania ze sprzedaży produktów niebezpiecznych lub podrobionych w ramach, odpowiednio, systemu dobrowolnych zobowiązań do zapewnienia bezpieczeństwa produktów noszącego nazwę „Product Safety Pledge” i Protokołu ustaleń w sprawie sprzedaży podrobionych towarów w internecie oraz wskazać, które z tych zobowiązań mogłyby stać się obowiązkowe.
VII. REGULACJA EX ANTE OPERATORÓW SYSTEMOWYCH
W ramach aktu prawnego o usługach cyfrowych należy przedłożyć wniosek dotyczący nowego odrębnego instrumentu mającego na celu zapewnienie, aby rola systemowa konkretnych platform internetowych nie zagrażała rynkowi wewnętrznemu przez nieuczciwe wykluczenie innowacyjnych nowych podmiotów, w tym MŚP, przedsiębiorców i przedsiębiorstw typu start-up, i tym samym nie ograniczała wyboru konsumenta.
W tym celu w akcie prawnym o usługach cyfrowych należy w szczególności:
— ustanowić mechanizm ex ante służący zapobieganiu niedoskonałościom rynku powodowanym przez „operatorów systemowych” w świecie cyfrowym (zamiast jedynie ich rekompensowaniu), oparty na rozporządzeniu regulującym stosunki między platformami internetowymi a przedsiębiorstwami; taki mechanizm powinien umożliwiać organom regulacyjnym nakładanie na tych operatorów systemowych środków zaradczych w celu usunięcia niedoskonałości rynku bez stwierdzania naruszenia przepisów dotyczących konkurencji;
— upoważnić organy regulacyjne do nakładania proporcjonalnych i ściśle określonych środków zaradczych na te przedsiębiorstwa, które zostały uznane za „operatorów systemowych”, na podstawie kryteriów określonych w akcie prawnym o usługach cyfrowych i zamkniętego wykazu działań pozytywnych i negatywnych, do których przestrzegania przedsiębiorstwa te są zobowiązane lub w które nie mogą się angażować; w ocenie skutków Komisja powinna zawrzeć dokładną analizę poszczególnych problemów zaobserwowanych dotychczas na rynku, w tym:
– braku interoperacyjności i odpowiednich narzędzi, danych, kwalifikacji i zasobów operatorów systemowych, które umożliwiłyby konsumentom zmianę platformy cyfrowej lub ekosystemu internetowego, lub przyłączenie się i interoperacyjność między nimi;
– systematycznego preferencyjnego wyświetlania, pozwalającego operatorom systemowym na lepszą widoczność świadczonych przez nich usług pochodnych;
– wykorzystywania obwiedni danych w celu rozszerzenia pozycji rynkowej z jednego rynku na rynki pokrewne, przyznawania preferencji swoim produktom i usługom oraz angażowania się w praktyki, których celem jest uzależnienie konsumentów od jednego dostawcy;
– powszechnej praktyki polegającej na zakazaniu użytkownikom biznesowym będącym osobami trzecimi kierowania konsumentów na ich własną stronę internetową poprzez nakładanie klauzul umownych;
– braku przejrzystości systemów rekomendacji używanych przez operatorów systemowych, w tym przepisów i kryteriów dotyczących funkcjonowania takich systemów;
— zapewnić operatorom systemowym możliwości wykazania, że dane zachowanie jest uzasadnione;
— wyjaśnić, że niektóre regulacyjne środki zaradcze, takie jak obowiązki przejrzystości sposobu prowadzenia działalności, w szczególności gromadzenia i wykorzystania danych, a także zakaz angażowania się „operatorów systemowych” w jakiekolwiek praktyki mające na celu utrudnienie konsumentom zmiany dostawcy lub korzystania z usług różnych dostawców, lub inne formy nieuzasadnionej dyskryminacji, które wykluczają inne przedsiębiorstwa lub działają na ich niekorzyść, powinny zostać nałożone na wszystkich „operatorów systemowych”;
— uprawnić organy regulacyjne do przyjmowania środków tymczasowych oraz do nakładania kar na „operatorów systemowych”, którzy nie przestrzegają różnych nałożonych na nich obowiązków regulacyjnych;
— zastrzec uprawnienia Komisji do ostatecznego decydowania, czy dostawca usług społeczeństwa informacyjnego jest „operatorem systemowym” na podstawie warunków określonych w mechanizmie ex ante;
— umożliwić użytkownikom „operatorów systemowych” otrzymywanie informacji, dezaktywację i możliwość skutecznej kontroli i decydowania o tym, jakie treści chcą widzieć; użytkownicy powinni także być odpowiednio informowani o wszystkich powodach sugerowania im konkretnych treści;
— zapewnić poszanowanie praw, obowiązków i zasad RODO, w tym minimalizacji danych, ograniczenia celu, uwzględnienia ochrony danych w fazie projektowania i domyślnej ochrony danych oraz podstaw prawnych przetwarzania;
— zapewnić odpowiedni poziom interoperacyjności wymagający od „operatorów systemowych” dzielenia się odpowiednimi narzędziami, danymi, wiedzą fachową i zasobami w celu ograniczenia ryzyka uzależnienia użytkowników i konsumentów od jednego dostawcy i sztucznego związania użytkowników z jednym operatorem systemowym bez realnej możliwości zmiany platformy cyfrowej lub ekosystemu internetowego ani zachęty do takiej zmiany w ramach tych środków; Komisja powinna zbadać różne technologie oraz otwarte standardy i protokoły, w tym możliwość zastosowania interfejsu technicznego (interfejsu programowania aplikacji), który umożliwia użytkownikom konkurencyjnych platform połączenie z operatorami systemowymi i wymianę informacji z nimi; operatorzy systemowi nie mogą wykorzystywać w celach komercyjnych żadnych danych otrzymanych od stron trzecich podczas działań w zakresie interoperacyjności do celów innych niż umożliwienie tych działań; obowiązki w zakresie interoperacyjności nie powinny ograniczać, utrudniać ani opóźniać zdolności pośredników do usuwania luk;
— zapewnić, aby nowy mechanizm ex ante pozostawał bez uszczerbku dla stosowania zasad konkurencji, w tym w zakresie przyznawania sobie preferencji i ogólnej integracji pionowej, oraz zapewnić całkowitą niezależność obu narzędzi politycznych.
VIII. NADZÓR, WSPÓŁPRACA I EGZEKWOWANIE PRZEPISÓW
Akt prawny o usługach cyfrowych powinien ulepszyć nadzór i egzekwowanie obowiązujących przepisów i wzmocnić klauzulę dotyczącą rynku wewnętrznego jako podstawę jednolitego rynku cyfrowego przez uzupełnienie jej nowym mechanizmem współpracy mającym na celu poprawę wymiany informacji, współpracy, wzajemnego zaufania i, na żądanie, wzajemnej pomocy między państwami członkowskimi, w szczególności między organami w państwie pochodzenia, w którym dostawca usług ma siedzibę, a organami państwa przyjmującego, w którym dostawca oferuje swoje usługi.
Komisja powinna przeprowadzić gruntowną ocenę skutków, aby ocenić najodpowiedniejszy model nadzoru i egzekwowania przepisów w odniesieniu do aktu prawnego o usługach cyfrowych, przy jednoczesnym poszanowaniu zasad pomocniczości i proporcjonalności.
W ocenie skutków Komisja powinna przyjrzeć się istniejącym modelom, takim jak sieć współpracy w zakresie ochrony konsumentów, europejska grupa regulatorów audiowizualnych usług medialnych (ERGA), Europejska Rada Ochrony Danych (EROD) i Europejska Sieć Konkurencji, i rozważyć przyjęcie hybrydowego systemu nadzoru.
Ten hybrydowy system nadzoru, oparty na koordynacji UE we współpracy z siecią organów krajowych, powinien poprawić monitorowanie i stosowanie aktu prawnego o usługach cyfrowych, egzekwowanie przestrzegania przepisów, w tym egzekwowanie grzywien regulacyjnych, innych sankcji lub środków, a także powinien być w stanie przeprowadzać audyty pośredników i platform. Powinien również rozstrzygać, w razie potrzeby, spory transgraniczne między organami krajowymi, rozwiązywać złożone problemy transgraniczne, udzielać porad i wskazówek oraz zatwierdzać ogólnounijne kodeksy i decyzje, a także, wraz z organami krajowymi, mieć możliwość podejmowania inicjatyw i wszczynania dochodzeń w kwestiach transgranicznych. Ostateczny nadzór nad obowiązkami państw członkowskich powinien pozostać w gestii Komisji.
Komisja powinna składać sprawozdania Parlamentowi Europejskiemu i Radzie oraz, wraz z organami krajowymi, prowadzić publiczną tablicę wyników platform zawierającą istotne informacje na temat zgodności z aktem prawnym o usługach cyfrowych. Komisja powinna ułatwiać i wspierać tworzenie i utrzymywanie europejskiego repozytorium badawczego w celu usprawnienia wymiany danych z instytucjami publicznymi, badaczami, organizacjami pozarządowymi i uniwersytetami na potrzeby badań.
W akcie prawnym o usługach cyfrowych należy również wprowadzić do art. 16 dyrektywy o handlu elektronicznym nowe elementy egzekwowania przepisów w odniesieniu do samoregulacji.
Rozporządzenie Parlamentu Europejskiego i Rady (UE) nr 910/2014 z dnia 23 lipca 2014 r. w sprawie identyfikacji elektronicznej i usług zaufania w odniesieniu do transakcji elektronicznych na rynku wewnętrznym oraz uchylające dyrektywę 1999/93/WEN (Dz.U. L 257 z 28.8.2014, s. 73).
Dyrektywa 2001/95/WE Parlamentu Europejskiego i Rady z dnia 3 grudnia 2001 r. w sprawie ogólnego bezpieczeństwa produktów (Dz.U. L 11 z 15.1.2002, s. 4).
Dyrektywa Rady 85/374/EWG z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących odpowiedzialności za produkty wadliwe (Dz.U. L 210 z 7.8.1985, s. 29).
Dyrektywa Parlamentu Europejskiego i Rady 2013/11/UE z dnia 21 maja 2013 r. w sprawie alternatywnych metod rozstrzygania sporów konsumenckich oraz zmiany rozporządzenia (WE) nr 2006/2004 i dyrektywy 2009/22/WE (dyrektywa w sprawie ADR w sporach konsumenckich) (Dz.U. L 165 z 18.6.2013, s. 63).
Dyrektywa Rady 93/13/EWG z dnia 5 kwietnia 1993 r. w sprawie nieuczciwych warunków w umowach konsumenckich, ostatnio zmieniona dyrektywą Parlamentu Europejskiego i Rady (UE) 2019/2161 z dnia 27 listopada 2019 r. zmieniającą dyrektywę Rady 93/13/EWG i dyrektywy Parlamentu Europejskiego i Rady 98/6/WE, 2005/29/WE oraz 2011/83/UE w odniesieniu do lepszego egzekwowania i unowocześnienia unijnych przepisów dotyczących ochrony konsumenta (Dz.U. L 328 z 18.12.2019, s. 7).
Dyrektywa Parlamentu Europejskiego i Rady 2011/83/UE z dnia 25 października 2011 r. w sprawie praw konsumentów, zmieniająca dyrektywę Rady 93/13/EWG i dyrektywę 1999/44/WE Parlamentu Europejskiego i Rady oraz uchylająca dyrektywę Rady 85/577/EWG i dyrektywę 97/7/WE Parlamentu Europejskiego i Rady (Dz.U. L 304 z 22.11.2011, s. 64).
Dyrektywa Parlamentu Europejskiego i Rady (UE) 2018/958 z dnia 28 czerwca 2018 r. w sprawie analizy proporcjonalności przed przyjęciem nowych regulacji dotyczących zawodów (Dz.U. L 173 z 9.7.2018, s. 25).
Akt prawny o usługach cyfrowych: dostosowanie przepisów prawa handlowego i cywilnego do podmiotów gospodarczych prowadzących działalność internetową
Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. zawierające zalecenia dla Komisji w sprawie aktu prawnego o usługach cyfrowych: dostosowanie przepisów prawa handlowego i cywilnego w odniesieniu do podmiotów gospodarczych prowadzących działalność internetową (2020/2019(INL))
– uwzględniając art. 225 Traktatu o funkcjonowaniu Unii Europejskiej,
– uwzględniając art. 11 Karty praw podstawowych Unii Europejskiej oraz art. 10 europejskiej konwencji praw człowieka,
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2019/1150 z dnia 20 czerwca 2019 r. w sprawie propagowania sprawiedliwości i przejrzystości dla użytkowników biznesowych korzystających z usług pośrednictwa internetowego(1),
– uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/790 z dnia 17 kwietnia 2019 r. w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym oraz zmiany dyrektyw 96/9/WE i 2001/29/WE(2),
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych)(3) (zwane dalej „ogólnym rozporządzeniem o ochronie danych”),
– uwzględniając dyrektywę Parlamentu Europejskiego i Rady 2010/13/UE z dnia 10 marca 2010 r. w sprawie koordynacji niektórych przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących świadczenia audiowizualnych usług medialnych (dyrektywa o audiowizualnych usługach medialnych)(4),
– uwzględniając dyrektywę Parlamentu Europejskiego i Rady 2008/52/WE z dnia 21 maja 2008 r. w sprawie niektórych aspektów mediacji w sprawach cywilnych i handlowych(5),
– uwzględniając wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady z dnia 6 czerwca 2018 r. ustanawiającego program „Cyfrowa Europa” na lata 2021–2027 (COM(2018)0434),
– uwzględniając zalecenie Komisji (UE) 2018/334 z dnia 1 marca 2018 r. w sprawie działań na rzecz skutecznego zwalczania nielegalnych treści w internecie(6),
– uwzględniając Konwencję o jurysdykcji i uznawaniu oraz wykonywaniu orzeczeń sądowych w sprawach cywilnych i handlowych(7) oraz Konwencję o uznawaniu i wykonywaniu zagranicznych orzeczeń arbitrażowych podpisaną w 10 czerwca 1958 r. w Nowym Jorku,
– uwzględniając swoją rezolucję z dnia 3 października 2018 r. w sprawie technologii rozproszonego rejestru i łańcuchów bloków: budowanie zaufania do przepływów funduszy z pominięciem pośrednictwa bankowego(8),
– uwzględniając komunikat Komisji z dnia 19 lutego 2020 r. do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów w sprawie europejskiej strategii w zakresie danych (COM(2020)0066),
– uwzględniając komunikat Komisji z dnia 19 lutego 2020 r. do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów w sprawie kształtowania cyfrowej przyszłości Europy (COM(2020)0067),
– uwzględniając komunikat Komisji z dnia 25 maja 2016 r. do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów zatytułowany „Platformy internetowe i jednolity rynek cyfrowy. Szanse i wyzwania dla Europy” (COM(2016)0288),
– uwzględniając studium w sprawie oceny wartości dodanej, przygotowane przez Biuro Analiz Parlamentu Europejskiego, zatytułowane: “Digital Services Act: European added value assessment” („Prawodawstwo w zakresie usług cyfrowych: europejska wartość dodana”)(9),
– uwzględniając art. 47 i 54 Regulaminu,
– uwzględniając opinie przedstawione przez Komisję Rynku Wewnętrznego i Ochrony Konsumentów oraz Komisję Kultury i Edukacji,
– uwzględniając sprawozdanie Komisji Prawnej (A9-0177/2020),
A. mając na uwadze, że usługi cyfrowe, stanowiące podstawę gospodarki Unii i źródło utrzymania dużej liczby jej obywateli, należy regulować w sposób zapewniający poszanowanie praw podstawowych i innych praw obywateli, a jednocześnie wspierający rozwój i postęp gospodarczy, środowisko cyfrowe oraz wzmacniający zaufanie konsumentów do treści online, przy uwzględnieniu interesów użytkowników i wszystkich uczestników rynku, w tym MŚP i przedsiębiorstw typu start-up;
B. mając na uwadze, że niektóre przepisy dotyczące dostawców usług udostępniania treści online i audiowizualnych usług medialnych zostały niedawno zaktualizowane, w szczególności dyrektywą (UE) 2018/1808 i dyrektywą (UE) 2019/790, a szereg kluczowych aspektów prawa cywilnego i handlowego nie zostało w zadowalający sposób uwzględnionych w prawie unijnym ani krajowym, a także mając na uwadze, że znaczenie tej kwestii wzrosło w związku z gwałtownym i przyspieszonym rozwojem w dziedzinie usług cyfrowych w ostatnich dziesięcioleciach, a w szczególności z pojawieniem się nowych modeli biznesowych, technologii i realiów społecznych; mając w tym kontekście na uwadze, że niezbędna jest kompleksowa aktualizacja podstawowych przepisów prawa cywilnego i handlowego mających zastosowanie do podmiotów handlowych prowadzących działalność w internecie;
C. mając na uwadze, że ze względu na silne, oparte na danych efekty sieciowe niektóre przedsiębiorstwa oferujące usługi cyfrowe posiadają znaczącą pozycję rynkową, co umożliwia im narzucanie użytkownikom swoich praktyk biznesowych oraz sprawia, że innym podmiotom – zwłaszcza przedsiębiorstwom typu start-up i MŚP – coraz trudniej jest konkurować, a nowym przedsiębiorstwom nawet wejść na rynek;
D. mając na uwadze, że samo egzekwowanie prawa konkurencji ex post nie może skutecznie zniwelować wpływu pozycji rynkowej niektórych platform internetowych, w tym wpływu na uczciwą konkurencję na jednolitym rynku cyfrowym;
E. mając na uwadze, że platformy oferujące hosting treści nie służą już jedynie wyświetlaniu treści, ale przekształciły się w wyrafinowane struktury i podmioty rynku, a dotyczy to w szczególności sieci społecznościowych, które pozyskują i wykorzystują dane dotyczące użytkowania; mając na uwadze, że użytkownicy mają uzasadnione podstawy, by oczekiwać sprawiedliwych warunków dostępu, przejrzystości, ustalania cen i rozwiązywania sporów w odniesieniu do korzystania z takich platform oraz wykorzystywania przez platformy danych użytkowników; mając na uwadze, że przejrzystość może przyczynić się do znacznego zwiększenia zaufania do usług cyfrowych;
F. mając na uwadze, że platformy oferujące hosting treści mogą decydować o tym, jakie treści są udostępniane ich użytkownikom, a tym samym wywierać znaczący wpływ na sposób pozyskiwania i przekazywania informacji, do tego stopnia, że owe platformy stały się de facto przestrzenią publiczną w sferze cyfrowej; mając na uwadze, że przestrzenią publiczną należy zarządzać w sposób chroniący interes publiczny, zapewniający poszanowanie praw podstawowych i praw cywilnych użytkowników, w szczególności wolności wypowiedzi i swobodnego dostępu do informacji;
G. mając na uwadze, że przestrzeganie prawa w świecie cyfrowym wiąże się nie tylko ze skutecznym egzekwowaniem praw podstawowych, w szczególności dotyczących wolności wypowiedzi i swobodnego dostępu do informacji, prywatności, bezpieczeństwa i ochrony, niedyskryminacji, poszanowania własności i praw własności intelektualnej, ale także z dostępem do wymiaru sprawiedliwości i rzetelnego procesu sądowego; mając na uwadze, że przekazanie prywatnym przedsiębiorstwom podejmowania decyzji dotyczących legalności treści lub uprawnień w zakresie egzekwowania prawa narusza przejrzystość i prawo do rzetelnego procesu sądowego, skutkując fragmentarycznym podejściem; mając na uwadze, że w związku z tym, aby zapewnić skuteczne środki odwoławcze, niezbędna jest przyspieszona procedura prawna obejmująca odpowiednie gwarancje;
H. mając na uwadze, że obecnie zautomatyzowane narzędzia nie są w stanie odróżnić w sposób wiarygodny treści nielegalnych od treści, które są w danym kontekście zgodne z prawem, i w związku z tym mechanizmy służące do zautomatyzowanego zgłaszania i usuwania treści mogą budzić uzasadnione obawy natury prawnej, w szczególności w odniesieniu do ewentualnych ograniczeń wolności wypowiedzi i informacji, chronionych na mocy art. 11 Karty praw podstawowych Unii Europejskiej; mając na uwadze, że w związku z tym korzystanie ze zautomatyzowanych mechanizmów powinno być proporcjonalne, obejmować jedynie uzasadnione przypadki i przebiegać zgodnie z przejrzystymi procedurami;
I. mając na uwadze, że art. 11 Karty praw podstawowych Unii Europejskiej chroni również wolność i pluralizm mediów, których zdolność do docierania do odbiorców w coraz większym stopniu jest uzależniona od platform internetowych;
J. mając na uwadze, że usługi cyfrowe są codziennie używane przez większość Europejczyków, lecz podlegają coraz szerszemu zbiorowi przepisów w całej UE, co prowadzi do znacznego rozdrobnienia rynku i, w rezultacie, do niepewności prawa dotykającej europejskich użytkowników i usługi transgraniczne; mając na uwadze, że systemy prawa cywilnego regulujące praktyki platform oferujących hosting treści w zakresie moderowania treści opierają się na określonych przepisach sektorowych na szczeblu Unii i krajowym, przy czym istnieją znaczne różnice w zakresie nakładanych obowiązków oraz w zakresie stosowanych w różnych systemach prawa cywilnego mechanizmów egzekwowania przepisów; mając na uwadze, że sytuacja ta doprowadziła do powstania rozdrobnionego zbioru przepisów dotyczących jednolitego rynku cyfrowego, co wymaga reakcji na szczeblu Unii;
K. mając na uwadze, że obecny model biznesowy niektórych platform oferujących hosting treści ma na celu promowanie treści, które mogą przyciągać uwagę użytkowników, a tym samym generować więcej danych profilujących w celu oferowania skuteczniejszych reklam ukierunkowanych, a tym samym zwiększenia zysków; mając na uwadze, że takie profilowanie w połączeniu z reklamami ukierunkowanymi może prowadzić do wzmocnienia treści zorientowanych na wykorzystywanie emocji, często zachęcając do pogoni za sensacją i sprzyjając temu zjawisku na kanałach informacyjnych i w systemach rekomendacji, co może skutkować manipulacją użytkowników;
L. mając na uwadze, że oferowanie użytkownikom reklam kontekstowych wymaga mniej danych użytkowników niż ukierunkowana reklama behawioralna, a tym samym jest mniej inwazyjne;
M. mając na uwadze, że wybór logiki algorytmicznej systemów rekomendacji, porównywarek, selekcjonowania treści lub lokowania reklam pozostaje w gestii platform oferujących hosting treści przy ograniczonych możliwościach nadzoru publicznego, co budzi obawy dotyczące odpowiedzialności i przejrzystości;
N. mając na uwadze, że posiadające znaczącą pozycję rynkową platformy oferujące hosting treści umożliwiają swoim użytkownikom korzystanie z ich profili w celu logowania się na stronach internetowych osób trzecich, zyskując możliwość śledzenia ich aktywności nawet poza środowiskiem ich własnej platformy, co stanowi przewagę konkurencyjną w dostępie do danych dla algorytmów selekcjonowania treści;
O. mając na uwadze, że tzw. inteligentne umowy, oparte na technologiach rozproszonego rejestru, w tym łańcuchach bloków, które umożliwiają zdecentralizowane i w pełni identyfikowalne prowadzenie rejestrów i automatyczne wykonanie, są stosowane w wielu dziedzinach bez odpowiednich ram prawnych; mając na uwadze, że nie ma pewności co do legalności takich umów i ich wykonalności w sytuacjach transgranicznych
P. mając na uwadze, że niepodlegające negocjacjom warunki korzystania z platform często wskazują zarówno na prawo właściwe, jak i na sądy właściwe poza Unią, co może utrudnić dostęp do wymiaru sprawiedliwości; mając na uwadze, że w rozporządzeniu Parlamentu Europejskiego i Rady (UE) nr 1215/2012 z dnia 12 grudnia 2012 r. w sprawie jurysdykcji i uznawania orzeczeń sądowych oraz ich wykonywania w sprawach cywilnych i handlowych(10) ustanowiono zasady dotyczące jurysdykcji; mając na uwadze, że w ogólnym rozporządzeniu o ochronie danych sprecyzowano przysługujące osobie, której dane dotyczą, prawo do podejmowania prywatnych działań egzekucyjnych wobec administratora lub podmiotu przetwarzającego dane, niezależnie od tego, czy przetwarzanie odbywa się w Unii czy nie, a także niezależnie od tego, czy administrator ma jednostkę organizacyjną w UE czy nie; mając na uwadze, że zgodnie z art. 79 ogólnego rozporządzenia o ochronie danych postępowanie wszczyna się przed sądem państwa członkowskiego, w którym administrator lub podmiot przetwarzający posiadają jednostkę organizacyjną bądź, ewentualnie, w którym osoba, której dane dotyczą, ma miejsce zwykłego pobytu;
Q. mając na uwadze, że dostęp do danych nieosobowych i eksploracja tych danych są istotnymi czynnikami rozwoju gospodarki cyfrowej; mając na uwadze, że odpowiednie normy prawne i związane z ochroną danych zabezpieczenia dotyczące interoperacyjności danych mogą, dzięki wyeliminowaniu uzależnienia od dostawcy, odegrać ważną rolę w zapewnieniu sprawiedliwych warunków rynkowych;
R. mając na uwadze, że ważna jest ocena możliwości powierzenia podmiotowi europejskiemu obowiązku zapewnienia zharmonizowanego podejścia do wdrażania aktu prawnego o usługach cyfrowych w całej Unii, ułatwiania koordynacji na poziomie krajowym oraz odniesienia się do nowych możliwości i wyzwań, w szczególności tych o charakterze transgranicznym, wynikających z bieżącego rozwoju technologicznego;
Akt prawny o usługach cyfrowych
1. zwraca się do Komisji o bezzwłoczne przedłożenie zestawu wniosków ustawodawczych stanowiących akt prawny o usługach cyfrowych o odpowiednim zakresie przedmiotowym, podmiotowym i terytorialnym, zawierający definicję kluczowych pojęć oraz uwzględniający zalecenia przedstawione w załączniku do niniejszej rezolucji; uważa, że z zastrzeżeniem szczegółowych aspektów przyszłych wniosków ustawodawczych podstawą prawną powinien być art. 114 Traktatu o funkcjonowaniu Unii Europejskiej;
2. proponuje, aby akt o usługach cyfrowych zawierał rozporządzenie ustanawiające prawa wynikające z umowy w zakresie zarządzania treścią, określające przejrzyste, sprawiedliwe, wiążące i jednolite normy i procedury moderowania treści oraz gwarantujące dostępne i niezależne środki zaskarżenia; podkreśla, że we wszelkich wnioskach ustawodawczych należy kierować się dowodami i dążyć do usunięcia obecnych nieuzasadnionych barier w świadczeniu usług cyfrowych przez platformy internetowe, a także zapobiegać potencjalnym nowym nieuzasadnionym barierom mogącym się pojawić, przy jednoczesnej poprawie ochrony konsumentów i obywateli; uważa, że wnioski ustawodawcze powinny mieć na celu osiągnięcie trwałego i inteligentnego wzrostu, sprostanie wyzwaniom technologicznym oraz dopilnowanie, by jednolity rynek cyfrowy był sprawiedliwy i bezpieczny dla wszystkich;
3. sugeruje ponadto, by proponowane środki dotyczące moderowania treści miały zastosowanie wyłącznie do nielegalnych treści, a nie do treści, które są jedynie szkodliwe; w tym celu proponuje, by w rozporządzeniu zawrzeć uniwersalne kryteria służące określeniu pozycji rynkowej platform w celu zapewnienia jasnej definicji platformy posiadającej znaczącą pozycję rynkową i tym samym w celu ustalenia, czy pewne platformy oferujące hosting treści, które nie posiadają znaczącej pozycji rynkowej, mogą zostać zwolnione z niektórych przepisów; podkreśla, że ramy ustanowione w akcie prawnym o usługach cyfrowych powinny być dostosowane do możliwości małych przedsiębiorstw, MŚP i przedsiębiorstw typu start-up, a zatem powinny obejmować proporcjonalne obowiązki dla wszystkich sektorów;
4. proponuje, aby w akcie prawnym o usługach cyfrowych zobowiązano dostawców usług cyfrowych mających siedzibę poza Unią do wyznaczenia, w interesie użytkowników, przedstawiciela prawnego w Unii, do którego można by kierować wnioski, na przykład, aby umożliwić konsumentom dochodzenie roszczeń w przypadku fałszywych lub wprowadzających w błąd reklam, oraz do umieszczenia danych kontaktowych tego przedstawiciela w sposób widoczny i dostępny na ich stronach internetowych;
Prawa w zakresie moderowania treści
5. podkreśla, że odpowiedzialność za egzekwowanie prawa musi spoczywać na organach publicznych; uważa, że ostateczne decyzje dotyczące legalności treści tworzonych przez użytkowników muszą być wydawane przez niezależne organy sądowe, a nie przez prywatne podmioty handlowe;
6. nalega, aby rozporządzenie zakazywało dyskryminacyjnych praktyk w zakresie moderowania treści lub praktyk, które wiążą się z wykorzystywaniem i wykluczeniem, w szczególności osób w najbardziej niekorzystnej sytuacji, oraz przewidywało poszanowanie podstawowych praw i wolności użytkowników, zwłaszcza wolności wypowiedzi;
7. podkreśla konieczność lepszej ochrony konsumentów przez zapewnienie wiarygodnych i przejrzystych informacji dotyczących przykładów nieuczciwych praktyk, takich jak wprowadzające w błąd oświadczenia i oszustwa;
8. zaleca, by stosowanie rozporządzenia było ściśle monitorowane przez podmiot europejski, którego zadaniem będzie zapewnienie przestrzegania przepisów rozporządzenia przez platformy oferujące hosting treści, w szczególności poprzez monitorowanie zgodności z normami ustanowionymi w zakresie zarządzania treścią na podstawie sprawozdań z przejrzystości i poprzez monitorowanie algorytmów stosowanych przez platformy oferujące hosting treści do celów zarządzania treścią; wzywa Komisję do oceny możliwości wyznaczenia istniejącej lub powołania nowej agencji europejskiej lub organu europejskiego lub samodzielnego koordynowania przez nią sieci organów krajowych w celu realizacji tych zadań (dalej „podmiot europejski”);
9. sugeruje, aby platformy oferujące hosting treści regularnie przedkładały podmiotowi europejskiemu kompleksowe sprawozdania z przejrzystości, oparte na spójnej metodyce i oceniane na podstawie odpowiednich wskaźników skuteczności działania, z uwzględnieniem ich polityk odnoszących się do treści oraz zgodności ich warunków z przepisami aktu prawnego o usługach cyfrowych; ponadto sugeruje, aby platformy oferujące hosting treści publikowały i przedstawiały te sprawozdania w sposób łatwo dostępny, a także by podawały do wiadomości swoje polityki odnoszące się do zarządzania treścią w ogólnodostępnej bazie danych;
10. apeluje do posiadających znaczącą pozycję rynkową platform oferujących hosting treści, aby oceniały ryzyko, jakie ich polityki zarządzania treścią odnoszące się do treści zgodnych z prawem stanowią dla społeczeństwa, zwłaszcza w odniesieniu do ich wpływu na prawa podstawowe, oraz aby podjęły organizowany dwa razy do roku dialog z podmiotem europejskim i z właściwymi organami krajowymi na podstawie przedstawionych sprawozdań z przejrzystości;
11. zaleca, by państwa członkowskie powołały niezależne organy rozstrzygania sporów, których zadaniem byłoby rozstrzyganie sporów dotyczących moderowania treści; jest zdania, że w celu ochrony anonimowych publikacji oraz interesu ogólnego, nie tylko użytkownik, który zamieścił będące przedmiotem sporu treści, ale także osoba trzecia prezentująca uzasadniony interes w podejmowaniu działania, jak rzecznik, powinni mieć możliwość kwestionowania decyzji dotyczących moderowania treści; potwierdza przysługujące użytkownikom prawo do dalszego dochodzenia sprawiedliwości;
12. zdecydowanie stoi na stanowisku, że w akcie prawnym o usługach cyfrowych nie można obligować platform oferujących hosting treści do stosowania jakiejkolwiek formy w pełni zautomatyzowanych kontroli ex ante treści, o ile obowiązujące przepisy prawne UE nie stanowią inaczej, i uważa, że mechanizmy dobrowolnie stosowane przez platformy nie mogą skutkować środkami w zakresie kontroli ex ante opartymi na wykorzystaniu zautomatyzowanych narzędzi lub filtrowaniu zamieszczanych treści, oraz że podmiot europejski musi prowadzić kontrolę tych mechanizmów w celu zapewnienia zgodności z aktem prawnym o usługach cyfrowych;
13. podkreśla, że na platformy oferujące hosting treści muszą zadbać o przejrzystość przetwarzaniu algorytmów i danych wykorzystywanych do ich szkolenia;
Prawa w zakresie selekcjonowania treści, danych i reklam online
14. uważa, że ukierunkowane na użytkownika wzmocnienie treści poprzez prezentowane w treściach poglądy lub stanowiska stanowi jedną z najbardziej szkodliwych praktyk w społeczeństwie cyfrowym, w szczególności w przypadkach, w których widoczność takich treści jest zwiększona na podstawie wcześniejszej interakcji użytkownika z innymi wzmocnionymi treściami oraz w celu optymalizacji profili użytkowników pod kątem reklam ukierunkowanych; wyraża zaniepokojenie, że takie praktyki opierają się na uporczywym śledzeniu i eksploracji danych; wzywa Komisję do przeanalizowania wpływu takich praktyk i do przyjęcia odpowiednich środków ustawodawczych;
15. jest zdania, że wykorzystanie reklamy ukierunkowanej musi być ściślej uregulowane na korzyść mniej inwazyjnych form reklamy, które nie wymagają żadnego mechanizmu śledzenia interakcji użytkownika z treścią, oraz że wyświetlanie reklamy behawioralnej powinno być zależne od wydania przez użytkownika dobrowolnej, wyraźnej, świadomej i jednoznacznej zgody;
16. zwraca uwagę na obowiązujące przepisy dotyczące reklamy ukierunkowanej zawarte w ogólnym rozporządzeniu o ochronie danych i dyrektywie 2002/58/WE Parlamentu Europejskiego i Rady z dnia 12 lipca 2002 r. dotyczącej przetwarzania danych osobowych i ochrony prywatności w sektorze łączności elektronicznej (dyrektywa o prywatności i łączności elektronicznej)(11);
17. w związku z tym zaleca, aby akt prawny o usługach cyfrowych wyznaczał wyraźne granice i wprowadzał przepisy dotyczące przejrzystości w odniesieniu do warunków gromadzenia danych do celów oferowania reklamy ukierunkowanej, a także w odniesieniu do funkcjonowania i rozliczalności takiej ukierunkowanej reklamy, w szczególności w przypadku śledzenia danych na stronach internetowych osób trzecich; utrzymuje, że potrzebne są nowe środki ustanawiające ramy stosunków między platformami a konsumentami w odniesieniu do zasad przejrzystości dotyczących reklam, cyfrowego sugerowania wyborów i preferencyjnego traktowania; zwraca się do Komisji o dokonanie oceny wariantów regulacji reklamy ukierunkowanej, w tym jej stopniowego wycofywania prowadzącego do wprowadzenia zakazu takiej reklamy;
18. podkreśla, że zgodnie z zasadą minimalizacji danych lub w celu zapobiegania nieuprawnionemu ujawnieniu, kradzieży tożsamości oraz innym formom niezgodnego z przeznaczeniem wykorzystania danych osobowych akt prawny o usługach cyfrowych powinien przewidywać prawo do anonimowego korzystania z usług cyfrowych zawsze, gdy jest to możliwe z technicznego punktu widzenia; apeluje do Komisji, aby zobowiązała platformy oferujące hosting treści do weryfikacji tożsamości reklamodawców, z którymi pozostają w stosunkach biznesowych, tak aby zapewnić rozliczalność reklamodawców w przypadku odkrycia, że promowane treści są nielegalne; w związku z tym zaleca, by akt prawny o usługach cyfrowych zawierał przepisy uniemożliwiające platformom wykorzystywanie danych osób trzecich w celach komercyjnych w sytuacji konkurencji z tymi osobami trzecimi;
19. wyraża ubolewanie z powodu istniejącej asymetrii informacyjnej między platformami oferującymi hosting treści a organami publicznymi i wzywa do usprawnienia wymiany niezbędnych informacji; podkreśla, że zgodnie z orzecznictwem dotyczącym metadanych komunikacyjnych organy publiczne muszą mieć dostęp do metadanych odnoszących się do użytkownika tylko w przypadku dochodzeń dotyczących osób podejrzanych o poważne przestępstwa, po uprzednim uzyskaniu zgody organu sądowego;
20. zaleca, aby od dostawców oferujących usługę z pojedynczym logowaniem i posiadających znaczącą pozycję rynkową wymagano również oferowania co najmniej jednego otwartego i zdecentralizowanego systemu zarządzania tożsamością opartego na niezastrzeżonych prawnie rozwiązaniach; zwraca się do Komisji o zaproponowanie wspólnych norm unijnych dla systemów krajowych zapewnianych przez państwa członkowskie, zwłaszcza w odniesieniu do norm ochrony danych i transgranicznej interoperacyjności;
21. wzywa Komisję do ocenienia możliwości określenia sprawiedliwych warunków umownych w celu ułatwienia wymiany danych i zwiększenia przejrzystości z myślą o rozwiązaniu problemu braku równowagi pod względem pozycji rynkowej; sugeruje, by w tym celu zbadać możliwości ułatwienia interoperacyjności, wzajemnych połączeń i przenoszenia danych; zwraca uwagę, że wymianie danych powinny towarzyszyć należyte i odpowiednie zabezpieczenia, w tym skuteczna anonimizacja danych osobowych;
22. zaleca, aby akt prawny o usługach cyfrowych zobowiązał platformy posiadające znaczącą pozycję rynkową do udostępnienia interfejsu programowania aplikacji, przez który platformy osób trzecich i ich użytkownicy będą w stanie współpracować z głównymi funkcjami i użytkownikami platformy udostępniającej interfejs programowania aplikacji, w tym z usługami dostarczanymi przez strony trzecie, mającymi na celu poprawę i personalizację doświadczenia użytkownika, zwłaszcza przez usługi, które personalizują ustawienia prywatności, a także preferencje dotyczące selekcjonowania treści; proponuje, by platformy publikowały dokumentację wszystkich interfejsów programowania aplikacji, które udostępniają w celu umożliwienia interoperacyjności i wzajemnego powiązania usług;
23. ponadto zdecydowanie twierdzi, że posiadające znaczącą pozycję rynkową platformy udostępniające interfejs programowania aplikacji nie mogą udostępniać żadnych danych otrzymywanych z usług dostarczanych przez strony trzecie, zatrzymywać takich danych, dokonywać ich monetyzacji ani ich użytkować;
24. podkreśla, że obowiązki dotyczące interoperacyjności i wzajemnego powiązania nie mogą ograniczać, hamować ani opóźniać zdolności platform oferujących hosting treści do naprawienia problemów z bezpieczeństwem, a potrzeba naprawienia problemów z bezpieczeństwem nie powinna prowadzić do zbędnego zawieszenia interfejsu programowania aplikacji umożliwiającego interoperacyjność i wzajemne powiązanie;
25. przypomina, że przepisy dotyczące interoperacyjności i wzajemnego powiązania muszą respektować wszystkie odpowiednie przepisy o ochronie danych; zaleca w związku z tym, aby akt prawny o usługach cyfrowych zobowiązał platformy do zapewnienia technicznej wykonalności przepisów dotyczących możliwości przenoszenia danych, ustanowionych w art. 20 ust. 2 ogólnego rozporządzenia o ochronie danych;
26. wzywa do tego, aby platformy oferujące hosting treści dawały użytkownikom rzeczywisty wybór co do uprzedniego wyrażenia lub niewyrażenia zgody na otrzymywanie reklamy ukierunkowanej opierającej się na dotychczasowej interakcji użytkownika z treściami na tej samej platformie oferującej hosting treści lub na stronach internetowych osób trzecich; podkreśla, że wybór ten musi być przedstawiony w jasny i zrozumiały sposób, a odmowa nie może prowadzić do uniemożliwienia dostępu do funkcji platformy; podkreśla, że zgoda na reklamę ukierunkowaną nie może być uznawana za dobrowolną i ważną, jeżeli dostęp do usługi jest uzależniony od przetwarzania danych; ponownie potwierdza, że na mocy dyrektywy 2002/58/WE reklama ukierunkowana jest zależna od zgody użytkownika i że w pozostałych przypadkach jest zabroniona; zauważa, że ponieważ aktywność internetowa osób fizycznych umożliwia uzyskanie pogłębionej wiedzy o ich zachowaniu oraz manipulowanie nimi, ogólne i niekontrolowane gromadzenie danych osobowych dotyczących każdego użycia usługi cyfrowej narusza w sposób nieproporcjonalny prawo do prywatności; potwierdza, że użytkownicy mają prawo nie podlegać uporczywemu śledzeniu, gdy korzystają z usług cyfrowych;
27. w tym samym duchu zwraca się do Komisji o zadbanie o to, by konsumenci mogli wciąż korzystać z podłączonego urządzenia i wszystkich jego funkcji, nawet jeżeli wycofają zgodę lub nie wyrażą zgody na dzielenie się danymi nieoperacyjnymi z producentem urządzenia lub osobami trzecimi; ponownie zwraca uwagę na potrzebę zapewnienia w warunkach umownych przejrzystości w odniesieniu do możliwości i zakresu wymiany danych ze stronami trzecimi;
28. wzywa ponadto do zagwarantowania użytkownikom odpowiedniego stopnia przejrzystości i wpływu na kryteria, zgodnie z którymi odbywa się proces selekcjonowania treści i prezentowania jej użytkownikom; stwierdza, że powinno to również obejmować możliwość rezygnacji z wszelkiej formy selekcjonowania treści wykraczającej poza porządkowanie chronologiczne; podkreśla, że udostępniane przez platformy interfejsy programowania aplikacji powinny zapewniać użytkownikom możliwość doboru treści za pomocą wybranego przez nich oprogramowania lub usług;
29. podkreśla, jak ważne jest, aby akt prawny o usługach cyfrowych stanowił solidne rozwiązanie prawne, skuteczne z punktu widzenia ochrony dzieci w środowisku internetowym, a jednocześnie nie narzucał ogólnych obowiązków dotyczących monitorowania lub filtrowania, przy jednoczesnym zapewnieniu pełnej koordynacji i unikaniu dublowania przepisów ogólnego rozporządzenia o ochronie danych oraz dyrektywy o audiowizualnych usługach medialnych;
30. przypomina, że płatne reklamy lub płatne lokowanie sponsorowanych treści należy wskazać w jasny, zwięzły i zrozumiały sposób; sugeruje, że platformy powinny ujawniać źródła płatnych reklam i sponsorowanych treści; sugeruje w tym celu, by platformy oferujące hosting treści publikowały wszystkie sponsorowane treści i reklamy oraz umieszczały je w sposób wyraźnie widoczny dla ich użytkowników w publicznie dostępnym archiwum reklamy, ze wskazaniem, kto za nie zapłacił oraz, w stosownych przypadkach, w czyim imieniu; podkreśla, że dotyczy to płatności zarówno bezpośrednich, jak i pośrednich, a także wszelkiego innego wynagrodzenia otrzymanego przez dostawców usług;
31. uważa, że jeżeli odpowiednie dane wskazują, że między platformami z siedzibą w UE a platformami z siedzibą w państwach trzecich istnieje znacząca różnica w praktykach w zakresie reklamy wprowadzającej w błąd oraz w egzekwowaniu przepisów, zasadne jest rozważenie dalszych możliwości zapewnienia zgodności z przepisami obowiązującymi w Unii; podkreśla potrzebę zapewnienia równych warunków konkurencji między reklamodawcami z Unii a reklamodawcami z państw trzecich;
Przepisy w zakresie warunków, inteligentnych umów i łańcuchów bloków oraz przepisy prywatnego prawa międzynarodowego
32. odnotowuje wzrost liczby tzw. „inteligentnych umów”, takich jak umowy oparte na technologiach rozproszonego rejestru, bez jasnej podstawy prawnej;
33. wzywa Komisję do oceny rozwoju i wykorzystania technologii rozproszonego rejestru, w tym łańcuchów bloków oraz, w szczególności, tzw. inteligentnych umów, do przedstawienia wytycznych w celu zagwarantowania pewności prawa dla przedsiębiorstw i konsumentów, szczególnie w kwestiach legalności i egzekwowania inteligentnych umów w sytuacjach transgranicznych, a także – w stosownych przypadkach – wymogów notarialnych, oraz do przedstawienia wniosków dotyczących odpowiednich ram prawnych;
34. podkreśla, że sprawiedliwy charakter warunków narzucanych przez pośredników użytkownikom ich usług oraz ich zgodność z normami w zakresie praw podstawowych muszą podlegać kontroli sądowej. podkreśla, że warunki w sposób nieuprawniony naruszające prawa podstawowe użytkowników, takie jak prawo do prywatności i do wolności wypowiedzi, nie powinny być wiążące;
35. zwraca się do Komisji o zbadanie sposobów zapewnienia odpowiedniej równowagi i równości między stronami inteligentnych umów poprzez uwzględnienie obaw prywatnych słabszej strony lub obaw publicznych, takich jak obawy związane z porozumieniami kartelowymi; podkreśla konieczność dopilnowania, by przestrzegane były prawa wierzycieli w przypadku postępowania upadłościowego i restrukturyzacji; zdecydowanie zaleca, aby inteligentne umowy zawierały mechanizmy, które umożliwią wstrzymanie wykonania tych umów i powiązanych płatności oraz ich cofnięcie;
36. zwraca się w szczególności do Komisji o zaktualizowanie istniejących wytycznych dotyczących dyrektywy Parlamentu Europejskiego i Rady 2011/83/UE z dnia 25 października 2011 r. w sprawie praw konsumentów(12) w celu wyjaśnienia, czy uważa inteligentne umowy za objęte wyłączeniem przewidzianym w art. 3 ust. 3 lit. l) tej dyrektywy, a jeśli tak, to w jakich okolicznościach, a także w celu wyjaśnienia kwestii prawa do odstąpienia;
37. podkreśla, że technologie łańcucha bloków, w szczególności inteligentne umowy, muszą być wykorzystywane zgodnie z zasadami i wymogami przeciwdziałania praktykom monopolistycznym, również tymi, które zakazują porozumień kartelowych lub praktyk uzgodnionych;
38. uważa, że standardowe warunki nie powinny uniemożliwiać skutecznego dostępu do wymiaru sprawiedliwości w sądach Unii ani pozbawiać praw obywateli lub przedsiębiorstw Unii; apeluje do Komisji o ocenę, czy ochrona praw dostępu do danych na mocy prawa prywatnego międzynarodowego jest niepewna i tracą na tym obywatele i przedsiębiorstwa Unii;
39. podkreśla znaczenie zapewnienia, aby korzystanie z usług cyfrowych w Unii w pełni podlegało prawu Unii i jurysdykcji sądów Unii;
40. stwierdza ponadto, że rozwiązania ustawodawcze dotyczące tych kwestii należy znaleźć na szczeblu Unii, jeżeli działania na szczeblu międzynarodowym wydają się niewykonalne lub jeżeli istnieje ryzyko, że wykonanie tych działań zajmie zbyt dużo czasu;
41. podkreśla, że od dostawców usług mających siedzibę w UE nie wymaga się usuwania ani blokowania dostępu do danych, które są legalne w ich kraju pochodzenia;
o o o
42. zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji oraz szczegółowych zaleceń zawartych w załączniku Komisji i Radzie.
ZAŁĄCZNIK DO REZOLUCJI:
SZCZEGÓŁOWE ZALECENIA DOTYCZĄCE TREŚCI POSTULOWANEGO WNIOSKU
A. ZASADY I CELE POSTULOWANEGO WNIOSKU
PODSTAWOWE ZASADY I CELE WNIOSKU:
— We wniosku przedstawiono zarówno akty, które powinny zostać włączone do aktu prawnego o usługach cyfrowych, jak i te, które mają względem niego charakter uzupełniający.
— Wniosek ma na celu wzmocnienie przepisów prawa cywilnego i handlowego mających zastosowanie do podmiotów handlowych działających w internecie w odniesieniu do usług cyfrowych.
— Wniosek ma na celu wzmocnienie i uściślenie wynikających z umowy praw użytkowników w zakresie moderowania i selekcjonowania treści.
— Wniosek ma na celu dalsze zajęcie się kwestią niedopuszczalnych i niesprawiedliwych warunków stosowanych do celów świadczenia usług cyfrowych.
— We wniosku uwzględniono problem dotyczący pewnych aspektów procesu gromadzenia danych naruszającego przysługujące użytkownikom sprawiedliwe wynikające z umowy prawa oraz zasady ochrony danych i poufności.
— We wniosku uwzględniono znaczenie rzetelnego wdrożenia praw użytkowników w zakresie interoperacyjności i możliwości przenoszenia danych.
— We wniosku podniesiono kwestię znaczenia przepisów prawa prywatnego międzynarodowego, które zapewniają jasność prawa w odniesieniu do niepodlegających negocjacji warunków stosowanych przez platformy internetowe, a także zapewnienia prawa dostępu do danych i zagwarantowania dostępu do wymiaru sprawiedliwości.
— We wniosku nie poruszono aspektów związanych z regulacją internetowych platform handlowych; powinny one za to zostać uwzględnione w pakiecie dotyczącym aktu prawnego o usługach cyfrowych, którego propozycję ma przedstawić Komisja.
— We wniosku zwrócono uwagę na potrzebę oceny konieczności właściwego uregulowania aspektów prawa cywilnego i handlowego w obszarze technologii rozproszonego rejestru, w tym łańcuchów bloków, oraz, w szczególności, uwzględniono konieczność właściwego uregulowania aspektów prawa cywilnego i handlowego inteligentnych umów.
I. WNIOSKI, KTÓRE NALEŻY UWZGLĘDNIĆ W AKCIE PRAWNYM O USŁUGACH CYFROWYCH
Kluczowe elementy wniosków, które należy uwzględnić w akcie prawnym o usługach cyfrowych:
Rozporządzenie w sprawie praw wynikających z umowy w zakresie zarządzania treścią, zawierające następujące elementy:
— powinno mieć zastosowanie do zarządzania treścią, w tym do moderowania i selekcjonowania treści, w odniesieniu do treści dostępnych w Unii;
— powinno przewidywać proporcjonalne zasady moderowania treści;
— powinno zapewniać standardy formalne i zasady proceduralne dla mechanizmu zgłaszania i usuwania nielegalnych treści, które są proporcjonalne w stosunku do platformy oraz charakteru i skutków szkody, skuteczne i nie ulegają dezaktualizacji;
— powinno przewidywać niezależny mechanizm rozstrzygania sporów w państwach członkowskich bez ograniczania dostępu do środków zaskarżenia;
— powinno podawać zestaw jasnych wskaźników służących określeniu pozycji rynkowej platform oferujących hosting treści w celu ustalenia, czy pewne platformy oferujące hosting treści, które nie posiadają znaczącej pozycji rynkowej, mogą zostać zwolnione z niektórych przepisów; wskaźniki te mogłyby obejmować wielkość sieci (liczba użytkowników), sytuację finansową, dostęp do danych, stopnień integracji pionowej, uzależnienie od dostawcy;
— powinno zawierać przepisy dotyczące odpowiedzialności platform oferujących hosting treści za sprzedawane i reklamowane na nich towary z uwzględnieniem działań wspierających skierowanych do MŚP, aby zminimalizować spoczywające na nich obciążenia związane z dostosowywaniem się do tego zakresu odpowiedzialności;
— powinno zawierać wyraźne rozróżnienie między treścią nielegalną i treścią szkodliwą w odniesieniu do stosowania odpowiednich wariantów strategicznych; w związku z tym wszelkie środki w akcie prawnym o usługach cyfrowych powinny dotyczyć wyłącznie nielegalnych treści zdefiniowanych w prawie Unii i prawie krajowym;
— powinno opierać się na ustalonych zasadach określania prawa właściwego dla przestrzegania prawa administracyjnego i – w związku z rosnącą zbieżnością praw użytkownika – jasno określać, że wszystkie aspekty wchodzące w jego zakres podlegają tym zasadom;
— powinno być w pełni zgodne z Kartą praw podstawowych Unii Europejskiej oraz z przepisami Unii dotyczącymi ochrony użytkowników, ich bezpieczeństwa, prywatności i danych osobowych, jak również z innymi prawami podstawowymi;
— powinno zapewniać dialog między posiadającymi znaczącą pozycję rynkową platformami oferującymi hosting treści a podmiotem europejskim w sprawie zarządzania ryzykiem w kontekście zarządzania treściami zgodnymi z prawem;
Komisja powinna rozważyć możliwości utworzenia podmiotu europejskiego odpowiedzialnego za zapewnienie zgodności z przepisami wniosku za pomocą następujących środków:
— regularne monitorowanie algorytmów wykorzystywanych przez platformy oferujące hosting treści w celu zarządzania treścią;
— regularny przegląd przestrzegania przez platformy oferujące hosting treści przepisów rozporządzenia, w oparciu o sprawozdania z przejrzystości udostępniane przez platformy oferujące hosting treści oraz ogólnodostępną bazę danych decyzji o usunięciu treści, która zostanie utworzona na podstawie aktu prawnego o usługach cyfrowych;
— współpraca z platformami oferującymi hosting treści w obszarze najlepszych praktyk w celu spełnienia wymogów dotyczących przejrzystości i odpowiedzialności za warunki, jak również najlepszych praktyk w zakresie moderowania treści i wdrażania procedur zgłaszania i usuwania nielegalnych treści;
— współpraca i koordynacja z organami krajowymi państw członkowskich w zakresie wdrażania aktu prawnego o usługach cyfrowych;
— zarządzanie specjalnym funduszem wspierającym państwa członkowskie w finansowaniu kosztów operacyjnych niezależnych organów rozstrzygania sporów opisanych w rozporządzeniu, finansowanym z grzywien nakładanych na platformy oferujące hosting treści za nieprzestrzeganie przepisów aktu prawnego o usługach cyfrowych, a także z wkładu posiadających znaczącą pozycję rynkową platform oferujących hosting treści;
— nakładanie grzywien za nieprzestrzeganie aktu prawnego o usługach cyfrowych. Grzywny powinny stanowić wkład do specjalnego funduszu mającego na celu wspieranie państw członkowskich w finansowaniu kosztów operacyjnych organów rozstrzygania sporów opisanych w rozporządzeniu. Przypadki nieprzestrzegania przepisów powinny obejmować:
– niewdrożenie przepisów rozporządzenia;
– brak przejrzystych, dostępnych, sprawiedliwych i niedyskryminujących warunków;
– brak zapewnienia podmiotowi europejskiemu dostępu do algorytmów zarządzania treścią w celu dokonania ich przeglądu;
– nieprzedłożenie podmiotowi europejskiemu sprawozdań z przejrzystości;
— publikowanie półrocznych sprawozdań z całej swojej działalności i zdawanie sprawozdania instytucjom UE.
Sprawozdania z przejrzystości w zakresie zarządzania treścią należy sporządzać w następujący sposób:
Akt prawny o usługach cyfrowych powinien zawierać przepisy zobowiązujące platformy oferujące hosting treści do regularnego publikowania i przekazywania podmiotowi europejskiemu sprawozdań z przejrzystości. Sprawozdania powinny być kompleksowe, przygotowywane z zastosowaniem spójnej metodyki oraz powinny zawierać w szczególności:
— informacje dotyczące zgłoszeń przetwarzanych przez platformę oferującą hosting treści, w tym:
– całkowitą liczbę otrzymanych zgłoszeń w podziale na rodzaj treści i podjęte w związku z nimi działania;
– liczbę otrzymanych zgłoszeń w podziale na kategorie podmiotów zgłaszających, takie jak osoby fizyczne, organy publiczne lub przedsiębiorstwa prywatne;
– całkowitą liczbę zrealizowanych wniosków o usunięcie nielegalnych treści i całkowitą liczbę przypadków dotyczących treści przekazanych do właściwych organów;
– całkowitą liczbę otrzymanych zgłoszeń sprzeciwu lub odwołań oraz informacje o sposobie ich rozstrzygnięcia;
– średni upływ czasu między publikacją, zgłoszeniem, zgłoszeniem sprzeciwu i usunięciem nielegalnych treści;
— informacje na temat liczby pracowników zatrudnionych do moderowania treści, ich lokalizacji, wykształcenia i umiejętności językowych, a także wszelkich algorytmów wykorzystywanych do podejmowania decyzji;
— informacje dotyczące wezwań do udzielenia informacji skierowanych przez organy publiczne, takie jak organy odpowiedzialne za ściganie przestępstw, ze wskazaniem liczby wezwań w pełni zrealizowanych oraz tych, które nie zostały zrealizowane lub zostały zrealizowane jedynie częściowo;
— informacje na temat egzekwowania warunków oraz informacje na temat orzeczeń sądowych wydanych w celu uchylenia lub zmiany warunków, które zostały uznane przez jedno z państw członkowskich UE za nielegalne.
Ponadto platformy oferujące hosting treści powinny publikować swoje decyzje dotyczące usunięcia treści w ogólnodostępnej bazie danych w celu poprawy przejrzystości dla użytkowników.
Niezależne organy rozstrzygania sporów, które mają zostać ustanowione na mocy rozporządzenia, powinny sporządzać sprawozdania na temat liczby skierowanych do nich spraw, w tym liczby spraw, które zostały rozpatrzone.
II. WNIOSKI UZUPEŁNIAJĄCE DO AKTU PRAWNEGO O USŁUGACH CYFROWYCH
Środki dotyczące selekcjonowania treści, danych i reklam online naruszających przysługujące użytkownikom sprawiedliwe prawa wynikające z umowy powinny obejmować:
— Środki służące zminimalizowaniu liczby danych gromadzonych przez platformy oferujące hosting treści na podstawie interakcji użytkowników z treściami udostępnianymi na platformach oferujących hosting treści w celu uzupełnienia profili reklamy ukierunkowanej, w szczególności poprzez nałożenie rygorystycznych warunków korzystania z ukierunkowanych reklam spersonalizowanych i wymogu uzyskania uprzedniej dobrowolnej, wyraźnej, świadomej i jednoznacznej zgody użytkownika. Zgoda na reklamę ukierunkowaną nie jest uznawana za dobrowolną i ważną, jeżeli dostęp do usługi jest uzależniony od przetwarzania danych.
— Użytkownicy platform oferujących hosting treści muszą być informowani, czy są poddawani reklamie ukierunkowanej, mieć dostęp do swojego profilu stworzonego przez platformy oferujące hosting treści oraz możliwość jego zmiany, a także mieć możliwość wyboru, czy chcą otrzymywać reklamy ukierunkowane, czy też nie, oraz możliwość wycofania zgody na otrzymywanie reklam ukierunkowanych.
— Platformy oferujące hosting treści powinny udostępniać archiwum treści sponsorowanych i reklam, które były pokazywane ich użytkownikom, w tym udostępniać następujące informacje:
– czy dana treść sponsorowana lub sponsoring są obecnie aktywne czy nieaktywne;
– okres, w którym sponsorowana treść lub reklama była aktywna;
– imię i nazwisko / nazwa i dane kontaktowe sponsora lub reklamodawcy, a także dane osoby, w imieniu której sponsorowana treść lub reklama zostały zamieszczone, jeżeli jest to inna osoba;
– całkowita liczba użytkowników, do których dotarła reklama;
– informacje o grupie użytkowników, do których skierowana była reklama.
Droga do sprawiedliwego egzekwowania praw użytkowników w zakresie interoperacyjności, wzajemnych połączeń i możliwości przenoszenia powinna obejmować:
— ocenę możliwości określenia sprawiedliwych warunków umownych w celu ułatwienia wymiany danych z myślą o rozwiązaniu problemu braku równowagi pod względem pozycji rynkowej, w szczególności poprzez interoperacyjność, wzajemne połączenia i przenoszenie danych.
— nałożony na platformy o znaczącej pozycji na rynku wymóg zapewniania interfejsu programowania aplikacji, za pomocą którego platformy osób trzecich i ich użytkownicy mogą współpracować z kluczowymi funkcjami i użytkownikami platformy zapewniającej interfejs programowania aplikacji, w tym z serwisami osób trzecich, które zostały stworzone w celu poprawy doświadczeń użytkownika i dostosowania się do jego potrzeb, zwłaszcza dzięki usługom personalizacji ustawień prywatności i preferencji w zakresie selekcjonowania treści;
— przepisy uniemożliwiające platformom o silnej pozycji na rynku oferującym interfejs programowania aplikacji udostępnianie, przechowywanie, monetyzację lub używanie danych otrzymywanych od serwisów osób trzecich;
— przepisy gwarantujące, że zobowiązania związane z interoperacyjnością i wzajemnymi powiązaniami nie mogą ograniczać, hamować ani opóźniać zdolności platform oferujących hosting treści do naprawiania problemów związanych z bezpieczeństwem, a potrzeba naprawienia takich problemów nie prowadzi do nieuzasadnionego zawieszenia interfejsu programowania aplikacji zapewniającego interoperacyjność i wzajemne powiązania;
— przepisy gwarantujące, że na mocy aktu prawnego o usługach cyfrowych platformy są zobowiązane do zapewnienia technicznej wykonalności przepisów dotyczących przenoszenia danych, o których mowa w art. 20 ust. 2 ogólnego rozporządzenia o ochronie danych;
— przepisy gwarantujące, że posiadające silną pozycję rynkową platformy oferujące hosting treści publicznie dokumentują wszystkie interfejsy programowania aplikacji, które udostępniają w celu umożliwienia interoperacyjności i wzajemnego powiazania usług.
Droga do właściwego uregulowania aspektów prawa cywilnego i handlowego dotyczących technologii rozproszonego rejestru, w tym łańcuchów bloków, a w szczególności inteligentnych umów, powinna obejmować:
— środki zapewniające właściwe ramy prawne dla rozwoju i wdrażania usług cyfrowych obejmujących technologie rozproszonego rejestru, takie jak łańcuchy bloków i inteligentne umowy;
— środki zapewniające, aby inteligentne umowy zawierały mechanizmy, które mogą wstrzymać i cofnąć ich wykonanie, w szczególności z uwagi na prywatne obawy słabszej strony lub publiczne obawy, takie jak te związane z porozumieniami kartelowymi, i w poszanowaniu praw wierzycieli w przypadku postępowań upadłościowych i restrukturyzacji;
— środki zapewniające właściwą równowagę i równość stron inteligentnych umów, w szczególności z uwzględnieniem interesu niewielkich przedsiębiorstw oraz MŚP, w przypadku których Komisja Europejska powinna zbadać możliwe rozwiązania;
— aktualizację istniejących wytycznych dotyczących dyrektywy 2011/83/UE w celu wyjaśnienia, czy inteligentne umowy objęte są wyłączeniem przewidzianym w art. 3 ust. 3 lit. i) tej dyrektywy, a także kwestie związane z transakcjami transgranicznymi, wymogami notarialnymi i prawem do odstąpienia od umowy;
Droga do sprawiedliwych przepisów prawa prywatnego międzynarodowego, które nie pozbawiają użytkowników dostępu do wymiaru sprawiedliwości, powinna:
— zapewniać, aby standardowe warunki nie obejmowały przepisów regulujących kwestie prawa prywatnego międzynarodowego ze szkodą dla dostępu do wymiaru sprawiedliwości, w szczególności poprzez skuteczne stosowanie środków obowiązujących w tym zakresie;
— obejmować środki wyjaśniające przepisy prawa prywatnego międzynarodowego odnoszące się działalności platform dotyczącej danych, tak aby działały one bez szkody dla podmiotów Unii;
— opierać się na multilateralizmie oraz, w miarę możliwości, być uzgodniona na odpowiednich forach międzynarodowych.
Tylko w przypadku, gdy osiągnięcie rozwiązania opartego na multilateralizmie w rozsądnym terminie okaże się niemożliwe, należy proponować środki stosowane w ramach Unii, aby dopilnować, by korzystanie z usług cyfrowych w Unii było w pełni regulowane prawem Unii w ramach jurysdykcji sądów unijnych.
B. TEKST POSTULOWANEGO WNIOSKU USTAWODAWCZEGO
Wniosek
ROZPORZĄDZENIE PARLAMENTU EUROPEJSKIEGO I RADY
w sprawie praw wynikających z umowy w zakresie zarządzania treścią
PARLAMENT EUROPEJSKI I RADA UNII EUROPEJSKIEJ,
uwzględniając Traktat o funkcjonowaniu Unii Europejskiej, w szczególności jego art. 114,
uwzględniając wniosek Komisji Europejskiej,
po przekazaniu projektu aktu ustawodawczego parlamentom narodowym,
uwzględniając opinię Europejskiego Komitetu Ekonomiczno-Społecznego,
stanowiąc zgodnie ze zwykłą procedurą ustawodawczą,
a także mając na uwadze, co następuje:
(1) Warunki, które dostawcy usług cyfrowych stosują w relacjach z użytkownikami, często nie podlegają negocjacjom i mogą być jednostronnie zmieniane przez tych dostawców. Konieczne jest podjęcie działań na szczeblu ustawodawczym w celu ustanowienia minimalnych norm dotyczących takich warunków, w szczególności w odniesieniu do zasad proceduralnych dotyczących zarządzania treścią.
(2) Systemy prawa cywilnego regulujące praktyki platform oferujących hosting treści w zakresie moderowania treści opierają się na określonych przepisach sektorowych na szczeblu Unii, a także na przepisach przyjętych przez państwa członkowskie na szczeblu krajowym; istnieją znaczne różnice w zakresie obowiązków nakładanych przez te systemy prawa cywilnego na platformy oferujące hosting treści oraz w zakresie mechanizmów egzekwowania przepisów.
(3) Wynikająca z nich fragmentacja systemów prawa cywilnego regulujących moderowanie treści przez platformy oferujące hosting treści jest nie tylko źródłem niepewności prawa, która może prowadzić do przyjmowania przez takie platformy praktyk bardziej restrykcyjnych, niż jest to konieczne, w celu zminimalizowania ryzyka związanego z korzystaniem z ich usług, lecz także prowadzi do fragmentacji jednolitego rynku cyfrowego, która hamuje wzrost gospodarczy i innowacje oraz rozwój europejskich przedsiębiorstw na jednolitym rynku cyfrowym.
(4) Biorąc pod uwagę szkodliwe skutki fragmentacji jednolitego rynku cyfrowego oraz wynikający z niej brak pewności prawa dla przedsiębiorstw i konsumentów, międzynarodowy charakter hostingu treści, wiele treści wymagających moderacji oraz znaczącą pozycję na rynku kilku mających siedzibę poza Unią platform oferujących hosting treści, szereg kwestii pojawiających się w odniesieniu do hostingu treści należy uregulować w sposób prowadzący do pełnej harmonizacji, a więc w drodze rozporządzenia.
(5) W odniesieniu do relacji z użytkownikami niniejsze rozporządzenie powinno określać minimalne standardy sprawiedliwości, przejrzystości i odpowiedzialności w zakresie warunków korzystania z platform oferujących hosting treści. Warunki te powinny być jasne, dostępne, zrozumiałe i jednoznaczne oraz obejmować sprawiedliwe, przejrzyste, wiążące i jednolite normy i procedury moderowania treści, które powinny gwarantować dostępne i niezależne środki zaskarżenia oraz być zgodne z prawami podstawowymi.
(6) Ukierunkowane na użytkownika wzmocnienie treści w oparciu o prezentowane w nich poglądy lub stanowiska stanowi jedną z najszkodliwszych praktyk w społeczeństwie cyfrowym, w szczególności w przypadkach, w których widoczność takich treści jest zwiększona na podstawie wcześniejszej interakcji użytkownika z innymi wzmocnionymi treściami oraz w celu optymalizacji profili użytkowników pod kątem reklam ukierunkowanych.
(7) Algorytmy, które decydują o kolejności wyników wyszukiwania, mają wpływ na indywidualną i społeczną komunikację i interakcje oraz mogą mieć charakter opiniotwórczy, zwłaszcza w przypadku treści pochodzących z mediów.
(8) W celu dopilnowania między innymi, aby użytkownicy mogli dochodzić swoich praw, należy im zagwarantować odpowiednią przejrzystość i wpływ na proces selekcjonowania prezentowanej im treści, w tym możliwość całkowitej rezygnacji z jakiegokolwiek selekcjonowania treści poza porządkiem chronologicznym. W szczególności użytkownicy nie powinni być objęci procesem selekcjonowania treści bez uprzedniej dobrowolnie wyrażonej, wyraźnej, świadomej i jednoznacznej zgody. Zgoda na reklamę ukierunkowaną nie powinna być uznawana za dobrowolną i ważną, jeżeli dostęp do usługi jest uzależniony od przetwarzania danych.
(9) Ogólna zgoda użytkownika na warunki korzystania z platform oferujących hosting treści lub na jakikolwiek inny ogólny opis zasad związanych z zarządzaniem treścią przez platformy oferujące hosting treści nie powinna być traktowana jako zgoda wystarczająca na wyświetlanie użytkownikowi treści automatycznie selekcjonowanych.
(10) Niniejsze rozporządzenie nie zobowiązuje platform oferujących hosting treści do stosowania jakiejkolwiek formy zautomatyzowanej kontroli ex ante treści, o ile obowiązujące prawo Unii nie stanowi inaczej, a ponadto przewiduje, że procedury moderowania treści stosowane dobrowolnie przez platformy nie mogą prowadzić do środków kontroli ex-ante opartych na automatycznych narzędziach lub filtrowaniu zamieszczanych treści.
(11) Niniejsze rozporządzenie powinno również zawierać przepisy służące zwalczaniu dyskryminacyjnych praktyk moderowania treści, wykorzystywania lub wykluczania na potrzeby moderowania treści, w szczególności gdy treści tworzone przez użytkowników są usuwane ze względu na wygląd, pochodzenie etniczne, płeć, orientację seksualną, religię lub przekonania, niepełnosprawność, wiek, ciążę lub wychowanie dzieci, język lub klasę społeczną.
(12) Prawo do dokonania zgłoszenia zgodnie z niniejszym rozporządzeniem powinno przysługiwać każdej osobie fizycznej lub prawnej, w tym organom publicznym, którym udostępnia się treści za pośrednictwem strony internetowej lub aplikacji.
(13) W przypadku gdy dokonano zgłoszenia, platforma oferująca hosting treści powinna poinformować o tym fakcie, w szczególności o przyczynach zgłoszenia i podjętych działaniach, podmiot zamieszczający treść oraz udzielić mu informacji o procedurze, w tym o procedurze odwoławczej i możliwości skierowania sprawy do niezależnych organów rozstrzygania sporów, a także o dostępnych środkach zaskarżenia w przypadku nieprawdziwych zgłoszeń. Nie należy jednak przekazywać takich informacji, jeżeli organy publiczne poinformowały platformę oferującą hosting treści o trwających dochodzeniach organów ścigania. W takim przypadku poinformowanie podmiotu zamieszczającego treść o dokonanym zgłoszeniu powinno należeć do właściwych organów, zgodnie z obowiązującymi przepisami.
(14) O decyzji w sprawie zgłoszenia należy poinformować wszystkie zainteresowane strony. Informacje przekazywane zainteresowanym stronom powinny także obejmować, oprócz skutków podjętej decyzji, co najmniej uzasadnienie decyzji oraz informację, czy została podjęta wyłącznie przez człowieka, jak również istotne informacje dotyczące przeglądu lub środków zaskarżenia.
(15) Treści należy uznać za w sposób oczywisty nielegalne, jeżeli stwierdza się jednoznacznie i bez konieczności przeprowadzenia dogłębnej analizy, że naruszają przepisy dotyczące legalności treści w internecie.
(16) Ze względu na natychmiastowy charakter hostingu treści i często ulotny cel zamieszczania treści konieczne jest stworzenie niezależnych organów rozstrzygania sporów w celu zapewnienia szybkiego i skutecznego pozasądowego rozstrzygania sporów. Organy te powinny być właściwe do rozstrzygania sporów dotyczących legalnego charakteru treści zamieszczanych przez użytkowników oraz prawidłowego stosowania warunków. Proces ten nie powinien jednak uniemożliwiać użytkownikowi korzystania z prawa dostępu do wymiaru sprawiedliwości i dalszego dochodzenia roszczeń na drodze sądowej.
(17) Utworzenie niezależnych organów rozstrzygania sporów mogłoby zmniejszyć obciążenie sądów, zapewniając szybkie rozstrzyganie sporów dotyczących decyzji w sprawie zarządzania treścią, z zastrzeżeniem prawa do dochodzenia roszczeń na drodze sądowej. Biorąc pod uwagę, że na wprowadzeniu niezależnych organów rozstrzygania sporów mogą zyskać w szczególności posiadające znaczącą pozycję rynkową platformy oferujące hosting treści, właściwe jest, aby uczestniczyły one w finansowaniu takich organów. Tymi środkami finansowymi powinien zarządzać niezależnie podmiot europejski, aby wspierać państwa członkowskie w finansowaniu kosztów bieżących niezależnych organów rozstrzygania sporów. Państwa członkowskie powinny zapewnić takim organom odpowiednie zasoby, aby zagwarantować ich kompetencję i niezależność.
(18) Użytkownicy powinni mieć prawo do skierowania sprawy do sprawiedliwego i niezależnego organu rozstrzygania sporów stanowiącego alternatywny mechanizm rozstrzygania sporów w celu zakwestionowania decyzji podjętej przez platformę oferującą hosting treści po otrzymaniu zgłoszenia dotyczącego zamieszczonych przez nich treści. Prawo to powinno przysługiwać zgłaszającym posiadającym legitymację procesową w postępowaniu cywilnym dotyczącym spornych treści.
(19) W odniesieniu do jurysdykcji właściwym niezależnym organem rozstrzygania sporów powinien być organ znajdujący się w państwie członkowskim, w którym zamieszczono treść stanowiącą przedmiot sporu. Osoby fizyczne powinny mieć zawsze możliwość wnoszenia skarg do niezależnego organu rozstrzygania sporów w państwie członkowskim ich zamieszkania.
(20) Sygnalizowanie nieprawidłowości pomaga zapobiegać naruszeniom prawa i wykrywać zagrożenia lub szkody dla interesu ogólnego, które w przeciwnym razie pozostałyby niewykryte. Zapewnienie ochrony sygnalistom odgrywa ważną rolę w ochronie wolności wypowiedzi, wolności mediów i prawa społeczeństwa do dostępu do informacji. Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/1937(13) powinna zatem mieć zastosowanie do odpowiednich naruszeń niniejszego rozporządzenia. Należy zatem odpowiednio zmienić tę dyrektywę.
(21) Niniejsze rozporządzenie powinno przewidywać obowiązek składania sprawozdań z jego wykonania oraz obowiązek dokonywania jego przeglądu w rozsądnym terminie. W tym celu niezależne organy rozstrzygania sporów powołane przez państwa członkowskie na mocy niniejszego rozporządzenia powinny przedkładać sprawozdania dotyczące liczby skierowanych do nich spraw, podjętych decyzji – anonimizując dane w stosownych przypadkach – w tym liczby spraw rozpatrzonych, danych na temat problemów systemowych, tendencji i identyfikacji platform, które nie stosują decyzji niezależnych organów rozstrzygania sporów.
(22) Ponieważ cel niniejszego rozporządzenia, a mianowicie ustanowienie ram regulacyjnych dla praw wynikających z umowy w zakresie zarządzania treścią w Unii, nie może zostać osiągnięty w sposób wystarczający przez państwa członkowskie, natomiast ze względu na jego rozmiary i skutki możliwe jest lepsze jego osiągnięcie na szczeblu Unii, Unia może podjąć działania zgodnie z zasadą pomocniczości określoną w art. 5 Traktatu o Unii Europejskiej. Zgodnie z zasadą proporcjonalności określoną w tym artykule niniejsze rozporządzenie nie wykracza poza to, co jest konieczne do osiągnięcia tego celu.
(23) Działania na szczeblu Unii określone w niniejszym rozporządzeniu zostałyby znacznie wzmocnione poprzez ustanowienie podmiotu europejskiego, którego zadaniem byłoby należyte monitorowanie i zapewnianie przestrzegania przepisów niniejszego rozporządzenia przez platformy oferujące hosting treści. W tym celu Komisja powinna rozważyć możliwości wyznaczenia istniejącej lub nowej agencji europejskiej lub organu europejskiego lub koordynowania sieci lub organów krajowych w celu dokonania przeglądu zgodności z normami ustanowionymi w odniesieniu do zarządzania treścią na podstawie sprawozdań z przejrzystości oraz monitorowania algorytmów stosowanych przez platformy oferujące hosting treści do celów zarządzania treścią (dalej „podmiot europejski”).
(24) Aby zapewnić ocenę ryzyka związanego ze wzmocnieniem treści, należy prowadzić co dwa lata dialog na temat wpływu polityki zarządzania legalnymi treściami na prawa podstawowe między posiadającymi znaczącą pozycję rynkową platformami oferującymi hosting treści a podmiotem europejskim wraz z właściwymi organami krajowymi.
(25) Niniejsze rozporządzenie jest zgodne ze wszystkimi prawami podstawowymi oraz przestrzega swobód i zasad uznanych w Karcie praw podstawowych Unii Europejskiej i zapisanych w Traktatach, w szczególności wolności wypowiedzi i swobodnego dostępu do informacji oraz prawa do skutecznego środka odwoławczego i do sprawiedliwego procesu sądowego,
PRZYJMUJĄ NINIEJSZE ROZPORZĄDZENIE:
Artykuł 1
Cel
Celem niniejszego rozporządzenia jest wniesienie wkładu we właściwe funkcjonowanie rynku wewnętrznego poprzez ustanowienie przepisów zapewniających istnienie sprawiedliwych praw wynikających z umowy w zakresie zarządzania treścią oraz stworzenie niezależnych mechanizmów rozstrzygania sporów dotyczących zarządzania treścią.
Artykuł 2
Zakres stosowania
1. Niniejsze rozporządzenie ma zastosowanie do platform oferujących hosting treści i zarządzanie treścią ogólnodostępną na stronach internetowych lub za pośrednictwem aplikacji w Unii, niezależnie od siedziby platformy oferującej hosting treści lub miejsca jej rejestracji lub głównego miejsca prowadzenia przez nią działalności.
2. Niniejsze rozporządzenie nie ma zastosowania do platform oferujących hosting treści, które:
Do celów niniejszego rozporządzenia stosuje się następujące definicje:
1) „platforma oferująca hosting treści” oznacza usługę społeczeństwa informacyjnego w rozumieniu art. 1 ust. 1 lit. b) dyrektywy (UE) 2015/1535 Parlamentu Europejskiego i Rady(15), której głównym celem lub jednym z głównych celów jest umożliwienie zarejestrowanym lub niezarejestrowanym użytkownikom zamieszczania treści do wyświetlania na ogólnodostępnej stronie internetowej lub w aplikacji;
2) „posiadająca znaczącą pozycję rynkową platforma oferująca hosting treści” oznacza platformę oferującą hosting treści posiadającą co najmniej dwie z następujących cech:
a) zdolność do rozwoju lub utrzymania własnej bazy użytkowników poprzez efekty sieciowe, które uzależniają od danej platformy znaczną liczbę użytkowników, lub ze względu na pozycjonowanie na rynku niższego szczebla, które umożliwia powstanie zależności ekonomicznej;
b) znaczny udział w rynku mierzony liczbą aktywnych użytkowników lub rocznym globalnym obrotem platformy;
c) obecność w środowisku biznesowym lub sieciowym kontrolowanym przez własną grupę lub spółkę dominującą, co pozwala wykorzystać silną pozycję na jednym rynku do zdobycia rynku pokrewnego;
d) rola selekcjonera w odniesieniu do całej kategorii treści lub informacji;
e) dostęp do dużej ilości danych osobowych wysokiej jakości dostarczanych przez użytkowników lub wywnioskowanych na podstawie monitorowania ich zachowania w internecie, przy czym takie dane są niezbędne do świadczenia i poprawy świadczenia podobnej usługi, a dostęp do nich potencjalnych konkurentów i możliwość ich powielania są utrudnione;
3) „treść” oznacza wszelkie koncepcje, pomysły, formy wyrazu lub informacje w dowolnym formacie, takim jak tekst, obrazy, nagrania audio i wideo;
4) „nielegalne treści” oznaczają wszelkie treści, które nie są zgodne z prawem Unii lub z prawem danego państwa członkowskiego, w którym dokonuje się ich hostingu;
5) „zarządzanie treścią” oznacza moderowanie treści i jej selekcjonowanie na platformach oferujących hosting treści;
6) „moderowanie treści” oznacza praktykę polegającą na monitorowaniu i stosowaniu określonego wcześniej zbioru zasad i wytycznych do treści generowanych, publikowanych lub dzielonych przez użytkowników w celu zapewnienia ich zgodności z wymogami prawnymi i regulacyjnymi, wytycznymi wspólnotowymi i warunkami, a także wszelkie wynikające z tego środki podejmowane przez platformę, takie jak usunięcie treści lub usunięcie albo zawieszenie konta użytkownika, czy to w sposób zautomatyzowany, czy też przez osoby pełniące funkcję operatorów;
7) „selekcjonowanie treści” oznacza praktykę polegającą na wybieraniu, optymalizacji, ustalaniu priorytetu i rekomendowaniu treści w oparciu o profile poszczególnych użytkowników w celu wyświetlenia jej na stronie internetowej lub w aplikacji;
8) „warunki” oznaczają wszystkie warunki lub specyfikacje, niezależnie od ich nazwy lub formy, które regulują stosunek umowny między platformą oferującą hosting treści a jej użytkownikami i które jednostronnie określa platforma oferująca hosting treści;
9) „użytkownik” oznacza osobę fizyczną lub prawną, która korzysta z usług świadczonych przez platformę oferującą hosting treści lub wchodzi w interakcję z treścią udostępnianą na takiej platformie;
10) „podmiot zamieszczający” oznacza osobę fizyczną lub prawną, która dodaje treść na platformę oferującą hosting treści, niezależnie od jej widoczności dla innych użytkowników;
11) „zgłoszenie” oznacza sformalizowane zawiadomienie kwestionujące zgodność treści z wymogami prawnymi i regulacyjnymi, wytycznymi wspólnotowymi i warunkami.
Artykuł 4
Zasady zarządzania treścią
1. Zarządzanie treścią jest prowadzone w sposób uczciwy, zgodny z prawem i przejrzysty. Praktyki zarządzania treścią są odpowiednie, proporcjonalne do rodzaju i objętości treści, istotne i ograniczone do tego, co jest konieczne w odniesieniu do celów zarządzania treścią. Platformy oferujące hosting treści odpowiadają za zapewnienie uczciwych, przejrzystych i proporcjonalnych praktyk zarządzania treścią.
2. Platformy oferujące hosting treści nie stosują wobec użytkowników dyskryminujących praktyk, wykorzystywania lub wykluczania na potrzeby moderowania treści, takich jak usuwanie treści tworzonych przez użytkowników ze względu na wygląd, pochodzenie etniczne, płeć, orientację seksualną, religię lub przekonania, niepełnosprawność, wiek, ciążę lub wychowanie dzieci, język lub klasę społeczną.
3. Platformy oferujące hosting treści dostarczają użytkownikom wystarczających informacji o ich profilach selekcjonowania treści oraz o indywidualnych kryteriach, zgodnie z którymi platformy oferujące hosting treści selekcjonują przeznaczoną dla nich treść, włącznie z informacją, czy używane są algorytmy, a jeżeli tak, w jakim celu.
4. Platformy oferujące hosting treści zapewniają użytkownikom odpowiedni wpływ na proces selekcjonowania treści, która jest im prezentowana, w tym możliwość całkowitej rezygnacji z jakiegokolwiek selekcjonowania treści. W szczególności użytkownicy nie powinni być objęci procesem selekcjonowania treści bez uprzedniej dobrowolnie wyrażonej, wyraźnej, świadomej i jednoznacznej zgody.
Artykuł 5
Zorganizowany dialog na temat ryzyka związanego z zarządzaniem treścią
W ramach zorganizowanego dialogu na temat ryzyka z podmiotem europejskim oraz odpowiednimi organami krajowymi posiadające znaczącą pozycję rynkową platformy oferujące hosting treści prezentują podmiotowi europejskiemu dwa razy do roku sprawozdanie na temat wpływu na prawa podstawowe i zarządzania ryzykiem związanym z ich polityką zarządzania treścią, w którym to sprawozdaniu informują, jak ograniczają to ryzyko.
Artykuł 6
Obowiązek zapewnienia przejrzystości
1. Dostawcy usług cyfrowych podejmują środki niezbędne do umożliwienia ujawniania finansowania wszelkich grup interesów, z którymi powiązani są użytkownicy usług cyfrowych świadczonych przez dostawców, oraz szczegółowych informacji dotyczących charakteru relacji między takimi grupami interesów a użytkownikami. Takie ujawnienie umożliwia identyfikację osoby ponoszącej odpowiedzialność prawną.
2. Dostawcy komercyjnych usług cyfrowych, którzy mają siedzibę poza Unią, wyznaczają przedstawiciela prawnego dbającego o interesy użytkowników w Unii oraz dopilnowują, aby informacje kontaktowe tego przedstawiciela były widoczne i dostępne na ich platformach internetowych.
Artykuł 7
Uprawnienia w zakresie dokonywania zgłoszeń
1. Każda osoba fizyczna lub prawna lub organ publiczny, którym treść jest udostępniana za pośrednictwem strony internetowej, aplikacji lub innego oprogramowania, ma prawo do dokonania zgłoszenia zgodnie z niniejszym rozporządzeniem.
2. Państwa członkowskie przewidują kary w przypadku, gdy osoba działająca w celach związanych z prowadzoną przez siebie działalnością handlową, gospodarczą, rzemieślniczą lub zawodową systematycznie i wielokrotnie składa nieprawidłowe zgłoszenia. Kary te muszą być skuteczne, proporcjonalne i odstraszające.
Artykuł 8
Procedury zgłoszenia
Platformy oferujące hosting treści zawierają w swoich warunkach jasne, dostępne, zrozumiałe i jednoznaczne informacje dotyczące procedur zgłoszenia, w szczególności:
a) maksymalny okres, w którym podmiot zamieszczający daną treść ma zostać poinformowany o procedurze zgłoszenia;
b) okres, w którym podmiot zamieszczający może złożyć odwołanie;
c) termin szybkiego rozparzenia zgłoszenia i wydania decyzji przez platformę oferującą hosting treści;
d) termin poinformowania obu stron przez platformę oferującą hosting treści o podjętej decyzji, wraz z uzasadnieniem podjętego działania.
Artykuł 9
Treść zgłoszeń
1. Zgłoszenie dotyczące treści zawiera co najmniej następujące informacje:
a) link do tej treści oraz, w stosownym przypadku, np. film, znacznik czasu;
b) przyczynę zgłoszenia;
c) dowody na poparcie twierdzenia zawartego w zgłoszeniu;
d) oświadczenie o dobrej wierze złożone przez zgłaszającego; oraz
e) w przypadku naruszenia dóbr osobistych lub praw własności intelektualnej – tożsamość zgłaszającego.
2. W przypadku naruszeń, o których mowa w ust. 1 lit. e), zgłaszający jest osobą, której dotyczy naruszenie dóbr osobistych lub posiadaczem praw własności intelektualnej będących przedmiotem naruszenia, lub osobą działającą w imieniu osoby, której dotyczy naruszenie.
Artykuł 10
Informowanie podmiotu zamieszczającego
1. W następstwie zgłoszenia, a przed wydaniem jakiejkolwiek decyzji w sprawie treści, podmiot zamieszczający daną treść otrzymuje następujące informacje:
a) przyczynę zgłoszenia i działania, jakie może podjąć platforma oferująca hosting treści;
b) wystarczające informacje o obowiązującej procedurze;
c) informacje dotyczące prawa do odpowiedzi, o którym mowa w ust. 3; oraz
d) informację na temat dostępnych środków zaradczych w odniesieniu do nieprawdziwych zgłoszeń.
2. Nie należy jednak przekazywać informacji, o których mowa w ust. 1, jeżeli organy publiczne poinformowały platformę oferującą hosting treści o trwających dochodzeniach organów ścigania.
3. Podmiot zamieszczający treść ma prawo do udzielenia odpowiedzi platformie oferującej hosting treści w formie zgłoszenia sprzeciwu. Platforma oferująca hosting treści uwzględnia odpowiedź podmiotu zamieszczającego treść przy wydawaniu decyzji w sprawie działania, które należy podjąć.
Artykuł 11
Decyzje w sprawie zgłoszeń
1. Platformy oferujące hosting treści dopilnowują, by decyzje w sprawie zgłoszeń wydawał wykwalifikowany personel bez zbędnej zwłoki po przeprowadzeniu niezbędnych dochodzeń.
2. W następstwie zgłoszenia platformy oferujące hosting treści podejmują niezwłocznie decyzję o ewentualnym wycofaniu treści, jej usunięciu lub uniemożliwieniu dostępu do treści, która jest przedmiotem zgłoszenia, jeżeli taka treść nie jest zgodna z wymogami prawnymi. Z zastrzeżeniem art. 14 ust. 2 fakt, że platforma oferująca hosting treści uznała konkretne treści za niezgodne z wymogami, w żadnym razie nie prowadzi automatycznie do wycofania treści, jej usunięcia lub uniemożliwienia dostępu do niej przez innego użytkownika.
Artykuł 12
Informacja o decyzjach
Po podjęciu decyzji platformy oferujące hosting treści informują o tej decyzji wszystkie strony uczestniczące w procedurze zgłoszenia, przekazując następujące informacje w jasny i prosty sposób:
a) uzasadnienie decyzji;
b) wskazanie, czy decyzja została podjęta wyłącznie przez człowieka, czy przy wykorzystaniu algorytmu;
c) informację o możliwości dokonania przeglądu, o którym mowa w art. 13, oraz o środkach zaskarżenia przysługujących każdej ze stron.
Artykuł 13
Przegląd decyzji
1. Platformy oferujące hosting treści mogą zapewnić mechanizm umożliwiający użytkownikom zwrócenie się o przegląd podejmowanych przez nie decyzji.
2. Posiadające znaczącą pozycję rynkową platformy oferujące hosting treści zapewniają mechanizm przeglądu, o którym mowa w ust. 1.
3. We wszystkich przypadkach ostateczną decyzję o dokonaniu przeglądu podejmuje człowiek.
Artykuł 14
Usuwanie treści
1. Z zastrzeżeniem nakazów sądowych lub administracyjnych dotyczących treści online, treść będąca przedmiotem zgłoszenia pozostaje widoczna w czasie trwania oceny jej legalności.
2. Platformy oferujące hosting treści podejmują niezwłoczne działania w celu uniemożliwienia dostępu do treści, które są ewidentnie nielegalne, lub ich usunięcia.
Artykuł 15
Niezależne rozstrzyganie sporów
1. Państwa członkowskie tworzą niezależne organy rozstrzygania sporów w celu zapewnienia szybkiego i skutecznego pozasądowego rozstrzygania sporów w przypadku odwołania od decyzji w sprawie moderowania treści.
2. W skład niezależnych organów rozstrzygania sporów wchodzą niezależni specjaliści prawnicy posiadający uprawnienia do rozstrzygania sporów między platformami oferującymi hosting treści a użytkownikami dotyczących zgodności danej treści z wymogami prawnymi i regulacyjnymi, wytycznymi wspólnotowymi i warunkami.
3. Skierowanie kwestii dotyczącej moderowania treści do rozpatrzenia przez niezależny organ rozstrzygania sporów nie wyklucza możliwości dalszego odwołania się przez użytkownika do sądów, chyba że spór został rozstrzygnięty w drodze porozumienia.
4. Posiadające znaczącą pozycję rynkową platformy oferujące hosting treści wnoszą wkład finansowy w koszty operacyjne niezależnych organów rozstrzygania sporów za pośrednictwem specjalnego funduszu zarządzanego przez podmiot europejski, aby pomóc państwom członkowskim w finansowaniu tych organów. Państwa członkowskie zapewniają niezależnym organom rozstrzygania sporów odpowiednie zasoby, aby zagwarantować ich kompetencję i niezależność.
Artykuł 16
Przepisy proceduralne dotyczące niezależnego rozstrzygania sporów
1. Podmiot zamieszczający treść, a także strony trzecie, takie jak rzecznik, mające uzasadniony interes w takim działaniu, mają prawo do skierowania sprawy dotyczącej moderowania treści do właściwego, niezależnego organu rozstrzygania sporów, jeżeli platforma oferująca hosting treści zdecydowała o wycofaniu treści, usunięciu jej lub uniemożliwieniu dostępu do niej lub o innym działaniu, które jest sprzeczne z wyrażonym przez zgłaszającego preferowanym działaniem lub stanowi naruszenie praw podstawowych.
2. W przypadku gdy platforma oferująca hosting treści zdecydowała się nie usuwać treści będącej przedmiotem zgłoszenia, zgłaszający ma prawo skierować sprawę do właściwego niezależnego organu rozstrzygającego spory, pod warunkiem posiadania legitymacji procesowej w postępowaniu cywilnym dotyczącym spornej treści.
3. Jeśli chodzi o jurysdykcję, właściwym niezależnym organem rozstrzygania sporów jest organ znajdujący się w państwie członkowskim, w którym zamieszczono treść stanowiącą przedmiot sporu. Osoby fizyczne zawsze powinny mieć możliwość wniesienia skargi do niezależnego organu rozstrzygania sporów w państwie członkowskim zamieszkania.
4. W przypadku gdy zgłaszający ma prawo skierować sprawę dotyczącą moderowania treści do rozpatrzenia przez niezależny organ rozstrzygania sporów zgodnie z ust. 2, może skierować sprawę do niezależnego organu rozstrzygania sporów w państwie członkowskim, w którym ma on miejsce zwykłego pobytu lub w którym miejsce zwykłego pobytu ma podmiot zamieszczający treść, jeżeli korzysta z usługi do celów niekomercyjnych.
5. W przypadku gdy moderacja treści dotycząca tej samej kwestii jest przedmiotem sprawy skierowanej do innego niezależnego organu rozstrzygania sporów, niezależny organ rozstrzygania sporów może zawiesić procedurę dotyczącą przekazania sprawy. W przypadku gdy kwestia moderowania treści była przedmiotem zaleceń niezależnego organu rozstrzygania sporów, niezależny organ rozstrzygania sporów może odmówić rozpatrzenia sprawy.
6. Państwa członkowskie ustanawiają wszystkie inne niezbędne przepisy i procedury na potrzeby niezależnych organów rozstrzygania sporów w ramach ich jurysdykcji.
Artykuł 17
Dane osobowe
Wszelkie przetwarzanie danych osobowych na podstawie niniejszego rozporządzenia odbywa się zgodnie z rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679(16) oraz dyrektywą 2002/58/WE Parlamentu Europejskiego i Rady(17).
Artykuł 18
Zgłaszanie naruszeń i ochrona osób zgłaszających
Do zgłaszania naruszeń niniejszego rozporządzenia oraz do osób zgłaszających takie naruszenia stosuje się dyrektywę (UE) 2019/1937.
Artykuł 19
Zmiany w dyrektywie (UE) 2019/1937
W dyrektywie (UE) 2019/1937 wprowadza się następujące zmiany:
1) w art. 2 ust. 1 lit. a) dodaje się podpunkt w brzmieniu:
„(xi) zarządzanie treścią online;”;
2) w części I załącznika dodaje się punkt w brzmieniu:
Rozporządzenie [XXX] Parlamentu Europejskiego i Rady w sprawie praw wynikających z umowy w zakresie zarządzania treścią.”.
Artykuł 20
Monitorowanie, ocena i przegląd
1. Państwa członkowskie przekazują Komisji wszystkie istotne informacje dotyczące wdrażania i stosowania niniejszego rozporządzenia. Na podstawie dostarczonych informacji i konsultacji publicznych Komisja, do dnia… [trzy lata po wejściu w życie niniejszego rozporządzenia], przedkłada Parlamentowi Europejskiemu i Radzie sprawozdanie w sprawie wdrożenia i stosowania niniejszego rozporządzenia oraz rozważa potrzebę wprowadzenia dodatkowych środków, w tym, w stosownych przypadkach, zmian do niniejszego rozporządzenia.
2. Z zastrzeżeniem obowiązków sprawozdawczych ustanowionych w innych aktach prawnych Unii państwa członkowskie co roku przedkładają Komisji następujące dane statystyczne:
a) liczbę sporów skierowanych do niezależnych organów rozstrzygania sporów oraz rodzaj treści stanowiących przedmiot sporu;
b) liczbę spraw rozstrzygniętych przez niezależne organy rozstrzygania sporów, sklasyfikowanych według wyników.
Artykuł 21
Wejście w życie
Niniejsze rozporządzenie wchodzi w życie dwudziestego dnia po jego opublikowaniu w Dzienniku Urzędowym Unii Europejskiej.
Niniejsze rozporządzenie stosuje się od dnia XX.
Niniejsze rozporządzenie wiąże w całości i jest bezpośrednio stosowane we wszystkich państwach członkowskich.
Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/1937 z dnia 23 października 2019 r. w sprawie ochrony osób zgłaszających naruszenia prawa Unii (Dz.U. L 305 z 26.11.2019, s. 17).
Dyrektywa (UE) 2015/1535 Parlamentu Europejskiego i Rady z dnia 9 września 2015 r. ustanawiająca procedurę udzielania informacji w dziedzinie przepisów technicznych oraz zasad dotyczących usług społeczeństwa informacyjnego (Dz.U. L 241 z 17.9.2015, s. 1).
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.U. L 119 z 4.5.2016, s. 1).
Dyrektywa 2002/58/WE Parlamentu Europejskiego i Rady z dnia 12 lipca 2002 r. dotycząca przetwarzania danych osobowych i ochrony prywatności w sektorze łączności elektronicznej (dyrektywa o prywatności i łączności elektronicznej) (Dz.U. L 201 z 31.7.2002, s. 37).
Akt prawny o usługach cyfrowych i związane z nim kwestie z zakresu praw podstawowych
173k
59k
Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. w sprawie aktu prawnego o usługach cyfrowych i związanych z nim kwestii z zakresu praw podstawowych (2020/2022(INI))
– uwzględniając Traktat o Unii Europejskiej (TUE), w szczególności jego art. 2,
– uwzględniając Traktat o funkcjonowaniu Unii Europejskiej (TFUE), w szczególności jego art. 16 i 114,
– uwzględniając Kartę praw podstawowych Unii Europejskiej, w szczególności jej art. 6, 7, 8, 11, 13, 21, 22, 23, 24, 26, 38 i 47,
– uwzględniając dyrektywę 2000/31/WE Parlamentu Europejskiego i Rady z dnia 8 czerwca 2000 r. w sprawie niektórych aspektów prawnych usług społeczeństwa informacyjnego, w szczególności handlu elektronicznego w ramach rynku wewnętrznego („dyrektywa o handlu elektronicznym”)(1),
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE („ogólne rozporządzenie o ochronie danych”(RODO))(2),
– uwzględniając dyrektywę 2002/58/WE Parlamentu Europejskiego i Rady z dnia 12 lipca 2002 r. dotyczącą przetwarzania danych osobowych i ochrony prywatności w sektorze łączności elektronicznej („dyrektywa o prywatności i łączności elektronicznej”)(3),
– uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2018/1808 z dnia 14 listopada 2018 r. zmieniającą dyrektywę 2010/13/UE w sprawie koordynacji niektórych przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących świadczenia audiowizualnych usług medialnych (dyrektywa o audiowizualnych usługach medialnych) ze względu na zmianę sytuacji na rynku(4),
– uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/790 z dnia17 kwietnia 2019 r. w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym oraz zmiany dyrektyw 96/9/WE i 2001/29/WE(5) („dyrektywa w sprawie prawa autorskiego“),
– uwzględniając zalecenie Komisji (UE) 2018/334 z dnia 1 marca 2018 r. w sprawie działań na rzecz skutecznego zwalczania nielegalnych treści w internecie(6),
– uwzględniając przeprowadzoną przez Europol ocenę zagrożenia przestępczością zorganizowaną w internecie (IOCTA) z dnia 18 września 2018 r.,
– uwzględniając odpowiednie orzecznictwo Trybunału Sprawiedliwości Unii Europejskiej,
– uwzględniając art. 54 Regulaminu,
– uwzględniając opinie przedstawione przez Komisję Rynku Wewnętrznego i Ochrony Konsumentów oraz Komisję Kultury i Edukacji,
– uwzględniając sprawozdanie Komisji Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych (A9–0172/2020),
A. mając na uwadze, że prawa podstawowe, takie jak ochrona prywatności i danych osobowych, zasada niedyskryminacji, a także swoboda wypowiedzi i informacji, muszą być zakorzenione u podstaw udanej i trwałej europejskiej polityki usług cyfrowych; mając na uwadze, że prawa te muszą być widoczne zarówno w literze prawa, jak i w duchu ich wdrażania;
B. mając na uwadze, że rodzaje usług cyfrowych i role dostawców usług cyfrowych uległy diametralnej zmianie od czasu przyjęcia 20 lat temu dyrektywy o handlu elektronicznym;
C. mając na uwadze, że użytkownicy mogą mieć zaufanie jedynie do tych usług cyfrowych, które szanują ich prawa podstawowe, co zapewniłoby nie tylko korzystanie z usług, ale także zaoferowałoby przewagę konkurencyjną i stabilne modele biznesowe dla przedsiębiorstw;
D. mając na uwadze, że przepisy dotyczące ochrony danych mające zastosowanie do wszystkich dostawców oferujących usługi cyfrowe na terytorium UE zostały niedawno zaktualizowane i zharmonizowane w całej UE na podstawie ogólnego rozporządzenia o ochronie danych; mając na uwadze, że przepisy dotyczące prywatności łączności elektronicznej, która jest częścią usług cyfrowych, są objęte dyrektywą o prywatności i łączności elektronicznej i są obecnie poddane przeglądowi;
E. mając na uwadze, że ilość udostępnianych wszystkich rodzajów treści generowanych przez użytkowników, a także usług świadczonych za pośrednictwem platform internetowych, łącznie z usługami w chmurze, ogromnie wzrosła w niespotykanym tempie ułatwianym przez zaawansowane technologie; mając na uwadze, że obejmuje to treści nielegalne takie jak internetowe materiały przedstawiające niegodziwe traktowanie dzieci w celach seksualnych, a także treści legalne, lecz które mogą być szkodliwe dla społeczeństwa i demokracji, jak np. dezinformacja na temat leków na COVID-19;
F. mając na uwadze, że mowa nienawiści i dezinformacja w internecie są coraz powszechniejsze w ostatnich latach, ponieważ osoby i podmioty o destrukcyjnych zamiarach wykorzystują platformy internetowe do pogłębiania polaryzacji, która z kolei jest wykorzystywana do celów politycznych; mając na uwadze, że kobiety, osoby o innym kolorze skóry, osoby należące lub postrzegane jako należące do mniejszości etnicznych lub językowych oraz osoby LGBTIQ często są celem dyskryminującej mowy nienawiści, zastraszania, gróźb oraz padają kozłami ofiarnymi w internecie;
G. mając na uwadze, że tendencji tej sprzyjają platformy, których model biznesowy opiera się na gromadzeniu i analizie danych użytkowników, aby generować większy ruch i więcej kliknięć, a tym samym większą liczbę danych profilujących, a w konsekwencji większe zyski; mając na uwadze, że prowadzi to zwiększenia ilości treści goniących za sensacją; mając na uwadze, że mowa nienawiści i dezinformacja szkodzą zbiorowemu interesowi publicznemu, ponieważ podważają pełen szacunku uczciwy dyskurs publiczny oraz stanowią zagrożenie dla bezpieczeństwa publicznego, gdyż mogą podżegać do przemocy w świecie rzeczywistym; mając na uwadze, że walka z takimi treściami ma zasadnicze znaczenie dla zapewnienia poszanowania praw podstawowych oraz obrony praworządności i demokracji w UE;
H. mając na uwadze, że media społecznościowe i inne platformy dystrybucji treści wykorzystują techniki profilowania do kierowania i dystrybucji swoich treści, a także reklam; mając na uwadze, że dane uzyskane z cyfrowych śladów osób mogą być gromadzone w sposób, który może umożliwiać pozyskiwanie bardzo dokładnych informacji o niezwykle osobistym charakterze, zwłaszcza gdy dane te są łączone z innymi zestawami danych; mając na uwadze, że skandale związane z Cambridge Analytica i Facebookiem ujawniły zagrożenia związane z nieprzejrzystymi operacjami przetwarzania danych na platformach internetowych, ponieważ pokazały, że niektórzy wyborcy byli mikro-ukierunkowani za pomocą reklam politycznych, a czasami nawet ukierunkowanej dezinformacji;
I. mając na uwadze, że zautomatyzowane algorytmy decydujące o tym, jak przetwarzać, ustalać priorytety, dystrybuować i usuwać treści stron trzecich na platformach internetowych, w tym podczas kampanii politycznych i wyborczych, często odtwarzają istniejące wzorce dyskryminacyjne w społeczeństwie, co prowadzi do wysokiego ryzyka dyskryminacji osób już nią dotkniętych; mając na uwadze, że powszechne stosowanie algorytmów do usuwania lub blokowania treści budzi również obawy co do praworządności, legalności, słuszności i proporcjonalności;
J. mając na uwadze, że niewielka liczba w większości pozaeuropejskich dostawców usług posiada dużą władzę rynkową i wywiera wpływ na prawa i wolności jednostek, nasze społeczeństwa i demokracje, kontrolując sposób prezentacji informacji, usług i produktów, co ma ogromne skutki dla funkcjonowania państw członkowskich oraz ich obywateli. mając na uwadze, że decyzje tych platform mogą mieć daleko idące konsekwencje dla korzystania z wolności wypowiedzi i informacji oraz dla wolności i pluralizmu mediów; ;
K. mając na uwadze, że podejście polityczne służące zwalczaniu niezgodnych z prawem treści internetowych w UE koncentrowało się dotychczas głównie na dobrowolnej współpracy i usuwaniu z nakazu sądowego, a coraz więcej państw członkowskich przyjmuje przepisy krajowe w celu rozwiązania problemu treści niezgodnych z prawem w sposób niezharmonizowany; mając na uwadze, że przepisy dotyczące niektórych rodzajów treści niezgodnych z prawem zostały uwzględnione w najnowszych przepisach sektorowych na poziomie UE;
L. mając na uwadze, że czysto samoregulacyjne podejście stosowane przez platformy nie zapewnia odpowiedniej przejrzystości, odpowiedzialności i nadzoru; mając na uwadze, że takie podejście nie zapewnia również odpowiednich informacji dla władz publicznych, społeczeństwa obywatelskiego i użytkowników na temat sposobu, w jaki platformy zajmują się treściami i działaniami niezgodnymi z prawem i treściami naruszającymi ich warunki, ani też jak ogólnie selekcjonują treści;
M. mając na uwadze, że takie podejście może nie gwarantować przestrzegania praw podstawowych i stwarza sytuację, w której obowiązki sądowe są częściowo przerzucane na podmioty prywatne, co stanowi ryzyko ingerencji w prawo do wolności wypowiedzi;
N. mając na uwadze, że każdy sektor w UE ma swoją specyficzną kontrolę i swój specyficzny nadzór regulacyjny; mając na uwadze, że korzystna byłaby dalsza i bardziej kompleksowa koordynacja między różnymi organami nadzoru w całej UE;
O. mając na uwadze, że brak rzetelnych i porównywalnych danych publicznych na temat częstotliwości występowania niezgodnych z prawem i szkodliwych treści internetowych, na temat ich sygnalizowania i nakazanego przez sąd lub samoregulacyjnego ich usuwania, a także na temat działań następczych właściwych organów powoduje deficyt przejrzystości i odpowiedzialności; mając na uwadze, że brak jest informacji na temat algorytmów stosowanych przez platformy i strony internetowe oraz sposobu, w jaki platformy rozwiązują problem błędnego usuwania treści;
P. mając na uwadze, że wykorzystywanie seksualne dzieci w internecie jest jedną z form treści niezgodnych z prawem ułatwianych przez rozwój technologiczny; mając na uwadze, że ogromna ilość materiałów prezentujących seksualne wykorzystywanie dziecka krążących w internecie pociąga za sobą poważne wyzwania w zakresie wykrywania i dochodzenia, a przede wszystkim identyfikacji ofiar; mając na uwadze, że według Europolu ilość doniesień o przesyłaniu przez internet materiałów prezentujących seksualne wykorzystywanie dziecka, składanych do mającego siedzibę w USA NCMEC, wzrosła w ostatnim roku o 106 %;
Q. mając na uwadze, że zgodnie z orzecznictwem Trybunału Sprawiedliwości Unii Europejskiej (TSUE) treści powinny zostać usunięte na polecenie sądu państwa członkowskiego; mając na uwadze, że dostawcy usług hostingowych mogą korzystać z narzędzi i technologii automatycznego wyszukiwania w celu wykrywania i usuwania treści równoznacznych z treściami uprzednio uznanymi za niezgodne z prawem, ale nie powinni być zobowiązani do ogólnego monitorowania przechowywanych informacji lub do aktywnego wyszukiwania faktów lub okoliczności wskazujących na działalność niezgodną z prawem, zgodnie z art. 15 ust. 1 dyrektywy 2000/31/WE;
R. mając na uwadze, że wiarygodna identyfikacja elektroniczna ma fundamentalne znaczenie dla zapewnienia bezpiecznego dostępu do usług cyfrowych i bezpieczniejszego przeprowadzania transakcji drogą elektroniczną; mając na uwadze, że obecnie tylko 15 państw członkowskich zgłosiło Komisji system identyfikacji elektronicznej w odniesieniu do transgranicznego rozpoznawania w ramach rozporządzenia (UE) nr 910/2014(7) (rozporządzenie eIDAS);
S. mając na uwadze, że internet i platformy internetowe są wciąż kluczowym miejscem działania grup terrorystycznych, które używają ich jako narzędzia siania propagandy, rekrutacji oraz promowania swoich działań;
1. wyraża przekonanie o znacznych korzyściach gospodarczych i społecznych dla UE i jej państw członkowskich związanych z funkcjonowaniem jednolitego rynku cyfrowego; z zadowoleniem przyjmuje te korzyści, w szczególności lepszy dostęp do informacji i wzmocnienie wolności wypowiedzi; podkreśla istotny obowiązek zapewnienia sprawiedliwego ekosystemu cyfrowego, w którym prawa podstawowe, zapisane w traktatach i Karcie praw podstawowych Unii Europejskiej, w szczególności prawo do wolności wypowiedzi i informacji, niedyskryminacji, wolności i pluralizmu mediów, prywatności oraz ochrony danych, są przestrzegane, a bezpieczeństwo użytkownika jest zapewnione w internecie; podkreśla, że ustawodawcze i inne interwencje regulacyjne na jednolitym rynku cyfrowym, mające na celu zapewnienie przestrzegania tego obowiązku, powinny być ściśle ograniczone do tego, co konieczne; przypomina, że mechanizmy usuwania treści stosowane poza zakresem gwarancji sprawiedliwości proceduralnej są sprzeczne z art. 10 europejskiej konwencji praw człowieka;
2. wzywa Komisję do przyjęcia dostosowanego do potrzeb podejścia regulacyjnego w celu zajęcia się różnicami między światem w internecie i poza nim oraz sprostania wszystkim wyzwaniom wynikającym z różnorodności podmiotów i usług oferowanych w internecie; w tym względzie uważa, że niezbędne jest zastosowanie odrębnych podejść regulacyjnych do treści zgodnych i niezgodnych z prawem; podkreśla, że treści niezgodne z prawem i przestępstwa z wykorzystaniem internetu powinny być zwalczane z taką samą surowością i na tych samych zasadach prawnych, co niezgodne z prawem treści i zachowania poza internetem, a także z takimi samymi gwarancjami dla obywateli; przypomina, że dyrektywa o handlu elektronicznym stanowi ramy prawne dla usług online na rynku wewnętrznym, regulujące zarządzanie treścią;
3. uważa, że niezbędne jest szybkie i konsekwentne usuwanie treści niezgodnych z prawem w celu zwalczania czynów zabronionych i naruszeń praw podstawowych; uważa, że dobrowolne kodeksy postępowania tylko częściowo rozwiązują ten problem;
4. wzywa dostawców usług cyfrowych do usuwania treści internetowych z zachowaniem staranności, proporcjonalności i zasady niedyskryminacji, z należytym uwzględnieniem wszystkich okoliczności dotyczących praw podstawowych użytkowników, a także do wzięcia pod uwagę zasadniczego znaczenia wolności wypowiedzi i informacji w otwartym i demokratycznym społeczeństwie, aby uniknąć usuwania treści, które nie są niezgodne z prawem; zwraca się do dostawców usług cyfrowych, którzy z własnej inicjatywy chcą ograniczać określone zgodne z prawem treści zamieszczane przez użytkowników, aby rozważyli możliwość etykietowania takich treści zamiast ich usuwania z internetu, pozwalając tym samym użytkownikom na podjęcie decyzji o dostępie do tych treści na własną odpowiedzialność;
5. stoi na stanowisku, że wszelkie środki dotyczące usuwania treści zawarte w akcie prawnym o usługach cyfrowych powinny dotyczyć wyłącznie treści niezgodnych z prawem (według definicji określonej w prawie unijnym i krajowym), a przepisy nie powinny zawierać żadnych nieokreślonych pojęć i terminów, ponieważ spowodowałoby to niepewność prawa dla platform internetowych i zagroziło prawom podstawowym oraz wolności wypowiedzi;
6. przyznaje jednak, że obecny ekosystem cyfrowy zachęca też do problematycznych zachowań, takich jak ukierunkowanie oparte na cechach ujawniających fizyczne lub psychiczne słabości, rozpowszechnianie mowy nienawiści, treści rasistowskich i dezinformacji, pojawiające się problemy, np. zorganizowane nadużywanie wielu platform, lub tworzenie kont czy też manipulowanie treściami internetowymi przez algorytmy; zauważa z niepokojem, że niektóre modele biznesowe opierają się na pokazywaniu użytkownikom sensacyjnych i polaryzujących treści, aby wydłużyć czas spędzony przed monitorem, a w konsekwencji powiększyć zyski platform internetowych; podkreśla negatywny wpływ takich modeli biznesowych na prawa podstawowe osób oraz na społeczeństwo jako całość; apeluje o przejrzystość polityki monetyzacji platform internetowych;
7. podkreśla w związku z tym, że należy zatamować rozpowszechnianie takich szkodliwych treści; jest głęboko przekonany, że umiejętności korzystania z mediów, kontrolowanie przez użytkownika proponowanych mu treści oraz publiczny dostęp do wysokiej jakości treści i edukacji mają kluczowe znaczenie w tym względzie; z zadowoleniem przyjmuje inicjatywę Komisji dotyczącą utworzenia europejskiego obserwatorium mediów cyfrowych w celu wspierania niezależnych usług weryfikacji faktów, zwiększenia wiedzy publicznej na temat dezinformacji w internecie i wsparcia władz publicznych odpowiedzialnych za monitorowanie mediów cyfrowych;
8. wzywa Komisję i państwa członkowskie do wspierania niezależnych i publicznych mediów oraz inicjatyw edukacyjnych w zakresie umiejętności korzystania z mediów, a także ukierunkowanych kampanii uświadamiających dla społeczeństwa obywatelskiego; zauważa, że należy zwrócić szczególną uwagę na szkodliwe treści w kontekście małoletnich korzystających z internetu, szczególnie w odniesieniu do ich narażenia na nękanie w internecie, molestowanie seksualne, pornografię, przemoc lub samookaleczanie;
9. zauważa, że ponieważ działania online danej osoby umożliwiają głęboki wgląd w jej osobowość i pozwalają nią manipulować, ogólne i masowe gromadzenie danych osobowych dotyczących każdego korzystania z usługi cyfrowej koliduje nieproporcjonalnie z prawem do prywatności i ochroną danych osobowych; podkreśla zwłaszcza potencjalnie negatywny wpływ reklamy ukierunkowanej i behawioralnej oraz oceny jednostek, zwłaszcza na osoby małoletnie i inne słabsze grupy, z uwagi na ingerowanie w prywatne życie jednostek, co nasuwa pytania dotyczące gromadzenia i wykorzystywania danych używanych do celów spersonalizowanej reklamy, oferowania produktów lub usług bądź ustalania cen; potwierdza, że prawo użytkownika, by nie podlegać stałemu śledzeniu podczas korzystania z usług cyfrowych, jest zawarte w RODO i należy je odpowiednio egzekwować w całej UE; zauważa, że Komisja w swoim wniosku dotyczącym rozporządzenia w sprawie poszanowania życia prywatnego oraz ochrony danych osobowych w łączności elektronicznej (2017/0003(COD)) zaproponowała, aby uzależnić ukierunkowane selekcjonowanie treści od decyzji o wyrażeniu zgody;
10. uważa, że wprowadzająca w błąd lub niejasna reklama polityczna stanowi szczególną klasę zagrożeń internetowych, ponieważ wpływa na podstawowe mechanizmy umożliwiające funkcjonowanie naszego demokratycznego społeczeństwa, szczególnie gdy treści takie są sponsorowane przez strony trzecie i podmioty zagraniczne; podkreśla, że wdrożenie profilowania na dużą skalę w celu ukierunkowania politycznego, aby manipulować zachowaniami wyborczymi, może poważnie podważyć fundamenty demokracji; wzywa w związku z tym dostawców usług cyfrowych do podjęcia niezbędnych działań w celu identyfikacji i oznaczania treści przesyłanych przez boty społeczne i oczekuje, że Komisja przedstawi wytyczne dotyczące stosowania takich perswazyjnych technologii cyfrowych w kampaniach wyborczych i polityce reklamowej; w związku z tym wzywa do ustanowienia rygorystycznych wymogów dotyczących przejrzystości w zakresie wyświetlania płatnych reklam politycznych;
11. podkreśla, że treści niezgodne z prawem należy usuwać konsekwentnie i bez zbędnej zwłoki, aby zwalczać przypadki naruszeń – zwłaszcza w odniesieniu do treści dotyczących dzieci i o charakterze terrorystycznym – oraz łamania praw podstawowych, wprowadzając konieczne zabezpieczenia, takie jak przejrzystość procesu, prawo do odwołania i dostęp do skutecznych środków zaskarżenia; uważa, że dobrowolne kodeksy postępowania i standardowe warunki umowne nie są odpowiednio egzekwowane i dowiodły jedynie częściowego rozwiązania tego problemu; podkreśla, że ostateczna odpowiedzialność za egzekwowanie prawa, rozstrzyganie o zgodności działań online i treści internetowych z prawem oraz nakazywanie dostawcom usług hostingowych usunięcia lub zablokowania treści niezgodnych z prawem spoczywa na niezależnych właściwych organach;
12. uznaje fakt, że o ile niezgodny z prawem charakter niektórych rodzajów treści można łatwo ustalić, o tyle w przypadku innych rodzajów treści taka decyzja jest trudniejsza, ponieważ wymaga kontekstualizacji; ostrzega, że obecne zautomatyzowane narzędzia nie są w stanie przeprowadzać krytycznej analizy i odpowiednio rozumieć znaczenia kontekstu w odniesieniu do konkretnych treści, co może prowadzić do zbędnego usuwania treści i szkodzić wolności słowa oraz dostępowi do różnych informacji, również na temat poglądów politycznych, a więc w konsekwencji do cenzury; podkreśla, że zapewniana przez dostawców usług lub ich kontrahentów weryfikacja automatycznych raportów absolutnie nie rozwiązuje tego problemu, zwłaszcza jeżeli jest zlecana pracownikom prywatnym, którym brakuje niezależności, kwalifikacji i rozliczalności;
13. podkreśla, że niezgodne z prawem treści internetowe można łatwo i szybko rozmnożyć, a tym samym znacznie zwiększyć negatywny wpływ w bardzo krótkim czasie; jest jednak przekonany, że akt prawny o usługach cyfrowych nie powinien zawierać żadnych zobowiązań dla dostawców usług hostingowych lub innych pośredników technicznych dotyczących korzystania ze zautomatyzowanych narzędzi moderowania treści;
14. przypomina, że niezgodne z prawem treści internetowe powinny być nie tylko usuwane przez platformy internetowe, ale także organy ścigania i sądownictwo powinny wyciągać konsekwencje w przypadku przestępstw; wzywa Komisję, aby rozważyła zobowiązanie platform internetowych do zgłaszania poważnych przestępstw właściwemu organowi ścigania po dowiedzeniu się o takim przestępstwie; przyznaje w związku z tym, że kluczowym problemem w niektórych państwach członkowskich jest nie tylko to, że postępowania pozostają nierozstrzygnięte, ale że nie są wszczynane; wzywa do usunięcia przeszkód utrudniających składanie skarg do właściwych organów; jest przekonany, że ze względu na transgraniczny charakter internetu i szybkie rozpowszechnianie niezgodnych z prawem treści internetowych należy usprawnić współpracę między dostawcami usług a właściwymi organami krajowymi, a także współpracę transgraniczną między właściwymi organami krajowymi oraz oprzeć ją na zasadach konieczności i proporcjonalności; podkreśla w związku z tym potrzebę przestrzegania porządku prawnego UE i ustalonych zasad współpracy transgranicznej oraz wzajemnego zaufania; wzywa państwa członkowskie do wyposażenia organów ścigania i organów sądowych w niezbędną wiedzę fachową, zasoby i narzędzia umożliwiające im skuteczne rozpatrywanie rosnącej liczby spraw dotyczących niezgodnych z prawem treści internetowych oraz rozstrzyganie sporów dotyczących wyłączania treści, a także do poprawy dostępu do wymiaru sprawiedliwości w obszarze usług cyfrowych;
15. podkreśla, że konkretną treść można uznać za niezgodną z prawem w jednym państwie członkowskim, ale objąć prawem do wolności wypowiedzi w innym państwie członkowskim; podkreśla, że aby chronić wolność słowa, unikać kolizji przepisów, zapobiegać nieuzasadnionemu i nieskutecznemu stosowaniu blokowania geograficznego oraz dążyć do zharmonizowanego jednolitego rynku, od dostawców usług hostingowych nie powinno się wymagać usuwania informacji zgodnych z prawem w państwie pochodzenia, w którym mają siedzibę lub w którym ma siedzibę ich wyznaczony przedstawiciel prawny, lub blokowania dostępu do takich informacji; przypomina, że organy krajowe mogą egzekwować wyłącznie nakazy usunięcia skierowane przez właściwe niezależne organy do dostawców usług mających siedzibę na ich terytorium; uważa, że należy wzmocnić mechanizmy współpracy między państwami członkowskimi przy wsparciu Komisji i odpowiednich agencji Unii; wzywa do zorganizowanego dialogu między państwami członkowskimi w celu określenia ryzyka związanego z określonymi rodzajami treści oraz wyodrębnienia potencjalnych różnic między państwami członkowskimi w ocenie takich zagrożeń;
16. podkreśla, że niezgodne z prawem treści powinno się usuwać tam, gdzie są hostowane, i że pośrednicy zwykłego przekazu nie powinni być zobowiązani do blokowania dostępu do treści;
17. jest głęboko przekonany, że obecne ramy prawne UE regulujące usługi cyfrowe należy zaktualizować w celu sprostania wyzwaniom wynikającym z rozdrobnienia między państwami członkowskimi a nowymi technologiami, takimi jak profilowanie i algorytmiczne podejmowanie decyzji, które są obecne we wszystkich dziedzinach życia, a także w celu zapewnienia jasności prawnej i poszanowania praw podstawowych, w szczególności wolności wypowiedzi i prawa do prywatności w sposób mogący sprostać wyzwaniom przyszłości z uwagi na szybki rozwój technologii;
18. z zadowoleniem przyjmuje zobowiązanie Komisji do wprowadzenia zharmonizowanego podejścia do obowiązków nakładanych na dostawców usług cyfrowych, w tym pośredników internetowych, w celu uniknięcia fragmentacji rynku wewnętrznego i niespójnego egzekwowania uregulowań; wzywa Komisję, aby proponowała najsprawniej działające i najskuteczniejsze rozwiązania dla całego rynku wewnętrznego, unikając przy tym nowych niepotrzebnych obciążeń administracyjnych oraz dążąc do utrzymania otwartości, sprawiedliwości, bezpieczeństwa i konkurencyjności jednolitego rynku cyfrowego dla wszystkich jego uczestników; podkreśla, że system odpowiedzialności dla dostawców usług cyfrowych musi być proporcjonalny, nie może szkodzić małym i średnim dostawcom oraz nie może w sposób nierozsądny ograniczać innowacyjności i dostępu do informacji;
19. uważa, że reforma powinna opierać się na solidnych podstawach i pełnej zgodności z obowiązującym prawem Unii, zwłaszcza z ogólnym rozporządzeniem o ochronie danych i dyrektywą o prywatności i łączności elektronicznej (która poddawana jest obecnie przeglądowi) oraz szanować pierwszeństwo innych instrumentów sektorowych, takich jak dyrektywa o audiowizualnych usługach medialnych; podkreśla, że modernizacja przepisów dotyczących handlu elektronicznego może wpłynąć na prawa podstawowe; w związku z tym wzywa Komisję, aby zachowała szczególną czujność w swoim podejściu oraz by włączyła do swojej oceny międzynarodowe standardy praw człowieka;
20. podkreśla, że praktyczna zdolność użytkowników indywidualnych do zrozumienia złożoności ekosystemów danych jest niezwykle ograniczona, podobnie jak ich zdolność do określenia, czy informacje, które otrzymują, i usługi, z których korzystają, są im udostępniane na takich samych warunkach, jak innym użytkownikom; wzywa zatem Komisję, aby włączyła przejrzystość i niedyskryminację do ustawy o usługach cyfrowych;
21. podkreśla, że ustawa o usługach cyfrowych musi mieć na celu zapewnienie wysokiego poziomu przejrzystości w odniesieniu do funkcjonowania usług w internecie i środowiska cyfrowego wolnego od dyskryminacji; podkreśla, że oprócz istniejących solidnych ram regulacyjnych chroniących prywatność i dane osobowe konieczne jest nałożenie na platformy internetowe obowiązku zapewnienia zgodnego z prawem stosowania algorytmów; w związku z tym wzywa Komisję, aby opracowała system oparty na dyrektywie o handlu elektronicznym, który w jasny sposób formułowałby odpowiedzialność dostawców usług w celu przeciwdziałania zagrożeniom napotykanym przez ich użytkowników i ochrony ich praw oraz przewidzenia obowiązku przejrzystości i wytłumaczalności algorytmów, kar w celu egzekwowania takich obowiązków, możliwości interwencji człowieka i innych środków takich jak niezależne audyty i szczegółowe testy warunków skrajnych z myślą o wspieraniu i egzekwowaniu przestrzegania przepisów;
22. podkreśla, że niektórzy dostawcy usług cyfrowych muszą być w stanie jednoznacznie identyfikować użytkowników w sposób równoważny z usługami poza internetem; zwraca uwagę na zbędne gromadzenie przez platformy internetowe danych osobowych takich jak płeć czy numer telefonu komórkowego w momencie rejestracji w usłudze cyfrowej, co często jest wynikiem stosowania opcji pojedynczego logowania; podkreśla, że w RODO jasno opisano zasadę minimalizacji danych, co ogranicza ilość gromadzonych danych wyłącznie do tych, które są bezwzględnie niezbędne do danego celu; zaleca, aby platformy internetowe, które obsługują usługę pojedynczego logowania z dominującym udziałem w rynku, były zobowiązane do wspierania co najmniej jednego otwartego systemu tożsamości opartego na niezastrzeżonych, zdecentralizowanych i interoperacyjnych ramach;
23. podkreśla, że gdy potrzebny jest określony rodzaj oficjalnej identyfikacji w trybie offline, należy stworzyć równoważny bezpieczny internetowy system identyfikacji elektronicznej; uważa, że identyfikację w internecie można poprawić, egzekwując transgraniczną interoperacyjność identyfikacji elektronicznej w rozporządzeniu eIDAS w całej Unii Europejskiej; zwraca się do Komisji, aby zbadała możliwość utworzenia jednolitego europejskiego systemu logowania jako alternatywy dla prywatnych systemów pojedynczego logowania oraz by wprowadziła dotyczący usług cyfrowych obowiązek oferowania także i zawsze opcji ręcznego logowania domyślnie; podkreśla, że usługę tę należy opracować w taki sposób, aby gromadzenie możliwych do zidentyfikowania danych podczas logowania było technicznie niemożliwe dla dostawcy systemu usługi logowania i by gromadzone dane były ograniczone do absolutnego minimum; zaleca zatem, aby Komisja zbadała również możliwość utworzenia systemu weryfikacji dla użytkowników usług cyfrowych w celu zapewnienia ochrony danych osobowych i weryfikacji wieku, zwłaszcza w przypadku osób niepełnoletnich, który nie powinien być wykorzystywany w celach komercyjnych ani do śledzenia użytkowników w witrynach internetowych; podkreśla, że te systemy logowania i weryfikacji powinny mieć zastosowanie wyłącznie do usług cyfrowych, które wymagają identyfikacji osobistej, uwierzytelnienia lub weryfikacji wieku; przypomina, że państwa członkowskie i instytucje Unii muszą zagwarantować, że identyfikacja elektroniczna jest bezpieczna, przejrzysta, przetwarza jedynie dane niezbędne do identyfikacji użytkownika i wykorzystuje się ją wyłącznie do celów zgodnych z prawem a nie komercyjnych oraz że nie wykorzystuje się jej do ograniczania ogólnego dostępu do internetu ani do śledzenia użytkowników w witrynach internetowych;
24. uważa, że niezbędna jest pełna harmonizacja i wyjaśnienie zasad dotyczących odpowiedzialności na szczeblu UE, aby zagwarantować poszanowanie podstawowych praw i wolności użytkowników w całej UE; wierzy, że takie zasady powinny utrzymać wyłączenia odpowiedzialności dla pośredników, którzy nie posiadają faktycznej wiedzy lub informacji o niezgodnej z prawem działalności na ich platformach; wyraża zaniepokojenie, że niedawno wprowadzone przepisy krajowe mające na celu walkę z nienawistnymi wypowiedziami i dezinformacją prowadzą do coraz większego rozdrobnienia przepisów i obniżenia poziomu ochrony praw podstawowych w UE;
25. wzywa w związku z tym do przedstawienia wniosków ustawodawczych, które utrzymają otwartość i konkurencyjność jednolitego rynku cyfrowego przez ustanowienie zharmonizowanych wymogów dotyczących dostawców usług cyfrowych w odniesieniu do stosowania skutecznych, spójnych, przejrzystych i sprawiedliwych procedur oraz gwarancji proceduralnych w celu zwalczania niezgodnych z prawem treści zgodnie z prawem krajowym i europejskim, w tym w ramach zharmonizowanej procedury powiadamiania i działania;
26. uważa w związku z tym, że kluczowe znaczenie dla przejrzystości platform internetowych ma ustanowienie jasnych zasad, wymogów i gwarancji w odniesieniu do odpowiedzialności za treści stron trzecich; proponuje wprowadzenie wspólnych ram odpowiedzialności, aby skutecznie identyfikować i usuwać treści niezgodne z prawem;
27. podkreśla, że przepisy dotyczące mechanizmów zgłaszania i usuwania treści niezgodnych z prawem należy uzupełnić wymogami zobowiązującymi platformy do podejmowania konkretnych działań proporcjonalnych do skali ich zasięgu oraz ich możliwości technicznych i operacyjnych w celu skutecznego przeciwdziałania pojawianiu się niezgodnych z prawem treści w ramach ich usług; uznaje zatem, że w przypadkach, gdy jest to technicznie wykonalne – na podstawie dostatecznie uzasadnionych poleceń niezależnych właściwych organów publicznych oraz przy pełnym uwzględnieniu specyficznego kontekstu treści – od dostawców usług cyfrowych można wymagać okresowego wyszukiwania określonych elementów treści, które sąd uznał już za niezgodne z prawem, pod warunkiem że monitorowanie i wyszukiwanie informacji objętych takim nakazem sądowym ogranicza się do informacji przekazującej wiadomość o treści zasadniczo niezmienionej w stosunku do treści, która doprowadziła do stwierdzenia niezgodności z prawem, i zawierającej elementy określone w nakazie, które zgodnie z wyrokiem Trybunału Sprawiedliwości z dnia 3 października 2019 r. w sprawie C-18/18(8) są identyczne lub równoważne w zakresie, w jakim nie wymagałoby to od dostawcy usług hostingowych przeprowadzenia niezależnej oceny tej treści;
28. nadal uważa, że wybór konkretnych środków należy pozostawić platformom; popiera zrównoważone podejście oparte na dialogu z zainteresowanymi stronami i ocenie ryzyka ponoszonego przez platformy, a także jasny łańcuch odpowiedzialności w celu uniknięcia niepotrzebnych obciążeń regulacyjnych dla platform oraz zbędnych i nieproporcjonalnych ograniczeń praw podstawowych, w szczególności wolności wypowiedzi, dostępu do informacji, w tym poglądów politycznych, oraz prawa do prywatności; podkreśla, że niektóre obowiązki można doprecyzować w przepisach sektorowych; podkreśla, że wszelkie środki wprowadzone w tym celu nie mogą stanowić de jure ani de facto ogólnego wymogu monitorowania;
29. podkreśla potrzebę stosowania – obok procedur zgłaszania sprzeciwu – odpowiednich gwarancji i zasad sprawiedliwości proceduralnej, w tym wymogu nadzoru i weryfikacji przeprowadzanych przez człowieka, w celu umożliwienia właścicielom treści i osobom zamieszczającym treści odpowiednią i przygotowaną na czas obronę swoich praw oraz w celu zapewnienia, by decyzje dotyczące usuwania lub blokowania były zgodne z prawem, trafne, dobrze uzasadnione i zgodne z prawami podstawowymi oraz by chroniły użytkowników; podkreśla, że osoby, które systematycznie i wielokrotnie składają krzywdzące lub obraźliwe zawiadomienia, powinny podlegać sankcjom; przypomina, że oprócz procedur wzajemnego powiadamiania i pozasądowego rozstrzygania sporów przez platformy, zgodnie z systemem wewnętrznego składania reklamacji, możliwość skutecznego dochodzenia roszczeń na drodze sądowej powinna pozostać dostępna w celu zapewnienia prawa do skutecznego środka odwoławczego;
30. popiera zachowanie obecnych ram ograniczonej odpowiedzialności za treść i zasadę kraju pochodzenia, lecz uważa, że niezbędna jest lepsza koordynacja działań właściwych organów krajowych w zakresie nakazów dotyczących usuwania; podkreśla, że niezgodne z prawem treści powinny być usuwane tam, gdzie są hostowane; zaznacza, że takie wnioski powinny podlegać gwarancjom prawnym, aby zapobiegać nadużyciom i zapewnić pełne poszanowanie praw podstawowych; podkreśla, że wnioski o usunięcie treści wydane przez właściwe organy powinny być szczegółowe i jasno określać podstawę prawną do usunięcia; podkreśla, że skuteczny mechanizm nadzoru i egzekwowania prawa, w tym proporcjonalne sankcje uwzględniające zdolności techniczne i operacyjne, powinien mieć zastosowanie do tych dostawców usług, którzy nie przestrzegają zgodnych z prawem nakazów;
31. przypomina, że dostawców usług cyfrowych nie można na mocy prawa zobowiązać do zatrzymywania danych osobowych ich użytkowników lub abonentów do celów egzekwowania prawa, chyba że niezależny właściwy organ zarządzi ukierunkowane zatrzymanie danych przy pełnym poszanowaniu prawa Unii i orzecznictwa TSUE; przypomina ponadto, że takie zatrzymywanie danych powinno ograniczać się do tego, co jest absolutnie niezbędne w odniesieniu do kategorii danych, które mają być zatrzymywane, środków komunikacji, których dane dotyczą, osób, których dane dotyczą, oraz przyjętego okresu przechowywania;
32. uważa, że w celu ochrony praw podstawowych ustawa o usługach cyfrowych powinna wprowadzić przepisy mające na celu zapewnienie, by warunki świadczenia usług dostawców usług cyfrowych były jasne, przejrzyste i uczciwe oraz udostępniane użytkownikom w łatwy i przystępny sposób; ubolewa nad faktem, że warunki świadczenia usług przez niektóre platformy treści zmuszają funkcjonariuszy organów ścigania do korzystania z kont osobistych w celu prowadzenia dochodzeń dotyczących niektórych skarg, co stanowi zagrożenie zarówno dla tych dochodzeń, jak i dla bezpieczeństwa osobistego; wzywa do skuteczniejszej koordynacji między państwami członkowskimi w zakresie działań następczych podejmowanych w związku z egzekwowaniem prawa w odniesieniu do zgłoszonych treści niezgodnych z prawem; przypomina, że nakazy usunięcia treści wydawane przez niezależne właściwe organy muszą zawsze opierać się na prawie, a nie na warunkach świadczenia usług przez usługodawców;
33. wzywa Komisję, aby zapewniła użytkownikom dostęp do różnorodnych i wysokiej jakości treści online jako środek gwarantujący obywatelom otrzymywanie odpowiednich informacji; oczekuje, że ustawa o usługach cyfrowych zagwarantuje, że wysokiej jakości treści medialne są łatwo dostępne i łatwe do wyszukania na platformach stron trzecich oraz że usuwanie treści jest zgodne ze standardami praw człowieka i ograniczone do treści, które są ewidentnie niezgodne z prawem lub zostały uznane za niezgodne z prawem przez niezależny właściwy organ; podkreśla, że treści zgodne z prawem nie powinny podlegać żadnym obowiązkom dotyczącym usuwania lub blokowania;
34. popiera pogłębiony dialog między właściwymi organami państw członkowskich i zainteresowanymi podmiotami mający na celu rozwijanie, ocenę i udoskonalenie podejść opartych na prawie miękkim, takich jak unijny kodeks postępowania w zakresie zwalczania dezinformacji, z myślą o dalszym uwzględnianiu kategorii zgodnych z prawem treści, w tym dezinformacji; oczekuje, że Komisja wyda – w ramach szczegółowego instrumentu towarzyszącego ustawie o usługach cyfrowych – wytyczne obejmujące zasady zwiększonej przejrzystości w zakresie moderacji treści oraz reguł reklamy w celu zapewnienia, by usuwanie i blokowanie zgodnych z prawem treści na podstawie warunków było ograniczone do niezbędnego minimum; wzywa ponadto Komisję do ustanowienia ram, które będą zakazywać platformom sprawowania drugiej warstwy kontroli nad treściami udostępnianymi w ramach odpowiedzialności dostawcy usług medialnych i podlegającymi szczególnym standardom i nadzorowi;
35. podkreśla też, że użytkownicy powinni mieć większy wybór i większą kontrolę w odniesieniu do treści, które widzą, w tym więcej opcji dotyczących rankingu przedstawianych im treści i możliwości rezygnacji z wszelkiego selekcjonowania treści; zdecydowanie uważa, że projektowanie i funkcjonowanie systemów rekomendacji powinno być przyjazne dla użytkownika i podlegać wymogowi pełnej przejrzystości;
36. uważa, że odpowiedzialność – za równo w sektorze prywatnym, jak i publicznym – oraz kształtowanie polityki opartej na odpowiedzialności i dowodach wymagają rzetelnych danych na temat wpływu i zwalczania niezgodnych z prawem działań oraz usuwania niezgodnych z prawem treści w internecie, a także solidnych danych na temat algorytmów wyszukiwania, analizowania i udostępniania treści na platformach internetowych;
37. wzywa w związku z tym do nałożenia na platformy obowiązku corocznego, wyczerpującego i spójnego składania sprawozdań publicznych, proporcjonalnego do skali ich zasięgu i możliwości operacyjnych, a dokładniej zgłaszania ich procedur moderowania treści, w tym informacji o przyjętych środkach przeciwko niezgodnej z prawem działalności w internecie i znormalizowanych danych o ilości usuniętych treści i podstawowych przyczynach prawnych i podstawach, rodzaju i uzasadnieniu otrzymanych wniosków o usunięcie, liczby wniosków, których wykonania odmówiono, oraz przyczyny; podkreśla, że sprawozdania takie, obejmujące działania podjęte w danym roku, należy składać do końca pierwszego kwartału kolejnego roku;
38. wzywa ponadto do ustanowienia obowiązku corocznego składania sprawozdań publicznych przez organy krajowe, w tym dotyczących znormalizowanych danych na temat liczby wniosków o usunięcie i ich podstaw prawnych, liczby wniosków o usunięcie, które podlegały środkom administracyjnym lub sądowym, wyników tych postępowań wraz z informacją na temat treści lub działań błędnie uznanych za niezgodne z prawem, oraz o całkowitej liczbie decyzji nakładających kary, w tym opisu rodzaju nałożonej kary;
39. wyraża zaniepokojenie rozdrobnieniem i udokumentowanym brakiem zasobów finansowych i kadrowych przeznaczonych dla organów nadzoru i kontroli; wzywa do pogłębienia współpracy między państwami członkowskimi w zakresie nadzoru regulacyjnego nad usługami cyfrowymi;
40. uważa, że – w celu zagwarantowania właściwego egzekwowania ustawy o usługach cyfrowych – w ramach jednolitego rynku cyfrowego należy zharmonizować nadzór nad przestrzeganiem procedur, gwarancje proceduralne i obowiązki w zakresie przejrzystości określone w tej ustawie; popiera w związku z tym zdecydowane i rygorystyczne egzekwowanie przepisów przez niezależną unijną strukturę nadzoru, która jest uprawniona do nakładania grzywien na podstawie oceny jasno określonego zestawu czynników, takich jak proporcjonalność, środki techniczne i organizacyjne oraz zaniedbania; uważa, że powinno to obejmować możliwość ustalania grzywien w oparciu o wartość procentową rocznego globalnego obrotu przedsiębiorstwa;
41. podkreśla, że kontrolę nad wewnętrznymi politykami i algorytmami dostawców usług cyfrowych należy prowadzić z należytym uwzględnieniem prawa Unii, w szczególności podstawowych praw użytkowników usług, z uwzględnieniem znaczenia niedyskryminacji oraz wolności wypowiedzi i informacji w otwartym i demokratycznym społeczeństwie oraz bez publikowania szczególnie chronionych danych handlowych; wzywa do przeprowadzenia oceny – po otrzymaniu skargi lub z inicjatywy organów nadzoru – czy i w jaki sposób dostawcy usług cyfrowych przyczyniają się do rozpowszechniania treści, na przykład za pomocą mechanizmów rekomendacji i funkcji optymalizacji, takich jak autouzupełnianie i trendy;
42. uważa, że sprawozdania w sprawie przejrzystości przygotowywane przez platformy i właściwe organy krajowe powinny być publicznie dostępne i analizowane pod kątem trendów strukturalnych w ramach usuwania, wykrywania i blokowania na szczeblu UE;
43. podkreśla, że ważne jest, by zachęcać użytkowników do egzekwowania ich praw podstawowych w internecie, między innymi za pomocą łatwo dostępnych, bezstronnych, przejrzystych, skutecznych i bezpłatnych procedur składania skarg, mechanizmów zgłaszania treści niezgodnych z prawem i zachowań przestępczych dla osób fizycznych i przedsiębiorstw, środków zaskarżenia, działań edukacyjnych i zwiększania świadomości na temat kwestii ochrony danych i bezpieczeństwa dzieci w internecie;
44. jest zdania, że dotychczasowe doświadczenia wykazały skuteczność podejścia polegającego na umożliwianiu rozwoju innowacyjnych modeli biznesowych i wzmacnianiu jednolitego rynku cyfrowego przez usuwanie barier w swobodnym przepływie usług cyfrowych i zapobieganie wprowadzaniu nowych nieuzasadnionych barier krajowych, a dzięki dalszemu stosowaniu tego podejścia można będzie ograniczyć fragmentację rynku wewnętrznego; uważa ponadto, że ustawa o usługach cyfrowych może oferować możliwości rozwoju wiedzy i umiejętności obywateli w dziedzinie cyfryzacji, gwarantując jednocześnie wysoki poziom ochrony konsumentów, w tym poprzez ochronę bezpieczeństwa w internecie;
45. podkreśla konieczność uzgodnionych standardów podstawowego bezpieczeństwa w cyberprzestrzeni, aby obywatele mogli w pełni korzystać z usług cyfrowych; zauważa w związku z tym pilną potrzebę podjęcia przez państwa członkowskie skoordynowanych działań w celu zapewnienia podstawowej higieny cybernetycznej i zapobiegania niebezpieczeństwom w cyberprzestrzeni, których można uniknąć, w tym za pomocą środków ustawodawczych;
46. zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji Radzie i Komisji.
Rozporządzenie Parlamentu Europejskiego i Rady (UE) nr 910/2014 z dnia 23 lipca 2014 r. w sprawie identyfikacji elektronicznej i usług zaufania w odniesieniu do transakcji elektronicznych na rynku wewnętrznym oraz uchylające dyrektywę 1999/93/WE (Dz.U. L 257 z 28.8.2014, s. 73).
Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. zawierające zalecenia dla Komisji w sprawie ram aspektów etycznych sztucznej inteligencji, robotyki i powiązanych z nimi technologii (2020/2012(INL))
– uwzględniając art. 225 Traktatu o funkcjonowaniu Unii Europejskiej,
– uwzględniając art. 114 Traktatu o funkcjonowaniu Unii Europejskiej,
– uwzględniając Kartę praw podstawowych Unii Europejskiej,
– uwzględniając rozporządzenie Rady (UE) 2018/1488 z dnia 28 września 2018 r. w sprawie ustanowienia Wspólnego Przedsięwzięcia w dziedzinie Europejskich Obliczeń Wielkiej Skali(1),
– uwzględniając dyrektywę Rady 2000/43/WE z dnia 29 czerwca 2000 r. wprowadzającą w życie zasadę równego traktowania osób bez względu na pochodzenie rasowe lub etniczne(2) (dyrektywę w sprawie równości rasowej),
– uwzględniając dyrektywę Rady 2000/78/WE z dnia 27 listopada 2000 r. ustanawiającą ogólne warunki ramowe równego traktowania w zakresie zatrudnienia i pracy(3) (dyrektywę o równym traktowaniu w zakresie zatrudnienia),
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych)(4) (RODO) i dyrektywę Parlamentu Europejskiego i Rady (UE) 2016/680 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych przez właściwe organy do celów zapobiegania przestępczości, prowadzenia postępowań przygotowawczych, wykrywania i ścigania czynów zabronionych i wykonywania kar, w sprawie swobodnego przepływu takich danych oraz uchylającą decyzję ramową Rady 2008/977/WSiSW(5),
– uwzględniając Porozumienie międzyinstytucjonalne z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa(6),
– uwzględniając wniosek z dnia 6 czerwca 2018 r. dotyczący rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego program „Cyfrowa Europa” na lata 2021–2027 (COM(2018)0434),
– uwzględniając komunikat Komisji do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów z dnia 11 grudnia 2019 r. dotyczący Europejskiego Zielonego Ładu (COM(2019)0640),
– uwzględniając komunikat Komisji z dnia 19 lutego 2020 r. do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego oraz Komitetu Regionów w sprawie sztucznej inteligencji – Europejskie podejście do doskonałości i zaufania (COM(2020)0065),
– uwzględniając komunikat Komisji z dnia 19 lutego 2020 r. do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego oraz Komitetu Regionów w sprawie europejskiej strategii w zakresie danych (COM(2020)0066),
– uwzględniając komunikat Komisji z dnia 19 lutego 2020 r. do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego oraz Komitetu Regionów w sprawie kształtowania cyfrowej przyszłości Europy (COM(2020)0067),
– uwzględniając konkluzje Rady Unii Europejskiej z czerwca 2020 r. w sprawie kształtowania cyfrowej przyszłości Europy,
– uwzględniając swoją rezolucję z dnia 16 lutego 2017 r. zawierającą zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki(7),
– uwzględniając swoją rezolucję z dnia 1 czerwca 2017 r. w sprawie cyfryzacji europejskiego przemysłu(8),
– uwzględniając swoją rezolucję z dnia 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia(9),
– uwzględniając swoją rezolucję z dnia 11 września 2018 r. w sprawie równości językowej w erze cyfrowej(10),
– uwzględniając swoją rezolucję z dnia 12 lutego 2019 r. w sprawie kompleksowej europejskiej polityki przemysłowej w dziedzinie sztucznej inteligencji i robotyki(11),
– uwzględniając sprawozdanie z dnia 8 kwietnia 2019 r., które opracowała powołana przez Komisję grupa ekspertów wysokiego szczebla ds. sztucznej inteligencji, zatytułowane „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji”,
– uwzględniając studium na temat oceny europejskiej wartości dodanej wykonane przez Biuro Analiz Parlamentu Europejskiego pt. „European framework on ethical aspects of artificial intelligence, robotics and related technologies: European added value assessment” (Europejskie ramy dotyczące etycznych aspektów sztucznej inteligencji, robotyki i powiązanych z nimi technologii: ocena europejskiej wartości dodanej)(12),
– uwzględniając dokumenty informacyjne i opracowania przygotowane na wniosek Panelu ds. Przyszłości Nauki i Technologii (STOA) pod kierownictwem Działu Prognoz Naukowych w ramach Dyrekcji Generalnej ds. Analiz Parlamentarnych Parlamentu Europejskiego, zatytułowane „What if algorithms could abide by ethical principles?” [Co by było, gdyby algorytmy mogły przestrzegać zasad etycznych?], „Artificial Intelligence ante portas: Legal & ethical reflections” [Sztuczna inteligencja u bram: rozważania prawne i etyczne], „A governance framework for algorithmic accountability and transparency” [Ramy zarządzania na rzecz rozliczalności i przejrzystości w dziedzinie algorytmów], „Should we fear artificial intelligence?” [Czy powinniśmy obawiać się sztucznej inteligencji?] oraz „The ethics of artificial intelligence: Issues and initiatives” [Etyka w zakresie sztucznej inteligencji: problemy i inicjatywy],
– uwzględniając dokumenty przyjęte przez Radę Europy, jakimi są Konwencja ramowa o ochronie mniejszości narodowych, Protokół nr 12 do Konwencji o ochronie praw człowieka i podstawowych wolności oraz Europejska karta języków regionalnych lub mniejszościowych,
– uwzględniając zalecenie Rady OECD w sprawie sztucznej inteligencji przyjęte w dniu 22 maja 2019 r.,
– uwzględniając art. 47 i 54 Regulaminu,
– uwzględniając opinie przedstawione przez Komisję Spraw Zagranicznych, Komisję Rynku Wewnętrznego i Ochrony Konsumentów, Komisję Transportu i Turystyki, Komisję Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych, Komisję Zatrudnienia i Spraw Socjalnych, Komisję Ochrony Środowiska Naturalnego, Zdrowia Publicznego i Bezpieczeństwa Żywności oraz Komisję Kultury i Edukacji,
– uwzględniając sprawozdanie Komisji Prawnej (A9-0186/2020),
Wprowadzenie
A. mając na uwadze, że rozwijaniem, wdrażaniem i wykorzystaniem sztucznej inteligencji (zwanej także AI), robotyki i powiązanych z nimi technologii zajmują się ludzie, a dokonywane przez nich wybory decydują o potencjalnych korzyściach, jakie te technologie mogą przynieść społeczeństwu;
B. mając na uwadze, że sztuczna inteligencja, robotyka i powiązane z nimi technologie, mające potencjał tworzenia możliwości dla przedsiębiorstw i korzyści dla obywateli i mogące bezpośrednio wpływać na wszystkie aspekty naszych społeczeństw, w tym na prawa podstawowe oraz zasady i wartości społeczne i gospodarcze, a także wywierać trwały wpływ na wszystkie obszary działalności, są promowane i szybko opracowywane;
C. mając na uwadze, że sztuczna inteligencja, robotyka i powiązane z nimi technologie przyniosą znaczne zmiany na rynku pracy i w miejscu pracy; mając na uwadze, że potencjalnie mogą one zastąpić pracowników wykonujących powtarzalne czynności, usprawnić systemy współpracy między człowiekiem a maszyną, zwiększyć konkurencyjność i dobrobyt oraz stworzyć nowe możliwości zatrudnienia dla wykwalifikowanych pracowników, a jednocześnie stanowią poważne wyzwanie jeśli chodzi o reorganizację siły roboczej;
D. mając na uwadze, że rozwój sztucznej inteligencji, robotyki i powiązanych z nimi technologii może również przyczynić się do osiągnięcia w wielu różnych sektorach celów zrównoważonego rozwoju w ramach Europejskiego Zielonego Ładu; mając na uwadze, że technologie cyfrowe mogą zwiększyć wpływ polityki w dziedzinie ochrony środowiska; mając na uwadze, że mogą one również przyczynić się do zmniejszenia zagęszczenia ruchu oraz emisji gazów cieplarnianych i zanieczyszczeń powietrza;
E. mając na uwadze, że w takich sektorach jak transport publiczny opierające się na AI inteligentne systemy transportowe mogą być wykorzystywane do tego, by skrócić do minimum oczekiwanie w kolejkach, zoptymalizować trasy, umożliwić osobom z niepełnosprawnościami większą niezależność, zwiększyć efektywność energetyczną i tym samym nasilić działania na rzecz dekarbonizacji oraz zredukować ślad środowiskowy;
F. mając na uwadze, że technologie te stwarzają nowe możliwości biznesowe, które mogą przyczynić się do odbudowy przemysłu unijnego po obecnym kryzysie zdrowotnym i gospodarczym, jeśli zwiększy się ich wykorzystanie, na przykład w sektorze transportu; mając na uwadze, że dzięki takim możliwościom mogą powstawać nowe miejsca pracy, ponieważ wykorzystanie tych technologii może zwiększyć produktywność przedsiębiorstw i przyczynić się do przyrostu wydajności; mając na uwadze, że programy innowacji w tej dziedzinie mogą umożliwić rozwój regionalnych klastrów;
G. mając na uwadze, że na Unii i jej państwach członkowskich spoczywa szczególna odpowiedzialność za wykorzystywanie, promowanie i zwiększanie wartości dodanej sztucznej inteligencji oraz zapewnienie, aby technologie AI były bezpieczne, przyczyniały się do dobrostanu obywateli UE i leżały w ich ogólnym interesie, ponieważ mogą one w ogromnym stopniu przyczynić się do osiągnięcia wspólnego celu, jakim jest poprawa jakości życia obywateli i wspieranie dobrobytu w Unii poprzez udział w rozwoju lepszych strategii i innowacji w wielu obszarach i sektorach; mając na uwadze, że aby wykorzystać pełen potencjał sztucznej inteligencji i by użytkownicy zrozumieli korzyści i wyzwania związane z technologiami AI, trzeba uwzględnić AI lub umiejętności cyfrowe w procesie edukacji i szkolenia, m.in. jeśli chodzi o propagowanie włączenia cyfrowego, oraz prowadzić na szczeblu unijnym kampanie informacyjne rzetelnie przedstawiające wszystkie aspekty rozwoju AI;
H. mając na uwadze, że wspólne unijne ramy regulacyjne obejmujące opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii (ramy regulacyjne dla AI) powinny pozwolić obywatelom uczestniczyć w korzyściach płynących z potencjału tych technologii, a jednocześnie chronić ich przed potencjalnymi zagrożeniami, jakie niosą te technologie i promować ich wiarygodność w Unii i poza nią; mając na uwadze, że ramy te powinny opierać się na prawie i wartościach Unii oraz na zasadach przejrzystości, wytłumaczalności, uczciwości, rozliczalności i odpowiedzialności;
I. mając na uwadze, że takie ramy regulacyjne mają kluczowe znaczenie dla uniknięcia rozdrobnienia rynku wewnętrznego wynikającego z różniących się przepisów krajowych i przyspieszą niezwykle potrzebne inwestycje, rozwój infrastruktury danych i wsparcie dla badań naukowych; mając na uwadze, że powinny one obejmować wspólne zobowiązania prawne i zasady etyczne określone we wniosku dotyczącym rozporządzenia, o którym mowa w załączniku do niniejszej rezolucji; mając na uwadze, że należy je ustanowić zgodnie z wytycznymi dotyczącymi lepszego stanowienia prawa;
J. mając na uwadze, że w Unii obowiązują ścisłe ramy prawne, aby zapewnić, między innymi, ochronę danych osobowych i prywatności, zwalczać dyskryminację oraz promować równość płci, ochronę środowiska i prawa konsumentów; mając na uwadze, że ramy te w postaci szeroko zakrojonego korpusu prawodawstwa horyzontalnego i sektorowego, w tym istniejących zasad dotyczących bezpieczeństwa produktów i odpowiedzialności, będą mieć nadal zastosowanie w odniesieniu do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, choć mogą być konieczne pewne korekty poszczególnych instrumentów prawnych, by odzwierciedlić transformację cyfrową i odnieść się do nowych wyzwań stawianych przez zastosowania sztucznej inteligencji;
K. mając na uwadze, że istnieją obawy, iż obecne ramy prawne Unii, w tym dorobek dotyczący praw konsumentów, dorobek prawny w dziedzinie zatrudnienia i spraw społecznych, prawodawstwo dotyczące ochrony danych, bezpieczeństwa produktów i nadzoru rynku, a także prawodawstwo antydyskryminacyjne, mogą nie być już w stanie skutecznie przeciwdziałać zagrożeniom związanym ze sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami;
L. mając na uwadze, że oprócz dostosowań obowiązującego prawodawstwa kwestie prawne i etyczne związane z technologiami AI należy uregulować za pomocą skutecznych, kompleksowych i zachowujących aktualność ram prawa Unii odzwierciedlających zasady i wartości Unii zapisane w Traktatach i w Karcie praw podstawowych Unii Europejskiej („Karta”), unikając nadmiernej regulacji dzięki ograniczeniu się do wypełnienia tylko istniejących luk w prawie i zwiększając pewność prawa zarówno dla przedsiębiorstw, jak i obywateli, w szczególności poprzez uwzględnienie obowiązkowych środków przeciwdziałania praktykom, które bez wątpienia podważałyby podstawowe prawa;
M. mając na uwadze, że wszelkie nowe ramy regulacyjne muszą uwzględniać interesy wszystkich stron; mając na uwadze, że warunkiem wstępnym dla dalszych kroków ustawodawczych powinno być szczegółowe zbadanie, w formie oceny skutków, jakie konsekwencje dla wszystkich podmiotów będą miały nowe ramy regulacyjne; mając na uwadze, że kluczowa rola małych i średnich przedsiębiorstw (MŚP) i przedsiębiorstw typu start-up, szczególnie w unijnej gospodarce, wymaga ściśle proporcjonalnego podejścia, by umożliwić im rozwój i innowacje;
N. mając na uwadze, że sztuczna inteligencja, robotyka i powiązane z nimi technologie mogą mieć poważny wpływ na integralność materialną i niematerialną osób fizycznych, grup i społeczeństwa jako całości oraz że potencjalne szkody indywidualne i zbiorowe muszą znaleźć odzwierciedlenie w reakcjach legislacyjnych;
O. mając na uwadze, że w celu przestrzegania unijnych ram regulacyjnych dotyczących AI konieczne może być przyjęcie szczegółowych przepisów dotyczących unijnego sektora transportu;
P. mając na uwadze, że technologie AI mają strategiczne znaczenie dla sektora transportu, również dlatego, że zwiększają bezpieczeństwo i dostępność wszystkich rodzajów transportu oraz tworzą nowe możliwości zatrudnienia i bardziej zrównoważone modele biznesowe; mając na uwadze, że unijne podejście do rozwoju sztucznej inteligencji, robotyki i powiązanych z nimi technologii w transporcie może zwiększyć globalną konkurencyjność i strategiczną niezależność gospodarki unijnej;
Q. mając na uwadze, że błąd ludzki nadal jest przyczyną około 95 % wszystkich wypadków drogowych w Unii; mając na uwadze, że celem Unii było zmniejszenie do 2020 r. liczby śmiertelnych wypadków drogowych na jej terenie o 50 % rocznie w porównaniu z 2010 r., ale w związku ze stagnacją postępów wznowiła ona wysiłki w ramach unijnej polityki bezpieczeństwa ruchu drogowego na lata 2021–2030 – Kolejne kroki w kierunku „wizji zero”; mając na uwadze, że w tym względzie AI, automatyzacja i inne nowe technologie mają ogromny potencjał i żywotne znaczenie dla zwiększenia bezpieczeństwa drogowego dzięki ograniczeniu możliwości popełnienia błędu przez człowieka;
R. mając na uwadze, że unijne ramy regulacyjne dotyczące AI powinny również odzwierciedlać konieczność zapewnienia poszanowania praw pracowniczych; mając na uwadze, że należy uwzględnić umowę ramową partnerów społecznych w sprawie digitalizacji z czerwca 2020 r.;
S. mając na uwadze, że zakres unijnych ram regulacyjnych dotyczących AI powinien być odpowiedni, proporcjonalny i szczegółowo oceniony; mając na uwadze, że choć należy uwzględnić w nich szeroką gamę technologii i ich komponentów, w tym algorytmów, oprogramowania oraz wykorzystywanych lub generowanych przez nie danych, konieczne jest ukierunkowane i oparte na ryzyku podejście, aby uniknąć przeszkód dla przyszłych innowacji i tworzenia zbędnych obciążeń, w szczególności dla MŚP; mając na uwadze, że różnorodność aplikacji wykorzystujących sztuczną inteligencję, robotykę i powiązane z nimi technologie utrudnia znalezienie pojedynczego rozwiązania odpowiedniego dla całego spektrum zagrożeń;
T. mając na uwadze, że analiza danych i AI w coraz większym stopniu wpływają na informacje udostępniane obywatelom; mając na uwadze, że takie technologie, jeśli zostaną niewłaściwie wykorzystane, mogą zagrozić podstawowym prawom do wolności wypowiedzi i informacji, a także wolności i pluralizmowi mediów;
U. mając na uwadze, że zakres geograficzny unijnych ram regulacyjnych dotyczących AI powinien obejmować wszystkie komponenty sztucznej inteligencji, robotyki i powiązanych z nimi technologii opracowywanych, wdrażanych lub wykorzystywanych w Unii, w tym przypadki, w których elementy tych technologii mogą być zlokalizowane poza Unią lub mogą nie mieć konkretnej lokalizacji;
V. mając na uwadze, że unijne ramy regulacyjne dotyczące AI powinny obejmować wszystkie odpowiednie etapy, a mianowicie opracowywanie, wdrażanie i wykorzystywanie odpowiednich technologii i ich komponentów, przy należytym uwzględnieniu odpowiednich zobowiązań prawnych i zasad etycznych, a także powinny określać warunki zapewniające, że wszystkie podmioty opracowujące, wdrażające oraz wykorzystujące w pełni wypełniają te zobowiązania i przestrzegają powyższych zasad;
W. mając na uwadze, że zharmonizowane podejście do zasad etycznych dotyczących sztucznej inteligencji, robotyki i powiązanych z nimi technologii wymaga jednolitej interpretacji w Unii pojęć leżących u podstaw technologii takich jak algorytmy, oprogramowanie, dane czy biometria;
X. mając na uwadze, że działania na szczeblu Unii są uzasadnione potrzebą uniknięcia fragmentacji regulacyjnej lub serii krajowych przepisów regulacyjnych pozbawionych wspólnego mianownika, a także zagwarantowania jednolitego stosowania wspólnych zasad etycznych zapisanych w prawie podczas opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka; mając na uwadze, że potrzebne są jasne zasady w przypadkach występowania znacznego ryzyka;
Y. mając na uwadze, że wspólne zasady etyczne są skuteczne tylko wtedy, gdy są również zapisane w prawie i wskaże się podmioty odpowiedzialne za zapewnienie, ocenę i monitorowanie ich przestrzegania;
Z. mając na uwadze, że wytyczne etyczne, takie jak zasady przyjęte przez grupę ekspertów wysokiego szczebla ds. AI, stanowią dobry punkt wyjścia, ale nie są w stanie zagwarantować uczciwego zachowania podmiotów opracowujących, wdrażających i wykorzystujących ani skutecznej ochrony osób fizycznych; mając na uwadze, że takie wytyczne są tym bardziej istotne w odniesieniu do sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka;
AA. mając na uwadze, że każde państwo członkowskie powinno wyznaczyć krajowy organ nadzoru odpowiedzialny za zapewnianie, ocenę i monitorowanie zgodności opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka z unijnymi ramami regulacyjnymi dotyczącymi AI a także za umożliwianie dyskusji i wymiany poglądów w ścisłej współpracy z odpowiednimi zainteresowanymi stronami i społeczeństwem obywatelskim; mając na uwadze, że krajowe organy nadzoru powinny ze sobą współpracować;
AB. mając na uwadze, że w celu zapewnienia zharmonizowanego podejścia w całej Unii i optymalnego funkcjonowania jednolitego rynku cyfrowego należy poddać ocenie koordynację na szczeblu unijnym, za którą odpowiedzialna jest Komisja i wszelkie odpowiednie instytucje, organy, urzędy i agencje Unii, które mogą zostać wyznaczone w tym kontekście, w odniesieniu do nowych możliwości i wyzwań, w szczególności o charakterze transgranicznym, związanych z trwającym rozwojem technologicznym; mając na uwadze, że w tym celu Komisji należy powierzyć zadanie znalezienia odpowiedniego rozwiązania dla ustrukturyzowania takiej koordynacji na szczeblu Unii;
Sztuczna inteligencja ukierunkowana na człowieka i stworzona przez człowieka
1. uważa, że z zastrzeżeniem prawodawstwa sektorowego konieczne są skuteczne i zharmonizowane ramy regulacyjne oparte na prawie Unii, Karcie oraz prawie międzynarodowym dotyczącym praw człowieka, mające zastosowanie w szczególności do technologii wysokiego ryzyka, w celu ustanowienia jednakowych norm w całej Unii i skutecznej ochrony wartości Unii;
2. uważa, że wszelkie nowe ramy regulacyjne dotyczące AI w postaci zobowiązań prawnych i zasad etycznych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii powinny być w pełni zgodne z Kartą, a tym samym respektować godność ludzką, autonomię i samostanowienie jednostki, zapobiegać szkodom, promować sprawiedliwość, włączenie i przejrzystość, eliminować nierówne traktowanie i dyskryminację, również mniejszości, a także szanować i przestrzegać zasad ograniczania negatywnych efektów zewnętrznych wykorzystywanej technologii, zapewniania wyjaśnialności technologii, a także zagwarantowania, że technologie te będą służyć ludziom, a nie ich zastępować, czy decydować za nich, przy czym ostatecznym celem jest zwiększenie dobrostanu każdego człowieka;
3. podkreśla asymetrię między podmiotami stosującymi technologie sztucznej inteligencji a podmiotami wchodzącymi w interakcje z tymi technologiami i podlegającymi ich działaniu; w tym kontekście podkreśla, że zaufanie obywateli do AI można zbudować jedynie w oparciu o ramy prawne uwzględniające aspekty etyczne „domyślnie i już w fazie projektowania”, które zapewnią, aby każda oddana do użytku AI była w pełni zgodna z traktatami, Kartą i prawem wtórnym Unii; uważa, że działania w oparciu o takie podejście powinny być zgodne z zasadą ostrożności, która przyświeca prawodawstwu UE i powinna być centralnym elementem wszelkich ram dotyczących AI; apeluje w związku z tym o jasny i spójny model zarządzania, który umożliwi przedsiębiorstwom i innowatorom dalsze rozwijanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii;
4. uważa, że wszelkie działania ustawodawcze w odniesieniu do sztucznej inteligencji, robotyki i powiązanych z nimi technologii powinny być zgodne z zasadami konieczności i proporcjonalności;
5. uważa, że takie podejście pozwoli przedsiębiorstwom wprowadzać na rynek innowacyjne produkty i stworzy nowe możliwości, a jednocześnie zapewni ochronę unijnych wartości, prowadząc do opracowywania systemów AI, które będą uwzględniać unijne zasady etyczne już na etapie projektowania; uważa, że takie oparte na wartościach ramy regulacyjne stanowiłyby wartość dodaną, zapewniając Unii wyjątkową przewagę konkurencyjną, i w znacznym stopniu przyczyniłyby się do dobrostanu i dobrobytu obywateli Unii i unijnych przedsiębiorstw dzięki pobudzaniu rynku wewnętrznego; podkreśla, że takie ramy regulacyjne dotyczące AI stanowiłyby również wartość dodaną w odniesieniu do promowania innowacji na rynku wewnętrznym; uważa, że na przykład w sektorze transportu podejście to daje unijnym przedsiębiorstwom możliwość stania się światowymi liderami w tej dziedzinie;
6. zauważa, że unijne ramy prawne powinny mieć zastosowanie do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów i danych wykorzystywanych lub generowanych przez te technologie;
7. zauważa, że rozwiązania oparte na sztucznej inteligencji, robotyce i powiązanych z nimi technologiach bazują na dużych zbiorach danych, co wiąże się z potrzebą uzyskania masy krytycznej danych, aby wytrenować algorytmy i udoskonalić wyniki; w związku z tym z zadowoleniem przyjmuje wniosek Komisji dotyczący utworzenia wspólnej przestrzeni danych w Unii z myślą o lepszej wymianie danych i o wspieraniu badań naukowych z pełnym poszanowaniem europejskich przepisów o ochronie danych;
8. uważa, że obecne unijne ramy prawne, w szczególności dotyczące ochrony, prywatności i danych osobowych, będą musiały mieć w pełni zastosowanie do AI, robotyki i powiązanych z nimi technologii oraz podlegać regularnemu przeglądowi, nadzorowi i, w razie potrzeby, aktualizacji w celu skutecznego przeciwdziałania zagrożeniom stwarzanym przez te technologie, i w związku z tym korzystne byłoby uzupełnienie ich solidnymi przewodnimi zasadami etycznymi; zwraca uwagę, że w przypadkach, w których przyjęcie aktów prawnych byłoby przedwczesne, należy stosować ramy prawa miękkiego;
9. oczekuje od Komisji włączenia do wniosku ustawodawczego przygotowywanego w następstwie białej księgi w sprawie sztucznej inteligencji, o którym mowa w załączniku do niniejszej rezolucji, solidnego podejścia etycznego, w tym w zakresie bezpieczeństwa, odpowiedzialności i praw podstawowych, dzięki czemu zmaksymalizowane zostaną możliwości oferowane przez technologie AI i zminimalizuje się związane z nimi zagrożenia; oczekuje, że wymagany wniosek ustawodawczy będzie obejmować rozwiązania polityczne odnoszące się do głównych rozpoznanych zagrożeń związanych ze sztuczną inteligencją, w tym m.in. w zakresie etycznego gromadzenia i wykorzystywania dużych zbiorów danych oraz kwestii przejrzystości i stronniczości algorytmów; wzywa Komisję do opracowania kryteriów i wskaźników służących do oznaczania technologii AI w celu stymulowania przejrzystości, wyjaśnialności i odpowiedzialności oraz zachęcania podmiotów opracowujących do podejmowania dodatkowych środków ostrożności; podkreśla potrzebę inwestowania we włączanie dyscyplin nietechnicznych do studiów i badań nad sztuczną inteligencją, uwzględniając kontekst społeczny;
10. uważa, że sztuczna inteligencja, robotyka i powiązane z nimi technologie muszą być dostosowane do ludzkich potrzeb w oparciu o zasadę, że ich opracowywanie, wdrażanie i wykorzystywanie powinno zawsze służyć ludziom, a nigdy odwrotnie, oraz powinny dążyć do zwiększenia dobrostanu i wolności jednostki, a także do zachowania pokoju, zapobiegania konfliktom i wzmocnienia bezpieczeństwa międzynarodowego, przy maksymalizacji oferowanych korzyści oraz zapobieganiu związanym z nimi zagrożeniom lub zmniejszaniu tych zagrożeń;
11. oświadcza, że opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, w tym m.in. przez człowieka, musi zawsze odbywać się z poszanowaniem zasad etyki i uwzględnieniem przewodniej roli człowieka i demokratycznego nadzoru, a także umożliwiać w razie potrzeby odzyskanie kontroli przez człowieka dzięki wdrożeniu odpowiednich środków kontroli;
Ocena ryzyka
12. podkreśla, że wszelkie przyszłe uregulowania powinny opierać się na zróżnicowanym i zorientowanym na przyszłość podejściu do regulowania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym neutralnych pod względem technologicznym normach we wszystkich sektorach, a w stosownych przypadkach również na normach sektorowych; zauważa, że w celu zapewnienia jednolitego wdrażania systemu oceny ryzyka oraz zgodności z powiązanymi zobowiązaniami prawnymi, aby zapewnić równe warunki działania wśród państw członkowskich i zapobiec rozdrobnieniu rynku wewnętrznego, potrzebny jest wyczerpujący i łączny wykaz sektorów wysokiego ryzyka oraz zastosowań lub celów wysokiego ryzyka; podkreśla, że taki wykaz musi regularnie podlegać ponownej ocenie i zauważa, że z uwagi na ewoluujący charakter tych technologii, sposób przeprowadzania ich oceny ryzyka może zostać poddany ponownej ocenie w przyszłości;
13. uważa, że ustalenie, czy sztuczna inteligencja, robotyka i powiązane z nimi technologie należy uznać za obarczone wysokim ryzykiem, a tym samym podlegające obowiązkowej zgodności ze zobowiązaniami prawnymi i zasadami etycznymi określonymi w ramach regulacyjnych dotyczących AI, powinno zawsze wynikać z bezstronnej, regulowanej i zewnętrznej oceny ex ante opartej na konkretnych i określonych kryteriach;
14. uważa w tym względzie, że sztuczną inteligencję, robotykę i powiązane z nimi technologie należy uznać za obarczone wysokim ryzykiem, jeżeli ich rozwój, wdrażanie i wykorzystywanie wiąże się ze znacznym ryzykiem spowodowania obrażeń ciała lub szkody dla osób fizycznych lub społeczeństwa, z naruszeniem praw podstawowych i zasad bezpieczeństwa określonych w prawie Unii; uważa, że do celów oceny, czy technologie AI wiążą się z takim ryzykiem, należy wziąć pod uwagę sektor, w którym są opracowywane, wdrażane lub wykorzystywane, ich konkretne zastosowanie lub cel oraz stopień obrażenia lub szkody, których wystąpienia można się spodziewać; pierwsze i drugie kryterium, tj. sektor i konkretne zastosowanie lub cel, należy rozpatrywać łącznie;
15. podkreśla, że oceny ryzyka tych technologii należy dokonywać na podstawie wyczerpującego i skumulowanego wykazu sektorów wysokiego ryzyka oraz zastosowań i celów wysokiego ryzyka; jest głęboko przekonany, że w Unii powinna istnieć spójność w zakresie oceny ryzyka związanego z tymi technologiami, zwłaszcza gdy są one oceniane zarówno pod kątem ich zgodności z ramami regulacyjnymi dotyczącymi AI, jak i zgodnie z wszelkimi innymi mającymi zastosowanie przepisami sektorowymi;
16. uważa, że podejście oparte na ryzyku powinno być opracowane w sposób jak najbardziej ograniczający obciążenia administracyjne dla przedsiębiorstw, w szczególności MŚP, dzięki zastosowaniu istniejących narzędzi; narzędzia te obejmują m.in. wykaz ocen skutków dla ochrony danych przewidziany w rozporządzeniu (UE) 2016/679;
Zabezpieczenia, przejrzystość i rozliczalność
17. przypomina, że prawo konsumentów do informacji jest zapisane jako kluczowa zasada w prawie UE; podkreśla, że w związku z tym prawo to należy w pełni wdrożyć w odniesieniu do sztucznej inteligencji, robotyki i powiązanych z nimi technologii; uważa, że powinno ono w szczególności obejmować przejrzystość interakcji z systemami sztucznej inteligencji, w tym procesów automatyzacji, oraz sposobu ich funkcjonowania, zdolności, na przykład sposobu filtrowania i przedstawiania informacji, dokładności i ograniczeń; uważa, że takie informacje powinny być przekazywane krajowym organom nadzoru i krajowym organom ochrony konsumentów;
18. podkreśla, że zaufanie konsumentów ma zasadnicze znaczenie dla rozwoju i wdrażania technologii, które mogą nieść ze sobą nieodłączne ryzyko, jeżeli opierają się na nieprzejrzystych algorytmach i tendencyjnych zbiorach danych; uważa, że konsumenci powinni mieć prawo do bycia odpowiednio poinformowanymi w zrozumiały, terminowy, znormalizowany, dokładny i przystępny sposób o istnieniu systemów algorytmicznych, stosowanym w nich rozumowaniu, możliwych skutkach ich działania i konsekwencjach dla konsumentów, a także o tym, jak dotrzeć do osób mających uprawnienia decyzyjne oraz jak można kontrolować, skutecznie podważać i korygować decyzje systemu; podkreśla w związku z tym potrzebę rozważenia i poszanowania zasad informowania i ujawniania, na których opiera się dorobek prawny w dziedzinie ochrony konsumentów; uważa, że użytkowników końcowych należy szczegółowo informować o funkcjonowaniu systemów transportu i pojazdów wykorzystujących AI;
19. uważa za bardzo ważne, by algorytmy i zbiory danych wykorzystywane lub tworzone przez sztuczną inteligencję, robotykę i powiązane z nimi technologie były wytłumaczalne i, jeżeli jest to absolutnie konieczne i z pełnym poszanowaniem przepisów Unii dotyczących ochrony danych, prywatności i praw własności intelektualnej oraz tajemnic przedsiębiorstwa, dostępne dla organów publicznych, takich jak krajowe organy nadzoru i organy nadzoru rynku; zauważa ponadto, że zgodnie z najwyższymi obowiązującymi normami branżowymi taka dokumentacja powinna być przechowywana przez podmioty uczestniczące w poszczególnych etapach opracowywania technologii wysokiego ryzyka; zauważa, że organy nadzoru rynku mogą mieć dodatkowe uprawnienia w tym zakresie; podkreśla w związku z tym rolę zgodnej z prawem inżynierii odwrotnej; uważa, że konieczne może okazać się przeprowadzenie analizy obecnych przepisów dotyczących nadzoru rynku, aby zapewnić etyczną reakcję na pojawienie się sztucznej inteligencji, robotyki i powiązanych z nimi technologii;
20. wzywa do nałożenia na podmioty opracowujące i wdrażające technologie wysokiego ryzyka wymogu dostarczania organom publicznym – w przypadku gdy wskaże na to ocena ryzyka – odpowiedniej dokumentacji dotyczącej użytkowania, projektowania i instrukcji bezpieczeństwa, w tym, gdy jest to absolutnie konieczne i z pełnym poszanowaniem przepisów Unii dotyczących ochrony danych, prywatności, praw własności intelektualnej i tajemnic przedsiębiorstwa, kodu źródłowego, narzędzi rozwoju i danych wykorzystywanych przez system; zauważa, że taki obowiązek umożliwiłby ocenę ich zgodności z prawem Unii i zasadami etycznymi, i odnotowuje w tym względzie przykład ustanowionego prawnie przekazywania publikacji do biblioteki narodowej; odnotowuje istotne rozróżnienie między przejrzystością algorytmów i przejrzystością korzystania z algorytmów;
21. zwraca ponadto uwagę, że w celu poszanowania godności, autonomii i bezpieczeństwa ludzi należy zwrócić należytą uwagę na kluczowe i zaawansowane przyrządy medyczne oraz potrzebę utrzymania przez niezależne, wiarygodne organy środków niezbędnych do świadczenia usług osobom korzystającym z tych przyrządów w przypadku gdy oryginalny wykonawca lub podmiot wdrażający nie świadczy już tych usług; na przykład: usługi takie obejmowałyby konserwację, naprawy i ulepszenia, w tym aktualizacje oprogramowania, które eliminują wady działania i niedociągnięcia;
22. utrzymuje, że sztuczna inteligencja, robotyka i powiązane z nimi technologie wysokiego ryzyka, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, bez względu na dziedzinę, w której są opracowywane, wdrażane i wykorzystywane, już na etapie projektowania powinny być opracowywane w sposób bezpieczny, identyfikowalny, technicznie niezawodny, niezawodny, etyczny i prawnie wiążący oraz powinno się je objąć niezależną kontrolą i nadzorem; uważa w szczególności, że wszystkie podmioty w łańcuchu opracowywania i dostaw produktów i usług wykorzystujących sztuczną inteligencję powinny ponosić odpowiedzialność prawną oraz zwraca uwagę na potrzebę mechanizmów zapewniających odpowiedzialność i rozliczalność;
23. podkreśla, że regulacje i wytyczne dotyczące wyjaśnialności, możliwości kontroli, identyfikowalności i przejrzystości, a także dotyczące dostępu organów publicznych do technologii, danych i systemów obliczeniowych leżących u podstaw takich technologii – gdy wymaga tego ocena ryzyka, jest to absolutnie konieczne i przy pełnym poszanowaniu prawa Unii, m.in. prawa dotyczącego ochrony danych, prywatności, praw własności intelektualnej i tajemnic przedsiębiorstwa – mają zasadnicze znaczenie dla zapewnienia zaufania obywateli do tych technologii, nawet jeżeli stopień wyjaśnialności jest powiązany ze złożonością technologii; zwraca uwagę, że nie zawsze możliwe jest wyjaśnienie, dlaczego model doprowadził do konkretnego wyniku czy decyzji, a przykładem tego są algorytmy typu „czarna skrzynka”; uważa zatem, że poszanowanie tych zasad stanowi warunek wstępny dla zagwarantowania rozliczalności;
24. uważa, że obywatele, w tym konsumenci, gdy wchodzą w interakcję z systemem korzystającym ze sztucznej inteligencji, w szczególności wykorzystywanym w celu personalizacji produktu czy usługi dla użytkowników, powinni być informowani, czy mogą wyłączyć lub ograniczyć personalizację i jak to zrobić;
25. w związku z tym zauważa, że aby można było zaufać sztucznej inteligencji, robotyce i powiązanym z nimi technologiom, należy zadbać o tu, by były precyzyjne i technicznie niezawodne;
26. podkreśla, że ważna jest ochrona sieci obejmujących połączenie AI i robotyki, że należy podejmować stanowcze kroki, by zapobiegać naruszeniom bezpieczeństwa, wyciekaniu i „zatruwaniu” danych, cyberatakom i niewłaściwemu wykorzystywaniu danych osobowych oraz że będzie to wymagać od odpowiednich agencji, organów i instytucji na szczeblu zarówno Unii, jak i krajowym, współpracy z użytkownikami końcowymi tych technologii; wzywa Komisję i państwa członkowskie, aby dopilnowały stałego przestrzegania unijnych wartości i praw podstawowych podczas opracowywania i wdrażania technologii AI w celu zapewnienia bezpieczeństwa i odporności infrastruktury cyfrowej UE;
Brak nierównego traktowania i niedyskryminacja
27. przypomina, że sztuczna inteligencja, w zależności od sposobu jej opracowania i wykorzystywania, ma potencjał tworzenia i wzmacniania nierównego traktowania, w tym poprzez nieodłączną tendencyjność w podstawowych zbiorach danych, a tym samym tworzenia różnych form zautomatyzowanej dyskryminacji, w tym dyskryminacji pośredniej, w szczególności w odniesieniu do grup osób o podobnych cechach; wzywa Komisję i państwa członkowskie, aby podjęły wszelkie możliwe środki w celu unikania takiego nierównego traktowania i zapewnienia pełnej ochrony praw podstawowych;
28. wyraża zaniepokojenie ryzykiem nierównego traktowania i dyskryminacji podczas opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie; przypomina, że bez względu na okoliczności należy zapewnić przestrzeganie prawa Unii oraz poszanowanie praw i godności człowieka, autonomii i prawa do samostanowienia jednostki, a także równe traktowanie i niedyskryminację w odniesieniu do wszystkich;
29. podkreśla, że technologie AI należy projektować tak, by funkcjonowały z poszanowaniem unijnych zasad oraz integralności cielesnej i psychicznej, a także respektowały różnorodność kulturową i językową UE oraz pomagały realizować podstawowe potrzeby; podkreśla, że należy unikać wszelkich zastosowań, które mogłyby prowadzić do niedopuszczalnego przymusu bezpośredniego lub pośredniego, groziłyby naruszeniem autonomii psychicznej i zdrowia psychicznego lub prowadziłyby do nieuzasadnionej inwigilacji, oszustwa lub niedopuszczalnej manipulacji;
30. zdecydowanie uważa, że podstawowe prawa człowieka zapisane w Karcie powinny być ściśle przestrzegane, aby zagwarantować, że nowe technologie nie stworzą luk w zakresie ochrony;
31. stwierdza, że problem ewentualnego nierównego traktowania i dyskryminacji ze strony programów komputerowych, algorytmów oraz danych może spowodować realne szkody dla jednostek i społeczeństwa, a zatem należy go rozwiązać przez zachęcanie do opracowywania i wzajemnej wymiany strategii przeciwdziałania tym zjawiskom, na przykład przez eliminację tendencyjności zbiorów danych wykorzystywanych w badaniach i rozwoju oraz przez opracowanie zasad regulujących przetwarzanie danych; uważa, że dzięki takiemu podejściu programy komputerowe, algorytmy i dane mogłyby stać się wartościowym narzędziem przeciwdziałania nierównemu traktowaniu i dyskryminacji w pewnych sytuacjach oraz siłą napędową równych praw i pozytywnych przemian społecznych;
32. utrzymuje, że wartości etyczne takie jak sprawiedliwość, dokładność, poufność i przejrzystość powinny stanowić podstawę tych technologii, co w tym kontekście oznacza, że ich działania nie mogą generować tendencyjnych wyników;
33. podkreśla znaczenie jakości zbiorów danych wykorzystywanych w systemach sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w zależności od ich kontekstu, zwłaszcza pod względem reprezentatywności danych szkoleniowych, eliminacji tendencyjności zbiorów danych, zastosowanych algorytmów oraz norm dotyczących danych i agregacji; podkreśla, że te zbiory danych powinny podlegać kontroli przez krajowe organy nadzoru i być udostępniane za każdym razem, gdy wystosowane zostanie wezwanie do zapewnienia zgodności tych zbiorów danych z uprzednio określonymi zasadami;
34. podkreśla, że w obliczu szeroko zakrojonej wojny dezinformacyjnej, napędzanej przede wszystkim przez podmioty pozaeuropejskie, technologie AI mogą mieć niepożądane z etycznego punktu widzenia skutki w związku z wykorzystywaniem tendencyjności w danych i algorytmach lub celowym zmienianiem przez kraj trzeci danych szkoleniowych, oraz może być poddana innym formom niebezpiecznej, złośliwej manipulacji w nieprzewidziany sposób i z niemożliwymi do oszacowania skutkami; w związku z tym niezbędne jest, by Unia nadal inwestowała w badania, analizę, innowacje oraz transgraniczny i międzysektorowy transfer wiedzy, by rozwijać technologie AI, które będą całkowicie wolne od wszelkiego rodzaju profilowania, nierównego traktowania i dyskryminacji i które mogłyby skutecznie przyczyniać się do zwalczania fałszywych informacji i dezinformacji, z jednoczesnym poszanowaniem prywatności danych i unijnych ram prawnych;
35. przypomina o znaczeniu zapewnienia obywatelom skutecznych środków odwoławczych oraz wzywa państwa członkowskie do zapewnienia dostępności przystępnych cenowo, niezależnych i skutecznych procedur i mechanizmów przeglądu gwarantujących bezstronną weryfikację przez człowieka wszystkich roszczeń dotyczących naruszeń praw obywateli, m.in. praw konsumenta i praw obywatelskich, w wyniku stosowania systemów algorytmicznych, niezależnie od tego, czy pochodzą od podmiotów sektora publicznego czy prywatnego; podkreśla znaczenie projektu dyrektywy Parlamentu Europejskiego i Rady w sprawie powództw przedstawicielskich w celu ochrony zbiorowych interesów konsumentów i uchylającej dyrektywę 2009/22/WE, co do której w dniu 22 czerwca 2020 r. osiągnięto porozumienie polityczne, w odniesieniu do przyszłych przypadków kwestionowania wprowadzenia lub stałego wykorzystywania systemu AI, jeżeli może to prowadzić do naruszenia praw konsumentów, lub zaskarżenia naruszenia tych praw; zwraca się do Komisji i państw członkowskich o dopilnowanie, by krajowe i unijne organizacje konsumenckie dysponowały wystarczającymi środkami finansowymi, aby pomóc konsumentom w korzystaniu z prawa do środków odwoławczych w przypadkach, w których zostały naruszone ich prawa;
36. uważa zatem, że każda osoba fizyczna bądź prawna powinna mieć prawo do dochodzenia roszczeń w związku z decyzją podjętą przez system AI, robotyki lub powiązanych technologii, która to decyzja narusza prawo unijne lub krajowe;
37. uważa, że w przypadkach podejrzenia naruszenia ram regulacyjnych Unii w tym kontekście pierwszym punktem kontaktowym dla konsumentów mogłyby być również krajowe organy nadzoru, do których zwracaliby się oni z wnioskami o rekompensatę w celu zapewnienia skutecznego egzekwowania wyżej wspomnianych ram;
Odpowiedzialność społeczna i równowaga płci
38. uważa, że społecznie odpowiedzialne systemy AI, robotyki i powiązanych z nimi technologii mają do odegrania rolę w znajdowaniu rozwiązań, które chronią i promują podstawowe prawa i wartości naszego społeczeństwa, takie jak demokracja, praworządność, pluralistyczne i niezależne media oraz obiektywne i łatwo dostępne informacje, zdrowie i dobrobyt gospodarczy, równość szans, prawa pracowników i prawa socjalne, edukacja wysokiej jakości, ochrona dzieci, różnorodność kulturowa i językowa, równość płci, umiejętności cyfrowe, innowacje i kreatywność; przypomina o potrzebie zapewnienia, by interesy wszystkich obywateli, w tym marginalizowanych lub znajdujących się w niekorzystnej sytuacji, takich jak osoby niepełnosprawne, były odpowiednio uwzględniane i reprezentowane;
39. podkreśla, że istotne znaczenie ma osiągnięcie wysokiego poziomu ogólnych umiejętności cyfrowych i kształcenie wysoko wykwalifikowanych specjalistów w tej dziedzinie oraz zapewnienie wzajemnego uznawania takich kwalifikacji w całej Unii; podkreśla potrzebę zróżnicowanych zespołów programistów i inżynierów współpracujących z głównymi podmiotami społecznymi w celu zapobiegania nieumyślnemu włączaniu nierównego traktowania ze względu na płeć i uprzedzeń kulturowych do algorytmów, systemów i zastosowań opartych na sztucznej inteligencji; wspiera tworzenie programów nauczania i podejmowanie działań na rzecz podnoszenia świadomości społecznej w zakresie społecznego, prawnego i etycznego wpływu sztucznej inteligencji;
40. podkreśla kluczowe znaczenie zagwarantowania wolności myśli i wypowiedzi, zapewniając, by technologie te nie promowały mowy nienawiści ani przemocy; w związku z tym, uważa, że utrudnianie lub ograniczanie wolności wypowiedzi realizowanej przy pomocy środków cyfrowych jest niezgodne z prawem w świetle podstawowych zasad Unii, chyba że korzystanie z tego podstawowego prawa wiąże się z czynami niezgodnymi z prawem;
41. podkreśla, że sztuczna inteligencja, robotyka i powiązane z nimi technologie mogą przyczynić się do zmniejszenia nierówności społecznych i stwierdza, że europejski model ich rozwoju musi opierać się na zaufaniu obywateli i większej spójności społecznej;
42. podkreśla, że wdrożenie jakiegokolwiek systemu sztucznej inteligencji nie powinno nadmiernie ograniczać użytkownikom dostępu do usług publicznych, takich jak zabezpieczenie społeczne; w związku z tym wzywa Komisję do oceny, w jaki sposób można osiągnąć ten cel;
43. podkreśla znaczenie odpowiedzialnych badań i rozwoju mających na celu maksymalizację pełnego potencjału sztucznej inteligencji, robotyki i powiązanych z nimi technologii dla obywateli i dobra publicznego; wzywa do mobilizacji zasobów Unii oraz państw członkowskich w celu opracowania i wsparcia odpowiedzialnej innowacyjności;
44. podkreśla, że wraz z rosnącym znaczeniem umiejętności technologicznych konieczna będzie stała aktualizacja oferty edukacyjnej, zwłaszcza skierowanej do przyszłych pokoleń, i promowanie zmiany kwalifikacji osób, które są już na rynku pracy; uważa, że należy w związku z tym promować innowacje i szkolenie nie tylko w sektorze prywatnym, ale również publicznym;
45. podkreśla, że opracowywanie, wdrażanie i wykorzystywanie tych technologii nie powinno powodować obrażeń ciała lub szkód dla osób fizycznych, społeczeństwa lub środowiska oraz że w związku z tym podmioty opracowujące, wdrażające i wykorzystujące te technologie powinno się pociągać do odpowiedzialności za takie obrażenia lub szkody zgodnie z odpowiednimi unijnymi i krajowymi przepisami dotyczącymi odpowiedzialności;
46. wzywa państwa członkowskie do oceny, czy utrata miejsc pracy w wyniku zastosowania tych technologii powinna prowadzić do opracowania odpowiednich strategii polityki publicznej, takich jak skrócenie czasu pracy;
47. utrzymuje, że projektowanie oparte na wartościach i zasadach etycznych Unii jest bardzo potrzebnym podejściem, aby stworzyć warunki dla powszechnej akceptacji społecznej sztucznej inteligencji, robotyki i powiązanych z nimi technologii; uważa, że podejście to mające na celu rozwój godnej zaufania, etycznie odpowiedzialnej i technicznie niezawodnej sztucznej inteligencji jest istotnym czynnikiem wspomagającym zrównoważoną, inteligentną, bezpieczną i dostępną mobilność;
48. zwraca uwagę na dużą wartość dodaną pojazdów autonomicznych dla osób o ograniczonej możliwości poruszania się, ponieważ takie pojazdy umożliwiają tym osobom większy udział w indywidualnym transporcie drogowym, a tym samym ułatwiają im życie codzienne; podkreśla znaczenie dostępności, szczególnie przy projektowaniu systemów MaaS (mobilność jako usługa);
49. wzywa Komisję, aby nadal wspierała rozwój godnych zaufania systemów AI w celu zwiększenia bezpieczeństwa, efektywności, dostępności, przystępności cenowej i inkluzywności transportu, w tym dla osób o ograniczonej możliwości poruszania się, zwłaszcza osób z niepełnosprawnościami, z uwzględnieniem dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/882(13) oraz przepisów unijnych dotyczących praw pasażerów;
50. uważa, że AI może pomóc w lepszym korzystaniu z umiejętności i kompetencji osób z niepełnosprawnościami oraz że stosowanie AI w miejscu pracy może sprzyjać inkluzywnym rynkom pracy oraz wzrostowi wskaźników zatrudnienia osób z niepełnosprawnościami;
Środowisko i zrównoważony rozwój
51. stwierdza, że rządy i przedsiębiorstwa powinny wykorzystywać sztuczną inteligencję, robotykę i powiązane z nimi technologie, aby przynosić korzyści ludziom i planecie, przyczyniać się do osiągnięcia zrównoważonego rozwoju, ochrony środowiska, neutralności klimatycznej i celów gospodarki o obiegu zamkniętym; opracowywanie, wdrażanie i wykorzystywanie tych technologii powinno przyczyniać się do transformacji ekologicznej, chronić środowisko oraz minimalizować i naprawiać wszelkie szkody dla środowiska w ciągu cyklu życia tych technologii i w całym związanym z nimi łańcuchu wartości zgodnie z prawem Unii;
52. ze względu na ich znaczący wpływ na środowisko, do celów poprzedniego ustępu wpływ na środowisko naturalne związany z rozwojem, wdrażaniem i wykorzystywaniem sztucznej inteligencji, robotyki i powiązanych z nimi technologii mógłby być, w stosownych przypadkach i w razie potrzeby, oceniany przez organy sektorowe w całym cyklu życia tych technologii; ocena ta powinna mogłaby obejmować oszacowanie wpływu wydobycia niezbędnych surowców, zużycia energii i emisji gazów cieplarnianych wynikających z ich opracowywania, wdrażania i stosowania;
53. proponuje, aby w celu opracowywania najnowocześniejszych odpowiedzialnych rozwiązań sztucznej inteligencji eksplorować, stymulować i maksymalnie zwiększać potencjał sztucznej inteligencji, robotyki i powiązanych z nimi technologii w drodze odpowiedzialnych badań i rozwoju, które wymagają mobilizacji zasobów Unii oraz państw członkowskich;
54. podkreśla, że z opracowywaniem, wdrażaniem i wykorzystywaniem tych technologii wiążą się możliwości, jeśli chodzi o promowanie celów zrównoważonego rozwoju wyznaczonych przez Organizację Narodów Zjednoczonych, globalnej transformacji energetyki i dekarbonizacji;
55. uważa, że cele odpowiedzialności społecznej, równouprawnienia płci, ochrony środowiska i zrównoważonego rozwoju należy realizować bez uszczerbku dla istniejących obowiązków ogólnych i sektorowych w tych dziedzinach; uważa, że należy ustanowić niewiążące wytyczne dotyczące wdrażania dla podmiotów opracowujących, wdrażających i użytkowników, zwłaszcza technologii wysokiego ryzyka, dotyczące metodologii oceny ich zgodności z niniejszym rozporządzeniem oraz osiągnięcia tych celów;
56. apeluje do Unii, by w drodze stosowania podatków, udzielania zamówień lub innych zachęt promowała i finansowała opracowywanie ukierunkowanych na człowieka zastosowań sztucznej inteligencji, robotyki i powiązanych z nimi technologii, które odpowiadają na wyzwania związane ze środowiskiem i klimatem oraz zapewniają poszanowanie praw podstawowych;
57. podkreśla, że pomimo obecnego silnego śladu węglowego opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym zautomatyzowanych decyzji i uczenia się maszyn, technologie te mogą przyczynić się do zmniejszenia obecnego śladu środowiskowego sektora ICT; podkreśla, że te i inne odpowiednio regulowane pokrewne technologie powinny być kluczowymi czynnikami umożliwiającymi osiągnięcie celów Zielonego Ładu, celów zrównoważonego rozwoju ONZ i porozumienia paryskiego w wielu różnych sektorach oraz powinny zwiększyć wpływ polityki zapewniającej ochronę środowiska, np. w zakresie strategii politycznych dotyczących ograniczania ilości odpadów i degradacji środowiska;
58. wzywa Komisję do przeprowadzenia badania na temat wpływu śladu węglowego AI oraz pozytywnych i negatywnych skutków przejścia na stosowanie technologii AI przez konsumentów;
59. zauważa, że biorąc pod uwagę coraz bardziej intensywny rozwój zastosowań AI, które wymagają zasobów obliczeniowych, środków gromadzenia i zasobów energetycznych, wpływ systemów AI na środowisko powinien być brany pod uwagę w całym ich cyklu życia;
60. uważa, że w dziedzinach takich jak zdrowie, odpowiedzialność musi ostatecznie spoczywać na osobie fizycznej lub prawnej; podkreśla potrzebę identyfikowalnych i publicznie dostępnych danych treningowych dla algorytmów;
61. zdecydowanie popiera utworzenie europejskiej przestrzeni danych dotyczących zdrowia zaproponowanej przez Komisję w jej komunikacie w sprawie europejskiej strategii w zakresie danych, która ma na celu promowanie wymiany danych dotyczących zdrowia oraz wspieranie badań z pełnym poszanowaniem ochrony danych, w tym przetwarzania danych za pomocą technologii AI, a także wzmocnienie i rozszerzenie wykorzystania i ponownego wykorzystania danych dotyczących zdrowia; zachęca do zwiększenia skali transgranicznej wymiany danych dotyczących zdrowia, powiązania i wykorzystywania takich danych poprzez bezpieczne, skoordynowane repozytoria szczególnego rodzaju informacji dotyczących zdrowia, takich jak europejskie rejestry zdrowia (EHR), dane genomowe i cyfrowe obrazy medyczne, aby ułatwić funkcjonowanie ogólnoeuropejskich interoperacyjnych rejestrów lub baz danych w dziedzinach takich jak badania, nauka i sektory zdrowia;
62. podkreśla korzyści, jakie przynosi AI w dziedzinie zapobiegania chorobom, ich leczenia i kontroli, czego przykładem może być fakt, iż AI przewidziała epidemię COVID-19 przed WHO; wzywa Komisję, aby zapewniła ECDC odpowiednie ramy regulacyjne i zasoby umożliwiające niezależne gromadzenie niezbędnych zanonimizowanych i globalnych danych w czasie rzeczywistym, we współpracy z państwami członkowskimi, między innymi w celu rozwiązania problemów ujawnionych w związku z pandemią COVID-19;
Prywatność i biometria
63. zauważa dynamiczny wzrost generowania i wykorzystywania danych, w tym danych osobowych, takich jak dane biometryczne, w następstwie opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, a w związku z tym podkreśla potrzebę poszanowania praw obywateli do prywatności i ochrony danych osobowych zgodnie z prawem Unii;
64. zwraca uwagę, że możliwości oferowane przez te technologie w zakresie wykorzystywania danych osobowych i nieosobowych do kategoryzacji i mikrotargetowania osób, określania słabych stron poszczególnych osób lub wykorzystywania precyzyjnej wiedzy predykcyjnej należy równoważyć skutecznie egzekwowanymi zasadami ochrony danych i prywatności, takimi jak zasada minimalizacji danych, prawa do sprzeciwu względem profilowania i kontroli nad własnymi danymi, prawa do uzyskania wyjaśnienia decyzji opartej na zautomatyzowanym przetwarzaniu oraz uwzględnienia ochrony prywatności już w fazie projektowania, a także zasadami proporcjonalności, konieczności i jasno określonej celowości zgodnie z RODO;
65. podkreśla, że gdy technologie zdalnego rozpoznawania, takie jak rozpoznawanie identyfikatorów biometrycznych, w szczególności rozpoznawanie twarzy, są wykorzystywane przez organy publiczne do celów istotnego interesu publicznego, ich wykorzystywanie powinno zawsze być ujawniane, proporcjonalne, ukierunkowane i ograniczone do konkretnych celów, ograniczone w czasie i przeprowadzane zgodnie z prawem Unii, z należytym poszanowaniem ludzkiej godności i autonomii oraz praw podstawowych określonych w Karcie praw podstawowych; kryteria i ograniczenia ich wykorzystywania powinny podlegać kontroli sądowej i nadzorowi demokratycznemu, a także powinny uwzględniać ich oddziaływanie psychologiczne i społeczno-kulturowe;
66. zwraca uwagę, że choć z wdrażania sztucznej inteligencji, robotyki i powiązanych z nimi technologii w ramach decyzji władz publicznych płyną korzyści, możliwe są także poważne nadużycia, takie jak masowa inwigilacja, prewencja policyjna i naruszenia praw procesowych;
67. uważa, że technologie zdolne do podejmowania zautomatyzowanych decyzji, a tym samym mogące zastąpić podejmowanie decyzji przez organy publiczne, należy traktować z największą ostrożnością, szczególnie w dziedzinie sprawiedliwości i egzekwowania prawa;
68. uważa, że państwa członkowskie powinny decydować się na stosowanie tych technologii tylko wówczas, gdy istnieją solidne dowody na ich wiarygodność oraz gdy możliwa jest istotna interwencja lub weryfikacja ze strony człowieka lub przeprowadza się je systematycznie w przypadkach zagrożenia dla praw podstawowych; podkreśla znaczenie przeprowadzania przez organy krajowe skrupulatnych ocen skutków dla praw podstawowych w odniesieniu do systemów sztucznej inteligencji wdrażanych w takich przypadkach, zwłaszcza gdy technologie te uznane zostały za obarczone wysokim ryzykiem;
69. jest zdania, że każda decyzja podjęta przez technologię sztucznej inteligencji, robotyki i powiązanych z nimi technologii w ramach uprawnień władzy publicznej powinna podlegać istotnej interwencji ze strony człowieka i rzetelnym procedurom, zwłaszcza gdy technologie te uznane zostały za obarczone wysokim ryzykiem;
70. uważa, że postęp technologiczny nie powinien prowadzić do wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii do samodzielnego podejmowania decyzji w sektorze publicznym, które mają bezpośredni i znaczący wpływ na prawa i obowiązki obywateli;
71. zauważa, że sztuczna inteligencja, robotyka i powiązane z nimi technologie w obszarze egzekwowania prawa i kontroli granic mogą zwiększyć bezpieczeństwo publiczne, ale również wymagają szerokiej i rygorystycznej kontroli publicznej oraz najwyższego możliwego poziomu przejrzystości zarówno w odniesieniu do oceny ryzyka poszczególnych zastosowań, jak i ogólnego przeglądu wykorzystania sztucznej inteligencji, robotyki i powiązanych z nimi technologii w obszarze egzekwowania prawa i kontroli granic; uważa, że takie technologie wiążą się ze znacznym ryzykiem etycznym, z którym należy sobie odpowiednio poradzić, biorąc pod uwagę możliwe niekorzystne skutki dla obywateli, w szczególności ich prawa do prywatności, ochrony danych i niedyskryminacji; podkreśla, że nadużywanie tych technologii może stać się bezpośrednim zagrożeniem dla demokracji, a ich wdrażanie i stosowanie musi odbywać się z poszanowaniem zasad proporcjonalności i konieczności, Karty praw podstawowych i odpowiedniego prawa wtórnego Unii, takiego jak unijne przepisy o ochronie danych; podkreśla, że sztuczna inteligencja nigdy nie powinna zastępować człowieka przy wydawaniu wyroków; uważa, że decyzje takie jak zwolnienie za kaucją, zawieszenie wyroku, umożliwienie wysłuchania przed sądem czy decyzje oparte wyłącznie na automatycznym przetwarzaniu danych, wywołujące skutek prawny w odniesieniu do osoby lub mające na nią istotny wpływ, muszą zawsze obejmować wnikliwą ocenę i osąd ze strony człowieka;
Dobre zarządzanie
72. podkreśla, że odpowiednie zarządzanie opracowywaniem, wdrażaniem i wykorzystywaniem sztucznej inteligencji, robotyki i powiązanych z nimi technologii, zwłaszcza technologii wysokiego ryzyka, przez wdrożenie środków ukierunkowanych na rozliczalność i wyeliminowanie potencjalnego ryzyka nierównego traktowania i dyskryminacji, może zwiększyć bezpieczeństwo obywateli oraz ich zaufanie do tych technologii;
73. uważa, że wspólne ramy zarządzania tymi technologiami, koordynowane przez Komisję i/lub wszelkie właściwe instytucje, organy, urzędy lub agencje Unii, które mogą być wyznaczone do tego zadania w tym kontekście, wdrażane przez krajowe organy nadzoru w każdym państwie członkowskim, zapewniłyby spójne unijne podejście i zapobiegłyby rozdrobnieniu jednolitego rynku;
74. zauważa, że w rozwoju sztucznej inteligencji, robotyki i powiązanych z nimi technologii wykorzystywane są duże ilości danych oraz że przetwarzanie, wymianę i korzystanie z takich danych oraz dostęp do nich należy uregulować zgodnie z przepisami prawa oraz określonymi w nich wymogami dotyczącymi jakości, integralności, interoperacyjności, przejrzystości, bezpieczeństwa, prywatności i kontroli;
75. przypomina, że dostęp do danych stanowi niezbędny element rozwoju gospodarki cyfrowej; zwraca w związku z tym uwagę, że interoperacyjność danych, dzięki ograniczaniu efektu blokady technologicznej, odgrywa kluczową rolę w zapewnianiu sprawiedliwych warunków rynkowych i promowaniu równości szans na jednolitym rynku cyfrowym;
76. podkreśla potrzebę zapewnienia odpowiedniej ochrony danych osobowych, w szczególności danych należących do słabszych grup społecznych lub ich dotyczących, takich jak osoby niepełnosprawne, pacjenci, dzieci, osoby starsze, mniejszości, migranci i inne grupy zagrożone wykluczeniem;
77. zauważa, że opracowywanie, wdrażanie i wykorzystywanie przez organy publiczne sztucznej inteligencji, robotyki i powiązanych z nimi technologii bywa często zlecane podmiotom prywatnym w ramach outsourcingu; wyraża przekonanie, że nie powinno to w żaden sposób narażać na szwank ochrony wartości publicznych i praw podstawowych; uważa, że warunki udzielania zamówień publicznych powinny w stosownych przypadkach odzwierciedlać normy etyczne obowiązujące organy publiczne;
Konsumenci i rynek wewnętrzny
78. podkreśla, że istotne jest, by ramy regulacyjne dotyczące sztucznej inteligencji miały zastosowanie, gdy konsumenci w Unii są użytkownikami systemu algorytmicznego, są objęci systemem algorytmicznym, taki system jest na nich ukierunkowany lub są kierowani do systemu algorytmicznego, niezależnie od miejsca prowadzenia działalności przez podmioty opracowujące, sprzedające lub wykorzystujące ten system; uważa ponadto, że w trosce o pewność prawa ustalone zasady powinny być stosowane w odniesieniu do wszystkich podmiotów opracowujących i w całym łańcuchu wartości, a mianowicie na etapach opracowywania, wdrażania i wykorzystywania odpowiednich technologii i ich elementów, a także powinny gwarantować najwyższy poziom ochrony konsumentów;
79. zauważa nieodłączny związek między sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami, w tym oprogramowaniem, algorytmami oraz danymi wykorzystywanymi lub generowanymi przez te technologie, a dziedzinami takimi jak internet rzeczy, uczenie się maszyn, systemy oparte na zasadach lub zautomatyzowane i wspomagane procesy decyzyjne; zauważa ponadto, że można opracować standardowe znaki graficzne, aby pomagać w wyjaśnianiu konsumentom tych systemów, gdy są one skomplikowane lub podejmują decyzje mające znaczący wpływ na ich życie;
80. przypomina, że Komisja powinna przeanalizować istniejące ramy prawne i ich stosowanie, w tym dorobek w zakresie prawa ochrony konsumentów, przepisy dotyczące odpowiedzialności za produkt, przepisy dotyczące bezpieczeństwa produktów oraz przepisy dotyczące nadzoru rynku, w celu zidentyfikowania luk prawnych, a także istniejących obowiązków regulacyjnych; uważa, że jest to konieczne w celu stwierdzenia, czy są one w stanie reagować na nowe wyzwania związane z pojawieniem się sztucznej inteligencji, robotyki i powiązanych z nimi technologii oraz czy są one w stanie zapewnić wysoki poziom ochrony konsumentów;
81. podkreśla potrzebę skutecznego sprostania wyzwaniom, jakie stwarzają sztuczna inteligencja, robotyka i powiązane z nimi technologie, oraz zapewnienia konsumentom mocnej pozycji i odpowiedniej ochrony; podkreśla potrzebę wyjścia poza tradycyjne zasady informowania i ujawniania informacji, na których opiera się dorobek prawny w dziedzinie ochrony konsumentów, ponieważ silniejsze prawa konsumentów oraz wyraźne ograniczenia dotyczące opracowywania, wdrażania i stosowania sztucznej inteligencji będą konieczne, aby zagwarantować, że technologia ta przyczyni się do poprawy życia konsumentów i będzie ewoluować w sposób respektujący prawa podstawowe i prawa konsumentów oraz wartości unijne;
82. zwraca uwagę, że ramy prawne wprowadzone decyzją nr 768/2008/WE(14) zawierają zharmonizowany wykaz obowiązków ciążących na producentach, importerach i dystrybutorach, zachęcają do stosowania norm i przewidują kilka poziomów kontroli w zależności od rodzaju zagrożenia stwarzanego przez dany produkt; uważa, że ramy te powinny mieć zastosowanie również do produktów z wbudowaną sztuczną inteligencją;
83. zauważa, że w celu przeanalizowania wpływu sztucznej inteligencji, robotyki i powiązanych z nimi technologii na konsumentów dostęp do danych mógłby zostać rozszerzony na właściwe organy krajowe, przy pełnym poszanowaniu prawa Unii, takiego jak prawo dotyczące ochrony danych, prywatności i tajemnic handlowych; przypomina o znaczeniu edukowania konsumentów, aby byli lepiej poinformowani i posiadali większe umiejętności, kiedy posługują się sztuczną inteligencją, w celu chronienia ich przed potencjalnymi zagrożeniami i zapewnienia poszanowania ich praw;
84. wzywa Komisję do zaproponowania środków umożliwiających identyfikowalność danych, mając na uwadze zarówno legalność pozyskiwania danych, jak i ochronę praw konsumentów i praw podstawowych, przy pełnym poszanowaniu prawa Unii, takiego jak prawo dotyczące ochrony danych, prywatności, praw własności intelektualnej i tajemnic handlowych;
85. zauważa, że technologie te powinny być ukierunkowane na użytkownika i zaprojektowane w sposób umożliwiający wszystkim korzystanie z produktów lub usług opartych na sztucznej inteligencji, niezależnie od wieku, płci, umiejętności czy cech charakterystycznych; zauważa, że szczególne znaczenie ma ich dostępność dla osób z niepełnosprawnościami; zauważa, że nie powinno się stosować ujednolicającego podejścia, lecz że należy uwzględnić zasady projektowania dla wszystkich skierowane do możliwie najszerszego kręgu użytkowników, zgodnie z odpowiednimi normami dostępności; podkreśla, że umożliwi to ludziom sprawiedliwy dostęp do istniejącej i nowo powstającej działalności człowieka prowadzonej przy użyciu komputera i technologii wspomagających oraz aktywny w nich udział;
86. podkreśla, że jeżeli opracowywanie, wdrażanie lub stosowanie sztucznej inteligencji, robotyki lub powiązanych z nimi technologii jest w znaczącej mierze finansowane z pieniędzy pochodzących ze źródeł publicznych, obok norm otwartych procedur przetargowych i otwartych zamówień, wówczas domyślnie kod, wygenerowane dane – o ile nie są to dane osobowe – i wytrenowany model mogłyby zostać upublicznione za zgodą podmiotu opracowującego, aby zagwarantować przejrzystość, zwiększyć cyberbezpieczeństwo i umożliwić ich ponowne wykorzystanie w celu wspierania innowacji; podkreśla, że w ten sposób można uwolnić pełen potencjał jednolitego rynku, unikając jego fragmentacji;
87. uważa, że sztuczna inteligencja, robotyka i powiązane z nimi technologie mają ogromny potencjał, aby zapewnić konsumentom dostęp do wielu udogodnień w wielu aspektach ich życia za sprawą lepszych produktów i usług, a także aby umożliwić im korzystanie z lepszego nadzoru rynku, o ile nadal będą obowiązywać wszystkie mające zastosowanie zasady, warunki (w tym przejrzystość i możliwość kontroli) i przepisy;
Bezpieczeństwo i obrona
88. podkreśla, że polityka bezpieczeństwa i obrony Unii Europejskiej i jej państw członkowskich opiera się na zasadach zapisanych w europejskiej Karcie i zasadach Karty Narodów Zjednoczonych oraz na wspólnym rozumieniu uniwersalnych wartości nienaruszalnych i niezbywalnych praw człowieka, godności ludzkiej, wolności, demokracji, równości i państwa prawa; podkreśla, że we wszystkich działaniach związanych z obronnością w ramach Unii Europejskiej należy przestrzegać tych uniwersalnych wartości, jednocześnie wspierając pokój, bezpieczeństwo oraz postęp w Europie i na świecie;
89. przyjmuje z zadowoleniem fakt, że w 2019 r. podczas posiedzenia Wysokich Umawiających się Stron Konwencji o zakazie lub ograniczeniu użycia pewnych broni konwencjonalnych (konwencji CCW) zatwierdzono 11 zasad przewodnich dotyczących opracowywania autonomicznych systemów uzbrojenia i korzystania z nich; ubolewa jednak nad brakiem porozumienia w sprawie wiążących prawnie instrumentów regulujących autonomiczne śmiercionośne systemy uzbrojenia (LAWS) ze skutecznymi mechanizmami egzekwowania; przyjmuje z zadowoleniem i popiera sprawozdanie Komisji grupę ekspertów wysokiego szczebla ds. sztucznej inteligencji pt. „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji” opublikowane 9 kwietnia 2019 r. oraz jej stanowisko w sprawie autonomicznych śmiercionośnych systemów uzbrojenia; wzywa państwa członkowskie do opracowania krajowych strategii na rzecz zdefiniowania i statusu autonomicznych śmiercionośnych systemów uzbrojenia (LAWS) z myślą o kompleksowej strategii na szczeblu Unii oraz do promowania, wraz z wiceprzewodniczącym Komisji / wysokim przedstawicielem i Radą dyskusji w sprawie LAWS w ramach konwencji CCW ONZ i na innych odpowiednich forach oraz do ustanowienia międzynarodowych norm dotyczących etycznych i prawnych parametrów opracowywania i stosowania w pełni autonomicznych, półautonomicznych i zdalnie sterowanych śmiercionośnych systemów uzbrojenia; przypomina w tym kontekście swoją rezolucję z 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia i apeluje po raz kolejny o pilne opracowanie i przyjęcie wspólnego stanowiska w sprawie autonomicznych śmiercionośnych systemów uzbrojenia, o międzynarodowy zakaz opracowywania, produkcji i stosowania autonomicznych śmiercionośnych systemów uzbrojenia pozwalających na przeprowadzanie ataków bez istotnej ludzkiej kontroli i bez przestrzegania zasady udziału czynnika ludzkiego, zgodnie ze stanowiskiem najważniejszych badaczy AI na świecie wyrażonym w liście otwartym z 2015 r.; przyjmuje z zadowoleniem porozumienie Rady i Parlamentu w sprawie wyłączenia autonomicznej śmiercionośnej broni „bez możliwości istotnej ludzkiej kontroli nad decyzjami o wyborze i zaangażowaniu podczas przeprowadzania ataków” z działań finansowanych w ramach Europejskiego Funduszu Obrony (EFO); twierdzi, że nie wolno pomijać aspektów etycznych innych obszarów zastosowań AI w sektorze obronności, takich jak wywiad, obserwacja i rozpoznanie lub cyberoperacje oraz że należy zwrócić szczególną uwagę na opracowywanie i wykorzystywanie dronów w operacjach wojskowych;
90. podkreśla, że powstające technologie w sektorze obrony i bezpieczeństwa nieobjęte prawem międzynarodowym powinny być oceniane w świetle przestrzegania zasady humanitaryzmu i dyktatu sumienia publicznego;
91. zaleca, by wszelkie unijne ramy regulujące wykorzystanie w dziedzinie obronności, zarówno w sytuacjach bojowych, jak i niebojowych, systemów opartych na AI przestrzegały wszystkich obowiązujących systemów prawnych, w szczególności międzynarodowego prawa humanitarnego i międzynarodowego prawa dotyczącego praw człowieka, a także były zgodne z prawem, zasadami i wartościami Unii, z uwzględnieniem rozbieżności dotyczących infrastruktury technicznej i infrastruktury bezpieczeństwa w Unii;
92. uznaje, że w przeciwieństwie do baz przemysłowych w dziedzinie obronności kluczowe innowacje w dziedzinie AI mogą pochodzić z mniejszych państw członkowskich, a zatem ustandaryzowane podejście w zakresie WPBiO powinno zapewniać, by mniejsze państwa członkowskie i MŚP nie były wypierane; podkreśla, że zestaw wspólnych unijnych zdolności w zakresie AI, dopasowany do koncepcji działania państw członkowskich, może wypełnić luki techniczne, które mogłyby sprawić, że państwa bez odpowiedniej technologii, branżowej wiedzy specjalistycznej lub możliwości wdrożenia systemów AI w swoich ministerstwach obrony pozostawałyby w tyle;
93. uważa, że obecne i przyszłe działania związane z bezpieczeństwem i obronnością w ramach Unii będą się opierać na AI, robotyce i autonomii, a także na powiązanych technologiach, a wiarygodna, niezawodna i godna zaufania AI może przyczynić się do powstania nowoczesnego i skutecznego wojska; Unia musi zatem przyjąć wiodącą rolę w badaniach nad systemami AI w dziedzinie bezpieczeństwa i obronności oraz w ich rozwoju; uważa, że stosowanie w dziedzinie bezpieczeństwa i obronności aplikacji wykorzystujących AI może oferować szereg bezpośrednich korzyści dowodzącemu operacjami, takich jak wyższa jakość gromadzonych danych, lepsza orientacja sytuacyjna, większa szybkość podejmowania decyzji, ograniczenie ryzyka strat pobocznych dzięki lepszym połączeniom, ochrona sił w terenie, a także większa niezawodność sprzętu wojskowego, co oznacza mniejsze ryzyko dla ludzi i mniejszą liczbę ofiar w ludziach; podkreśla, że rozwój niezawodnej AI w dziedzinie obronności jest niezbędny do zapewnienia europejskiej autonomii strategicznej w zakresie zdolności i działalności operacyjnej; przypomina, że systemy AI stają się również kluczowymi elementami w przeciwdziałaniu pojawiającym się zagrożeniom dla bezpieczeństwa, takim jak wojna hybrydowa i cyberwojna, zarówno w sferze online, jak i offline; podkreśla jednocześnie wszystkie zagrożenia i wyzwania związane z nieuregulowanym stosowaniem AI; odnotowuje jednak, że AI może być poddana manipulacji, narażona na błędy i niedokładności;
94. podkreśla, że technologie AI są w zasadzie technologiami podwójnego zastosowania, a rozwój AI w działaniach w dziedzinie obronności korzysta na wymianie między technologiami wojskowymi a cywilnymi; podkreśla, że zastosowanie AI w działaniach związanych z obronnością jest przełomową technologią o charakterze przekrojowym, której rozwój może zapewnić możliwości w zakresie konkurencyjności i autonomii strategicznej Unii;
95. uznaje w kontekście dzisiejszej wojny hybrydowej i zaawansowanych działań zbrojnych, że objętość informacji i tempo ich napływania na wczesnych etapach kryzysu może przerosnąć ludzkich analityków, a system AI mógłby przetwarzać informacje w sposób gwarantujący, by ludzcy decydenci śledzili pełny zakres informacji w odpowiednim czasie umożliwiającym szybką odpowiedź;
96. podkreśla znaczenie inwestycji w rozwój kapitału ludzkiego w zakresie sztucznej inteligencji, rozwoju koniecznych umiejętności i edukacji w obszarze technologii AI stosowanych w dziedzinie bezpieczeństwa i obronności, ze szczególnym uwzględnieniem kwestii etycznych związanych z półautonomicznymi i autonomicznymi systemami operacyjnymi w oparciu o rozliczalność człowieka w świecie wykorzystującym sztuczną inteligencję; podkreśla w szczególności, jak ważne jest, by etycy zajmujący się tą dziedziną mieli odpowiednie umiejętności i przeszli odpowiednie szkolenia; apeluje do Komisji, by jak najszybciej zaprezentowała swoją agendę wzmacniania umiejętności, ogłoszoną w białej księdze w sprawie sztucznej inteligencji z 19 lutego 2020 r.;
97. podkreśla, że kwantowe technologie obliczeniowe mogą oznaczać najbardziej rewolucyjną zmianę w prowadzeniu konfliktów od wynalazku broni jądrowej, i w związku z tym apeluje, by dalszy rozwój kwantowych technologii obliczeniowych stał się priorytetem Unii i państw członkowskich; uznaje, że napaści zbrojne, w tym ataki na infrastrukturę krytyczną, przy użyciu kwantowych technologii obliczeniowych stworzą środowisko konfliktu, w którym dramatycznie skróci się czas na podjęcie decyzji – od dni i godzin do minut i sekund – co wymusi na państwach członkowskich rozwój zdolności do ochrony i wyszkolenia zarówno decydentów, jak i personelu wojskowego w zakresie skutecznej odpowiedzi w takich ramach czasowych;
98. domaga się zwiększonych inwestycji w europejską AI w obszarze obronności oraz we wspierającą ją infrastrukturę krytyczną;
99. przypomina, że większość obecnych sił wojskowych na świecie już podjęła znaczne wysiłki w obszarze badań i rozwoju związanych z wojskowymi aspektami AI; uważa, że Unia musi zadbać o to, by nie pozostać pod tym względem w tyle;
100. apeluje do Komisji, by zawarła budowanie zdolności w zakresie cyberbezpieczeństwa w swojej polityce przemysłowej w celu zapewnienia, by rozwijano i realizowano bezpieczne, odporne i niezawodne systemy wykorzystujące AI i systemy robotyczne; wzywa Komisję do zbadania wykorzystania protokołów i rozwiązań z zakresu cyberbezpieczeństwa opartych na łańcuchach bloków w celu poprawy odporności, wiarygodności i niezawodności infrastruktur sztucznej inteligencji dzięki bezpośrednim modelom szyfrowania danych; zachęca europejskie zainteresowane strony, by prowadziły badania naukowe i inżynieryjne nad zaawansowanymi funkcjami pomagającymi w wykrywaniu uszkodzonych lub złośliwych systemów wykorzystujących AI oraz systemów robotycznych, które mogłyby naruszyć bezpieczeństwo Unii i jej obywateli;
101. podkreśla, że wszystkie systemy AI w dziedzinie obronności muszą mieć konkretne i dobrze zdefiniowane ramy misji, zgodnie z którymi ludzie zachowują sprawczość w zakresie wykrywania, wyłączania lub dezaktywowania wdrożonych systemów w przypadku przekroczenia przez nie ram misji określonych i zleconych przez ludzkie dowództwo lub w przypadku podjęcia jakichkolwiek kroków nastawionych na eskalację, bądź też niezamierzonych działań; uważa, że systemy, produkty i technologie wykorzystujące AI opracowane do użytku wojskowego powinny zawierać „czarną skrzynkę” rejestrującą wszystkie działania na danych przeprowadzane przez maszynę;
102. podkreśla, że cała odpowiedzialność i rozliczalność za decyzję o projektowaniu, rozwijaniu, wdrażaniu i zastosowaniu systemów AI musi spoczywać na ludziach, to ludzie muszą zapewniać istotne monitorowanie wszelkich systemów uzbrojenia i istotną ich kontrolę, a decyzji o użyciu siły przy wprowadzaniu w życie decyzji podjętej przez system broni oparty na AI, która mogłaby mieć śmiertelne skutki, musi towarzyszyć zamiar ludzki; podkreśla, że ludzka kontrola powinna nadal mieć zastosowanie w odniesieniu do dowodzenia i kontroli systemów wykorzystujących AI, zgodnie z zasadą ludzkiej interwencji, człowieka w pętli decyzyjnej i zasadą nadzoru przez człowieka na szczeblu dowództwa wojskowego; podkreśla, że systemy AI muszą umożliwiać wojskowym dowódcom sił zbrojnych przyjęcie pełnej odpowiedzialności i rozliczalności za użycie śmiercionośnej siły oraz niezbędną zdolność oceny sytuacji, której nie można powierzać maszynom, gdyż musi się ona opierać się na rozróżnieniu, proporcjonalności i ostrożności, w odniesieniu do podejmowania przez te systemy śmiercionośnych lub zakrojonych na szeroką skalę działań destrukcyjnych; podkreśla, że należy ustalić ramy jasnych i identyfikowalnych zezwoleń i rozliczalności w odniesieniu do wykorzystywania inteligentnej broni i innych systemów wykorzystujących AI, w których używa się unikalnych cech użytkownika, na przykład charakterystyk biometrycznych, by z broni tej mógł korzystać tylko upoważniony personel;
Transport
103. podkreśla potencjał, jaki ma wykorzystanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii dla wszystkich autonomicznych środków transportu drogowego, kolejowego, wodnego i lotniczego, a także dla wsparcia przesunięcia międzygałęziowego i intermodalności, gdyż takie technologie mogą przyczynić się do znalezienia optymalnej kombinacji rodzajów transportu w przewozie towarów i pasażerów; ponadto podkreśla, że technologie te mogą zwiększyć efektywność transportu, logistyki i strumieni ruchu oraz sprawić, że wszystkie rodzaje transportu staną się bezpieczniejsze, inteligentniejsze i bardziej przyjazne dla środowiska; zauważa, że etyczne podejście do AI można również postrzegać jako system wczesnego ostrzegania, w szczególności jeśli chodzi o bezpieczeństwo i efektywność transportu;
104. podkreśla, że globalna konkurencja między przedsiębiorstwami i regionami gospodarczymi oznacza, że Unia musi promować inwestycje i wzmacniać międzynarodową konkurencyjność przedsiębiorstw działających w sektorze transportu, tworząc środowisko sprzyjające rozwojowi i stosowaniu rozwiązań w zakresie AI i dalszym innowacjom, w którym przedsiębiorstwa unijne będą mogły stać się światowymi liderami rozwoju technologii AI;
105. podkreśla, że unijny sektor transportu potrzebuje aktualizacji ram regulacyjnych dotyczących takich nowo powstających technologii oraz ich wykorzystania w sektorze transportu, a także jasnych ram etycznych dla stworzenia godnej zaufania AI, które obejmują aspekty bezpieczeństwa, ochrony, poszanowania ludzkiej autonomii, nadzoru i odpowiedzialności i które zwiększą korzyści wspólne dla wszystkich i będą zasadniczym czynnikiem pobudzającym inwestycje w badania i innowacje, rozwój umiejętności i wykorzystanie AI przez służby publiczne, MŚP, start-upy i przedsiębiorstwa, a jednocześnie zapewnią ochronę danych i interoperacyjność, bez nakładania zbędnych obciążeń administracyjnych na przedsiębiorstwa i konsumentów;
106. zauważa, że rozwój i wdrażanie AI w sektorze transportu nie będą możliwe bez nowoczesnej infrastruktury, która stanowi zasadniczy element inteligentnych systemów transportowych; podkreśla, że utrzymujące się różnice w poziomie rozwoju państw członkowskich stwarzają niebezpieczeństwo pozbawienia najsłabiej rozwiniętych regionów i ich mieszkańców korzyści wynikających z rozwoju autonomicznej mobilności; apeluje o odpowiednie finansowanie modernizacji infrastruktury transportowej w Unii, w tym o jej włączenie do sieci 5G;
107. zaleca opracowanie godnych zaufania ogólnounijnych norm AI dla wszystkich rodzajów transportu, w tym dla przemysłu motoryzacyjnego, a także w zakresie testowania pojazdów wykorzystujących AI oraz powiązanych produktów i usług;
108. zauważa, że systemy AI mogłyby przyczynić się do znacznego zmniejszenia liczby ofiar śmiertelnych na drogach, na przykład dzięki krótszemu czasowi reakcji i lepszemu przestrzeganiu przepisów; uważa jednak, że niemożliwe jest, by korzystanie z pojazdów autonomicznych spowodowało wyeliminowanie wszystkich wypadków, i podkreśla, że z tego powodu coraz bardziej istotna staje się wytłumaczalność decyzji AI, aby móc uzasadnić braki i niezamierzone konsekwencje decyzji AI;
Zatrudnienie, prawa pracownicze, umiejętności cyfrowe i miejsce pracy
109. zauważa, że stosowanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii w miejscu pracy może sprzyjać inkluzywnym rynkom pracy oraz wpłynąć na bezpieczeństwo i higienę pracy, lecz jednocześnie może być ona wykorzystywana do monitorowania, oceny i przewidywania wydajności pracowników oraz sterowania nią, z bezpośrednimi i pośrednimi konsekwencjami dla ich kariery zawodowej; mając na uwadze, że AI powinna pozytywnie wpływać na warunki pracy i podlegać zasadzie poszanowania praw człowieka, a także podstawowych praw i wartości Unii; mając na uwadze, że AI powinna być ukierunkowana na człowieka, poprawiać dobrostan obywateli i społeczeństwa oraz przyczyniać się do uczciwej i sprawiedliwej transformacji; technologie takie powinny zatem pozytywnie wpływać na warunki pracy i podlegać zasadzie poszanowania praw człowieka, a także podstawowych praw i wartości Unii;
110. podkreśla potrzebę rozwoju kompetencji przez szkolenie i kształcenie pracowników i ich przedstawicieli w zakresie AI w miejscu pracy z myślą o lepszym zrozumieniu skutków rozwiązań opartych na AI; zaznacza, że kandydaci i pracownicy powinni być należycie informowani na piśmie, że AI jest wykorzystywana w procedurach rekrutacji i przy podejmowaniu innych decyzji dotyczących zasobów kadrowych, oraz o tym, jak można w takim przypadku zwrócić się o weryfikację przez człowieka w celu uchylenia zautomatyzowanej decyzji;
111. zaznacza, że należy zadbać o to, by wzrost wydajności wynikający z rozwoju i wykorzystywania AI i robotyki przynosił pożytek nie tylko właścicielom i udziałowcom przedsiębiorstw, lecz także przedsiębiorstwom i pracownikom, przez lepsze warunki pracy i zatrudnienia – w tym płace – oraz wzrost i rozwój gospodarczy, jak również służył ogółowi społeczeństwa, zwłaszcza gdy wzrost wydajności skutkuje spadkiem liczby miejsc pracy; wzywa państwa członkowskie, aby starannie zbadały potencjalny wpływ AI na rynek pracy i systemy zabezpieczenia społecznego oraz opracowały strategie określające, jak zapewnić długoterminową stabilność przez reformę podatków i składek, a także inne środki w razie spadku dochodów publicznych;
112. podkreśla znaczenie inwestycji przedsiębiorstw w formalne i nieformalne szkolenie oraz uczenie się przez całe życie z myślą o wspieraniu sprawiedliwej transformacji w kierunku gospodarki cyfrowej; w tym kontekście zaznacza, że przedsiębiorstwa stosujące AI odpowiadają za zapewnienie wszystkim pracownikom odpowiednich możliwości przekwalifikowania się i podniesienia kwalifikacji, aby mogli oni nauczyć się, jak korzystać z narzędzi cyfrowych i pracować z cobotami i innymi nowymi technologiami, a tym samym dostosować się do zmieniających się potrzeb rynku pracy i utrzymać zatrudnienie;
113. uważa, że w związku z tym należy zwrócić szczególną uwagę na nowe formy pracy, takie jak „fuchy” i praca za pośrednictwem platform internetowych, wynikające z zastosowania nowych technologii; podkreśla, że uregulowanie warunków telepracy w całej Unii oraz zapewnienie godnych warunków pracy i zatrudnienia w gospodarce cyfrowej, muszą również uwzględniać wpływ AI; wzywa Komisję, aby przeprowadziła w tej sprawie konsultacje z partnerami społecznymi, twórcami AI, środowiskiem naukowym i innymi zainteresowanymi podmiotami;
114. podkreśla, że sztuczna inteligencja, robotyka i powiązane z nimi technologie nie mogą w żaden sposób wpływać na korzystanie z praw podstawowych uznawanych w państwach członkowskich i na szczeblu Unii, w tym z prawa do strajku bądź innych działań objętych szczególnymi systemami stosunków pracy w państwach członkowskich czy też ze swobody podejmowania strajku bądź wspomnianych działań, zgodnie z prawem krajowym i/lub praktyką krajową, ani wpływać na prawo do negocjowania, zawierania i egzekwowania układów zbiorowych lub do podejmowania działań zbiorowych zgodnie z prawem krajowym lub praktyką krajową;
115. ponownie zwraca uwagę na znaczenie edukacji i kształcenia ustawicznego z myślą o rozwijaniu kwalifikacji niezbędnych w epoce cyfrowej oraz o przeciwdziałaniu wykluczeniu cyfrowemu; wzywa państwa członkowskie do inwestowania w wysokiej jakości elastyczne i inkluzywne systemy kształcenia, szkolenia zawodowego i uczenia się przez całe życie, a także w politykę przekwalifikowywania pracowników i podnoszenia ich kwalifikacji w sektorach, na które AI wywiera poważny wpływ; podkreśla, że obecnych i przyszłych pracowników należy wyposażyć w niezbędne umiejętności rozumowania werbalnego i matematycznego oraz umiejętności cyfrowe, a także kompetencje w zakresie nauk przyrodniczych, technologii, inżynierii i matematyki (STEM) oraz przekrojowe umiejętności miękkie, takie jak myślenie krytyczne, kreatywność i przedsiębiorczość; podkreśla, że specjalną uwagę należy zwrócić na włączenie grup znajdujących się w niekorzystnej sytuacji;
116. przypomina, że sztuczna inteligencja, robotyka i powiązane z nimi technologie wykorzystywane w miejscu pracy muszą być powszechnie dostępne, zgodnie z zasadą projektowania dla wszystkich;
Edukacja i kultura
117. podkreśla potrzebę opracowania kryteriów rozwoju, wdrażania i wykorzystywania AI, mając na uwadze ich wpływ na edukację, media, młodzież, badania naukowe oraz sektor kultury i sektor kreatywny, dzięki opracowaniu wskaźników i określeniu zasad dotyczących odpowiedzialnego pod względem etycznym i akceptowanego stosowania technologii AI w tych dziedzinach, w tym jasno określonego systemu odpowiedzialności za produkty powstałe w wyniku stosowania AI;
118. zauważa, że każde dziecko ma prawo do wysokiej jakości edukacji publicznej na wszystkich poziomach; wzywa w związku z tym do opracowania, wdrożenia i stosowania wysokiej jakości systemów AI, które ułatwiają i zapewniają wysokiej jakości narzędzia edukacyjne dla wszystkich na wszystkich poziomach, oraz podkreśla, że wdrożenie nowych systemów AI w szkołach nie powinno prowadzić do pogłębiania przepaści cyfrowej w społeczeństwie; dostrzega ogromny potencjał, jaki AI i robotyka mogą stanowić dla edukacji; zauważa, że zindywidualizowane systemy uczenia się z wykorzystaniem AI nie powinny zastępować kontaktów edukacyjnych z udziałem nauczycieli oraz że tradycyjne formy kształcenia nie powinny pozostać w tyle, a jednocześnie przypomina, że należy zapewnić wsparcie finansowe, technologiczne i edukacyjne, w tym specjalistyczne szkolenia w zakresie technologii informacyjno-komunikacyjnych, nauczycielom pragnącym nabyć odpowiednie umiejętności w celu dostosowania się do zmian technologicznych i nie tylko wykorzystania potencjału sztucznej inteligencji, ale również zrozumienia jej ograniczeń; wzywa do opracowania na szczeblu Unii strategii celu przyczynienia się do transformacji i uaktualnienia naszych systemów edukacji, przygotowania naszych instytucji edukacyjnych na wszystkich poziomach oraz wyposażenia nauczycieli i uczniów w niezbędne umiejętności i zdolności;
119. podkreśla, że instytucje oświatowe powinny wykorzystywać do celów edukacyjnych te systemy AI, które otrzymały europejski certyfikat zgodności z zasadami etycznymi;
120. podkreśla, że możliwości oferowane przez cyfryzację i nowe technologie nie mogą prowadzić do ogólnej utraty miejsc pracy w sektorze kultury i sektorze kreatywnym, do zaniedbywania ochrony oryginałów i do ograniczania tradycyjnego dostępu do dziedzictwa kulturowego, do którego należy na równi zachęcać; zauważa, że systemy AI opracowane, wdrożone i wykorzystywane w Unii powinny odzwierciedlać jej różnorodność kulturową i wielojęzyczność;
121. uznaje rosnący potencjał AI w dziedzinie informacji, mediów i platform internetowych, w tym jako narzędzia do walki z dezinformacją, zgodnie z prawem Unii; podkreśla, że jeżeli nie będzie ona regulowana, może również przynieść niepożądane skutki etyczne z powodu wykorzystywania tendencyjności danych i algorytmów, co może prowadzić do rozpowszechniania dezinformacji i tworzenia baniek informacyjnych; podkreśla znaczenie przejrzystości i rozliczalności algorytmów wykorzystywanych przez platformy udostępniania plików wideo oraz platformy oferujące strumieniowe transmisje wideo, aby zapewnić dostęp do zróżnicowanych pod względem kulturowym i językowym treści;
Krajowe organy nadzoru
122. zwraca uwagę na wartość dodaną wyznaczenia w każdym państwie członkowskim krajowych organów nadzoru odpowiedzialnych za zapewnienie, ocenę i monitorowanie zgodności ze zobowiązaniami prawnymi i zasadami etycznymi w zakresie opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, przyczyniając się w ten sposób do zapewnienia zgodności tych technologii z prawem i zasadami etycznymi;
123. uważa, że od organów tych należy wymagać, aby nie powielały one swoich zadań, współpracowały z organami odpowiedzialnymi za wdrażanie prawodawstwa sektorowego, tak by identyfikować technologie wysokiego ryzyka z punktu widzenia etyki oraz nadzorować wdrażanie wymaganych i odpowiednich środków po zidentyfikowaniu takich technologii;
124. wskazuje, że organy te powinny współpracować nie tylko między sobą, ale także z Komisją Europejską i innymi właściwymi instytucjami, organami i jednostkami organizacyjnymi Unii, aby zagwarantować spójne działania transgraniczne;
125. sugeruje, aby w kontekście takiej współpracy opracowano wspólne kryteria i procedurę ubiegania się o wydanie europejskiego certyfikatu zgodności z zasadami etycznymi, w tym na wniosek dowolnego podmiotu opracowującego, wdrażającego lub wykorzystującego technologie nieuznawane za charakteryzujące się wysokim ryzykiem, który chciałby uzyskać poświadczenie pozytywnej oceny zgodności przeprowadzonej przez odpowiedni krajowy organ nadzoru;
126. apeluje, aby do zadań tych organów należało wspieranie regularnej wymiany informacji ze społeczeństwem obywatelskim oraz innowacji w całej Unii przez zapewnianie pomocy badaczom, podmiotom opracowującym oraz innym odpowiednim zainteresowanym stronom, a także mniej zaawansowanym cyfrowo przedsiębiorstwom, w szczególności małym i średnim przedsiębiorstwom lub przedsiębiorstwom typu start-up, zwłaszcza w zakresie podnoszenia świadomości i wspierania opracowywania, wdrażania, szkolenia i pozyskiwania talentów, by zapewnić sprawny transfer technologii oraz dostęp do technologii, projektów, wyników i sieci;
127. wzywa do zapewnienia przez każde państwo członkowskie wystarczającego finansowania wyznaczonych przez nie krajowych organów nadzoru oraz podkreśla potrzebę wzmocnienia krajowych organów nadzoru rynku pod względem zdolności, umiejętności i kompetencji, a także pod względem wiedzy na temat konkretnych zagrożeń związanych ze sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami;
Koordynacja na szczeblu Unii
128. podkreśla znaczenie koordynacji na szczeblu Unii ze strony Komisji i/lub wszelkich właściwych instytucji, organów, urzędów i agencji Unii, które mogą zostać wyznaczone w tym kontekście w celu uniknięcia fragmentacji i zapewnienia zharmonizowanego podejścia w całej Unii; uważa, że koordynacja powinna koncentrować się na uprawnieniach i działaniach krajowych organów nadzoru w każdym państwie członkowskim, o których mowa w poprzedniej części, a także na wymianie najlepszych praktyk między tymi organami i przyczynianiu się do współpracy w zakresie badań i rozwoju w tej dziedzinie w całej Unii; wzywa Komisję do oceny sytuacji i znalezienia najodpowiedniejszego rozwiązania dla ustrukturyzowania takiej koordynacji; przykładami odpowiednich istniejących instytucji, organów, urzędów i agencji Unii są Agencja Unii Europejskiej ds. Cyberbezpieczeństwa (ENISA), Europejski Inspektor Ochrony Danych i Europejski Rzecznik Praw Obywatelskich;
129. uważa, że taka koordynacja, a także europejska certyfikacja zgodności z zasadami etycznymi, nie tylko przyniosłaby korzyści dla rozwoju unijnego przemysłu i unijnych innowacji w tym kontekście, ale także zwiększyłaby świadomość obywateli co do możliwości i zagrożeń związanych z tymi technologiami;
130. sugeruje utworzenie centrum wiedzy specjalistycznej, łączącego środowiska akademickie, badaczy, przemysł i poszczególnych ekspertów na szczeblu europejskim, w celu wspierania wymiany wiedzy, w tym technicznej wiedzy eksperckiej, a także ułatwiania współpracy w całej UE i poza nią; ponadto wzywa do zaangażowania w to centrum wiedzy specjalistycznej organizacji zainteresowanych stron, takich jak organizacje ochrony konsumentów, w celu zapewnienia szerokiej reprezentacji konsumentów; uważa, że ze względu na nieproporcjonalny wpływ systemów algorytmicznych na kobiety i mniejszości, szczeble decyzyjne takiej struktury powinny być zróżnicowane i zapewniać równouprawnienie płci; podkreśla, że państwa członkowskie muszą opracować strategie zarządzania ryzykiem w odniesieniu do sztucznej inteligencji w kontekście krajowych strategii nadzoru rynku;
131. proponuje, aby Komisja i/lub wszelkie właściwe instytucje, organy, urzędy i agencje Unii, które mogą zostać wyznaczone w tym kontekście, udzieliły wszelkiej niezbędnej pomocy krajowym organom nadzoru w zakresie ich roli jako pierwszych punktów kontaktowych w przypadkach podejrzenia naruszenia zobowiązań prawnych i zasad etycznych określonych w unijnych ramach regulacyjnych dotyczących AI, w tym zasady niedyskryminacji; powinna ona również zapewniać wszelką niezbędną pomoc krajowym organom nadzoru, w przypadkach gdy przeprowadzają one oceny zgodności w celu wspierania prawa obywateli do wniesienia sprzeciwu i dochodzenia roszczeń, a mianowicie poprzez wspieranie, w stosownych przypadkach, konsultacji z innymi właściwymi organami w Unii, w szczególności z siecią współpracy w zakresie ochrony konsumentów oraz krajowymi organami ochrony konsumentów, organizacjami społeczeństwa obywatelskiego i partnerami społecznymi mającymi siedzibę w innych państwach członkowskich;
132. uznaje wartościowe osiągnięcia grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji, złożonej z przedstawicieli środowisk akademickich, społeczeństwa obywatelskiego i przemysłu, oraz europejskiego sojuszu na rzecz sztucznej inteligencji, w szczególności „Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji”, i sugeruje, że grupa ta mogłaby udzielać fachowych porad Komisji i/lub wszelkim właściwym instytucjom, organom, biurom i agencjom Unii, które mogą zostać wyznaczone w tym kontekście;
133. odnotowuje włączenie projektów związanych z AI do Europejskiego programu rozwoju przemysłu obronnego (EDIDP); uważa, że przyszły Europejski Fundusz Obronny (EFO) i stała współpraca strukturalna (PESCO) mogą również zapewnić ramy dla przyszłych projektów związanych z AI, które pomogłyby lepiej ukierunkować działania Unii w tej dziedzinie i jednocześnie promować cel Unii w postaci umacniania praw człowieka, prawa międzynarodowego i rozwiązań wielostronnych; podkreśla, że projekty związane z AI należy synchronizować z szerszymi cywilnymi programami Unii poświęconymi AI; zauważa, że zgodnie z białą księgą Komisji Europejskiej w sprawie sztucznej inteligencji z 19 lutego 2020 r. centra doskonałości i testowania skupione na badaniach nad AI i jej rozwoju w dziedzinie bezpieczeństwa i obronności należy ustanawiać wraz z rygorystycznymi specyfikacjami dotyczącymi udziału i inwestowania prywatnych zainteresowanych stron;
134. odnotowuje białą księgę Komisji Europejskiej w sprawie sztucznej inteligencji z 19 lutego 2020 r. i ubolewa, że nie uwzględniono aspektów wojskowych; zwraca się do Komisji oraz wiceprzewodniczącego Komisji / wysokiego przedstawiciela o zaprezentowanie, również w ramach ogólnego podejścia, sektorowej strategii AI na rzecz działań w ramach Unii związanych z obronnością, która zapewnia poszanowanie zarówno praw obywateli, jak i interesów strategicznych Unii, oraz która opiera się na spójnym podejściu regulacyjnym, począwszy od powstania systemów wspomaganych przez AI po ich zastosowania wojskowe, a także apeluje do Komisji, by w ramach grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji ustanowiła grupę roboczą do spraw bezpieczeństwa i obronności, która powinna zająć się konkretnie kwestiami polityki i inwestycji oraz etycznymi aspektami AI w dziedzinie bezpieczeństwa i obronności; wzywa Radę, Komisję i wiceprzewodniczącego / wysokiego przedstawiciela do podjęcia w tym celu zorganizowanego dialogu z Parlamentem;
Europejska certyfikacja zgodności z zasadami etycznymi
135. sugeruje opracowanie, w kontekście koordynacji na szczeblu Unii, wspólnych kryteriów i procedury składania wniosków w odniesieniu do wydawania europejskiego certyfikatu zgodności z zasadami etycznymi, w tym na wniosek dowolnego podmiotu opracowującego, wdrażającego lub wykorzystującego technologie nieuznawane za charakteryzujące się wysokim ryzykiem, który chciałby uzyskać poświadczenie pozytywnej oceny zgodności przeprowadzonej przez odpowiedni krajowy organ nadzoru;
136. uważa, że taki europejski certyfikat zgodności z zasadami etycznymi zachęcałby do uwzględniania etyki na etapie projektowania w całym łańcuchu dostaw ekosystemów sztucznej inteligencji; sugeruje zatem, aby w przypadku technologii wysokiego ryzyka certyfikacja ta stanowiła obowiązkowy warunek wstępny kwalifikacji do uczestnictwa w procedurach udzielania zamówień publicznych w zakresie systemów sztucznej inteligencji, robotyki i powiązanych z nimi technologii;
Współpraca międzynarodowa
137. jest zdania, że skuteczną współpracę transgraniczną i normy etyczne można osiągnąć tylko wtedy, gdy wszystkie zainteresowane strony zobowiążą się do zapewnienia ludzkiego czynnika i nadzoru, solidności technicznej i bezpieczeństwa, przejrzystości i odpowiedzialności, różnorodności, niedyskryminacji i sprawiedliwości, dobrostanu społecznego i środowiskowego oraz poszanowania ustalonych zasad prywatności, zarządzania danymi i ochrony danych – w szczególności tych zapisanych w rozporządzeniu (UE) 2016/679;
138. podkreśla, że unijne zasady prawne i etyczne dotyczące opracowywania, wdrażania i wykorzystywania tych technologii mogłyby uczynić Europę światowym liderem w sektorze sztucznej inteligencji, a zatem należy je promować na całym świecie, współpracując z międzynarodowymi partnerami i nadal prowadząc krytyczny dialog oparty na etyce z państwami trzecimi wdrażającymi alternatywne modele uregulowania, opracowywania i wdrażania sztucznej inteligencji;
139. przypomina, że możliwości i zagrożenia związane z tymi technologiami mają wymiar globalny, ponieważ wykorzystywane przez nie oprogramowanie i dane często są importowane do Unii Europejskiej i eksportowane z niej, w związku z czym potrzeba spójnego podejścia do współpracy na szczeblu międzynarodowym; wzywa Komisję do podjęcia inicjatywy na rzecz oceny, które dwustronne i wielostronne traktaty i porozumienia należy dostosować, by zapewnić spójne podejście i promować europejski model zgodności z zasadami etycznymi w skali globalnej;
140. zwraca uwagę, że koordynacja na szczeblu unijnym, o której mowa powyżej, pod tym względem również przyniesie wartość dodaną;
141. apeluje o ustanowienie synergii i sieci między różnymi europejskimi ośrodkami badań naukowych nad AI, a także innymi wielostronnymi forami, takimi jak Rada Europy, Organizacja Narodów Zjednoczonych do spraw Oświaty, Nauki i Kultury (UNESCO), Organizacja Współpracy Gospodarczej i Rozwoju (OECD), Światowa Organizacja Handlu i Międzynarodowy Związek Telekomunikacyjny (ITU), by zapewnić spójność ich wysiłków i lepiej koordynować rozwój sztucznej inteligencji, robotyki i powiązanych z nimi technologii;
142. podkreśla, że Unia musi przodować we wspieraniu wielostronnych wysiłków w ramach Grupy Ekspertów Rządowych ds. CCW ONZ i na innych odpowiednich forach, by dyskutować nad skutecznymi międzynarodowymi ramami regulacyjnymi zapewniającymi istotną ludzką kontrolę nad autonomicznymi systemami uzbrojenia w celu opanowania tych technologii poprzez ustanowienie dobrze zdefiniowanych i opartych na punktach odniesienia procesów ich stosowania oraz poprzez przyjęcie przepisów na rzecz ich etycznego stosowania, we współpracy z wojskiem, przemysłem, organami ścigania, środowiskami akademickimi i zainteresowanymi stronami spośród społeczeństwa obywatelskiego, oraz by zrozumieć związane z nimi aspekty etyczne oraz łagodzić nieodłączne ryzyko związane z tymi technologiami i zapobiegać ich wykorzystaniu w złych zamiarach;
143. uznaje rolę NATO w promowaniu bezpieczeństwa w strefie euro-atlantyckiej i apeluje o współpracę w ramach NATO w celu ustanowienia wspólnych norm i interoperacyjności systemów AI w dziedzinie obronności; podkreśla, że relacje transatlantyckie są ważne dla zachowania wspólnych wartości i zwalczania przyszłych i nowych zagrożeń;
144. podkreśla znaczenie utworzenia kodeksu postępowania w zakresie etyki, na którym oparte zostanie wykorzystywanie uzbrojonych systemów wykorzystujących AI podczas operacji wojskowych, podobnego do istniejących ram regulacyjnych zakazujących stosowania broni chemicznej i biologicznej; jest zdania, że Komisja powinna zainicjować utworzenie zgodnych z międzynarodowym prawem humanitarnym norm stosowania systemów uzbrojenia wykorzystującego AI w działaniach zbrojnych, a Unia powinna dążyć do międzynarodowego przyjęcia tych norm; uważa, że Unia powinna angażować się w dyplomację dotyczącą AI na forach międzynarodowych, takich jak G7, G20 i OECD, z podobnie myślącymi partnerami;
Kwestie końcowe
145. stwierdza w odniesieniu do powyższych refleksji na temat aspektów związanych z etycznym wymiarem sztucznej inteligencji, robotyki i powiązanych z nimi technologii, że wymiar prawny i etyczny należy zapisać w skutecznych, przyszłościowych i kompleksowych ramach regulacyjnych na szczeblu Unii, wspieranych przez właściwe organy krajowe, koordynowanych i wspieranych przez Komisję lub wszelkie właściwe instytucje, organy i jednostki organizacyjne Unii, które mogą zostać wyznaczone w tym kontekście, regularnie wspierane przez wspomniany ośrodek ekspercki, oraz należycie przestrzeganych i certyfikowanych w ramach rynku wewnętrznego;
146. zgodnie z procedurą określoną w art. 225 Traktatu o funkcjonowaniu Unii Europejskiej wzywa Komisję do przedstawienia wniosku dotyczącego rozporządzenia w sprawie zasad etycznych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii na podstawie art. 114 Traktatu o funkcjonowaniu Unii Europejskiej i w oparciu o szczegółowe zalecenia określone w załączniku do niniejszego dokumentu; zwraca uwagę, że wniosek nie powinien podważać przepisów sektorowych, a jedynie obejmować zidentyfikowane luki;
147. zaleca, aby po konsultacji ze wszystkimi właściwymi zainteresowanymi stronami Komisja Europejska dokonała w razie potrzeby przeglądu obowiązującego prawa Unii mającego zastosowanie do sztucznej inteligencji, robotyki i powiązanych z nimi technologii w celu uwzględnienia szybkości rozwoju tych technologii zgodnie z zaleceniami zawartymi w załączniku do niniejszego dokumentu, unikając nadmiernej regulacji, w tym w odniesieniu do MŚP;
148. uważa, że okresowa ocena, a w razie potrzeby przegląd unijnych ram regulacyjnych dotyczących sztucznej inteligencji, robotyki i powiązanych z nimi technologii, będzie mieć zasadnicze znaczenie dla dopilnowania, by mające zastosowanie prawodawstwo nadążało za szybkim tempem postępu technologicznego;
149. stwierdza, że postulowany wniosek ustawodawczy miałby konsekwencje finansowe, gdyby powierzyć jakiemukolwiek organowi europejskiemu powyższe funkcje koordynacyjne oraz konieczne środki techniczne i zasoby ludzkie w celu realizacji nowo powierzonych mu zadań;
o o o
150. zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji oraz szczegółowych zaleceń zawartych w załączniku Komisji i Radzie.
ZAŁĄCZNIK DO REZOLUCJI:
SZCZEGÓŁOWE ZALECENIA DOTYCZĄCE TREŚCI POSTULOWANEGO WNIOSKU
A. ZASADY I CELE POSTULOWANEGO WNIOSKU
I. Główne zasady i cele wniosku są następujące:
˗ budowanie zaufania na wszystkich szczeblach zaangażowanych zainteresowanych stron i społeczeństwa do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, zwłaszcza gdy uznaje się je za obarczone wysokim ryzykiem;
˗ wspieranie rozwoju sztucznej inteligencji, robotyki i powiązanych z nimi technologii w Unii, w tym poprzez pomoc podmiotom gospodarczym, przedsiębiorstwom typu start-up oraz małym i średnim przedsiębiorstwom w ocenie i pewnym reagowaniu na obecne i przyszłe wymogi regulacyjne i ryzyko w trakcie procesu innowacji i rozwoju działalności gospodarczej, a także w późniejszej fazie użytkowania przez specjalistów i osoby prywatne, poprzez minimalizowanie obciążeń i biurokracji;
˗ wspieranie wdrażania sztucznej inteligencji, robotyki i powiązanych z nimi technologii w Unii przez zapewnienie odpowiednich i proporcjonalnych ram regulacyjnych, które powinny mieć zastosowanie bez uszczerbku dla istniejących lub przyszłych przepisów sektorowych, w celu promowania pewności prawa i zachęcania do innowacji przy jednoczesnym zagwarantowaniu praw podstawowych i ochrony konsumenta;
˗ wspieranie wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii w Unii przez zapewnienie ich opracowywania, wdrażania i wykorzystywania w sposób zgodny z zasadami;
˗ wprowadzenie wymogu dotyczącego przejrzystości i lepszego przepływu informacji wśród obywateli i w organizacjach zajmujących się opracowywaniem, wdrażaniem lub wykorzystywaniem sztucznej inteligencji, robotyki i powiązanych z nimi technologii jako jednego ze sposobów na zagwarantowanie zgodności tych technologii z prawem Unii, podstawowymi prawami i wartościami oraz zasadami etycznymi określonymi w postulowanym wniosku dotyczącym rozporządzenia.
II. Na wniosek składają się:
˗ „rozporządzenie w sprawie zasad etycznych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii”,
˗ koordynacyjna rola na poziomie Unii ze strony Komisji lub wszelkich właściwych instytucji, organów i jednostek organizacyjnych Unii, które mogą zostać wyznaczone w tym kontekście, oraz europejska certyfikacja zgodności z zasadami etycznymi,
˗ wspierająca rola Komisji Europejskiej,
˗ rola „organu nadzoru” w każdym państwie członkowskim w celu zapewnienia stosowania zasad etycznych w odniesieniu do sztucznej inteligencji, robotyki i powiązanych z nimi technologii,
˗ zaangażowanie odpowiednich projektów i zainteresowanych stron z dziedziny badań i rozwoju, w tym przedsiębiorstw typu start-up, małych i średnich przedsiębiorstw, podmiotów gospodarczych, partnerów społecznych i innych przedstawicieli społeczeństwa obywatelskiego, przeprowadzanie z nimi konsultacji i zapewnianie im wsparcia,
˗ załącznik ustanawiający wyczerpujący i skumulowany wykaz sektorów wysokiego ryzyka oraz zastosowań i celów wysokiego ryzyka.
III. „Rozporządzenie w sprawie zasad etycznych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii” opiera się na następujących zasadach:
˗ sztuczna inteligencja, robotyka i powiązane z nimi technologie ukierunkowane na człowieka, stworzone przez człowieka i kontrolowane przez człowieka,
˗ obowiązkowa ocena zgodności w zakresie sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka,
˗ bezpieczeństwo, przejrzystość i odpowiedzialność,
˗ ochrona przed nierównym traktowaniem i dyskryminacją oraz środki zaradcze,
˗ prawo do dochodzenia roszczeń,
˗ odpowiedzialność społeczna i równość płci w sztucznej inteligencji, robotyce i powiązanych z nimi technologiach,
˗ zrównoważona ekologicznie sztuczna inteligencja, robotyka i powiązane z nimi technologie,
˗ poszanowanie prywatności i ograniczenia w zakresie stosowania biometrii,
˗ dobre zarządzanie w zakresie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym w zakresie danych wykorzystywanych lub generowanych przez te technologie.
IV. Do celów koordynacji na poziomie Unii Komisja lub wszelkie właściwe instytucje, organy i jednostki organizacyjne Unii, które mogą zostać wyznaczone w tym kontekście, wykonują następujące główne zadania:
˗ współpraca w zakresie monitorowania wdrażania postulowanego wniosku dotyczącego rozporządzenia oraz odpowiednich sektorowych przepisów Unii,
˗ współpraca w zakresie wydawania wytycznych dotyczących spójnego stosowania postulowanego wniosku dotyczącego rozporządzenia, a mianowicie stosowania kryteriów dotyczących sztucznej inteligencji, robotyki i powiązanych z nimi technologii, które należy uznać za technologie wysokiego ryzyka, a także wykazu sektorów wysokiego ryzyka oraz zastosowań i celów wysokiego ryzyka określonego w załączniku do rozporządzenia,
˗ współpraca z „organem nadzoru” w każdym państwie członkowskim w zakresie opracowania europejskiego certyfikatu zgodności z zasadami etycznymi i zobowiązaniami prawnymi określonymi w postulowanym wniosku dotyczącym rozporządzenia i stosownym prawie Unii, a także opracowanie procedury składania wniosków przez każdy podmiot opracowujący, wdrażający lub wykorzystujący technologie, których nie uznaje się za obarczone wysokim ryzykiem, w celu poświadczenia ich zgodności z postulowanym wnioskiem dotyczącym rozporządzenia,
˗ współpraca w zakresie wspierania współpracy międzysektorowej i transgranicznej w drodze regularnej wymiany z zainteresowanymi stronami oraz ze społeczeństwem obywatelskim w UE i na świecie, a w szczególności z przedsiębiorstwami, partnerami społecznymi, badaczami i właściwymi organami, w tym w zakresie opracowywania standardów technicznych na szczeblu międzynarodowym,
˗ współpraca z „organem nadzoru” w każdym państwie członkowskim w zakresie ustanowienia wiążących wytycznych dotyczących metodyki, którą należy stosować przy ocenie zgodności przeprowadzanej przez każdy „organ nadzoru”,
˗ współpraca w zakresie kontaktów z „organami nadzoru” w każdym państwie członkowskim oraz koordynacja ich uprawnień i zadań,
˗ współpraca w zakresie podnoszenia świadomości, dostarczania informacji i udziału w ich wymianie z podmiotami opracowującymi, wdrażającymi i wykorzystującymi w całej Unii,
˗ współpraca w zakresie podnoszenia świadomości, dostarczania informacji, promowania umiejętności cyfrowych, szkoleń i udziału w wymianach z projektantami, podmiotami opracowującymi, wdrażającymi i wykorzystującymi, obywatelami i organami instytucjonalnymi w całej Unii i w wymiarze międzynarodowym,
˗ współpraca w zakresie koordynacji wspólnych ram zarządzania opracowywaniem, wdrażaniem i wykorzystywaniem sztucznej inteligencji, robotyki i powiązanych z nimi technologii, która ma być wdrażana przez „organ nadzoru” w każdym państwie członkowskim,
˗ współpraca w zakresie pełnienia roli ośrodka wiedzy specjalistycznej poprzez promowanie wymiany informacji i wspieranie wypracowania wspólnego zrozumienia na jednolitym rynku,
˗ współpraca w zakresie przyjęcia grupy roboczej ds. bezpieczeństwa i obrony.
V. Dodatkowo Komisja powinna realizować następujące zadania:
˗ sporządzanie, a następnie aktualizowanie, w drodze aktów delegowanych, wspólnego wykazu technologii wysokiego ryzyka zidentyfikowanych w Unii we współpracy z „organem nadzoru” w każdym państwie członkowskim,
˗ aktualizowanie, w drodze aktów delegowanych, wykazu przewidzianego w załączniku do rozporządzenia.
VI. „Organ nadzoru” w każdym państwie członkowskim powinien wykonywać następujące główne zadania:
˗ przyczynianie się do spójnego stosowania ram regulacyjnych ustanowionych w postulowanym wniosku dotyczącym rozporządzenia we współpracy z „organem nadzoru” w innych państwach członkowskich, a także z innymi organami odpowiedzialnymi za wdrażanie przepisów sektorowych, Komisją lub wszelkimi właściwymi instytucjami, organami i jednostkami organizacyjnymi Unii, które mogą zostać wyznaczone w tym kontekście, a mianowicie w odniesieniu do stosowania kryteriów oceny ryzyka przewidzianych w postulowanym wniosku dotyczącym rozporządzenia i wykazu sektorów wysokiego ryzyka oraz zastosowań i celów wysokiego ryzyka określonych w załączniku do rozporządzenia, a także następującego nadzoru nad wdrażaniem wymaganych i odpowiednich środków w przypadku, gdy w wyniku takiego zastosowania zidentyfikowano technologie wysokiego ryzyka,
˗ ocena, czy sztuczna inteligencja, robotyka i powiązane z nimi technologie, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, opracowywane, wdrażane i wykorzystywane w Unii stanowią technologie wysokiego ryzyka zgodnie z kryteriami określonymi w postulowanym wniosku dotyczącym rozporządzenia oraz w wykazie określonym w załączniku do niego,
˗ wydawanie europejskiego certyfikatu zgodności z zasadami etycznymi i zobowiązaniami prawnymi określonymi w postulowanym wniosku dotyczącym rozporządzenia oraz stosownym prawie Unii, w tym w przypadku gdy wynikają one z procesu składania wniosku przez każdy podmiot opracowujący, wdrażający lub wykorzystujący technologie nieuznane za obarczone wysokim ryzykiem w celu poświadczenia ich zgodności z wnioskiem dotyczącym rozporządzenia, opracowanym przez Komisję lub wszelkie właściwe instytucje, organy i jednostki organizacyjne Unii, które mogą zostać wyznaczone w tym kontekście,
˗ ocena i monitorowanie ich zgodności z zasadami etycznymi i zobowiązaniami prawnymi określonymi w postulowanym wniosku dotyczącym rozporządzenia oraz stosownym prawie Unii;
˗ odpowiedzialność za ustanowienie i wdrażanie standardów zarządzania sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami, w tym w drodze kontaktów i utrzymywania regularnego dialogu ze wszystkimi właściwymi zainteresowanymi stronami oraz przedstawicielami społeczeństwa obywatelskiego, współpraca w tym celu z Komisją lub wszelkie właściwe instytucje, organy i jednostki organizacyjne Unii, które mogą zostać wyznaczone w tym kontekście, w zakresie koordynacji wspólnych ram na poziomie Unii,
˗ podnoszenie świadomości, dostarczanie społeczeństwu informacji na temat sztucznej inteligencji, robotyki i powiązanych z nimi technologii oraz wspieranie szkolenia odpowiednich zawodów, w tym w sądownictwie, a tym samym wzmacnianie pozycji obywateli i pracowników w zakresie umiejętności cyfrowych, umiejętności i narzędzi niezbędnych do sprawiedliwej transformacji,
˗ pełnienie roli pierwszego punktu kontaktowego w przypadkach podejrzenia naruszenia zobowiązań prawnych i zasad etycznych określonych w postulowanym wniosku dotyczącym rozporządzenia oraz przeprowadzanie oceny zgodności w takich przypadkach; w kontekście tej oceny zgodności może on konsultować się z innymi właściwymi organami w Unii, w szczególności z siecią współpracy w zakresie ochrony konsumentów, krajowymi organami ochrony konsumentów, organizacjami społeczeństwa obywatelskiego i partnerami społecznymi, lub informować je.
VII. Kluczową rolą zainteresowanych stron powinno być współdziałanie z Komisją lub wszelkimi właściwymi instytucjami, organami i jednostkami organizacyjnymi Unii, które mogą zostać wyznaczone w tym kontekście, oraz z „organem nadzoru” w każdym państwie członkowskim.
B. TREŚĆ POSTULOWANEGO WNIOSKU USTAWODAWCZEGO
Wniosek
ROZPORZĄDZENIE PARLAMENTU EUROPEJSKIEGO I RADY
w sprawie zasad etycznych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii
PARLAMENT EUROPEJSKI I RADA UNII EUROPEJSKIEJ
Uwzględniając Traktat o funkcjonowaniu Unii Europejskiej, w szczególności jego art. 114,
uwzględniając wniosek Komisji Europejskiej,
po przekazaniu projektu aktu ustawodawczego parlamentom narodowym,
uwzględniając opinię Europejskiego Komitetu Ekonomiczno-Społecznego,
stanowiąc zgodnie ze zwykłą procedurą ustawodawczą,
a także mając na uwadze, co następuje:
(1) Opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wytwarzanych lub generowanych przez te technologie, powinno opierać się na chęci służenia społeczeństwu. Takie technologie mogą pociągać za sobą możliwości i zagrożenia, które należy uwzględnić i uregulować w kompleksowych ramach regulacyjnych na poziomie Unii, które odzwierciedlają zasady etyczne, jakich należy przestrzegać, począwszy od opracowywania i wdrażania tych technologii, a skończywszy na ich wykorzystywaniu.
(2) Zgodność z takimi ramami regulacyjnymi dotyczącymi opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez takie technologie w Unii, powinna być na jednakowym poziomie we wszystkich państwach członkowskich, aby skutecznie czerpać z możliwości płynących z takich technologii oraz w sposób spójny zaradzać związanym z nimi zagrożeniom, a także uniknąć fragmentacji regulacyjnej. Należy zapewnić jednolite stosowanie w całej Unii przepisów określonych w niniejszym rozporządzeniu.
(3) W tym kontekście obecne zróżnicowanie przepisów i praktyk, jakich należy przestrzegać, w całej Unii, stanowi istotne zagrożenie fragmentacją jednolitego rynku, a także zagrożenie dla ochrony pomyślności i dobrobytu poszczególnych osób oraz całego społeczeństwa, jak również dla spójnego wykorzystania pełnego potencjału sztucznej inteligencji, robotyki i powiązanych z nimi technologii pod względem wspierania innowacji i utrzymywania pomyślności i dobrobytu, o których mowa powyżej. Różnice w stopniu uwzględnienia przez podmioty opracowujące, wdrażające i wykorzystujące wymiaru etycznego powiązanego z tymi technologiami mogą uniemożliwiać ich swobodne opracowywanie, wdrażanie lub wykorzystywanie w Unii, a także mogą stanowić przeszkodę dla równych warunków działania, dążeń do postępu technologicznego i prowadzenia działalności gospodarczej na szczeblu Unii, zakłócać konkurencję oraz uniemożliwiać organom wypełnianie ich obowiązków wynikających z prawa Unii. Ponadto brak wspólnych ram regulacyjnych odzwierciedlających zasady etyczne dotyczące opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii skutkuje brakiem pewności prawa dla wszystkich zainteresowanych stron, w szczególności dla podmiotów, które je opracowują, wdrażają i wykorzystują.
(4) Tym niemniej, przyczyniając się do spójnego podejścia na poziomie Unii i w granicach przez nią określonych, niniejsze rozporządzenie powinno zapewnić margines wdrażania przez państwa członkowskie, w tym w odniesieniu do sposobu wykonywania uprawnień przez odpowiedni krajowy organ nadzoru w świetle celu, jaki dlań określono w niniejszym rozporządzeniu.
(5) Niniejsze rozporządzenie pozostaje bez uszczerbku dla istniejącego lub przyszłego prawodawstwa sektorowego. Powinno być proporcjonalne w odniesieniu do swojego celu, tak aby nie utrudniać nadmiernie innowacji w Unii i być zgodne z podejściem opartym na ryzyku.
(6) Geograficzny zakres stosowania przedmiotowych ram powinien obejmować wszystkie elementy sztucznej inteligencji, robotyki i powiązanych z nimi technologii w całym cyklu opracowywania, wdrażania i wykorzystywania w Unii, w tym przypadki, w których elementy tych technologii mogą być zlokalizowane poza Unią lub mogą nie mieć konkretnej lub pojedynczej lokalizacji, jak ma to miejsce np. w przypadku usług przetwarzania w chmurze.
(7) Niezbędna jest jednolita interpretacja w Unii takich pojęć jak sztuczna inteligencja, robotyka i powiązane z nimi technologie i biometria, aby umożliwić jednolite podejście regulacyjne i zagwarantować przez to pewność prawa tak obywatelom, jak przedsiębiorstwom. Definicje te powinny być neutralne technologicznie i w razie potrzeby podlegać przeglądowi.
(8) Ponadto należy uwzględnić fakt, że istnieją technologie związane ze sztuczną inteligencją i robotyką o różnym stopniu autonomii(15) pozwalające oprogramowaniu kontrolować procesy fizyczne lub wirtualne. Przykładowo w przypadku automatycznego prowadzenia pojazdów Stowarzyszenie Inżynierów Motoryzacyjnych (SAE) zaproponowało w normie międzynarodowej J3016 sześć poziomów automatyzacji prowadzenia pojazdów.
(9) Opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie, powinno uzupełniać możliwości ludzkie, nie zaś je zastępować, oraz zapewniać, by ich wykonanie nie było sprzeczne z najlepszymi interesami obywateli oraz było zgodne z prawem Unii, prawami podstawowymi określonymi w Karcie praw podstawowych Unii Europejskiej („Karta”), utrwalonym orzecznictwie Trybunału Sprawiedliwości Unii Europejskiej oraz innych europejskich i międzynarodowych instrumentach mających zastosowanie w Unii.
(10) Decyzje podejmowane przez systemy sztucznej inteligencji, robotyki i powiązanych z nimi technologii lub decyzje, na które taki system miał wpływ, powinny w dalszym ciągu podlegać w znacznym stopniu przeglądowi, osądowi, interwencji i kontroli ze strony ludzi. Techniczna i operacyjna złożoność takich technologii w żadnym razie nie powinna uniemożliwiać podmiotowi, który je wdraża lub wykorzystuje, przynajmniej uruchomienia wyłączenia awaryjnego, zmodyfikowania lub wstrzymania ich działania ani powrotu do poprzedniego stanu z przywróceniem bezpiecznych funkcji, w przypadkach zagrożenia zgodności z prawem Unii oraz zasadami etycznymi i zobowiązaniami prawnymi określonymi w niniejszym rozporządzeniu.
(11) Sztuczną inteligencję, robotykę i powiązane z nimi technologie, których rozwój, wdrażanie i użytkowanie wiąże się ze znacznym ryzykiem spowodowania obrażeń lub szkody dla osób fizycznych lub społeczeństwa, z naruszeniem praw podstawowych i zasad bezpieczeństwa określonych w prawie Unii, należy uznać za technologie wysokiego ryzyka. Do celów takiej oceny należy wziąć pod uwagę sektor, w którym są opracowywane, wdrażane lub wykorzystywane, ich konkretne zastosowanie lub cel oraz stopień obrażenia lub szkody, których wystąpienia można się spodziewać. Powagę szkody należy określić w oparciu o zakres potencjalnego obrażenia lub szkody, liczbę poszkodowanych, całkowitą wartość spowodowanych szkód oraz szkody dla ogółu społeczeństwa. Poważne rodzaje obrażeń i szkód to np. naruszenia praw dzieci, konsumentów lub pracowników, które ze względu na swój zakres, liczbę dotkniętych dzieci, konsumentów lub pracowników lub ich wpływ na społeczeństwo jako całość pociągają za sobą poważne ryzyko naruszenia podstawowych praw i zasad bezpieczeństwa określonych w prawie Unii. Niniejsze rozporządzenie winno zawierać wyczerpujący i skumulowany wykaz sektorów wysokiego ryzyka oraz zastosowań i celów wysokiego ryzyka.
(12) Obowiązki określone w niniejszym rozporządzeniu, w szczególności te dotyczące technologii wysokiego ryzyka, powinny mieć zastosowanie wyłącznie do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów i danych wykorzystywanych lub generowanych przez takie technologie, opracowywanych, wdrażanych lub wykorzystywanych w Unii, które w następstwie oceny ryzyka przewidzianej w niniejszym rozporządzeniu uznaje się za obarczone wysokim ryzykiem. Takie obowiązki należy wypełniać bez uszczerbku dla ogólnego obowiązku, zgodnie z którym sztuczna inteligencja, robotyka i powiązane z nimi technologie, w tym oprogramowanie, algorytmy i dane wykorzystywane lub generowane przez takie technologie, powinny być opracowywane, wdrażane i wykorzystywane w Unii w sposób ukierunkowany na człowieka oraz w oparciu o zasady autonomii i bezpieczeństwa ludzi zgodnie z prawem Unii oraz przy pełnym poszanowaniu praw podstawowych, takich jak godność ludzka, prawo do wolności i bezpieczeństwa oraz prawo do integralności osoby.
(13) Technologie wysokiego ryzyka powinny być zgodne z zasadami bezpieczeństwa, przejrzystości, odpowiedzialności, bezstronności lub niedyskryminacji, odpowiedzialności społecznej i równości płci, prawa do dochodzenia roszczeń, zrównoważenia środowiskowego, prywatności i dobrych rządów, po przeprowadzeniu bezstronnej, obiektywnej i zewnętrznej oceny ryzyka przez krajowy organ nadzoru zgodnie z kryteriami przewidzianymi w niniejszym rozporządzeniu i w wykazie zawartym w załączniku do niego. Ocena ta powinna uwzględniać opinie i wszelkie samooceny dokonane przez podmiot opracowujący lub wdrażający.
(14) Komisja lub wszelkie właściwe instytucje, organy i jednostki organizacyjne Unii, które mogą zostać wyznaczone do tego celu, powinny przygotować niewiążące wytyczne wykonawcze dla podmiotów opracowujących, wdrażających i wykorzystujących dotyczące metodyki zapewnienia zgodności z niniejszym rozporządzeniem. Czyniąc to, powinny skonsultować się z odpowiednimi zainteresowanymi stronami.
(15) W Unii powinna istnieć spójność w zakresie oceny ryzyka związanego z tymi technologiami, zwłaszcza w przypadku, gdy są one oceniane zarówno w świetle niniejszego rozporządzenia, jak i zgodnie z wszelkimi innymi mającymi zastosowanie przepisami sektorowymi. W związku z tym krajowe organy nadzoru powinny informować inne organy przeprowadzające oceny ryzyka zgodnie z wszelkimi przepisami sektorowymi, gdy technologie te zostają ocenione jako obarczone wysokim ryzykiem w wyniku oceny ryzyka przewidzianej w niniejszym rozporządzeniu.
(16) Aby były wiarygodne, sztuczną inteligencję, robotykę i powiązane z nimi technologie wysokiego ryzyka, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, należy opracowywać, wdrażać i wykorzystywać w sposób bezpieczny, przejrzysty i odpowiedzialny, zgodnie z takimi cechami bezpieczeństwa, jak solidność, odporność, bezpieczeństwo, dokładność i identyfikacja błędów, możliwość wyjaśnienia, możliwość interpretacji, możliwość kontroli, przejrzystość i identyfikowalność, oraz w sposób umożliwiający wyłączenie danych funkcji lub przywrócenie do poprzedniego stanu i przywrócenie bezpiecznych funkcji w przypadku niezgodności z tymi cechami. Należy zapewnić przejrzystość poprzez umożliwienie organom publicznym dostępu, w razie konieczności, do technologii, danych i systemów komputerowych stanowiących podstawę tych technologii.
(17) Podmioty opracowujące, wdrażające i wykorzystujące sztuczną inteligencję, robotykę i powiązane z nimi technologie, zwłaszcza technologie wysokiego ryzyka, są w różnym stopniu odpowiedzialne za zgodność z zasadami bezpieczeństwa, przejrzystości i rozliczalności w zakresie, w jakim są zaangażowane w odnośne technologie, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez takie technologie. Podmioty opracowujące powinny dopilnować, aby przedmiotowe technologie były projektowane i tworzone zgodnie z cechami bezpieczeństwa określonymi w niniejszym rozporządzeniu, podczas gdy podmioty wdrażające i wykorzystujące powinny je wdrażać i wykorzystywać z zapewnieniem pełnego przestrzegania tych cech. W związku z tym podmioty opracowujące technologie wysokiego ryzyka powinny ocenić i przewidzieć ryzyko niewłaściwego stosowania, którego można racjonalnie oczekiwać w odniesieniu do opracowywanych przez nich technologii. Muszą one również zapewnić, że opracowywane przez nie systemy wskazują, w możliwym zakresie i za pomocą odpowiednich środków, takich jak komunikaty o zrzeczeniu się odpowiedzialności, prawdopodobieństwo wystąpienia błędów lub nieścisłości.
(18) Podmioty opracowujące i wdrażające powinny udostępniać podmiotom wykorzystującym wszelkie kolejne aktualizacje przedmiotowych technologii, w szczególności w odniesieniu do oprogramowania, jak określono w umowie lub ustanowiono w prawie Unii lub prawie krajowym. Ponadto, jeżeli ocena ryzyka tak wskazuje, podmioty opracowujące i wdrażające powinny dostarczyć organom publicznym odpowiednią dokumentację dotyczącą wykorzystania odnośnych technologii oraz instrukcje dotyczące bezpieczeństwa w tym zakresie, w tym – w razie konieczności i z pełnym poszanowaniem prawa Unii w zakresie ochrony danych, prywatności i praw własności intelektualnej oraz tajemnic handlowych – kod źródłowy, narzędzia programowania i dane wykorzystywane przez system.
(19) Osoby fizyczne mają prawo oczekiwać, że wykorzystywana technologia będzie działać w rozsądny sposób i nie naruszać ich zaufania. Zaufanie obywateli do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wytwarzanych lub generowanych przez te technologie, zależy od zrozumienia i poznania procesów technicznych. Zakres wyjaśnialności tych procesów powinien zależeć od kontekstu tych procesów technicznych oraz od wagi konsekwencji błędnego lub niedokładnego wyniku, a także powinien być wystarczający do ich podważenia i wystąpienia z roszczeniem o naprawienie szkody. Możliwość kontroli, identyfikowalność i przejrzystość powinny uwzględniać ewentualną niezrozumiałość takich technologii.
(20) Zaufanie społeczeństwa do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wytwarzanych lub generowanych przez te technologie, zależy od dostępnych w ramach tych technologii możliwości oceny, kontroli i identyfikacji. W przypadkach gdy wymaga tego zakres ich zaangażowania, podmioty opracowujące powinny zapewnić, aby takie technologie były projektowane i tworzone w sposób umożliwiający przeprowadzenie takiej oceny, kontroli i identyfikacji. W granicach możliwości technicznych podmioty opracowujące, wdrażające i wykorzystujące powinny zapewnić, aby sztuczna inteligencja, robotyka i powiązane z nimi technologie były wdrażane i wykorzystywane przy zapewnieniu pełnego poszanowania wymogów dotyczących przejrzystości, a także z możliwością przeprowadzenia kontroli oraz identyfikowalności.
(21) By zagwarantować przejrzystość i rozliczalność, obywateli należy informować o fakcie, że system korzysta ze sztucznej inteligencji, że systemy sztucznej inteligencji personalizują produkt lub usługę dla swoich użytkowników, że mogą wyłączyć lub ograniczyć personalizację oraz że wchodzą w interakcję z technologią zautomatyzowanego podejmowania decyzji. Ponadto przejrzystości środków powinny towarzyszyć, o ile jest to technicznie możliwe, jasne i zrozumiałe wyjaśnienia dotyczące wykorzystywanych danych, algorytmu, jego celu, wyników i potencjalnych zagrożeń.
(22) Tendencyjność i dyskryminacja ze strony oprogramowania, algorytmów oraz danych są niezgodne z prawem i powinny zostać wyeliminowane przez uregulowanie procesów projektowania i wdrażania oprogramowania, algorytmów i danych. Tendencyjność może mieć swoje źródło zarówno w decyzjach podejmowanych przez system automatyczny lub takich, na które system ten miał wpływ, jak i w zbiorach danych, na których opiera się lub szkoli taki system.
(23) Oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez sztuczną inteligencję, robotykę i powiązane z nimi technologie należy uznać za nieobiektywne, jeżeli na przykład wyświetlają nieoptymalne wyniki w odniesieniu do danej osoby lub grupy osób ze względu na stosowanie podejścia, które jest stronnicze w wymiarze jednostkowym lub społecznym, a następnie przetwarzanie danych dotyczących cech takiej osoby lub takich osób.
(24) Zgodnie z prawem Unii oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez sztuczną inteligencję, robotykę i powiązane z nimi technologie należy uznać za dyskryminacyjne, jeżeli dają one nieproporcjonalnie negatywne skutki i prowadzą do odmiennego traktowania danej osoby lub grupy osób, w tym przez stawianie ich w niekorzystnej sytuacji w porównaniu z innymi, w oparciu o takie czynniki jak cechy osobowe, bez obiektywnego lub racjonalnego uzasadnienia i niezależnie od jakichkolwiek twierdzeń dotyczących neutralności tych technologii.
(25) Zgodnie z prawem Unii do słusznych celów, które na mocy niniejszego rozporządzenia mogłyby zostać uznane za obiektywnie uzasadniające wszelkie odmienne traktowanie osób lub grupy osób, należą ochrona bezpieczeństwa i zdrowia publicznego, zapobieganie działaniom podlegającym sankcjom karnym, ochrona podstawowych praw i wolności, sprawiedliwa reprezentacja i obiektywne wymogi dotyczące wykonywania zawodu.
(26) Funkcjonowanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie, powinno przyczyniać się do zrównoważonego postępu. Takie technologie nie powinny stać w sprzeczności z ochroną środowiska lub transformacją ekologiczną. Mogą one również odegrać ważną rolę w osiąganiu celów zrównoważonego rozwoju określonych przez Organizację Narodów Zjednoczonych, aby umożliwić rozkwit przyszłych pokoleń. Takie technologie mogą wspierać monitorowanie odpowiednich postępów na podstawie wskaźników zrównoważonego rozwoju i spójności społecznej oraz przez wykorzystywanie narzędzi w ramach odpowiedzialnych badań i innowacji wymagających mobilizacji zasobów Unii i jej państw członkowskich na rzecz wspierania projektów umożliwiających osiąganie tych celów i inwestowania w takie projekty.
(27) Opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wytwarzanych lub generowanych przez te technologie, w żadnym razie nie powinno celowo skutkować obrażeniami ciała lub jakimikolwiek szkodami wyrządzonymi poszczególnym osobom lub społeczeństwu bądź świadomie akceptować na etapie projektowania takich skutków. W związku z tym szczególnie technologie wysokiego ryzyka należy opracowywać, wdrażać i wykorzystywać w sposób społecznie odpowiedzialny.
(28) Na podmiotach opracowujących, wdrażających i wykorzystujących powinna zatem spoczywać – stosownie do zakresu ich zaangażowania w sztuczną inteligencję, robotykę i powiązane z nimi technologie, których to dotyczy, oraz zgodnie z unijnymi i krajowymi przepisami dotyczącymi odpowiedzialności – odpowiedzialność za wszelkie obrażenia ciała lub szkody wyrządzone poszczególnym osobom i społeczeństwu.
(29) W szczególności podmioty opracowujące, które podejmują decyzje określające i kontrolujące przebieg lub sposób opracowania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, a także podmioty wdrażające zaangażowane w ich wdrażanie poprzez podejmowanie decyzji dotyczących takiego wdrażania oraz sprawowanie kontroli nad powiązanym ryzykiem lub czerpanie korzyści z takiego wdrażania oraz pełniące funkcję polegającą na kontroli lub zarządzaniu, należy ogólnie uznać za podmioty odpowiedzialne za zapobieganie takim obrażeniom ciała lub szkodom przez, odpowiednio, zapewnienie właściwych środków na etapie opracowywania i dokładne przestrzeganie tych środków na etapie wdrażania.
(30) Społecznie odpowiedzialną sztuczną inteligencję, robotykę i powiązane z nimi technologie, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, można zdefiniować jako technologie przyczyniające się do znajdowania rozwiązań, które zapewniają ochronę i wspieranie różnych celów życia społecznego, w szczególności demokracji, zdrowia i dobrobytu gospodarczego, równości szans, praw pracowniczych i socjalnych, różnorodnych i niezależnych mediów oraz obiektywnych i ogólnie dostępnych informacji, umożliwiania debaty publicznej, wysokiej jakości edukacji, różnorodności kulturowej i językowej, równowagi płci, umiejętności cyfrowych, innowacyjności i kreatywności. Są to również technologie opracowywane, wdrażane i wykorzystywane przy należytym uwzględnieniu ich ostatecznego wpływu na fizyczne i psychiczne samopoczucie obywateli oraz niepropagujące mowy nienawiści ani przemocy. Cele te powinny być osiągane w szczególności za pomocą technologii wysokiego ryzyka.
(31) Sztuczną inteligencję, robotykę i powiązane z nimi technologie należy również opracowywać, wdrażać i wykorzystywać z myślą o wspieraniu włączenia społecznego, demokracji, pluralizmu, solidarności, sprawiedliwości, równości i współpracy, a ich potencjał w tym kontekście należy maksymalizować i analizować w drodze projektów w dziedzinie badań naukowych i innowacji. W związku z tym Unia i jej państwa członkowskie powinny zatem zmobilizować swoje zasoby komunikacyjne, administracyjne i finansowe w celu wspierania takich projektów oraz inwestowania w nie.
(32) Projekty związane z potencjałem sztucznej inteligencji, robotyki i powiązanych z nimi technologii pod względem dobrostanu społecznego należy realizować w oparciu o narzędzia w ramach odpowiedzialnych badań i innowacji, aby od samego początku zagwarantować zgodność tych projektów z zasadami etycznymi.
(33) Opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wytwarzanych lub generowanych przez te technologie, należy prowadzić z uwzględnieniem ich wpływu na środowisko. Zgodnie z obowiązkami określonymi w mającym zastosowanie prawie Unii takie technologie nie powinny powodować szkód w środowisku w trakcie ich cyklu życia oraz w całym łańcuchu dostaw, a także powinny być opracowywane, wdrażane i wykorzystywane w sposób, który chroni środowisko, łagodzi i rekompensuje ich wpływ na środowisko, przyczynia się do transformacji ekologicznej oraz wspiera realizację celów w zakresie neutralności klimatycznej i gospodarki o obiegu zamkniętym.
(34) Na potrzeby niniejszego rozporządzenia podmioty opracowujące, wdrażające i wykorzystujące powinny ponosić odpowiedzialność – w zakresie, w jakim są odpowiednio zaangażowane w opracowywanie, wdrażanie lub wykorzystywanie jakiejkolwiek sztucznej inteligencji, robotyki i powiązanych z nimi technologii uznanych za obarczone wysokim ryzykiem – za wszelkie szkody wyrządzone w środowisku zgodnie z obowiązującymi przepisami dotyczącymi odpowiedzialności za środowisko.
(35) Technologie te należy również opracowywać, wrażać i wykorzystywać z myślą o wspieraniu osiągania celów środowiskowych, zgodnie z zobowiązaniami określonymi w mającym zastosowanie prawie Unii, takich jak ograniczenie wytwarzania odpadów, zmniejszenie śladu węglowego, walka ze zmianą klimatu i ochrona środowiska, a ich potencjał w tym kontekście należy maksymalizować i analizować w drodze projektów w dziedzinie badań naukowych i innowacji. W związku z tym Unia i państwa członkowskie powinny zatem zmobilizować swoje zasoby komunikacyjne, administracyjne i finansowe w celu wspierania takich projektów oraz inwestowania w nie.
(36) Projekty związane z potencjałem sztucznej inteligencji, robotyki i powiązanych z nimi technologii w zakresie uwzględnienia problemów związanych z ochroną środowiska należy realizować w oparciu o narzędzia w ramach odpowiedzialnych badań i innowacji, aby od samego początku zagwarantować zgodność tych projektów z zasadami etycznymi.
(37) Opracowywanie, wdrażanie i wykorzystywanie wszelkiego rodzaju sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie w Unii, należy prowadzić przy zapewnieniu pełnego poszanowania praw obywateli Unii do prywatności oraz ochrony danych osobowych. Ich opracowywanie, wdrażanie i wykorzystywanie powinno być zgodne zwłaszcza z rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679(16) oraz dyrektywą 2002/58/WE Parlamentu Europejskiego i Rady(17).
(38) W szczególności granice etyczne wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie, należy odpowiednio uwzględnić podczas wykorzystywania technologii zdalnego rozpoznawania, w tym rozpoznawania elementów biometrycznych, w szczególności rozpoznawania twarzy, do automatycznej identyfikacji osób. W przypadku wykorzystania tych technologii przez organy publiczne do celów istotnego interesu publicznego, tj., by zagwarantować bezpieczeństwo osób i reagować na sytuacje nadzwyczajne w kraju, nie zaś by chronić mienie, wykorzystanie tych technologii powinno być zawsze ujawniane, proporcjonalne, ukierunkowane i ograniczone do konkretnych celów, a także ograniczone w czasie zgodnie z prawem Unii oraz z należytym poszanowaniem ludzkiej godności i autonomii oraz praw podstawowych określonych w Karcie. Kryteria i ograniczenia dotyczące takiego wykorzystania powinny podlegać kontroli sądowej i nadzorowi demokratycznemu oraz muszą być przedmiotem debaty angażującej społeczeństwo obywatelskie.
(39) Zarządzanie oparte na odpowiednich normach zwiększa bezpieczeństwo i sprzyja większemu zaufaniu obywateli do opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie.
(40) Organy publiczne powinny przeprowadzić ocenę wpływu na prawa podstawowe przed wdrożeniem technologii wysokiego ryzyka, które dostarczają wsparcia dla decyzji podejmowanych w sektorze publicznym oraz które wywierają bezpośredni i istotny wpływ na prawa i obowiązki obywateli.
(41) Do obowiązujących odpowiednich norm zarządzania należą np. „Wytyczne w zakresie etyki dotyczące godnej zaufania AI” opracowane przez grupę ekspertów wysokiego szczebla ds. sztucznej inteligencji powołaną przez Komisję Europejską, a także wszelkie inne normy techniczne, jak te przyjęte przez Europejski Komitet Normalizacyjny (CEN), Europejski Komitet Normalizacyjny Elektrotechniki (CENELEC) i Europejski Instytut Norm Telekomunikacyjnych (ETSI) na szczeblu europejskim oraz Międzynarodową Organizację Normalizacyjną (ISO) i Instytut Inżynierów Elektryków i Elektroników (IEEE) na szczeblu międzynarodowym.
(42) Wymiana i wykorzystywanie danych przez wielu uczestników jest wrażliwą kwestią, dlatego opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii powinno podlegać odpowiednim przepisom, normom i procedurom odzwierciedlającym wymogi dotyczące jakości, integralności, bezpieczeństwa, niezawodności, prywatności i kontroli. Strategia zarządzania danymi powinna być ukierunkowana na przetwarzanie i wymianę tych danych oraz dostęp do nich, w tym prawidłowe zarządzanie nimi oraz ich prawidłową identyfikowalność i możliwość ich kontroli, oraz powinna zapewniać odpowiednią ochronę danych dotyczących słabszych grup społecznych, w tym osób z niepełnosprawnościami, pacjentów, dzieci, mniejszości i migrantów lub innych grup zagrożonych wykluczeniem. Ponadto podmioty opracowujące, wdrażające i wykorzystujące powinny móc w odpowiednich przypadkach polegać na kluczowych wskaźnikach skuteczności działania podczas oceny wykorzystywanych przez nie zbiorów danych w celu zwiększania wiarygodności technologii przez nie opracowywanych, wdrażanych i wykorzystywanych.
(43) Państwa członkowskie powinny wyznaczyć niezależny organ administracyjny pełniący funkcję organu nadzoru. W szczególności każdy krajowy organ nadzoru powinien być odpowiedzialny za identyfikowanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii uznanych za obarczone wysokim ryzykiem w świetle kryteriów oceny ryzyka określonych w niniejszym rozporządzeniu oraz za ocenę i monitorowanie zgodności tych technologii ze zobowiązaniami określonymi w niniejszym rozporządzeniu.
(44) Każdy krajowy organ nadzoru powinien ponosić również odpowiedzialność za dobre zarządzanie tymi technologiami, a koordynacją powinna się zająć Komisja lub/i wszelkie właściwe instytucje, organy, urzędy lub agencje Unii, które mogą zostać wyznaczone do tego celu. W związku z tym organy te mają istotną rolę do odegrania, jeśli chodzi o wspieranie zaufania i bezpieczeństwa obywateli Unii, a także przyczynianie się do tworzenia demokratycznego, pluralistycznego i sprawiedliwego społeczeństwa.
(45) Do celów oceny technologii uznanych w niniejszym rozporządzeniu za obarczone wysokim ryzykiem i monitorowania ich zgodności z rozporządzeniem krajowe organy nadzoru powinny, w stosownych przypadkach, współpracować z organami odpowiedzialnymi za ocenę i monitorowanie tych technologii oraz egzekwowanie ich zgodności z przepisami sektorowymi.
(46) Krajowe organy nadzoru powinny prowadzić szeroko zakrojoną i regularną współpracę między sobą oraz z Komisją Europejską i innymi właściwymi instytucjami, organami, urzędami i agencjami Unii, aby zagwarantować spójne działania transgraniczne i umożliwić jednolite opracowywanie, wdrażanie i wykorzystywanie tych technologii w Unii przy zapewnieniu zgodności z zasadami etycznymi i zobowiązaniami prawnymi określonymi w niniejszym rozporządzeniu.
(47) W kontekście takiej współpracy oraz w celu osiągnięcia pełnej harmonizacji na szczeblu Unii krajowe organy nadzoru powinny wspierać Komisję w opracowywaniu wspólnego i wyczerpującego wykazu sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka zgodnie z kryteriami przewidzianymi w niniejszym rozporządzeniu i w załączniku do niego. Ponadto należy opracować proces wystawiania europejskiego świadectwa zgodności etycznej, w tym dobrowolny proces składania wniosków dla każdego podmiotu wykonującego, wdrażającego lub wykorzystującego technologie nieuznawane za obarczone wysokim ryzykiem w celu poświadczenia ich zgodności z niniejszym rozporządzeniem.
(48) Krajowe organy nadzoru powinny zagwarantować zgromadzenie jak największej liczby zainteresowanych stron, w tym przemysłu, przedsiębiorstw, partnerów społecznych, naukowców, konsumentów i organizacji społeczeństwa obywatelskiego, oraz stanowić pluralistyczne forum dla refleksji i wymiany opinii, aby wyciągać kompleksowe i precyzyjne wnioski służące kierowaniu sposobem zarządzania.
(49) Krajowe organy nadzoru powinny zagwarantować zgromadzenie jak największej liczby zainteresowanych stron, w tym przemysłu, przedsiębiorstw, partnerów społecznych, naukowców, konsumentów i organizacji społeczeństwa obywatelskiego, oraz stanowić pluralistyczne forum umożliwiające rozważania i wymianę opinii w celu ułatwienia współpracy między zainteresowanymi stronami, w szczególności środowiskiem akademickim, naukowcami, przemysłem, społeczeństwem obywatelskim i indywidualnymi ekspertami, aby wyciągać kompleksowe i precyzyjne wnioski służące kierowaniu sposobem zarządzania.
(50) Ponadto krajowe organy nadzoru powinny zapewniać profesjonalne wytyczne i wsparcie administracyjne podmiotom opracowującym, wdrażającym i wykorzystującym, w szczególności małym i średnim przedsiębiorstwom lub przedsiębiorstwom typu start-up mierzącym się z wyzwaniami związanymi ze stosowaniem się do zasad etycznych i zobowiązań prawnych określonych w niniejszym rozporządzeniu.
(51) Komisja lub wszelkie właściwe instytucje, organy, urzędy i agencje Unii, które mogą zostać wyznaczone do tego celu, powinny ustanowić wiążące wytyczne dotyczące metodyki, jaką powinny stosować krajowe organy nadzoru przy wykonywaniu oceny zgodności.
(52) Sygnalizowanie nieprawidłowości zwraca uwagę organów na przypadki potencjalnych i faktycznych naruszeń prawa Unii w celu zapobiegania obrażeniom ciała, szkodom lub uszczerbkom, które mogłyby z nich wyniknąć. Ponadto procedury sprawozdawcze usprawniają przepływ informacji w przedsiębiorstwach i organizacjach, zmniejszając w ten sposób ryzyko opracowywania wadliwych lub błędnych produktów lub usług. Przedsiębiorstwa i organizacje opracowujące, wdrażające lub wykorzystujące sztuczną inteligencję, robotykę i powiązane z nimi technologie, w tym dane wykorzystywane lub generowane przez te technologie, powinny stworzyć kanały sprawozdawcze, a osoby zgłaszające przypadki naruszeń należy chronić przed działaniami odwetowymi.
(53) Szybki rozwój sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wytwarzanych lub generowanych przez te technologie, a także technicznego uczenia maszynowego, procesów wyciągania wniosków oraz innych technologii leżących u podstaw tego rozwoju przebiega w nieprzewidywalny sposób. W związku z tym właściwe i konieczne jest ustanowienie mechanizmu przeglądu, zgodnie z którym oprócz sprawozdawczości w zakresie stosowania rozporządzenia obowiązkiem Komisji będzie regularne przedkładanie sprawozdań dotyczących możliwej zmiany zakresu zastosowania niniejszego rozporządzenia.
(54) Ponieważ cel niniejszego rozporządzenia, tj. ustanowienie wspólnych ram regulacyjnych w zakresie zasad etycznych i zobowiązań prawnych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii w Unii, nie może zostać osiągnięty w sposób wystarczający przez państwa członkowskie, lecz raczej ze względu na jego rozmiar lub skutki działań możliwe jest jego lepsze osiągnięcie na szczeblu Unii, Unia może podjąć działania zgodnie z zasadą pomocniczości zgodnie z art. 5 Traktatu o Unii Europejskiej. Zgodnie z zasadą proporcjonalności określoną w tym artykule niniejsze rozporządzenie nie wykracza poza to, co jest konieczne do osiągnięcia tego celu.
(55) Koordynacja na poziomie Unii określona w niniejszym rozporządzeniu zostałaby najlepiej osiągnięta przez Komisję lub wszelkie odpowiednie instytucje, organy, urzędy i agencje Unii, które mogą zostać wyznaczone w tym celu, aby uniknąć fragmentacji i zapewnić spójne stosowanie niniejszego rozporządzenia. Komisji należy zatem powierzyć zadanie znalezienia odpowiedniego rozwiązania jeśli chodzi o ustrukturyzowanie takiej koordynacji na szczeblu Unii w celu koordynacji uprawnień i działań krajowych organów nadzoru w poszczególnych państwach członkowskich, w szczególności jeśli chodzi o ocenę ryzyka związanego ze sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami, ustanowienie wspólnych ram zarządzania opracowywaniem, wdrażaniem i wykorzystywaniem tych technologii, opracowanie i wydanie świadectwa zgodności z zasadami etycznymi i zobowiązaniami prawnymi określonymi w niniejszym rozporządzeniu, wspieranie regularnej wymiany informacji z zainteresowanymi stronami i społeczeństwem obywatelskim, utworzenie centrum wiedzy specjalistycznej zrzeszającego środowisko akademickie, badaczy, przemysł i indywidualnych ekspertów na szczeblu Unii w celu promowania wymiany wiedzy ogólnej i technicznej wiedzy eksperckiej, propagowanie unijnego podejścia w drodze współpracy międzynarodowej oraz zapewnianie spójnego reagowania na całym świecie na możliwości i zagrożenia związane z tymi technologiami.
PRZYJMUJĄ NINIEJSZE ROZPORZĄDZENIE:
Rozdział I
Przepisy ogólne
Artykuł 1
Cel
Celem niniejszego rozporządzenia jest ustanowienie wszechstronnych i zachowujących aktualność unijnych ram regulacyjnych w zakresie zasad etycznych i zobowiązań prawnych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii w Unii.
Artykuł 2
Zakres
Niniejsze rozporządzenie stosuje się do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie opracowywane, wdrażane i wykorzystywane w Unii.
Artykuł 3
Zakres geograficzny
Niniejsze rozporządzenie stosuje się do sztucznej inteligencji, robotyki i powiązanych z nimi technologii w przypadku, gdy ich dowolny element jest opracowywany, wdrażany lub wykorzystywany w Unii, niezależnie od tego, czy oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie są zlokalizowane poza Unią lub nie posiadają konkretnej lokalizacji geograficznej.
Artykuł 4
Definicje
Do celów niniejszego rozporządzenia stosuje się następujące definicje:
a) „sztuczna inteligencja” oznacza system, który opiera się na oprogramowaniu albo na wbudowanym urządzeniu i wykazuje się inteligentnym zachowaniem poprzez, między innymi, gromadzenie, przetwarzanie, analizowanie i wyciąganie wniosków dotyczących otoczenia oraz podejmowanie działań, w pewnym stopniu autonomicznie, aby osiągnąć konkretne cele(18);
b) „autonomiczny” oznacza system sztucznej inteligencji, który działa na podstawie interpretacji określonych danych wejściowych i wykorzystuje zestaw wcześniej zdefiniowanych instrukcji, lecz nie jest do tych instrukcji ograniczony, mimo że zachowanie systemu jest ograniczone celem, który mu postawiono, i ukierunkowane na jego osiągnięcie, oraz uwarunkowane innymi odnośnymi wyborami twórcy systemu;
c) „robotyka” oznacza technologie umożliwiające automatycznie sterowanym, programowalnym i wielozadaniowym maszynom(19) wykonywanie działań w świecie fizycznym, które są tradycyjnie wykonywane lub inicjowane przez człowieka, w tym z zastosowaniem sztucznej inteligencji lub powiązanych z nimi technologii;
d) „powiązane technologie” oznaczają technologie umożliwiające oprogramowaniu sterowanie procesem fizycznym lub wirtualnym w sposób częściowo lub w pełni autonomiczny, technologie zdolne do wykrywania danych biometrycznych, genetycznych i innych, a także technologie powielające lub w inny sposób wykorzystujące cechy ludzkie;
e) „wysokie ryzyko” oznacza znaczne ryzyko spowodowania obrażeń ciała lub szkód dla osób fizycznych lub społeczeństwa związane z opracowywaniem, wdrażaniem i wykorzystywaniem sztucznej inteligencji, robotyki i powiązanych z nimi technologii z naruszeniem praw podstawowych i zasad bezpieczeństwa zapisanych w prawie Unii, biorąc pod uwagę ich konkretne zastosowanie lub cel, sektor, w którym są one opracowywane, wdrażane lub wykorzystywane, oraz stopień obrażenia lub szkody, których wystąpienia można się spodziewać;
f) „opracowywanie” oznacza tworzenie i projektowanie algorytmów, pisanie i projektowanie oprogramowania lub gromadzenie i przechowywanie danych oraz zarządzanie nimi w celu tworzenia lub szkolenia sztucznej inteligencji, robotyki i powiązanych z nimi technologii bądź w celu tworzenia nowego zastosowania istniejącej sztucznej inteligencji, robotyki i powiązanych z nimi technologii;
g) „podmiot opracowujący” oznacza dowolną osobę fizyczną lub prawną podejmującą decyzje określające i kontrolujące przebieg lub sposób opracowywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii;
h) „wdrażanie” oznacza obsługę sztucznej inteligencji, robotyki i powiązanych z nimi technologii oraz zarządzanie nimi, jak również wprowadzanie ich do obrotu lub udostępnianie ich w inny sposób podmiotom wykorzystującym;
i) „podmiot wdrażający” oznacza dowolną osobę fizyczną lub prawną, która jest zaangażowana w konkretne wdrażanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, pełni funkcje polegające na kontroli lub zarządzaniu poprzez podejmowanie decyzji, sprawowanie kontroli nad ryzykiem, i odnoszącą korzyści z tego wdrażania;
j) „wykorzystywanie” oznacza dowolne działanie w zakresie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, inne niż opracowywanie lub wdrażanie;
k) „podmiot wykorzystujący” oznacza dowolną osobę fizyczną lub prawną korzystającą ze sztucznej inteligencji, robotyki i powiązanych z nimi technologii w celach innych niż opracowywanie lub wdrażanie;
l) „nierówne traktowanie” oznacza wszelkie indywidualne lub społeczne stronnicze uprzedzenia do dowolnej osoby lub grupy osób z powodu ich cech osobowych;
m) „dyskryminacja” oznacza odmienne traktowanie dowolnej osoby lub grupy osób z przyczyny niemającej obiektywnego lub racjonalnego uzasadnienia, a przez to zakazanej na mocy prawa Unii;
n) „obrażenia ciała lub szkoda” oznaczają – w tym spowodowane przez mowę nienawiści, nierówne traktowanie, dyskryminację lub stygmatyzację – uszczerbek pod względem fizycznym lub psychicznym, szkody materialne lub niematerialne, takie jak straty finansowe lub gospodarcze, utratę zatrudnienia lub możliwości kształcenia, nieuzasadnione ograniczenia wolności wyboru i wypowiedzi lub utratę prywatności, oraz wszelkie naruszenia prawa Unii mające szkodliwy wpływ na daną osobę;
o) „dobre zarządzanie” oznacza sposób zapewniania, by podmioty opracowujące, wdrażające i wykorzystujące stosowały odpowiednie i rozsądne normy i procedury w zakresie zachowania i ich przestrzegały, kierując się oficjalnym zbiorem zasad, procedur i wartości, i mogły odpowiednio rozwiązywać kwestie natury etycznej w miarę ich występowania lub przed ich wystąpieniem.
Artykuł 5
Zasady etyczne dotyczące sztucznej inteligencji, robotyki i powiązanych z nimi technologii
1. Wszelkiego rodzaju sztuczną inteligencję, robotykę i powiązane z nimi technologie, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, należy opracowywać, wdrażać i wykorzystywać w Unii zgodnie z prawem Unii i przy pełnym poszanowaniu godności, autonomii i bezpieczeństwa ludzi oraz innych praw podstawowych określonych w Karcie;
2. Wszelkich czynności przetwarzania danych osobowych prowadzonych przy opracowywaniu, wdrażaniu i wykorzystywaniu sztucznej inteligencji, robotyki i powiązanych technologii, w tym w zakresie danych osobowych pochodzących z danych nieosobowych i biometrycznych, dokonuje się zgodnie z rozporządzeniem (UE) 2016/679 i dyrektywą 2002/58/WE.
3. Unia i jej państwa członkowskie zachęcają do prowadzenia projektów badawczych ukierunkowanych na dostarczanie rozwiązań, które są oparte na sztucznej inteligencji, robotyce i powiązanych z nimi technologiach i mają na celu upowszechnianie włączenia społecznego, pluralizmu, solidarności, sprawiedliwości, równości i współpracy.
Rozdział II
Obowiązki względem technologii wysokiego ryzyka
Artykuł 6
Obowiązki względem technologii wysokiego ryzyka
1. Przepisy niniejszego rozdziału mają zastosowanie wyłącznie do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie, opracowywanych, wdrażanych i wykorzystywanych w Unii, które są uznawane za technologie wysokiego ryzyka.
2. Wszelkiego rodzaju sztuczną inteligencję, robotykę i powiązane z nimi technologie wysokiego ryzyka, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, należy opracowywać, wdrażać i wykorzystywać w sposób zapewniający, aby nie naruszały one zasad etycznych określonych w niniejszym rozporządzeniu.
Artykuł 7
Sztuczna inteligencja ukierunkowana na człowieka i stworzona przez człowieka
1. Wszelkie technologie sztucznej inteligencji wysokiego ryzyka, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, należy opracowywać, wdrażać i wykorzystywać w sposób gwarantujący pełny nadzór człowieka w dowolnym momencie.
2. Technologie, o których mowa w ust. 1 należy opracowywać, wdrażać i wykorzystywać w sposób umożliwiający odzyskanie pełnej kontroli przez człowieka w razie potrzeby, w tym przez modyfikację lub wstrzymanie działania tych technologii.
Artykuł 8
Bezpieczeństwo, przejrzystość i odpowiedzialność
1. Wszelkiego rodzaju sztuczną inteligencję, robotykę i powiązane z nimi technologie wysokiego ryzyka, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, należy opracowywać, wdrażać i wykorzystywać w sposób zapewniający, że są one:
a) opracowywane, wdrażane i wykorzystywane w sposób odporny, aby zapewniały one odpowiedni poziom bezpieczeństwa, przestrzegając minimalnych poziomów bazowych w zakresie cyberbezpieczeństwa, proporcjonalnych do zidentyfikowanego ryzyka, a także taki, który zapobiega wykorzystywaniu wszelkich słabych pod względem technicznym stron w celach nieuczciwych lub niezgodnych z prawem;
b) opracowywane, wdrażane i wykorzystywane w sposób bezpieczny, zapewniający zabezpieczenia obejmujące plan awaryjny i działania awaryjne w przypadku ryzyka dla bezpieczeństwa;
c) opracowywane, wdrażane i wykorzystywane w sposób zapewniający wiarygodne działanie, jakiego podmiot wykorzystujący może racjonalnie oczekiwać w odniesieniu do osiągania celów i realizowania działań, do których technologie te zostały stworzone, w tym przez zapewnienie możliwości odtworzenia wszystkich operacji;
d) opracowywane, wdrażane i wykorzystywane w sposób zapewniający precyzyjne osiąganie celów i realizowanie działań przewidzianych dla poszczególnych technologii; jeżeli uniknięcie sporadycznych niedokładności nie jest możliwe, system musi, w możliwym zakresie, sygnalizować podmiotom wdrażającym i wykorzystującym prawdopodobieństwo błędów i niedokładności za pomocą odpowiednich środków;
e) opracowywane, wdrażane i wykorzystywane w sposób, który jest łatwo wyjaśnialny, aby zapewnić możliwość przeglądu procesów technicznych prowadzonych w ramach tych technologii;
f) opracowywane, wdrażane i wykorzystywane w taki sposób, aby informowały podmioty wykorzystujące o tym, że prowadzą one komunikację z systemami sztucznej inteligencji, przy jednoczesnym odpowiednim i kompleksowym powiadomieniu podmiotów opracowujących, wdrażających i wykorzystujących sztuczną inteligencję o zdolnościach tych systemów, ich dokładności oraz ograniczeniach;
g) zgodnie z art. 6 ust. 3 opracowywane, wdrażane i wykorzystywane w taki sposób, aby w przypadku niezgodności z zabezpieczeniami określonymi w lit. a)–g) można było dokonać tymczasowej dezaktywacji funkcji, których to dotyczy, oraz przywrócić wcześniejszy stan, określany jako przywrócenie bezpiecznych funkcji.
2. Zgodnie z art. 6 ust. 1 technologie, o których mowa w ust. 1 niniejszego artykułu, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, należy opracowywać, wdrażać i wykorzystywać w sposób przejrzysty i możliwy do identyfikacji, aby ich elementy, procesy i etapy zostały udokumentowane, spełniając najwyższe obowiązujące normy, oraz aby krajowe organy nadzoru, o których mowa w art. 18, mogły dokonać oceny zgodności tych technologii z zobowiązaniami określonymi w niniejszym rozporządzeniu. W szczególności podmiot opracowujący, wdrażający lub wykorzystujący te technologie ponosi odpowiedzialność za zgodność z zabezpieczeniami określonymi w ust. 1 i musi być w stanie udowodnić tę zgodność.
3. Podmiot opracowujący, wdrażający lub wykorzystujący technologie, o których mowa w ust. 1, zapewnia, aby krajowe organy nadzoru, o których mowa w art. 18, lub, w stosownych przypadkach, inne krajowe lub europejskie sektorowe organy nadzoru, mogły przeprowadzić audyt środków przyjętych w celu zagwarantowania zgodności z zabezpieczeniami określonymi w ust. 1.
Artykuł 9
Brak nierównego traktowania i niedyskryminacja
1. Wszelkie oprogramowanie, algorytmy lub dane wykorzystywane lub generowane przez sztuczną inteligencję, robotykę i powiązane z nimi technologie opracowywane, wdrażane lub wykorzystywane w Unii są bezstronne i, bez uszczerbku dla ust. 2, nie dyskryminują ze względów takich jak rasa, płeć, orientacja seksualna, ciąża, niepełnosprawność, cechy fizyczne lub genetyczne, wiek, mniejszość narodowa, pochodzenie etniczne lub społeczne, język, religia lub przekonania, poglądy polityczne lub aktywność obywatelska, obywatelstwo, stan cywilny lub status ekonomiczny, wykształcenie lub uprzednia karalność.
2. W drodze odstępstwa od ust. 1 oraz nie naruszając prawa Unii regulującego niezgodną z prawem dyskryminację, wszelkie odmienne traktowanie osób lub grup osób może być uzasadnione wyłącznie wtedy, gdy istnieje obiektywny, racjonalny i uzasadniony cel, który jest jednocześnie proporcjonalny i niezbędny w zakresie, w jakim nie istnieje alternatywne rozwiązanie pociągające za sobą mniejszą ingerencję w zasadę równego traktowania.
Artykuł 10
Odpowiedzialność społeczna i równowaga płci
Wszelkiego rodzaju sztuczną inteligencję, robotykę i powiązane z nimi technologie wysokiego ryzyka, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, opracowywane, wdrażane i wykorzystywane w Unii, należy opracowywać, wdrażać i wykorzystywać zgodnie ze stosownymi przepisami, zasadami i wartościami Unii w sposób, który nie ingeruje w wybory ani nie przyczynia się do rozpowszechniania dezinformacji, respektuje prawa pracowników, promuje wysokiej jakości edukację i umiejętności cyfrowe, nie zwiększa różnic w traktowaniu kobiet i mężczyzn poprzez uniemożliwianie równych szans dla wszystkich i nie narusza praw własności intelektualnej oraz wszelkich powiązanych ograniczeń i wyjątków.
Artykuł 11
Zrównoważenie środowiskowe
Krajowe organy nadzoru, o których mowa w art. 18, lub, w stosownych przypadkach, inne krajowe lub europejskie sektorowe organy nadzoru, dokonują oceny zrównoważenia środowiskowego wszelkiego rodzaju sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie, zapewniając wdrożenie środków mających na celu zmniejszenie i naprawienie ogólnego wpływu tych technologii pod względem zasobów naturalnych, zużycia energii, wytwarzania odpadów, śladu węglowego, kryzysu związanego ze zmianą klimatu i degradacji środowiska, aby zapewnić zgodność z mającym zastosowanie prawem Unii lub krajowym oraz wszelkimi innymi międzynarodowymi zobowiązaniami w dziedzinie środowiska naturalnego podjętymi przez Unię.
Artykuł 12
Poszanowanie prywatności i ochrona danych osobowych
Wykorzystanie i gromadzenie danych biometrycznych na potrzeby zdalnej identyfikacji w sferze publicznej, jak rozpoznawanie elementów biometrycznych lub rozpoznawanie twarzy, wiąże się ze szczególnym zagrożeniem dla praw podstawowych i jest stosowane lub wykorzystywane tylko przez organy publiczne państw członkowskich do celów istotnego interesu publicznego. Organy te zapewniają, aby takie stosowanie lub wykorzystywanie było ujawniane publiczne, proporcjonalne, ukierunkowane i ograniczało się do konkretnych celów i lokalizacji, było ograniczone w czasie i odbywało się zgodnie z prawem Unii i prawem krajowym, w szczególności z rozporządzeniem (UE) 2016/679 i dyrektywą 2002/58/WE, z należytym uwzględnieniem godności i autonomii człowieka oraz praw podstawowych określonych w Karcie, zwłaszcza prawa do poszanowania prywatności i ochrony danych osobowych.
Artykuł 13
Prawo do dochodzenia roszczeń
Każda osoba fizyczna lub prawna ma prawo do dochodzenia roszczeń za obrażenia lub szkody spowodowane opracowywaniem, wdrażaniem lub wykorzystywaniem sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, w tym oprogramowania, algorytmów oraz danych wykorzystywanych lub generowanych przez te technologie, z naruszeniem prawa Unii i obowiązków określonych w niniejszym rozporządzeniu.
Artykuł 14
Ocena ryzyka
1. Do celów niniejszego rozporządzenia sztuczną inteligencję, robotykę i powiązane z nimi technologie, w tym oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez te technologie, uznaje się za technologie wysokiego ryzyka, jeżeli po przeprowadzeniu oceny ryzyka opartej na obiektywnych kryteriach, takich jak konkretne zastosowanie lub cel, sektor, w którym są one opracowywane, wdrażane lub wykorzystywane, oraz stopień ewentualnego obrażenia lub szkody, ich opracowanie, wdrożenie lub wykorzystanie wiąże się ze znacznym ryzykiem spowodowania szkód lub obrażeń, co do których można się spodziewać, że wystąpią u osób lub w społeczeństwie z naruszeniem praw podstawowych i zasad bezpieczeństwa określonych w prawie Unii.
2. Bez uszczerbku dla obowiązujących przepisów sektorowych, ocena ryzyka związanego ze sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami, w tym z oprogramowaniem, algorytmami i danymi wykorzystywanymi lub generowanymi przez takie technologie, przeprowadzana jest, zgodnie z obiektywnymi kryteriami przewidzianymi w ust. 1 niniejszego artykułu oraz w wyczerpującym i zbiorczym wykazie przedstawionym w załączniku do niniejszego rozporządzenia, przez krajowe organy nadzoru, o których mowa w art. 18, w koordynacji z Komisją i/lub wszelkimi innymi właściwymi instytucjami, organami, urzędami i agencjami Unii, które mogą zostać wyznaczone w tym celu w kontekście ich współpracy.
3. We współpracy z krajowymi organami nadzoru, o których mowa w ust. 2, Komisja, w drodze aktów delegowanych zgodnie z art. 20, sporządza, a następnie aktualizuje wspólny wykaz technologii wysokiego ryzyka zidentyfikowanych w Unii.
4. Komisja dokonuje również, w drodze aktów delegowanych zgodnie z art. 20, regularnej aktualizacji wykazu przewidzianego w załączniku do niniejszego rozporządzenia.
Artykuł 15
Ocena zgodności
1. Sztuczna inteligencja, robotyka i powiązane z nimi technologie wysokiego ryzyka podlegają ocenie zgodności z obowiązkami określonymi w art. 6–12 niniejszego rozporządzenia, a następnie monitorowaniu, które są przeprowadzane przez krajowe organy nadzoru, o których mowa w art. 18, w koordynacji z Komisją i/lub innymi właściwymi instytucjami, organami, urzędami i agencjami Unii, które mogą zostać wyznaczone w tym celu.
2. Oprogramowanie, algorytmy oraz dane wykorzystywane lub generowane przez technologie wysokiego ryzyka, które zostały ocenione jako zgodne z obowiązkami określonymi w niniejszym rozporządzeniu zgodnie z ust. 1, są uznawane za zgodne z tymi obowiązkami, chyba że właściwy krajowy organ nadzoru podejmie decyzję o przeprowadzeniu oceny z własnej inicjatywy lub na wniosek podmiotu opracowującego, wdrażającego lub wykorzystującego.
3. Bez uszczerbku dla przepisów sektorowych Komisja i/lub wszelkie właściwe instytucje, organy, urzędy i agencje Unii, które mogą zostać specjalnie wyznaczone do tego celu, przygotowują wiążące wytyczne dotyczące metodyki, jaką powinny stosować krajowe organy nadzoru przy wykonywaniu oceny zgodności, o której mowa w ust.1, do dnia wejścia w życie niniejszego rozporządzenia.
Artykuł 16
Europejski certyfikat zgodności z zasadami etycznymi
1. W przypadku pozytywnej oceny zgodności sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, w tym oprogramowania, algorytmów i danych wykorzystywanych lub wytwarzanych przez takie technologie, przeprowadzonej zgodnie z art. 15, odpowiedni krajowy organ nadzoru wydaje europejski certyfikat zgodności z zasadami etycznymi.
2. Każdy podmiot opracowujący, wdrażający lub wykorzystujący sztuczną inteligencję, robotykę i powiązane z nimi technologie, w tym oprogramowanie, algorytmy i dane wykorzystywane lub generowane przez takie technologie, które nie są uznawane za obarczone wysokim ryzykiem i w związku z tym nie podlegają obowiązkom określonym w art. 6–12 ani ocenie ryzyka i ocenie zgodności, o których mowa w art. 14 i 15, może również starać się o poświadczenie zgodności z obowiązkami określonymi w niniejszym rozporządzeniu lub z ich częścią, jeżeli jest to uzasadnione charakterem danej technologii, zgodnie z decyzją krajowych organów nadzoru. Certyfikat jest wydawany tylko wtedy, gdy ocena zgodności została przeprowadzona przez właściwy krajowy organ nadzoru i gdy ocena ta jest pozytywna.
3. Do celów wydania certyfikatu, o którym mowa w ust. 2, Komisja i/lub inne właściwe instytucje, organy, urzędy i agencje Unii, które mogą zostać wyznaczone do tego celu, opracowują procedurę składania wniosków.
Rozdział III
Nadzór instytucjonalny
Artykuł 17
Normy zarządzania i wytyczne wykonawcze
1. Sztuczna inteligencja, robotyka i powiązane z nimi technologie opracowywane, wdrażane i wykorzystywane w Unii spełniają stosowne normy zarządzania określone zgodnie z przepisami, zasadami i wartościami Unii przez krajowe organy nadzoru, o których mowa w art. 18, zgodnie z przepisami, zasadami i wartościami Unii, w koordynacji z Komisją i/lub właściwymi instytucjami, organami, urzędami i agencjami Unii, które mogą zostać wyznaczone w tym celu i w porozumieniu z odpowiednimi zainteresowanymi stronami.
2. Normy, o których mowa w ust. 1, obejmują niewiążące wytyczne wykonawcze dotyczące metodyki zapewnienia zgodności z niniejszym rozporządzeniem przez podmioty opracowujące, wdrażające i wykorzystujące oraz są publikowane do dnia wejścia w życie niniejszego rozporządzenia.
3. Podmioty opracowujące, wdrażające lub wykorzystujące zarządzają danymi wykorzystywanymi lub generowanymi przez sztuczną inteligencję, robotykę i powiązane z nimi technologie opracowywane, wdrażane lub wykorzystywane w Unii zgodnie ze stosownymi przepisami i normami krajowymi i międzynarodowymi, a także Unii i innych organizacji europejskich, jak również zgodnie z odpowiednimi procedurami branżowymi i dotyczącymi przedsiębiorstw. W szczególności podmioty opracowujące i wdrażające, w przypadkach, w których jest to możliwe, prowadzą kontrole jakości zewnętrznych źródeł danych wykorzystywanych przez sztuczną inteligencję, robotykę i powiązane z nimi technologie oraz wprowadzają mechanizmy nadzoru w odniesieniu do gromadzenia, przechowywania, przetwarzania i wykorzystywania tych danych.
4. Bez uszczerbku dla praw do przenoszenia danych oraz praw osób, które w wyniku wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii doprowadziły do wygenerowania danych, gromadzenie, przechowywanie, przetwarzanie, wymiana oraz udostępnianie danych wykorzystywanych lub generowanych przez sztuczną inteligencję, robotykę i powiązane z nimi technologie opracowywane, wdrażane lub wykorzystywane w Unii musi spełniać stosowne normy krajowe i międzynarodowe, a także Unii i innych organizacji europejskich, jak również być zgodnie z odpowiednimi procedurami branżowymi i dotyczącymi przedsiębiorstw. W szczególności podmioty opracowujące i wdrażające zapewniają stosowanie tych procedur podczas opracowywania i wdrażania sztucznej inteligencji, robotyki i powiązanych z nimi technologii przez jednoznaczne zdefiniowanie wymogów dotyczących przetwarzania danych wykorzystywanych lub generowanych przez te technologie oraz udzielania do nich dostępu, a także celu, zakresu i adresatów przetwarzania takich danych oraz udzielania do nich dostępu, przy czym w odniesieniu do każdego z tych aspektów musi być możliwe w dowolnym czasie przeprowadzenie kontroli i dokonanie identyfikacji.
Artykuł 18
Organy nadzoru
1. Każde państwo członkowskie wyznacza niezależny organ publiczny odpowiedzialny za monitorowanie stosowania niniejszego rozporządzenia („organ nadzoru”) i przeprowadzanie ocen ryzyka i zgodności oraz wydawanie certyfikatów przewidzianych w art. 14, 15 i 16, bez uszczerbku dla przepisów sektorowych.
2. Każdy organ nadzoru przyczynia się do spójnego stosowania niniejszego rozporządzenia w całej Unii. W tym celu organy nadzoru poszczególnych państw członkowskich współpracują między sobą, z Komisją lub z innymi właściwymi instytucjami, organami i jednostkami organizacyjnymi Unii, które mogą zostać wyznaczone do tego celu.
3. Każdy krajowy organ nadzoru stanowi pierwszy punkt kontaktowy w przypadkach podejrzenia naruszenia zasad etycznych i zobowiązań prawnych ustanowionych w niniejszym rozporządzeniu, w tym dyskryminacyjnego traktowania lub naruszenia innych praw, w wyniku opracowania, wdrożenia lub wykorzystania sztucznej inteligencji, robotyki i powiązanych z nimi technologii. W takich przypadkach odpowiedni krajowy organ nadzoru przeprowadza ocenę zgodności w celu wspierania prawa obywateli do wniesienia sprzeciwu i dochodzenia roszczeń.
4. Każdy krajowy organ nadzoru ponosi odpowiedzialność za nadzorowanie odpowiednich krajowych, europejskich i międzynarodowych zasad i standardów zarządzania, o których mowa w art. 17, w odniesieniu do sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym w drodze współpracy z jak największą liczbą odnośnych zainteresowanych stron. W tym celu organy nadzoru poszczególnych państw członkowskich zapewniają forum regularnej wymiany informacji z i między zainteresowanymi stronami takimi jak środowisko akademickie, naukowcy, przemysł i społeczeństwo obywatelskie.
5. Każdy krajowy organ nadzoru zapewnia profesjonalne wytyczne i wsparcie administracyjne w zakresie ogólnego wdrażania prawa Unii mającego zastosowanie do sztucznej inteligencji, robotyki i powiązanych z nimi technologii oraz zasad etycznych określonych w niniejszym rozporządzeniu, zwłaszcza odpowiednim instytucjom badawczo-rozwojowym oraz małym i średnim przedsiębiorstwom lub przedsiębiorstwom typu start-up.
6. Każde państwo członkowskie zgłasza Komisji Europejskiej przepisy przyjęte zgodnie z niniejszym artykułem do dnia [Dz.U.: proszę wstawić datę wypadającą po upływie roku od dnia wejścia w życie] oraz, niezwłocznie, wszelkie kolejne zmiany mające na nie wpływ.
7. Państwa członkowskie podejmują wszelkie niezbędne środki, aby zapewnić stosowanie zasad etycznych i zobowiązań prawnych określonych w niniejszym rozporządzeniu. Państwa członkowskie wspierają stosowne zainteresowane strony oraz społeczeństwo obywatelskie zarówno na poziomie Unii, jak i na szczeblu krajowym, w wysiłkach na rzecz zapewnienia terminowej, etycznej i popartej należytymi informacjami reakcji na nowe możliwości i wyzwania, w szczególności o charakterze transgranicznym, związane z postępem technologicznym w zakresie sztucznej inteligencji, robotyki i powiązanych z nimi technologii.
Artykuł 19
Zgłaszanie naruszeń i ochrona zgłaszających
Do zgłaszania naruszeń przepisów niniejszego rozporządzenia oraz ochrony osób zgłaszających przypadki naruszeń stosuje się dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/1937(20).
Artykuł 20
Koordynacja na poziomie Unii
1. Komisja lub wszelkie właściwe instytucje, organy, urzędy i agencje Unii, które mogą zostać wyznaczone w tym kontekście, wykonują następujące zadania:
— zapewnienie spójnej oceny ryzyka w zakresie sztucznej inteligencji, robotyki i powiązanych z nimi technologii, o których mowa w art. 14, przeprowadzanej przez krajowe organy nadzoru, o których mowa w art. 18, na podstawie wspólnych obiektywnych kryteriów przewidzianych w art. 8 ust. 1 oraz w wykazie sektorów wysokiego ryzyka oraz zastosowań lub celów wysokiego ryzyka określonym w załączniku do niniejszego rozporządzenia;
— uwzględnianie oceny zgodności, a następnie monitorowanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii wysokiego ryzyka, o których mowa w art. 15, przeprowadzane przez krajowe organy nadzoru, o których mowa w art. 18;
— opracowanie procesu składania wniosków o certyfikat, o którym mowa w art. 16, wydawany przez krajowe organy nadzoru, o których mowa w art. 18;
— bez uszczerbku dla przepisów sektorowych, przygotowanie wiążących wytycznych, o których mowa w art. 17 ust. 4, dotyczących metodyki stosowanej przez krajowe organy nadzoru, o których mowa w art. 18;
— koordynowanie ustanawiania odpowiednich standardów zarządzania, o których mowa w art. 17, przez krajowe organy nadzoru, o których mowa w art. 18, w tym niewiążących wytycznych wykonawczych dla podmiotów opracowujących, wdrażających i wykorzystujących, dotyczących metodyki zapewnienia zgodności z niniejszym rozporządzeniem;
— współpraca z krajowymi organami nadzoru, o których mowa w art. 18, w zakresie ich wkładu w jednolite stosowanie niniejszego rozporządzenia w całej Unii zgodnie z art. 18 ust. 2;
— służenie jako ośrodek wiedzy specjalistycznej poprzez promowanie wymiany informacji związanych ze sztuczną inteligencją, robotyką i powiązanymi z nimi technologiami oraz wspieranie rozwoju wspólnego zrozumienia w ramach jednolitego rynku, wydawanie dodatkowych wytycznych i opinii oraz służenie wiedzą specjalistyczną krajowym organom nadzoru, o których mowa w art. 18, monitorowanie wdrażania stosownego prawa Unii, określanie standardów dotyczących najlepszych praktyk oraz, w stosownych przypadkach, wydawanie zaleceń dotyczących środków regulacyjnych; należy przy tym współpracować z jak największą liczbą zainteresowanych stron i zapewnić zróżnicowany skład poziomów decyzyjnych oraz zagwarantować równość płci;
— przyjęcie grupy roboczej ds. bezpieczeństwa i obrony, której celem jest przeanalizowanie kwestii politycznych i inwestycyjnych związanych konkretnie z etycznym wykorzystaniem sztucznej inteligencji, robotyki i powiązanych z nimi technologii w dziedzinie bezpieczeństwa i obrony.
Artykuł 21
Wykonywanie przekazanych uprawnień
1. Powierzenie Komisji uprawnień do przyjmowania aktów delegowanych podlega warunkom określonym w niniejszym artykule.
2. Uprawnienia do przyjęcia aktów delegowanych, o których mowa w art. 14 ust. 3 i 4, powierza się Komisji na okres 5 lat od dnia [data wejścia w życie niniejszego rozporządzenia].
3. Przekazanie uprawnień, o którym mowa w art. 14 ust. 3 i 4, może zostać w dowolnym momencie odwołane przez Parlament Europejski lub przez Radę. Decyzja o odwołaniu kończy przekazanie określonych w niej uprawnień. Decyzja o odwołaniu staje się skuteczna od następnego dnia po jej opublikowaniu w Dzienniku Urzędowym Unii Europejskiej lub w określonym w tej decyzji późniejszym terminie. Nie wpływa ona na ważność już obowiązujących aktów delegowanych.
4. Przed przyjęciem aktu delegowanego Komisja konsultuje się z ekspertami wyznaczonymi przez każde państwo członkowskie zgodnie z zasadami określonymi w Porozumieniu międzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa.
5. Niezwłocznie po przyjęciu aktu delegowanego Komisja przekazuje go równocześnie Parlamentowi Europejskiemu i Radzie.
6. Akt delegowany przyjęty na podstawie art. 14 ust. 3 i 4 wchodzi w życie tylko wówczas, gdy ani Parlament Europejski, ani Rada nie wyraziły sprzeciwu w terminie trzech miesięcy od przekazania tego aktu Parlamentowi Europejskiemu i Radzie, lub gdy, przed upływem tego terminu, zarówno Parlament Europejski, jak i Rada poinformowały Komisję, że nie wniosą sprzeciwu. Termin ten przedłuża się o trzy miesiące z inicjatywy Parlamentu Europejskiego lub Rady.
Artykuł 22
Zmiana w dyrektywie (UE) 2019/1937
W dyrektywie (UE) 2019/1937 wprowadza się następujące zmiany:
1) w art. 2 ust. 1 dodaje się literę w brzmieniu:
„(xi) opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii.”;
2) w części I załącznika dodaje się literę w brzmieniu:
„K. Art. 2 ust. 1 lit. a) ppkt (xi) – opracowywanie, wdrażanie i wykorzystywanie sztucznej inteligencji, robotyki i powiązanych z nimi technologii.
»(xxi) rozporządzenie Parlamentu Europejskiego i Rady [XXX] w sprawie zasad etycznych dotyczących opracowywania, wdrażania i wykorzystywania sztucznej inteligencji, robotyki i powiązanych z nimi technologii«.”.
Artykuł 23
Przegląd
Komisja poddaje regularnemu przeglądowi rozwój sztucznej inteligencji, robotyki i powiązanych z nimi technologii, w tym oprogramowania, algorytmów oraz danych wytwarzanych lub generowanych przez te technologie, oraz do dnia [Dz.U.: proszę wstawić datę wypadającą po upływie trzech lat od dnia wejścia w życie], a następnie co trzy lata, przedstawia Parlamentowi Europejskiemu, Radzie i Europejskiemu Komitetowi Ekonomiczno-Społecznemu sprawozdanie dotyczące stosowania niniejszego rozporządzenia, w tym ocenę możliwej zmiany zakresu zastosowania niniejszego rozporządzenia.
Artykuł 24
Wejście w życie
Niniejsze rozporządzenie wchodzi w życie dwudziestego dnia po jego opublikowaniu w Dzienniku Urzędowym Unii Europejskiej.
Niniejsze rozporządzenie stosuje się od dnia XX r.
Niniejsze rozporządzenie wiąże w całości i jest bezpośrednio stosowane we wszystkich państwach członkowskich.
Sporządzono w ...,
W imieniu Parlamentu Europejskiego W imieniu Rady
Przewodniczący Przewodniczący
ZAŁĄCZNIK
Wyczerpujący i skumulowany wykaz sektorów wysokiego ryzyka oraz zastosowań lub celów wysokiego ryzyka, które wiążą się z ryzykiem naruszenia praw podstawowych i zasad bezpieczeństwa.
Sektory wysokiego ryzyka
— Zatrudnienie
— Edukacja
— Opieka zdrowotna
— Transport
— Energia
— Sektor publiczny (azyl, migracja, kontrole graniczne, sądownictwo i usługi w zakresie zabezpieczenia społecznego)
— Obronność i bezpieczeństwo
— Finanse, bankowość, ubezpieczenia
Zastosowania lub cele wysokiego ryzyka
— Rekrutacja
— Klasyfikacja i ocena studentów
— Przydział środków publicznych
— Udzielanie pożyczek
— Handel, pośrednictwo, opodatkowanie itp.
— Leczenie i zabiegi medyczne
— Procesy wyborcze i kampanie polityczne
— Decyzje sektora publicznego, które mają znaczący i bezpośredni wpływ na prawa i obowiązki osób fizycznych lub prawnych
Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/882 z dnia 17 kwietnia 2019 r. w sprawie wymogów dostępności produktów i usług (Dz.U. L 151 z 7.6.2019, s. 70).
Decyzja Parlamentu Europejskiego i Rady nr 768/2008/WE z dnia 9 lipca 2008 r. w sprawie wspólnych ram dotyczących wprowadzania produktów do obrotu, uchylająca decyzję Rady 93/465/EWG (Dz.U. L 218 z 13.8.2008, s. 82).
W przypadku automatycznego prowadzenia pojazdów Stowarzyszenie Inżynierów Motoryzacyjnych (SAE) zaproponowało w normie międzynarodowej J3016 sześć poziomów automatyzacji prowadzenia pojazdów; dokument aktualizowano ostatnio w 2018 r. do wersji J3016_201806. https://www.sae.org/standards/content/j3016_201806/
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych), (Dz.U. L 119 z 4.5.2016, s. 1).
Dyrektywa 2002/58/WE Parlamentu Europejskiego i Rady z dnia 12 lipca 2002 r. dotycząca przetwarzania danych osobowych oraz ochrony prywatności w sektorze telekomunikacyjnym (dyrektywa o prywatności i łączności elektronicznej) (Dz.U. L 201 z 31.7.2002, s. 37).
Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/1937 z dnia 23 października 2019 r. w sprawie ochrony osób zgłaszających naruszenia prawa Unii (Dz.U. L 305 z 26.11.2019, s. 17).
System odpowiedzialności cywilnej za sztuczną inteligencję
Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL))
– uwzględniając art. 225 Traktatu o funkcjonowaniu Unii Europejskiej,
– uwzględniając art. 114 i 169 Traktatu o funkcjonowaniu Unii Europejskiej,
– uwzględniając dyrektywę Rady 85/374/EWG z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących odpowiedzialności za produkty wadliwe(1) (dyrektywa w sprawie odpowiedzialności za produkty),
– uwzględniając dyrektywę 2005/29/WE Parlamentu Europejskiego i Rady z dnia 11 maja 2005 r. dotyczącą nieuczciwych praktyk handlowych stosowanych przez przedsiębiorstwa wobec konsumentów na rynku wewnętrznym (dyrektywę w sprawie nieuczciwych praktyk handlowych)(2), dyrektywę Parlamentu Europejskiego i Rady 2011/83/UE z dnia 25 października 2011 r. w sprawie praw konsumentów(3) oraz inne przepisy dotyczące ochrony konsumentów,
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745 z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych(4),
– uwzględniając rozporządzenie Rady (UE) 2018/1488 z dnia 28 września 2018 r. w sprawie ustanowienia Wspólnego Przedsięwzięcia w dziedzinie Europejskich Obliczeń Wielkiej Skali(5),
– uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/770 z dnia 20 maja 2019 r. w sprawie niektórych aspektów umów o dostarczanie treści cyfrowych i usług cyfrowych(6),
– uwzględniając porozumienie międzyinstytucjonalne w sprawie lepszego stanowienia prawa z dnia 13 kwietnia 2016 r. oraz wytyczne dotyczące lepszego stanowienia prawa(7),
– uwzględniając wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady z dnia 6 czerwca 2018 r. ustanawiającego program „Cyfrowa Europa” na lata 2021–2027 (COM(2018)0434),
– uwzględniając komunikat Komisji z dnia 25 kwietnia 2018 r. w sprawie sztucznej inteligencji dla Europy (COM(2018)0237),
– uwzględniając komunikat Komisji z dnia 7 grudnia 2018 r. w sprawie skoordynowanego planu w dziedzinie sztucznej inteligencji (COM(2018)0795),
– uwzględniając komunikat Komisji z dnia 8 kwietnia 2019 r. w sprawie budowania zaufania do sztucznej inteligencji ukierunkowanej na człowieka (COM(2019)0168),
– uwzględniając sprawozdanie Komisji dla Parlamentu Europejskiego, Rady i Europejskiego Komitetu Ekonomiczno-Społecznego z dnia 19 lutego 2020 r. na temat wpływu sztucznej inteligencji, internetu rzeczy i robotyki na bezpieczeństwo i odpowiedzialność (COM(2020)0064),
– uwzględniając Białą księgę Komisji Europejskiej z dnia 19 lutego 2020 r. pt. „Sztucznej inteligencja – Europejskie podejście do doskonałości i zaufania” (COM(2020)0065),
– uwzględniając swoją rezolucję z dnia 16 lutego 2017 r. zawierającą zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki(8),
– uwzględniając swoją rezolucję z dnia 1 czerwca 2017 r. w sprawie cyfryzacji europejskiego przemysłu(9),
– uwzględniając swoją rezolucję z dnia 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia(10),
– uwzględniając swoją rezolucję z dnia 12 lutego 2019 r. w sprawie kompleksowej europejskiej polityki przemysłowej w dziedzinie sztucznej inteligencji i robotyki(11),
– uwzględniając swoją rezolucję z dnia 12 lutego 2020 r. w sprawie zautomatyzowanych procesów decyzyjnych – zagwarantowanie ochrony konsumenta oraz swobodnego przepływu towarów i usług(12),
– uwzględniając sprawozdanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z 8 kwietnia 2019 r. pt. „Wytyczne w zakresie etyki na rzecz wiarygodnej sztucznej inteligencji”,
– uwzględniając sprawozdanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z 8 kwietnia 2019 r. pt. „Definicja sztucznej inteligencji: podstawowe możliwości i dziedziny zastosowania”,
– uwzględniając sprawozdanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z 26 czerwca 2019 r. pt. „Zalecenia polityczne i inwestycyjne na rzecz wiarygodnej sztucznej inteligencji”,
– uwzględniając sprawozdanie grupy ekspertów ds. odpowiedzialności i nowych technologii – Forum Nowych Technologii z 21 listopada 2019 r. pt. „Odpowiedzialność w związku ze sztuczną inteligencją i innymi rozwijającymi się technologiami cyfrowymi”,
– uwzględniając studium w sprawie oceny europejskiej wartości dodanej przygotowane przez Biuro Analiz Parlamentu Europejskiego, zatytułowane: 'Civil liability regime for artificial intelligence: European added value assessment' („System odpowiedzialności cywilnej za sztuczną inteligencję: ocena europejskiej wartości dodanej”(13)
– uwzględniając dokument tematyczny Zespołu Parlamentu Europejskiego ds. Przyszłości Nauki i Techniki (STOA) z czerwca 2016 r. dotyczący aspektów prawnych i etycznych w związku z robotyką(14),
– uwzględniając analizę Dyrekcji Generalnej ds. Polityki Wewnętrznej Parlamentu Europejskiego z października 2016 r., przygotowaną dla Komisji Prawnej, pt. „Przepisy europejskiego prawa cywilnego w robotyce”(15),
– uwzględniając art. 47 i 54 Regulaminu,
– uwzględniając opinie przedstawione przez Komisję Rynku Wewnętrznego i Ochrony Konsumentów oraz Komisję Transportu i Turystyki,
– uwzględniając sprawozdanie Komisji Prawnej (A9-0178/2020),
A. mając na uwadze, że pojęcie „odpowiedzialności” odgrywa istotną, ale i dwojaką rolę w naszym codziennym życiu, gdyż – z jednej strony – gwarantuje osobie, która ucierpiała lub poniosła szkody, prawo do wniesienia roszczenia o odszkodowanie i do uzyskania odszkodowania od strony, której udowodniono, że ponosi odpowiedzialność za wyrządzone szkody, zaś – z drugiej strony – stanowi zachętę ekonomiczną dla osób fizycznych i prawnych, by przede wszystkim unikać wyrządzania szkód lub uwzględniać w swoim działaniu konieczność wypłacenia odszkodowania;
B. mając na uwadze, że przyszłościowe ramy prawne odpowiedzialności cywilnej muszą wzbudzać zaufanie do bezpieczeństwa, niezawodności i spójności produktów i usług, w tym do technologii cyfrowej, aby zapewnić równowagę między skuteczną i sprawiedliwą ochroną potencjalnych poszkodowanych a jednoczesnym dawaniem wystarczającego pola do manewru, by umożliwić przedsiębiorstwom, w szczególności małym i średnim, rozwój nowych technologii, produktów i usług; mając na uwadze, że pomoże to w budowie zaufania i tworzeniu stabilnego otoczenia dla inwestycji; mając na uwadze, że ostatecznie celem wszelkich systemów odpowiedzialności powinno być stworzenie wszystkim stronom poczucia pewności prawa niezależnie od tego, czy jest to producent, operator, osoba poszkodowana czy dowolna inna strona trzecia;
C. mając na uwadze, że system prawny państwa członkowskiego może różnicować zasady dotyczące odpowiedzialności pewnych podmiotów lub zaostrzać je w stosunku do pewnych działań; mając na uwadze, że odpowiedzialność na zasadzie ryzyka oznacza, że strona może zostać pociągnięta do odpowiedzialności pomimo braku winy; mając na uwadze, że w wielu krajowych systemach prawnych oskarżony ponosi odpowiedzialność na zasadzie ryzyka, jeżeli stworzone przez niego zagrożenie dla ogółu społeczeństwa, takie jak związane z wykorzystaniem pojazdu czy niebezpiecznym działaniem, lub też takie, którego nie może on kontrolować, np. przykład wynikające z zachowania zwierząt, powoduje szkodę;
D. mając na uwadze, że wszelkie przyszłe prawodawstwo Unii mające za cel jednoznaczne przypisanie odpowiedzialności w odniesieniu do systemów sztucznej inteligencji (SI) powinny być poprzedzone analizą i konsultacjami z państwami członkowskimi w sprawie zgodności proponowanego aktu ustawodawczego z warunkami gospodarczymi, prawnymi i społecznymi;
E. mając na uwadze, że zagadnienie systemu odpowiedzialności cywilnej za SI powinno być przedmiotem szerokiej debaty publicznej uwzględniającej wszystkie niezbędne interesy, zwłaszcza aspekty etyczne, prawne, gospodarcze i społeczne, aby uniknąć nieporozumień i nieuzasadnionych obaw, jakie technologia ta może wywołać wśród obywateli; mając na uwadze, że dokładna analiza następstw wszelkich nowych ram regulacyjnych dla wszystkich podmiotów uczestniczących w ocenie skutków powinna być warunkiem wstępnym dla dalszych kroków legislacyjnych;
F. mając na uwadze, że pojęcie systemów SI obejmuje dużą grupę różnych technologii, w tym proste statystyki, uczenie się maszyn i głębokie uczenie maszynowe;
G. mając na uwadze, że dzięki używaniu terminu „zautomatyzowane podejmowanie decyzji” można by uniknąć ewentualnej niejednoznaczności terminu SI; mając na uwadze, że „zautomatyzowane podejmowanie decyzji” polega na wstępnym przeniesieniu przez użytkownika podjęcia decyzji, w części lub w całości, na inny podmiot w drodze korzystania z oprogramowania lub usługi; mając na uwadze, że z kolei podmiot ten stosuje następnie modele automatycznego podejmowania decyzji w celu wykonania czynności w imieniu użytkownika lub informowania o decyzjach użytkownika dotyczących realizacji działania;
H. mając na uwadze, że niektóre systemy SI stanowią istotne wyzwanie prawne dla obowiązujących ram prawnych w zakresie odpowiedzialności i mogą prowadzić do sytuacji, w których brak ich przejrzystości może sprawić, że wskazanie, kto kontrolował ryzyko związane z systemem SI czy też który kod, które dane wejściowe lub dane ostatecznie wywołały szkodliwe działanie, może okazać się bardzo drogie lub niemożliwe; mając na uwadze, że ten czynnik może utrudniać ustalenie powiązania między szkodą a powodującym ją zachowaniem, przez co ofiary mogą nie otrzymać odpowiedniego odszkodowania;
I. mając na uwadze, że te wyzwania prawne wynikają też z powiązań między danym systemem SI a innymi systemami, w tym systemami SI, z ich zależności od danych zewnętrznych, podatności na naruszenia cyberbezpieczeństwa, jak również projektowania coraz bardziej autonomicznych systemów SI z wykorzystaniem m.in. uczenia się maszyn i technik głębokiego uczenia maszynowego;
J. mając na uwadze, że surowe normy etyczne w odniesieniu do systemów SI powiązane z rozsądnymi i sprawiedliwymi procedurami rekompensowania szkód pomagają zająć się tymi wyzwaniami prawnymi i wyeliminować ryzyko, że użytkownicy będą mniej skłonni do zaakceptowania nowej technologii; mając na uwadze, że sprawiedliwe procedury odszkodowawcze oznaczają, że każda osoba, która ucierpiała w wyniku działania systemu SI lub poniosła szkody majątkowe w wyniku działania takiego systemu, powinna korzystać z tego samego poziomu ochrony, który przysługiwałby w przypadkach bez udziału systemów SI; mając na uwadze, że użytkownik musi mieć pewność, że potencjalne szkody spowodowane przez systemy wykorzystujące SI są objęte odpowiednim ubezpieczeniem oraz że istnieje określona droga prawna dochodzenia roszczeń;
K. mając na uwadze, że pewność prawa jest również zasadniczym warunkiem dynamicznego opracowywania i unowocześniania technologii opartych na SI, w szczególności dla przedsiębiorstw typu start-up, mikroprzedsiębiorstw oraz małych i średnich przedsiębiorstw, oraz ich praktycznego zastosowania w życiu codziennym; mając na uwadze, że kluczowa rola przedsiębiorstw typu start-up, mikroprzedsiębiorstw oraz małych i średnich przedsiębiorstw, zwłaszcza w gospodarce europejskiej, uzasadnia podejście ściśle proporcjonalne, umożliwiające im rozwój i innowacyjność;
L. mając na uwadze, że różnorodność systemów SI i zróżnicowanie zakresu zagrożeń, jakie stwarza ta technologia, utrudnia wysiłki na rzecz znalezienia jednego rozwiązania odpowiedniego dla całego spektrum zagrożeń; mając na uwadze, że w związku z tym należy przyjąć podejście, w ramach którego eksperymenty, projekty pilotażowe i piaskownice regulacyjne będą wykorzystywane do opracowywania proporcjonalnych rozwiązań opartych na dowodach, w razie potrzeby uwzględniających konkretne sytuacje i sektory;
Wprowadzenie
1. wyraża przekonanie, że wyzwanie związane z wprowadzeniem systemów SI w społeczeństwie, miejscu pracy i gospodarce jest obecnie jedną z najważniejszych kwestii w działaniach politycznych; technologie oparte na SI mogłyby i powinny poprawić jakość życia w niemal każdej sferze: od życia osobistego, obejmującego np. transport, dostosowaną do potrzeb danej osoby edukację, pomoc osobom znajdującym się w trudnej sytuacji, programy w zakresie fitnessu i przyznawanie kredytów, poprzez środowisko pracy, np. uwolnienie od uciążliwych i powtarzających się zadań, po wyzwania globalne, takie jak zmiana klimatu, opieka zdrowotna, żywienie czy logistyka;
2. jest głęboko przekonany, że aby skutecznie korzystać z zalet systemów SI, przeciwdziałać ich potencjalnemu nadużywaniu i zapobiegać fragmentacji regulacyjnej w Unii, zasadnicze znaczenie ma przyjęcie w całej UE jednolitego prawodawstwa w zakresie wszelkich systemów SI, opartego na konkretnych zasadach i nieulegającego dezaktualizacji; stoi na stanowisku, że choć lepsze wydają się sektorowe przepisy dla szerokiego wachlarza możliwych zastosowań SI, konieczne wydaje się przyjęcie przekrojowych i ujednoliconych ram prawnych opierających się na powszechnych zasadach, by zagwarantować pewność prawa, ustanowić te same normy w całej Unii i skutecznie chronić wartości europejskie i prawa obywateli;
3. stwierdza, że jednolity rynek cyfrowy wymaga pełnej harmonizacji, ponieważ sfera cyfrowa charakteryzuje się bardzo zmienną dynamiką ponadgraniczną i międzynarodowym przepływem danych; uważa, że jedynie poprzez przyjęcie spójnych, powszechnych zasad Unia może osiągnąć cele utrzymania suwerenności cyfrowej i przyspieszenia innowacji cyfrowych w Europie w zgodzie z kulturą innowacji;
4. zauważa, że globalny wyścig ku sztucznej inteligencji już trwa, a Unia powinna odegrać w nim czołową rolę, wykorzystując swój potencjał naukowy i technologiczny; zdecydowanie podkreśla, że rozwój technologii nie może osłabiać ochrony użytkowników przed szkodami, które mogą być powodowane przez urządzenia i systemy wykorzystujące SI; zachęca do promowania unijnych norm odpowiedzialności cywilnej na szczeblu międzynarodowym;
5. wyraża stanowcze przeświadczenie, że nowe, powszechne zasady dotyczące systemów sztucznej inteligencji powinny przyjąć formę rozporządzenia; uważa, że kwestia odpowiedzialności w odniesieniu do szkód spowodowanych przez system SI jest jednym z kluczowych aspektów, którymi należy się zająć w ramach tych przepisów;
Odpowiedzialność a sztuczna inteligencja
6. wyraża przekonanie, że nie ma potrzeby dokonywać całkowitego przeglądu dobrze funkcjonujących systemów odpowiedzialności, ale że złożoność, zdolność do łączenia się, nieprzejrzystość, podatność na zagrożenia, możliwość modyfikowania w drodze aktualizacji, możliwość samodzielnego uczenia się, potencjalna autonomiczność systemów SI i duża liczba zaangażowanych podmiotów stanowią jednak poważne wyzwanie dla skuteczności krajowych i unijnych przepisów ramowych dotyczących odpowiedzialności; uważa, że niezbędne są konkretne i skoordynowane dostosowania systemów odpowiedzialności, by uniknąć sytuacji, w której osoba, która ucierpiała lub poniosła szkody majątkowe, nie otrzyma rekompensaty;
7. zauważa, że wszystkie działania fizyczne czy wirtualne opierające się na systemach SI, urządzenia czy procesy, w których korzysta się z tych systemów, mogą zasadniczo być bezpośrednią lub pośrednią przyczyną szkody, a jednocześnie są one niemal zawsze wynikiem tego, że ktoś skonstruował lub wdrożył taki system albo ingerował w niego; zauważa w tym względzie, że nie jest konieczne nadawanie systemom SI osobowości prawnej; wyraża opinię, że nieprzejrzystość, zdolność do łączenia się i autonomiczność systemów SI może sprawić, że w praktyce będzie bardzo trudno powiązać konkretne szkodliwe działania systemów SI z konkretnymi danymi wprowadzonymi przez człowieka lub jego decyzjami na etapie projektowania systemu, a nawet będzie to niemożliwe; przypomina, że zgodnie z szeroko stosowanymi koncepcjami odpowiedzialności można mimo wszystko obejść tę przeszkodę, czyniąc odpowiedzialnymi poszczególne osoby w całym łańcuchu wartości, które tworzą, utrzymują lub kontrolują ryzyko związane z systemem SI;
8. uważa, że dyrektywa w sprawie odpowiedzialności za produkty jest od ponad 30 lat skutecznym sposobem uzyskania odszkodowania za szkodę wywołaną przez wadliwy produkt, ale mimo to potrzebny jest jej przegląd w celu dostosowania jej do świata cyfrowego i sprostania wyzwaniom związanym z powstającymi technologiami cyfrowymi, zapewniając tym samym wysoki poziom skutecznej ochrony konsumentów, a także pewność prawa dla konsumentów i przedsiębiorstw przy jednoczesnym unikaniu wysokich kosztów i ryzyka dla MŚP i przedsiębiorstw typu start-up; wzywa Komisję, aby oceniła, czy dyrektywę w sprawie odpowiedzialności za produkty należy przekształcić w rozporządzenie, wyjaśniła definicję „produktów”, określając, czy w zakres jej stosowania wchodzą treści cyfrowe i usługi cyfrowe, oraz rozważyła dostosowanie takich pojęć jak „szkoda”, „wada” i „producent”; jest zdania, że w celu zagwarantowania pewności prawa w całej Unii w następstwie przeglądu dyrektywy w sprawie odpowiedzialności za produkty pojęcie „producenta” powinno obejmować wytwórców, twórców, programistów, usługodawców i operatorów back-end; wzywa Komisję, aby rozważyła uchylenie przepisów dotyczących ciężaru dowodu w odniesieniu do szkód spowodowanych przez pojawiające się technologie cyfrowe w jasno określonych przypadkach i po odpowiedniej ocenie; podkreśla, że należy zadbać o to, by uaktualniony unijny akt nadal ograniczał się do jasno określonych problemów, w przypadku których istnieją już wykonalne rozwiązania, i jednocześnie pozwalał na uwzględnienie przyszłych zmian technologicznych, w tym rozwoju opartego na wolnym i otwartym oprogramowaniu; zauważa, że dyrektywę w sprawie odpowiedzialności za produkty należy nadal stosować w odniesieniu do roszczeń z tytułu odpowiedzialności cywilnej producenta wadliwego systemu SI, jeżeli system taki można uznać za produkt w rozumieniu tej dyrektywy; podkreśla, że wszelkie aktualizacje ram odpowiedzialności za produkt powinny iść w parze z aktualizacją dyrektywy 2001/95/WE Parlamentu Europejskiego i Rady z dnia 3 grudnia 2001 r. w sprawie ogólnego bezpieczeństwa produktów(16), aby mieć pewność, że w systemach SI stosuje się zasady uwzględniania bezpieczeństwa i ochrony już na etapie projektowania;
9. uważa, że obowiązujące w państwach członkowskich prawo deliktów opierające się na winie w większości przypadków przewiduje odpowiedni poziom ochrony osób, które ucierpiały z uwagi na fakt, że strona trzecia, taka jak haker, ingerowała w system, lub które poniosły szkody majątkowe w wyniku działania takiej osoby, ponieważ ingerencja stanowi zazwyczaj zawinione działanie; zauważa, że jedynie w szczególnych przypadkach, w tym kiedy nie można wykryć tej osoby trzeciej lub jest ona niewypłacalna, konieczne wydaje się dodanie przepisów dotyczących odpowiedzialności w celu uzupełnienia istniejącego krajowego prawa deliktów;
10. uważa zatem za stosowne, by w niniejszym sprawozdaniu skupić się na roszczeniach w ramach odpowiedzialności cywilnej operatora systemu SI; potwierdza, że odpowiedzialność operatora można uzasadnić faktem, że kontroluje on ryzyko związane z systemem SI porównywalne z ryzykiem kontrolowanym przez właściciela pojazdu; uważa, że ze względu na złożoność systemów SI oraz ich zdolność do połączeń operator będzie w wielu przypadkach pierwszą, identyfikowalną osobą kontaktową dla poszkodowanego;
Odpowiedzialność operatora
11. stoi na stanowisku, że zasady odpowiedzialności dotyczące operatora powinny obejmować wszelkie działania systemów SI niezależnie od tego, gdzie są one realizowane i czy mają charakter fizyczny czy wirtualny; zauważa, że działania w przestrzeni publicznej, które narażają wiele osób na zagrożenie, wymagają dalszych rozważań; uważa, że potencjalni poszkodowani często nie są świadomi działania systemu i często nie mieliby umów, które dawałyby im prawo do zgłaszania roszczeń wobec operatora; zauważa, że w momencie gdy dojdzie do szkody, osoby takie mogłyby zgłaszać tylko roszczenia na zasadzie winy, a dowiedzenie winy operatora systemu SI mogłoby okazać się trudne i tym samym odpowiednie roszczenia z tytułu odpowiedzialności spełzłyby na niczym;
12. uważa, że pojęcie operatora należy rozumieć jako obejmujące zarówno operator front-end, jak i operator back-end, o ile ten drugi nie jest objęty dyrektywą w sprawie odpowiedzialności za produkty; uważa, że operatora front-end należy zdefiniować jako osobę fizyczną lub prawną, która do pewnego stopnia kontroluje ryzyko związane z obsługą i funkcjonowaniem systemu SI i korzysta z jego działania; stwierdza, że operatora back-end należy zdefiniować jako osobę fizyczną lub prawną, która w sposób ciągły określa cechy technologii, dostarcza dane i podstawowe usługi wsparcia, a zatem sprawuje również pewną kontrolę nad ryzykiem związanym z obsługą i funkcjonowaniem systemu SI; uważa, że sprawowanie kontroli należy rozumieć jako dowolne działanie operatora, które wpływa na działanie systemu SI, a tym samym na zakres, w jakim naraża on osoby trzecie na zagrożenia z nim związane; uważa, że takie działania mogłyby wpływać na działanie systemu SI od początku do końca przez określanie danych wejściowych, wyjściowych lub wyników albo zmieniać konkretne funkcje czy procesy systemu SI;
13. zauważa, że może dojść do sytuacji, w których mamy do czynienia z większą liczbą operatorów, na przykład z operatorem front-end i back-end; uważa, że w takim przypadku wszystkie podmioty powinny ponosić solidarną odpowiedzialność na zasadzie ryzyka, mając przy tym prawo do proporcjonalnego regresu wobec siebie nawzajem; jest zdania, że proporcje odpowiedzialności powinny być ustalane na podstawie odpowiedniego stopnia kontroli operatorów nad ryzykiem związanym z obsługą i funkcjonowaniem systemu SI; uważa, że należy poprawić identyfikowalność produktów , aby móc lepiej wskazywać podmioty zaangażowane na różnych etapach;
Różne zasady odpowiedzialności zależnie od rodzaju ryzyka
14. uznaje, że czynnikiem determinującym odpowiedzialność jest rodzaj systemu SI, nad którym sprawuje kontrolę dany operator; zauważa, że system SI, który z natury wiąże się ze znacznym ryzykiem i działa autonomicznie, potencjalnie zagraża ogółowi społeczeństwa w znacznie większym stopniu; uważa, że w obliczu wyzwań prawnych wynikających ze stosowania systemów SI dla obowiązujących systemów odpowiedzialności cywilnej wydaje się zasadne stworzenie powszechnego surowego systemu odpowiedzialności dla tych autonomicznych systemów SI obarczonych wysokim ryzykiem; podkreśla, że takie podejście oparte na ryzyku, które może obejmować kilka poziomów ryzyka, powinno opierać się na jasnych kryteriach i odpowiedniej definicji wysokiego ryzyka oraz zapewniać pewność prawa;
15. wyraża przekonanie, że system SI stanowi poważne ryzyko, gdy jego autonomiczne działanie wiąże się ze znaczącym potencjałem wyrządzenia szkód jednej osobie lub grupie osób w sposób losowy i wykraczający poza to, czego można zasadnie oczekiwać; wyraża przekonanie, że przy ustalaniu, czy system SI jest obarczony wysokim ryzykiem, pod uwagę należy również wziąć branżę, w której można oczekiwać wystąpienia znacznego ryzyka, a także charakter prowadzonej działalności; wyraża przekonanie, że znaczenie tego potencjału zależy od wzajemnego stosunku między powagą ewentualnej szkody, prawdopodobieństwem zaistnienia szkody i sposobem użycia systemu SI;
16. zaleca, by wszystkie systemy SI obarczone wysokim ryzykiem zostały umieszczone w wyczerpującym załączniku do proponowanego rozporządzenia; biorąc pod uwagę szybki rozwój technologiczny i wymaganą wiedzę w zakresie technologii, Komisja powinna przeprowadzić niezwłocznie przegląd tego załącznika i robić to przynajmniej co sześć miesięcy, a w razie konieczności uaktualnić go w drodze aktu delegowanego; uważa, że Komisja powinna ściśle współpracować z niedawno utworzonym komitetem stałym, podobnym do istniejących już struktur, a mianowicie Stałego Komitetu ds. Prekursorów czy Komitetu Technicznego ds. Pojazdów Silnikowych, które skupiają ekspertów krajowych z państw członkowskich i inne zainteresowane podmioty; uważa, że zrównoważona reprezentacja w grupie ekspertów wysokiego szczebla ds. sztucznej inteligencji może posłużyć za przykład do utworzenia grupy zainteresowanych podmiotów, w skład której wejdą również eksperci w dziedzinie etyki, a także antropolodzy, socjolodzy i specjaliści ds. zdrowia psychicznego; wyraża również opinię, że Parlament Europejski powinien wyznaczyć ekspertów-konsultantów, którzy będą doradzać niedawno ustanowionemu komitetowi stałemu;
17. uważa, że rozwój technologii opartych na SI jest bardzo dynamiczny i stale przyspiesza; podkreśla, że aby zapewnić użytkownikom odpowiednią ochronę, konieczne jest podejście przyspieszone pozwalające analizować pod kątem potencjalnych zagrożeń nowe urządzenia i systemy wykorzystujące systemy SI, które pojawiają się na rynku europejskim; zaleca jak największe uproszczenie wszystkich procedur w tym zakresie; sugeruje ponadto, aby Komisja rozpoczynała ocenę tego, czy system SI stwarza wysokie ryzyko, w tym samym czasie co ocenę bezpieczeństwa produktu, aby zapobiec sytuacji, w której system SI wysokiego ryzyka został już zatwierdzony do obrotu, ale nie został jeszcze sklasyfikowany jako obarczony wysokim ryzykiem i w związku z tym działa bez obowiązkowej ochrony ubezpieczeniowej;
18. uważa, że Komisja powinna ocenić, w jaki sposób dane gromadzone, rejestrowane lub przechowywane w systemach SI wysokiego ryzyka do celów gromadzenia dowodów w przypadku szkody spowodowanej przez ten system SI mogłyby być udostępniane i wykorzystywane przez organ dochodzeniowy oraz w jaki sposób można poprawić identyfikowalność i możliwość kontrolowania takich danych przy jednoczesnym uwzględnianiu praw podstawowych i prawa do prywatności;
19. uważa, że zgodnie z surowymi systemami odpowiedzialności w państwach członkowskich proponowane rozporządzenie powinno obejmować naruszenia istotnych chronionych przepisami praw do życia, zdrowia, nienaruszalności cielesnej i własności oraz powinno wskazywać kwoty i zakres odszkodowania, a także termin przedawnienia roszczeń; jest zdania, że proponowane rozporządzenie powinno również obejmować poważne szkody niematerialne skutkujące możliwą do zweryfikowania stratą ekonomiczną powyżej progu zharmonizowanego w prawie Unii dotyczącym odpowiedzialności, zapewniającym równowagę między dostępem poszkodowanych do wymiaru sprawiedliwości a interesami innych zainteresowanych osób; wzywa Komisję do ponownej oceny i dostosowania progów szkód w prawie Unii; jest zdania, że Komisja powinna dogłębnie przeanalizować tradycje prawne we wszystkich państwach członkowskich oraz obowiązujące w nich przepisy krajowe przyznające rekompensatę za szkody niematerialne, aby ocenić, czy włączenie szkód niematerialnych do aktów ustawodawczych dotyczących SI jest konieczne oraz czy jest ono sprzeczne z obowiązującymi ramami prawnymi Unii lub narusza prawo krajowe państw członkowskich;
20. wskazuje, że wszelkie działania sterowane systemami sztucznej inteligencji, urządzenia czy procesy wykorzystujące te systemy, które powodują szkody, ale nie zostały wymienione w załączniku do proponowanego rozporządzenia powinny nadal być objęte odpowiedzialnością na zasadzie winy; uważa, że poszkodowany powinien mieć jednak prawo do domniemania winy operatora, który powinien mieć możliwość uwolnienia się od odpowiedzialności przez udowodnienie, że wywiązał się z obowiązku staranności;
21. uważa, że system SI, który nie został jeszcze oceniony przez Komisję i nowo utworzony stały komitet, a zatem nie jest jeszcze sklasyfikowany jako system wysokiego ryzyka i nie znajduje się w wykazie zawartym w załączniku do proponowanego rozporządzenia, powinien jednak, w drodze wyjątku od systemu przewidzianego w ust. 20, podlegać odpowiedzialności na zasadzie ryzyka, jeżeli spowodował powtarzające się incydenty skutkujące poważnymi szkodami; zauważa, że w takim przypadku Komisja powinna również bez zbędnej zwłoki ocenić potrzebę zmiany tego załącznika w celu dodania tego systemu SI do wykazu; jest zdania, że jeżeli w wyniku tej oceny Komisja podejmie decyzję o umieszczeniu tego systemu SI w wykazie, włączenie to powinno mieć moc wsteczną od momentu pierwszego udowodnionego incydentu spowodowanego przez ten system SI, w wyniku którego doszło do poważnych szkód;
22. wzywa Komisję, aby oceniła potrzebę wprowadzenia przepisów prawnych na szczeblu Unii dotyczących umów w celu zapobiegania klauzulom o braku odpowiedzialności umownej, w tym w relacjach między przedsiębiorstwami i między przedsiębiorstwami a administracją;
Ubezpieczenia a systemy sztucznej inteligencji
23. uważa, że pokrycie zobowiązań z tytułu odpowiedzialności jest kluczowym czynnikiem, który stanowi o sukcesie nowych technologii, produktów i usług; zauważa, że prawidłowe podejście do odpowiedzialności ma również zasadnicze znaczenie dla zadbania o to, by ogół społeczeństwa mógł zaufać nowym technologiom pomimo faktu, że potencjalnie można w związku z nimi ucierpieć lub też że poszkodowany może wystąpić z roszczeniami; odnotowuje jednocześnie, że ten system regulacyjny skupia się na potrzebie wykorzystania i wzmocnienia korzyści oferowanych przez systemy SI przy jednoczesnym wprowadzeniu solidnych zabezpieczeń;
24. jest zdania, że ze względu na znaczny potencjał spowodowania szkody oraz uwzględniając dyrektywę Parlamentu Europejskiego i Rady 2009/103/WE z dnia 16 września 2009 r. w sprawie ubezpieczenia od odpowiedzialności cywilnej za szkody powstałe w związku z ruchem pojazdów mechanicznych i egzekwowania obowiązku ubezpieczania od takiej odpowiedzialności(17), wszyscy operatorzy systemów SI obarczonych wysokim ryzykiem wymienieni w załączniku do proponowanego rozporządzenia powinni posiadać ubezpieczenie od odpowiedzialności cywilnej; uważa, że taki system obowiązkowych ubezpieczeń dla obarczonych wysokim ryzykiem systemów SI powinien pokrywać odszkodowania w kwocie i zakresie, które wynikają z proponowanego rozporządzeniu; jest świadomy, że taka technologia jest obecnie nadal bardzo rzadka, ponieważ zakłada wysoki stopień autonomicznego podejmowania decyzji, oraz że obecne dyskusje dotyczą głównie przyszłości; uważa jednak, że niepewność dotycząca zagrożeń nie powinna powodować, że składki ubezpieczeniowe będą zbyt wysokie, a tym samym będą stanowić przeszkodę dla badań i innowacji;
25. uważa, że unijny mechanizm odszkodowawczy finansowany ze środków publicznych nie jest właściwym sposobem na usuwanie ewentualnych niedociągnięć systemów ubezpieczeniowych; uważa, że brak danych na temat ryzyka związanego z systemami SI w połączeniu z niepewnością dotyczącą wydarzeń w przyszłości utrudnia sektorowi ubezpieczeń opracowanie dostosowanych lub nowych produktów ubezpieczeniowych; uważa, że pozostawienie opracowania obowiązkowego ubezpieczenia wyłącznie w gestii rynku może doprowadzić do przyjęcia jednego uniwersalnego podejścia charakteryzującego się nieproporcjonalnie wysokimi cenami i niewłaściwymi zachętami, co zachęci operatorów do wybierania najtańszego, a nie najlepszego ubezpieczenia i może stać się przeszkodą dla badań i innowacji; uważa, że Komisja powinna ściśle współpracować z sektorem ubezpieczeń, aby sprawdzić, jak wykorzystać dane i innowacyjne modele do stworzenia polis ubezpieczeniowych oferujących odpowiednią ochronę za przystępną cenę;
Kwestie końcowe
26. zwraca się do Komisji o przedłożenie, na podstawie art. 225 Traktatu o funkcjonowaniu Unii Europejskiej, wniosku dotyczącego rozporządzenia w sprawie odpowiedzialności za działanie systemów sztucznej inteligencji w oparciu o zalecenia przedstawione w załączniku do niniejszej rezolucji;
27. uważa, iż wspomniany wniosek nie pociągnie za sobą skutków finansowych;
o o o
28. zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji oraz zaleceń zawartych w załączniku Komisji i Radzie.
ZAŁĄCZNIK DO REZOLUCJI:
SZCZEGÓŁOWE ZALECENIA DLA PRZYGOTOWUJĄCYCH PROJEKT ROZPORZĄDZENIA PARLAMENTU EUROPEJSKIEGO I RADY WS. ODPOWIEDZIALNOŚCI ZA DZIAŁANIE SYSTEMÓW SZTUCZNEJ INTELIGENCJI
A. ZASADY I CELE WNIOSKU
Niniejsze sprawozdanie dotyczy istotnego aspektu cyfryzacji, którą z kolei kształtują działalność ponadgraniczna, konkurencja na świecie i podstawowe kwestie społeczne. Poniższe zasady powinny służyć jako wytyczne:
1. Rzeczywisty jednolity rynek cyfrowy wymaga pełnego ujednolicenia za pośrednictwem rozporządzenia.
2. Nowymi wyzwaniami prawnymi wynikającymi z rozwoju systemów sztucznej inteligencji należy się zająć przez stworzenie w całym łańcuchu odpowiedzialności, w tym producentom, operatorom, poszkodowanym i innym stronom trzecim, poczucia maksymalnej pewności prawa.
3. Nie powinno się iść w stronę nadmiernego stanowienia prawa i należy zapobiegać biurokracji, gdyż w przeciwnym razie zahamowane zostałoby tworzenie innowacyjnych rozwiązań z użyciem sztucznej inteligencji w Europie, szczególnie w przypadku technologii, produktów czy usług rozwijanych przez MŚP lub przedsiębiorstwa typu start-up.
4. Przepisy dotyczące odpowiedzialności cywilnej za sztuczną inteligencję powinny mieć na celu zapewnienie równowagi między ochroną ogółu społeczeństwa z jednej strony a zachętami dla przedsiębiorstw do inwestowania w innowacje, zwłaszcza w systemy sztucznej inteligencji, z drugiej strony.
5. Zamiast zastępować istniejące już i dobrze funkcjonujące systemy odpowiedzialności powinniśmy dokonać kilku niezbędnych dostosowań, wprowadzając nowe, niedezaktualizujące się rozwiązania.
6. Przyszły wniosek dotyczący rozporządzenia i dyrektywa w sprawie odpowiedzialności za produkty stanowią dwa filary powszechnych ram odpowiedzialności za systemy sztucznej inteligencji i wymagają ścisłej koordynacji i dostosowania między wszystkimi podmiotami politycznymi na szczeblu unijnym i krajowym.
7. Aby zwiększyć zaufanie obywateli do nowej technologii, należy zapewnić im ten sam poziom ochrony i te same prawa niezależnie od tego, czy szkoda została spowodowana przez system sztucznej inteligencji, czy też nie, lub od tego, czy szkoda ma charakter fizyczny czy wirtualny.
8. W przyszłym wniosku dotyczącym rozporządzenia należy uwzględnić zarówno szkody materialne, jak i niematerialne. Na podstawie m.in. komunikatu Komisji z dnia 19 lutego 2020 r. w sprawie wpływu sztucznej inteligencji i robotyki na bezpieczeństwo i odpowiedzialność wzywa się Komisję Europejską do dogłębnego przeanalizowania tradycji prawnych we wszystkich państwach członkowskich, a także obowiązujących przepisów prawnych przyznających odszkodowanie za szkodę niematerialną, aby ocenić, czy włączenie szkody niematerialnej do przyszłego wniosku dotyczącego rozporządzenia jest prawnie uzasadnione i konieczne z punktu widzenia osoby poszkodowanej. W oparciu o obecnie dostępne informacje Parlament uważa, że należy uwzględnić istotną szkodę niematerialną, jeżeli dana osoba poniosła zauważalną, to znaczy możliwą do zweryfikowania, szkodę ekonomiczną.
B. TEKST PROPONOWANEGO WNIOSKU
Wniosek dotyczący
ROZPORZĄDZENIA PARLAMENTU EUROPEJSKIEGO I RADY
w sprawie odpowiedzialności za działanie systemów sztucznej inteligencji
PARLAMENT EUROPEJSKI I RADA UNII EUROPEJSKIEJ,
uwzględniając Traktat o funkcjonowaniu Unii Europejskiej, w szczególności jego art. 114,
uwzględniając wniosek Komisji Europejskiej,
po przekazaniu projektu aktu ustawodawczego parlamentom narodowym,
uwzględniając opinię Europejskiego Komitetu Ekonomiczno-Społecznego(18),
stanowiąc zgodnie ze zwykłą procedurą ustawodawczą(19),
a także mając na uwadze, co następuje:
(1) Pojęcie „odpowiedzialności” odgrywa istotną, ale i dwojaką rolę w naszym codziennym życiu, gdyż – z jednej strony – gwarantuje osobie, która ucierpiała lub poniosła szkody, prawo do wystąpienia z roszczeniem o odszkodowanie od strony odpowiedzialnej za te szkody, zaś – z drugiej strony – stanowi zachętę ekonomiczną, by przede wszystkim unikać wyrządzania szkód. We wszelkich przepisach o odpowiedzialności należy dążyć do wzbudzania zaufania w odniesieniu do bezpieczeństwa, niezawodności i spójności produktów i usług, w tym pojawiających się technologii cyfrowych, takich jak sztuczna inteligencja (SI), internet rzeczy czy robotyka, w celu zapewnienia równowagi między skuteczną ochroną ofiar potencjalnych szkód a jednoczesnym dawaniem wystarczającego pola do manewru, by umożliwić rozwój nowych technologii, produktów i usług.
(2) Szczególnie na początkowych etapach cyklu życia nowych produktów i usług, po wstępnym przetestowaniu, ich użycie wiąże się dla użytkownika i osób postronnych z pewnym poziomem ryzyka, że produkty czy usługi nie zawsze będą prawidłowo funkcjonować. Taki proces prób i błędów jest jednocześnie kluczowym czynnikiem przyczyniającym się do postępu technicznego, bez którego większość towarzyszących nam technologii nie ujrzałaby światła dziennego. Dotychczas ryzyko związane z nowymi produktami i usługami odpowiednio łagodziły surowe przepisy dotyczące bezpieczeństwa produktów oraz zasady odpowiedzialności.
(3) Jednak rozwój SI stanowi znaczące wyzwanie dla istniejących ram odpowiedzialności. Korzystanie z systemów SI w życiu codziennym może prowadzić do sytuacji, w których ich brak przejrzystości („czarna skrzynka”) i mnogość podmiotów ingerujących w ich cykl życia mogą sprawić, że wskazanie, kto kontrolował zagrożenie związane z systemem SI, czy też który kod lub które dane wejściowe ostatecznie wywołały szkodliwe działanie, może okazać się niezmiernie drogie lub nawet niemożliwe. Tę trudność potęgują powiązania między danym systemem SI a innymi systemami, w tym systemami niewykorzystującymi SI, ich zależność od danych zewnętrznych, podatność na naruszenia cyberbezpieczeństwa, jak również coraz większa autonomia systemów SI wynikająca z uczenia się maszyn i możliwości maszyn w zakresie głębokiego uczenia się. Poza tą złożonością i potencjalnym narażeniem na ryzyko systemy SI mogłyby być również wykorzystywane, by spowodować poważne szkody, takie jak narażenie na szwank godności ludzkiej, europejskich wartości i swobód, przez śledzenie obywateli wbrew ich woli, wprowadzenie systemów zaufania społecznego, podejmowanie stronniczych decyzji dotyczących ubezpieczenia zdrowotnego, przyznawania kredytów, wydawania postanowień sądowych lub decyzji dotyczących rekrutacji lub zatrudnienia czy stworzenie śmiercionośnych systemów broni autonomicznej.
(4) Należy zaznaczyć, że korzyści płynące z wdrożenia systemów SI przewyższają znacznie ich wady. Pomogą one skuteczniej walczyć ze zmianą klimatu, usprawnić badania lekarskie i poprawić warunki pracy, lepiej zintegrować osoby z niepełnosprawnością i osoby starsze w społeczeństwie i organizować działania oświatowe dostosowane do każdego typu ucznia. Aby wykorzystać wszystkie możliwości technologiczne i zwiększyć zaufanie obywateli do stosowania systemów SI przy jednoczesnym zapobieganiu negatywnym scenariuszom, najlepszym sposobem postępowania jest przyjęcie stanowczych norm etycznych powiązanych z solidnymi i sprawiedliwymi procedurami odszkodowawczymi.
(5) Aby przeciwdziałać naruszeniom zasad bezpieczeństwa, niezbędny jest także odpowiedni system odpowiedzialności. System odpowiedzialności ustanowiony w niniejszym rozporządzeniu musi jednak uwzględniać wszystkie niezbędne interesy. Dokładna analiza konsekwencji wszelkich nowych ram regulacyjnych dla małych i średnich przedsiębiorstw (MŚP) i przedsiębiorstw typu start-up jest warunkiem wstępnym dalszych działań legislacyjnych. Kluczowa rola, jaką takie przedsiębiorstwa odgrywają w gospodarce europejskiej, uzasadnia podejście ściśle proporcjonalne umożliwiające im rozwój i innowacyjność. Z drugiej strony ofiary szkód spowodowanych przez systemy SI muszą mieć prawo do dochodzenia roszczeń i pełnego odszkodowania za poniesione szkody i krzywdy.
(6) Wszelkie zmiany wymagane w obowiązujących ramach prawnych powinny rozpocząć się od wyjaśnienia, że systemy SI nie mają osobowości prawnej ani sumienia, a ich jedynym zadaniem jest służenie ludzkości. Wiele systemów SI nie różni się znacząco od innych technologii, które czasem opierają się na znacznie bardziej złożonym oprogramowaniu. Ostatecznie zdecydowaną większość systemów SI wykorzystuje się do realizacji trywialnych zadań, a ryzyko dla społeczeństwa jest minimalne lub jest go brak. Dzięki używaniu terminu „zautomatyzowane podejmowanie decyzji” można by uniknąć ewentualnej niejednoznaczności terminu SI. Termin ten opisuje sytuację, w której użytkownik wstępnie przenosi podjęcie decyzji, w części lub w całości, na inny podmiot w drodze oprogramowania lub usługi. Z kolei podmiot ten stosuje modele automatycznego podejmowania decyzji w celu wykonania czynności w imieniu użytkownika lub poinformowania o decyzji użytkownika dotyczącej realizacji działania.
(7) Istnieją jednak systemy SI, które opracowuje się i wdraża w krytyczny sposób i które opierają się na takich technologiach, jak sieci neuronowe i procesy głębokiego uczenia się. Ich możliwości i autonomia mogą sprawić, iż bardzo trudne będzie powiązanie konkretnych ich działań z konkretnymi decyzjami człowieka podjętymi podczas ich projektowania lub działania. Operator takiego systemu SI może na przykład argumentować, że powodujące szkodę fizyczne lub wirtualne działanie, urządzenie czy wywołujący szkodę fizyczny bądź wirtualny proces były poza jego kontrolą, ponieważ szkoda wynikała z autonomicznego działania należącego do niego systemu SI. Ponadto samo działanie autonomicznego systemu SI nie powinno stanowić powodu wystarczającego do przyjęcia na siebie odpowiedzialności w związku z roszczeniem. W konsekwencji możemy mieć do czynienia z przypadkami odpowiedzialności, w których wskazanie odpowiedzialności mogłoby być niesprawiedliwe lub nieskuteczne lub w których osoba poszkodowana przez system SI nie może dowieść winy producenta, ingerującej strony trzeciej czy operatora, a tym samym nie może uzyskać odszkodowania.
(8) Mimo wszystko zawsze powinno być jasne, że ten, kto tworzy, utrzymuje i kontroluje system sztucznej inteligencji i kto ingeruje w jego działanie, powinien być odpowiedzialny za szkody wynikające z działania, funkcjonowania urządzenia czy procesu. Powyższe wynika z ogólnych i szeroko akceptowanych koncepcji odpowiedzialności i sprawiedliwości, zgodnie z którymi osoba, która stwarza lub stanowi zagrożenie dla ogółu społeczeństwa, ponosi odpowiedzialność, gdy zagrożenie takie powoduje szkodę, a zatem powinna zawczasu zminimalizować lub później zrekompensować to ryzyko. W konsekwencji coraz częstsze pojawianie się systemów SI nie wiąże się z potrzebą dogłębnej nowelizacji zasad odpowiedzialności w całej Unii. Konkretne dostosowania do obowiązującego prawodawstwa oraz wprowadzenie dobrze dostępnych i ukierunkowanych nowych przepisów wystarczą, by zająć się wyzwaniami związanymi ze sztuczną inteligencją, w celu zapobieżenia fragmentacji regulacyjnej i zapewnienia harmonizacji prawodawstwa dotyczącego odpowiedzialności cywilnej w całej Unii w związku ze sztuczną inteligencją.
(9) Dyrektywa Rady 85/374/EWG(20) (dyrektywa w sprawie odpowiedzialności za produkty) jest od ponad 30 lat skutecznym sposobem uzyskania odszkodowania za szkodę wywołaną przez wadliwy produkt. Dlatego należy z niej również korzystać w odniesieniu do roszczeń poszkodowanego z tytułu odpowiedzialności cywilnej producenta wadliwego systemu sztucznej inteligencji. Zgodnie z zasadami Unii w zakresie lepszego stanowienia prawa wszelkie konieczne dostosowanie prawodawstwa należy przedyskutować w niezbędnym procesie przeglądu tej dyrektywy. Obowiązujące w państwach członkowskich prawo dotyczące odpowiedzialności opierające się na winie w większości przypadków przewiduje również odpowiedni poziom ochrony osób, które ucierpiały wskutek ingerencji osoby trzeciej w system, ponieważ ingerencja zwyczajowo stanowi zawinione działanie, jeżeli osoba trzecia używa systemu SI do wyrządzenia szkody. W konsekwencji w niniejszym rozporządzeniu należy skupić się na roszczeniach w ramach odpowiedzialności cywilnej operatora systemu SI.
(10) Na mocy niniejszego rozporządzenia odpowiedzialność operatora opiera się na fakcie, że do pewnego stopnia kontroluje on ryzyko związane z działaniem systemu SI, które jest porównywalne z ryzykiem, jakie ponosi właściciel samochodu. W miarę wzrostu zaawansowania i autonomiczności systemu definiowanie algorytmów i wpływanie na nie, na przykład przez ciągłe aktualizacje, ma coraz większe znaczenie. Ponieważ często więcej niż jedna osoba może racjonalnie zostać uznana za „obsługującą“ system SI, na mocy niniejszego rozporządzenia pojęcie „operator” należy rozumieć jako obejmujące zarówno operatora front-end, jak i operatora back-end. Chociaż ogólnie rzecz biorąc operator front-end wydaje się być osobą, która „w pierwszej kolejności“ decyduje o wykorzystaniu systemu SI, operator back-end mógłby w rzeczywistości mieć większą kontrolę nad ryzykiem operacyjnym. Jeżeli operator back-end również zalicza się do definicji „producenta” zgodnie z art. 3 dyrektywy w sprawie odpowiedzialności za produkty, dyrektywa ta powinna mieć do niego zastosowanie. Jeżeli jest tylko jeden operator będący również producentem systemu SI, niniejsze rozporządzenie powinno mieć charakter nadrzędny wobec dyrektywy w sprawie odpowiedzialności za produkty.
(11) Jeżeli użytkownik, a zatem osoba, która korzysta z systemu SI, jest uczestnikiem negatywnego wydarzenia, powinien on w świetle niniejszego rozporządzenia ponosić odpowiedzialność tylko wówczas, gdy można go uznać za operatora. Jeżeli tak nie jest, zakres rażącego zaniedbania lub umyślnego udziału użytkownika w ryzyku może skutkować uznaniem jego odpowiedzialności opartej na winie wobec poszkodowanego. Mające zastosowanie prawa konsumenckie użytkownika powinny pozostać nienaruszone.
(12) Na mocy niniejszego rozporządzenia poszkodowany powinien mieć prawo zgłaszania roszczeń z tytułu odpowiedzialności w całym łańcuchu odpowiedzialności i w całym cyklu życia systemu SI. Niniejsze rozporządzenie powinno zasadniczo odnosić się też do wszystkich systemów SI niezależnie od tego, gdzie działają i czy ich działanie ma charakter fizyczny czy wirtualny. Większość roszczeń z tytułu odpowiedzialności na mocy niniejszego rozporządzenia powinna jednak odnosić się do przypadków odpowiedzialności strony trzeciej, gdy system SI działa w przestrzeni publicznej, a co za tym idzie zagrożonych jest wiele osób. W takiej sytuacji poszkodowani często nie będą świadomi działania systemu SI i nie będą pozostawać w żadnym stosunku prawnym czy umownym z operatorem. W konsekwencji działanie systemu SI stwarza sytuację, w której w przypadku powstania szkód poszkodowani mogą występować z roszczeniami z tytułu odpowiedzialności wyłącznie na zasadzie winy operatora systemu SI, przy czym będą musieli stawić czoła poważnym trudnościom, by dowieść jego winy.
(13) Czynnikiem determinującym jest rodzaj systemu SI, który kontroluje operator. System SI obarczony wysokim ryzykiem jest potencjalnie znacznie groźniejszy dla użytkownika lub społeczeństwa, a zagrożenie występuje w sposób losowy, wykraczając poza to, czego można racjonalnie oczekiwać. Oznacza to, że na początku autonomicznego działania systemu SI nie znamy i nie możemy wskazać większości potencjalnie pokrzywdzonych, np. osób na publicznym placu czy osób w sąsiednim budynku, w porównaniu z działaniem systemu SI przeznaczonego dla konkretnych osób, które wcześniej regularnie zgadzały się na jego zastosowanie, np. operacja chirurgiczna w szpitalu czy pokaz produktu w małym sklepie. Określenie, z jakim prawdopodobieństwem systemy SI obciążone wysokim ryzykiem mogą spowodować szkody, zależy od wzajemnych powiązań między celem zastosowania, dla którego system SI jest wprowadzany do obrotu, sposobem wykorzystania systemu SI, powagą ewentualnych szkód, stopniem autonomiczności w podejmowaniu decyzji, które mogą spowodować szkodę, a prawdopodobieństwem, że zagrożenie rzeczywiście wystąpi. Stopień powagi szkody należy określić w oparciu o odpowiednie wskaźniki takie jak zakres potencjalnej szkody wynikającej z działania systemu względem poszkodowanych osób, w tym zwłaszcza wpływ na prawa podstawowe, liczbę poszkodowanych, całkowitą wartość potencjalnych szkód, jak również szkody dla ogółu społeczeństwa. Prawdopodobieństwo wystąpienia szkody należy określać w oparciu o odpowiednie wskaźniki takie jak rola obliczeń algorytmicznych w procesie podejmowania decyzji, złożoność decyzji i odwracalność jej skutków. Ponadto sposób wykorzystania powinien zależeć od odpowiednich wskaźników takich jak kontekst i branża, w której działa system SI, od tego, czy system ten może mieć prawny lub faktyczny wpływ na istotne, prawnie chronione prawa poszkodowanego oraz od tego, czy skutków jego działania można uniknąć przy zastosowaniu rozsądnych środków.
(14) Wszystkie obarczone wysokim ryzykiem systemy SI należy umieścić w wyczerpującym wykazie załącznika do niniejszego rozporządzenia. Biorąc pod uwagę szybki rozwój technologii i rynku, jak również wiedzę techniczną wymaganą, by adekwatnie przeanalizować systemy SI, należy powierzyć Komisji uprawnienia do przyjmowania aktów delegowanych zgodnie z art. 290 Traktatu o funkcjonowaniu Unii Europejskiej w celu zmiany niniejszego rozporządzenia w odniesieniu do rodzajów systemów SI, które stanowią poważne zagrożenie i do istotnych branż, w których systemy te są wykorzystywane. W oparciu o definicje i przepisy określone w niniejszym rozporządzeniu Komisja powinna niezwłocznie przeprowadzić przegląd załącznika i robić to przynajmniej co sześć miesięcy, a w razie konieczności wprowadzać zmiany w drodze aktów delegowanych. Komisja powinna rozpoczynać ocenę tego, czy system SI stwarza poważne zagrożenie, w tym samym czasie co ocenę bezpieczeństwa produktu, aby zapobiec sytuacji, w której system SI wysokiego ryzyka został już zatwierdzony do obrotu, ale nie został jeszcze sklasyfikowany jako stwarzający poważne zagrożenie i w związku z tym działa bez obowiązkowej ochrony ubezpieczeniowej. Aby dać przedsiębiorcom i organizacjom badawczym poczucie pewności w planowaniu i inwestycjach, zmiany w wykazie branż o zasadniczym znaczeniu należy wprowadzać jedynie co dwanaście miesięcy. Należy wezwać operatorów, by powiadamiali Komisję, jeżeli pracują nad nową technologią, nowym produktem czy nową usługą, które miałyby być wykorzystywane w jednej z branż o zasadniczym znaczeniu, o których mowa w załączniku, i które mogłyby się później kwalifikować do kategorii systemów SI obarczonych wysokim ryzykiem.
(15) Szczególnie ważne jest, aby w czasie prac przygotowawczych Komisja prowadziła należyte konsultacje z odpowiednimi zainteresowanymi stronami, w tym na poziomie ekspertów, oraz aby konsultacje te prowadzone były zgodnie z zasadami określonymi w Porozumieniu międzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa(21). Stały Komitet Techniczny ds. Obarczonych Wysokim Ryzykiem Systemów Sztucznej Inteligencji (ang. TCRAI) powinien wspierać Komisję w regularnym przeglądzie niniejszego rozporządzenia. W skład tego komitetu stałego powinni wchodzić przedstawiciele państw członkowskich oraz zainteresowane podmioty dobrane na zasadzie zrównoważonej reprezentacji, w tym organizacje konsumenckie, stowarzyszenia reprezentujące poszkodowanych, przedstawiciele przedsiębiorstw różnej wielkości i z różnych branż, badacze i naukowcy. W szczególności aby zapewnić Parlamentowi Europejskiemu i Radzie udział na równych zasadach w przygotowaniu aktów delegowanych, instytucje te otrzymują wszelkie dokumenty w tym samym czasie co eksperci państw członkowskich, a eksperci tych instytucji mogą regularnie brać udział w posiedzeniach grup eksperckich Komisji, w tym komitetu TCRAI, zajmujących się przygotowaniem aktów delegowanych.
(16) Niniejsze rozporządzenie powinno obejmować szkody powodujące śmierć, uszczerbek na zdrowiu, integralności cielesnej i własności oraz poważne szkody niematerialne skutkujące możliwą do zweryfikowania stratą ekonomiczną powyżej progu zharmonizowanego w prawie Unii dotyczącym odpowiedzialności, zapewniającym równowagę między dostępem poszkodowanych do wymiaru sprawiedliwości a interesami innych zainteresowanych osób. Komisja powinna ponownie ocenić i dostosować progi szkód w prawie Unii. Poważną szkodę niematerialną należy rozumieć jako szkodę, w wyniku której poszkodowany doznał znacznej krzywdy, obiektywnego i dającego się udowodnić naruszenia jego osobistych interesów oraz straty ekonomicznej obliczonej z uwzględnieniem, na przykład, średnich rocznych dochodów z przeszłych dochodów i innych istotnych okoliczności. W niniejszym rozporządzeniu należy również określić kwotę i zakres odszkodowania, jak również okres przedawnienia, po upływie którego nie można już wnosić roszczeń z tytułu odpowiedzialności. W niniejszym rozporządzeniu należy ustanowić znacząco niższy pułap odszkodowań niż w dyrektywie w sprawie odpowiedzialności za produkty, gdyż odnosi się ono wyłącznie do szkody poniesionej przez pojedynczą osobę i wynikającej z jednostkowego działania systemu SI, natomiast dyrektywa odnosi się do szeregu produktów lub nawet całej linii produktów z tą samą wadą.
(17) Wszelkie fizyczne bądź wirtualne działania, urządzenia czy procesy sterowane systemem SI, które nie zostały wymienione jako obarczone wysokim ryzykiem w załączniku do niniejszego rozporządzenia, powinny być nadal objęte odpowiedzialnością na zasadzie winy, chyba że w mocy są surowsze przepisy krajowe i prawodawstwo w zakresie ochrony konsumentów. Prawo krajowe państw członkowskich, w tym wszelkie odnośne orzecznictwo, odnoszące się do kwoty i zakresu odszkodowania, jak również do okresu przedawnienia powinno mieć nadal zastosowanie. Osoba poszkodowana w wyniku działania systemu SI, który nie został wymieniony jako obarczony wysokim ryzykiem, powinna korzystać z domniemania winy operatora.
(18) Staranność, której można oczekiwać od operatora, powinna być współmierna do (i) charakteru systemu SI; (ii) chronionego prawem uprawnienia, które może zostać naruszone; (iii) potencjalnej szkody, jaką mógłby spowodować system SI, oraz (iv) prawdopodobieństwa wystąpienia takiej szkody. Należy przy tym wziąć pod uwagę, że operator może mieć ograniczoną wiedzę na temat algorytmów i danych wykorzystywanych w systemie SI. Należy założyć, że zgodnie z rozsądnymi oczekiwaniami operator dołożył należytej staranności, wybierając odpowiedni system SI, jeżeli wybrał system SI, dla którego uzyskano certyfikat w systemie podobnym do systemu dobrowolnej certyfikacji przewidzianego przez Komisję(22). Należy założyć, że zgodnie z rozsądnymi oczekiwaniami operator dochował należytej staranności podczas wykorzystywania systemu SI, jeżeli może dowieść, że rzeczywiście i regularnie monitorował system SI w trakcie jego działania i powiadomił jego wytwórcę o potencjalnych nieprawidłowościach podczas działania systemu. Należy założyć, że zgodnie z rozsądnymi oczekiwaniami operator dołożył należytej staranności w odniesieniu do utrzymania niezawodności operacyjnej systemu, jeżeli zainstalował wszelkie dostępne aktualizacje przekazane przez producenta systemu SI. Ponieważ poziom złożoności operatorów może się różnić w zależności od tego, czy są oni jedynie konsumentami czy specjalistami, należy odpowiednio dostosować obowiązki w zakresie staranności.
(19) Aby umożliwić operatorowi udowodnienie, że nie ponosi winy za nieprawidłowości, lub osobie poszkodowanej udowodnienie istnienia nieprawidłowości, producenci powinni być zobowiązani do współpracy z obiema zainteresowanymi stronami, w tym do udzielania dobrze udokumentowanych informacji. Zarówno producenci z siedzibą w Unii, jak i poza nią powinni mieć ponadto obowiązek wyznaczenia przedstawiciela ds. odpowiedzialności w zakresie sztucznej inteligencji na terenie UE jako punktu kontaktowego, który będzie odpowiadał na wszelkie pytania operatorów, podobnie jak inspektor ochrony danych, o którym mowa w art. rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679(23), przedstawiciel producenta, o którym mowa w art. 3 ust. 41 i art. 13 ust. 4 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/858(24), czy upoważniony przedstawiciel, o którym mowa w art. 4 ust. 2 i art. 5 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/1020(25).
(20) Prawodawca musi rozważyć ryzyko odpowiedzialności związanej z systemami sztucznej inteligencji w całym cyklu ich życia, od ich opracowania przez wykorzystanie do końca ich użytkowania, w tym zarządzania odpadami i recyklingiem. Wykorzystanie systemów SI w produkcie lub usłudze pociąga za sobą ryzyko finansowe dla przedsiębiorstw i w konsekwencji będzie mieć poważny wpływ na możliwości i wybory MŚP i przedsiębiorstw typu start-up w odniesieniu do ubezpieczania i finansowania swoich projektów badawczych i rozwojowych opierających się na nowych technologiach. Dlatego celem odpowiedzialności nie jest jedynie zadbanie o możliwość korzystania z istotnych praw chronionych prawem, ale również ustalenie, czy przedsiębiorstwa – przede wszystkim MŚP i przedsiębiorstwa typu start-up – są w stanie zgromadzić odpowiedni kapitał, pójść w stronę innowacji, prowadzić badania, a ostatecznie oferować nowe produkty i usługi, jak również czy klienci chcą z nich korzystać pomimo potencjalnych zagrożeń i narażenia się na ewentualne roszczenia w związku z takimi produktami lub usługami.
(21) Ubezpieczenie może być pomocne w zagwarantowaniu, by ofiary otrzymywały skuteczne odszkodowanie i by łączyć ryzyko wszystkich ubezpieczonych. Jednym z czynników, na których firmy ubezpieczeniowe opierają swoją ofertę produktów i usług ubezpieczeniowych, jest ocena ryzyka oparta na dostępie do dostatecznie obszernych danych historycznych w zakresie roszczeń. Brak dostępu do danych wysokiej jakości lub ich niewystarczająca ilość może być powodem początkowych trudności w tworzeniu produktów ubezpieczeniowych dla nowych, rozwijających się dopiero technologii. Jednak większy dostęp do danych wytwarzanych przy użyciu nowych technologii i zoptymalizowanie ich wykorzystania w połączeniu z obowiązkiem dostarczania dobrze udokumentowanych informacji poprawiłyby możliwości ubezpieczycieli w zakresie tworzenia modeli opartych na nowych zagrożeniach oraz tworzenia bardziej innowacyjnych polis ubezpieczeniowych.
(22) Biorąc pod uwagę brak historycznych danych dotyczących roszczeń, należy zbadać, w jaki sposób i na jakich warunkach można ubezpieczać odpowiedzialność w celu powiązania ubezpieczenia z produktem, a nie z osobą odpowiedzialną. Istnieją już produkty ubezpieczeniowe, które są tworzone dla poszczególnych obszarów i w ramach różnych polis w miarę rozwoju technologii. Wielu ubezpieczycieli specjalizuje się w pewnych segmentach rynku (np. MŚP) lub w sprzedaży polis dla pewnego typu produktów (np. sprzęt elektryczny), co oznacza, że zazwyczaj ubezpieczony będzie w stanie znaleźć odpowiadający mu produkt ubezpieczeniowy. Trudno jest jednak wyobrazić sobie rozwiązanie uniwersalne, a rynek ubezpieczeniowy będzie potrzebował czasu na dostosowanie się. Komisja powinna ściśle współpracować z rynkiem ubezpieczeniowym w celu stworzenia innowacyjnych produktów ubezpieczeniowych, które mogłyby zlikwidować lukę ubezpieczeniową. W wyjątkowych przypadkach, takich jak wydarzenia wiążące się z powstaniem szkód zbiorowych, w których odszkodowanie znacznie przewyższa kwoty maksymalne ustalone w niniejszym rozporządzeniu, należy zachęcać państwa członkowskie do utworzenia na ograniczony czas specjalnego funduszu odszkodowawczego, który pozwoli zająć się konkretnymi potrzebami w takich przypadkach. Można by również utworzyć specjalne fundusze kompensacyjne w celu pokrycia tych wyjątkowych przypadków, w których system SI, który nie jest jeszcze sklasyfikowany jako system SI obarczony wysokim ryzykiem i w związku z tym nie jest jeszcze ubezpieczony, powoduje szkodę. Aby zagwarantować pewność prawa i wywiązać się z obowiązku informowania wszystkich potencjalnie poszkodowanych, istnienie specjalnego funduszu kompensacyjnego oraz warunki korzystania z niego należy podać do wiadomości publicznej w jasny i kompleksowy sposób.
(23) Jest niezwykle istotne, by wszelkie dalsze zmiany w niniejszym rozporządzeniu były zbieżne z koniecznym przeglądem dyrektywy w sprawie odpowiedzialności za produkty z myślą o dokonaniu kompleksowego i spójnego przeglądu oraz o zagwarantowaniu praw i obowiązków wszystkich zainteresowanych stron w całym łańcuchu odpowiedzialności. Wprowadzenie nowego systemu odpowiedzialności operatora systemów SI wymaga ścisłej koordynacji przepisów niniejszego rozporządzenia i przeglądu dyrektywy w sprawie odpowiedzialności za produkty pod względem treści i podejścia, tak by mogły one wspólnie stanowić spójne ramy odpowiedzialności za systemy SI – ramy, które równoważą interesy producenta, operatora, konsumenta i poszkodowanego w odniesieniu do ryzyka bycia pociągniętym do odpowiedzialności i stosownych form odszkodowania. Konieczne jest zatem dostosowanie i uproszczenie definicji systemu SI, operatora front-end, operatora back-end, producenta, wadliwego działania, produktu i usługi we wszystkich aktach prawnych i należy je przewidzieć równolegle.
(24) Ponieważ celem niniejszego rozporządzenia jest opracowanie przyszłościowego i jednolitego podejścia na poziomie Unii, które wyznacza wspólne europejskie normy dla europejskich obywateli i przedsiębiorstw, aby zadbać o spójny charakter praw i pewność prawa w całej Unii, aby uniknąć fragmentaryzacji jednolitego rynku cyfrowego, która położyłaby się cieniem na osiągnięciu celu utrzymania suwerenności cyfrowej, pobudzania innowacji cyfrowych w Europie i zapewnienia wysokiego poziomu ochrony obywateli i praw konsumentów, niezbędna jest pełna harmonizacja systemów odpowiedzialności za systemy SI. Państwa członkowskie nie są w stanie zrealizować tego celu w dostatecznym stopniu z uwagi na szybko postępujące zmiany technologiczne, ponadgraniczny rozwój, jak również ponadgraniczne wykorzystanie systemów SI, a ostatecznie sprzeczne podejścia legislacyjne w Unii. W związku z tym należałoby raczej skorzystać z efektu skali i zrealizować ten cel na poziomie UE. Unia może zatem przyjąć środki zgodnie z zasadą pomocniczości określoną w art. 5 Traktatu o Unii Europejskiej. Zgodnie z zasadą proporcjonalności, określoną w tym artykule, niniejsze rozporządzenie nie wykracza poza to, co jest konieczne do osiągnięcia tych celów.
PRZYJMUJĄ NINIEJSZE ROZPORZĄDZENIE:
Rozdział I
Przepisy ogólne
Artykuł 1
Przedmiot
Niniejsze rozporządzenie określa zasady wnoszenia roszczeń z tytułu odpowiedzialności cywilnej przez osoby fizyczne i prawne wobec operatorów systemów sztucznej inteligencji.
Artykuł 2
Zakres stosowania
1. Niniejsze rozporządzenie ma zastosowanie na terytorium Unii, gdzie fizyczne bądź wirtualne działanie systemu sztucznej inteligencji, działanie urządzenia wykorzystującego taki system lub fizyczny bądź wirtualny proces oparty na takim systemie pozbawia życia osoby fizyczne, powoduje uszczerbek na ich zdrowiu i okalecza je, powoduje szkody majątkowe u osób fizycznych bądź prawnych lub powoduje poważne szkody niematerialne skutkujące możliwą do zweryfikowania stratą ekonomiczną.
2. Wszelkie umowy między operatorem systemu sztucznej inteligencji a osobą fizyczną bądź prawną poszkodowaną z uwagi na działanie tego systemu, które obchodzą bądź ograniczają prawa i obowiązki przewidziane w niniejszym rozporządzeniu, zawarte przed wystąpieniem szkody lub później, są uznawane za nieważne w odniesieniu do praw i obowiązków przewidzianych w niniejszym rozporządzeniu.
3. Niniejsze rozporządzenie nie narusza prawa do dodatkowych roszczeń z tytułu odpowiedzialności, wynikających ze stosunków umownych oraz regulacji dotyczących odpowiedzialności za produkt, ochrony konsumentów, niedyskryminacji, ochrony pracy i środowiska między operatorem a osobą fizyczną lub prawną poszkodowaną w wyniku działania systemu sztucznej inteligencji, które to roszczenia mogą zostać zgłoszone wobec operatora na mocy prawa unijnego lub krajowego.
Artykuł 3
Definicje
Do celów niniejszego rozporządzenia stosuje się następujące definicje:
a) „system sztucznej inteligencji” oznacza system, który opiera się na oprogramowaniu albo jest wbudowany w urządzenia, wykazuje się zachowaniem symulującym inteligencję m.in. w oparciu o gromadzenie i przetwarzanie danych, analizowanie i wyciąganie wniosków dotyczących otoczenia oraz podejmuje działania w pewnym stopniu autonomicznie, aby osiągnąć konkretne cele;
b) „autonomiczny” oznacza system sztucznej inteligencji, który działa na podstawie interpretacji określonych danych wejściowych i wykorzystuje zestaw wcześniej zdefiniowanych instrukcji, lecz nie jest do tych instrukcji ograniczony, mimo że zachowanie systemu jest ograniczone celem, który mu postawiono, ukierunkowane na jego osiągnięcie i uwarunkowane innymi odnośnymi wyborami twórcy systemu;
c) „wysokie ryzyko” oznacza znaczącą potencjalną możliwość wyrządzenia przez autonomicznie działający system sztucznej inteligencji losowo występujących szkód jednej osobie lub większej liczbie osób w taki sposób, że wykracza to poza okoliczności, jakich można by racjonalnie oczekiwać; znaczenie tego potencjału zależy od wzajemnego powiązania między powagą ewentualnej szkody, stopniem autonomiczności w podejmowaniu decyzji, prawdopodobieństwem, że zagrożenie rzeczywiście wystąpi, oraz sposobem i kontekstem użycia systemu sztucznej inteligencji;
d) „operator” oznacza zarówno operatora front-end, jak i operatora back-end, o ile odpowiedzialność tego drugiego nie jest już objęta dyrektywą 85/374/EWG;
e) „operator front-end” oznacza osobę fizyczną lub prawną, która do pewnego stopnia kontroluje ryzyko związane z działaniem systemu sztucznej inteligencji i czerpie korzyści z jego działania;
f) „operator back-end” oznacza osobę fizyczną lub prawną, która w sposób ciągły określa cechy technologii, dostarcza dane i podstawowe usługi wsparcia, a zatem też sprawuje pewną kontrolę nad ryzykiem związanym z działaniem systemu SI;
g) „kontrola” oznacza każde działanie operatora, które wpływa na działanie systemu sztucznej inteligencji, a tym samym na zakres, w jakim operator naraża osoby trzecie na potencjalne ryzyko związane z działaniem systemu sztucznej inteligencji; takie działania mogą wpływać na funkcjonowanie na dowolnym etapie poprzez określanie danych wejściowych, wyjściowych lub wyników albo zmieniać konkretne funkcje czy procesy w systemie sztucznej inteligencji; stopień, w jakim są determinowane te aspekty funkcjonowania systemu sztucznej inteligencji, zależy od poziomu wpływu operatora na ryzyko związane z działaniem systemu sztucznej inteligencji;
h) „poszkodowany” oznacza dowolną osobę, która ucierpiała lub odniosła szkodę na skutek fizycznego lub wirtualnego działania, urządzenia lub procesu wykorzystującego system sztucznej inteligencji, a która nie jest jednocześnie operatorem;
i) „szkoda” oznacza negatywny wpływ na życie, zdrowie i nienaruszalność cielesną osoby fizycznej, na własność osoby fizycznej lub prawnej albo negatywny wpływ powodujący poważną szkodę niematerialną skutkującą możliwą do zweryfikowania stratą ekonomiczną;
j) „producent” oznacza producenta w rozumieniu art. 3 dyrektywy 85/374/EWG.
Rozdział II
Systemy sztucznej inteligencji obarczone wysokim ryzykiem
Artykuł 4
Odpowiedzialność na zasadzie ryzyka dla systemów sztucznej inteligencji obarczonych wysokim ryzykiem
1. Operator systemu sztucznej inteligencji obarczonego wysokim ryzykiem odpowiada na zasadzie ryzyka za wszelkie szkody spowodowane przez fizyczne bądź wirtualne działanie, fizyczne bądź wirtualne działanie urządzenia lub fizyczny bądź wirtualny proces z wykorzystaniem systemu sztucznej inteligencji.
2. Wszystkie systemy sztucznej inteligencji obarczone wysokim ryzykiem oraz wszystkie istotne branże, w których systemy te są wykorzystywane, umieszcza się w wykazie załącznika do niniejszego rozporządzenia. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 13, aby uaktualnić ten wyczerpujący wykaz przez:
a) uwzględnienie nowych rodzajów systemów sztucznej inteligencji obarczonych wysokim ryzykiem oraz istotnych branż, w których są one stosowane;
b) usunięcie tych rodzajów systemów sztucznej inteligencji, których nie można dłużej uważać za stwarzające poważne zagrożenia i/lub
c) zmianę listy istotnych branż, w których stosowane są obecnie systemy sztucznej inteligencji.
Akty delegowane nowelizujące załącznik wchodzą w życie sześć miesięcy po ich przyjęciu. Podczas określania nowych systemów sztucznej inteligencji obarczonych wysokim ryzykiem i/lub istotnych branż, które mają zostać dodane do wykazu załącznika w drodze aktu delegowanego, Komisja bierze pod uwagę kryteria przewidziane w niniejszym rozporządzeniu, a w szczególności w art. 3 lit. c).
3. Operatorzy systemów sztucznej inteligencji obarczonych wysokim ryzykiem nie mogą uniknąć odpowiedzialności, twierdząc, że działali z należytą starannością lub że szkodę spowodowało autonomiczne działanie, urządzenie lub proces sterowany przez należący do nich system sztucznej inteligencji. Operatorzy nie ponoszą odpowiedzialności za szkody spowodowane działaniem siły wyższej.
4. Operator front-end systemu sztucznej inteligencji obarczonego wysokim ryzykiem dopilnowuje, aby działanie systemu sztucznej inteligencji było objęte ubezpieczeniem od odpowiedzialności, które będzie adekwatne pod względem kwoty i zakresu odszkodowania przewidzianych w art. 5 i 6 niniejszego rozporządzenia. Operator back-end dopilnowuje, aby jego usługi były objęte ubezpieczeniem od odpowiedzialności za działalność lub produkt, które będzie adekwatne pod względem kwoty i zakresu odszkodowania przewidzianych w art. 5 i 6 niniejszego rozporządzenia. Jeżeli uznaje się, że obowiązkowe systemy ubezpieczeniowe operatora front-end lub operatora back-end obowiązujące już na mocy innych przepisów krajowych lub unijnych albo dobrowolne korporacyjne fundusze ubezpieczeniowe obejmują działanie systemu sztucznej inteligencji lub świadczoną usługę, obowiązek ubezpieczenia systemu sztucznej inteligencji lub świadczonej usługi zgodnie z niniejszym rozporządzeniem uznaje się za spełniony, jeżeli wspomniane istniejące obowiązkowe ubezpieczenie lub dobrowolne korporacyjne fundusze ubezpieczeniowe pokrywają kwoty i zakres odszkodowania, o których mowa w art. 5 i 6 niniejszego rozporządzenia.
5. Niniejsze rozporządzenie ma charakter nadrzędny wobec krajowych systemów odpowiedzialności w przypadku sprzecznej klasyfikacji systemów sztucznej inteligencji jako objętych odpowiedzialnością na zasadzie ryzyka.
Artykuł 5
Kwota odszkodowania
1. Operator systemu sztucznej inteligencji obarczonego wysokim ryzykiem którego – na mocy niniejszego rozporządzenia – pociągnięto do odpowiedzialności za szkody wypłaca odszkodowanie:
a) do maksymalnej kwoty dwóch milionów euro w przypadku śmierci, uszczerbku na zdrowiu lub okaleczenia osoby w wyniku działania systemu sztucznej inteligencji obarczonego wysokim ryzykiem;
b) do maksymalnej kwoty jednego miliona euro w przypadku poważnej szkody niematerialnej skutkującej możliwą do zweryfikowania stratą ekonomiczną lub szkody majątkowej, w tym zniszczenia kilku przedmiotów należących do poszkodowanego w wyniku pojedynczego działania jednego systemu sztucznej inteligencji obarczonego wysokim ryzykiem; jeżeli na mocy zawartej umowy poszkodowany ma również prawo do wystąpienia z roszczeniem w stosunku do operatora, zgodnie z niniejszym rozporządzeniem nie wypłaca się odszkodowania, jeżeli całkowita wartość zniszczonego mienia lub poważnej szkody niematerialnej nie przekracza [500 EUR](26).
2. W przypadku gdy łączne odszkodowanie, które ma zostać wypłacone kilku osobom poszkodowanym w wyniku tego samego działania tego samego systemu sztucznej inteligencji obarczonego wysokim ryzykiem, przekracza maksymalne kwoty całkowite przewidziane w ust. 1, kwoty wypłacane każdej z osób zostaną proporcjonalnie zmniejszone, tak by łączna kwota odszkodowania nie przekroczyła maksymalnej kwoty przewidzianej w ust. 1.
Artykuł 6
Zakres odszkodowania
1. Odszkodowanie, które ma zostać wypłacone przez operatora odpowiedzialnego za okaleczenie skutkujące śmiercią poszkodowanego, jest wyliczane – w ramach kwoty przewidzianej w art. 5 ust. 1 lit. a) – w oparciu o koszty leczenia, które poszkodowany poniósł przed śmiercią, oraz o szkody majątkowe poniesione przed śmiercią w związku z zaprzestaniem lub ograniczeniem możliwości zarobkowania lub wzrostem potrzeb w związku ze szkodami poniesionymi przed śmiercią. Pociągnięty do odpowiedzialności operator powinien poza tym zwrócić koszty pochówku poszkodowanego stronie, która poniosła te wydatki.
Jeżeli w momencie zajścia, które spowodowało szkody, a w konsekwencji doprowadziło do śmierci, poszkodowany pozostawał w związku ze stroną trzecią i był prawnie zobowiązany do jej utrzymywania, odpowiedzialny operator łoży na utrzymanie tej strony trzeciej w zakresie, w którym do ponoszenia tych kosztów byłby zobowiązany poszkodowany, przez okres odpowiadający średniej długości życia osoby w tym wieku i w podobnym stanie. Operator pokrywa również koszty utrzymania strony trzeciej, jeżeli w momencie zdarzenia została ona już poczęta, ale jeszcze się nie narodziła.
2. Odszkodowanie, które ma zostać wypłacone przez operatora odpowiedzialnego za uszczerbek na zdrowiu lub okaleczenie poszkodowanego, obejmuje – w ramach kwoty przewidzianej w art. 5 ust. 1 lit. b) – zwrot kosztów związanego ze szkodą leczenia, jak również zwrot kosztów szkód materialnych, które poszkodowany poniósł w wyniku czasowego zawieszenia, ograniczenia lub całkowitego ustania możliwości zarobkowania lub wynikającego z poniesionych szkód, potwierdzonego orzeczeniem lekarskim wzrostu potrzeb.
Artykuł 7
Okres przedawnienia
1. Do roszczeń z tytułu odpowiedzialności cywilnej, wniesionych zgodnie z postanowieniami art. 4 ust. 1, dotyczących śmierci, uszczerbku na zdrowiu lub kalectwa zastosowanie ma specjalny okres przedawnienia o długości 30 lat od daty powstania szkody.
2. Do roszczeń z tytułu odpowiedzialności cywilnej, wniesionych zgodnie z postanowieniami art. 4 ust. 1, dotyczących szkód majątkowych lub poważnych szkód niematerialnych skutkujących możliwą do zweryfikowania stratą ekonomiczną zastosowanie ma specjalny okres przedawnienia o długości:
a) 10 lat od daty powstania szkody majątkowej lub możliwej do zweryfikowania straty ekonomicznej wynikającej z poważnej szkody niematerialnej albo
b) 30 lat od daty przeprowadzenia operacji z wykorzystaniem systemu sztucznej inteligencji obarczonego wysokim ryzykiem, która doprowadziła do zniszczenia własności poszkodowanego lub do poważnej szkody niematerialnej.
Spośród okresów przedawnienia, o których mowa w ust. 1, zastosowanie ma ten, który kończy się jako pierwszy.
3. Niniejszy artykuł nie narusza postanowień prawa krajowego w odniesieniu do zawieszenia lub przerwania okresu przedawnienia.
Rozdział III
Inne systemy sztucznej inteligencji
Artykuł 8
Odpowiedzialność na zasadzie winy za inne systemy sztucznej inteligencji
1. Operator systemu sztucznej inteligencji, który nie jest systemem obarczonym wysokim ryzykiem na podstawie art. 3 lit. c) i art. 4 ust. 2 i w konsekwencji nie został umieszczony w wykazie załącznika do niniejszego rozporządzenia, może być pociągnięty do odpowiedzialności na zasadzie winy za wszelkie szkody spowodowane przez fizyczne bądź wirtualne działanie tego systemu sztucznej inteligencji, działanie urządzenia sterowanego tym systemem lub wskutek procesu opartego na tym systemie.
2. Operator nie ponosi odpowiedzialności, jeżeli może dowieść, że szkody powstały nie z jego winy, przy czym może skorzystać z następujących uzasadnień:
a) system sztucznej inteligencji został uruchomiony bez jego zgody, a jednocześnie podjęto wszelkie rozsądne i niezbędne środki, by uniknąć takiego uruchomienia poza kontrolą operatora lub
b) dochowano należytej staranności przez wykonanie wszystkich poniższych działań: dobierając odpowiedni system sztucznej inteligencji do danego zadania i umiejętności, uruchamiając go odpowiednio, nadzorując działanie i utrzymując go w dobrym stanie poprzez regularną instalację dostępnych aktualizacji.
Operator nie może uniknąć odpowiedzialności, stwierdzając, że szkoda została spowodowana autonomicznym działaniem systemu sztucznej inteligencji, autonomicznym działaniem urządzenia sterowanego takim systemem lub wskutek procesu opartego na takim systemie. Operator nie odpowiada za szkody spowodowane działaniem siły wyższej.
3. Operator odpowiada mimo wszystko za wypłatę odszkodowania, jeżeli szkoda została spowodowana przez stronę trzecią, która zaingerowała w działanie systemu sztucznej inteligencji przez modyfikację jego funkcjonowania lub skutków, ale nie można ustalić miejsca jej pobytu lub jest ona niewypłacalna.
4. Na wniosek operatora lub poszkodowanego producent systemu sztucznej inteligencji ma obowiązek współpracować z nimi i udzielać im informacji w zakresie uzasadnionym powagą roszczenia, aby umożliwić określenie odpowiedzialności.
Artykuł 9
Przepisy krajowe w zakresie odszkodowań i okresu przedawnienia
Pod względem okresu przedawnienia, jak również kwot i zakresu odszkodowania roszczenia z tytułu odpowiedzialności cywilnej wniesione na mocy postanowień art. 8 ust. 1 są regulowane przepisami państwa członkowskiego, w którym powstała szkoda.
Rozdział IV
Podział odpowiedzialności
Artykuł 10
Zaniedbanie wspólne
1. Jeżeli szkoda powstała zarówno przez fizyczne bądź wirtualne działanie systemu sztucznej inteligencji, działanie urządzenia sterowanego takim systemem lub wskutek procesu opartego na takim systemie i wskutek działań podjętych przez poszkodowanego lub dowolną osobę, za której działania poszkodowany odpowiada, na mocy niniejszego rozporządzenia należy odpowiednio zmniejszyć zakres odpowiedzialności operatora. Operator nie ponosi odpowiedzialności, jeżeli za powstałą szkodę odpowiada wyłącznie poszkodowany lub osoba, za którą on odpowiada.
2. Pociągnięty do odpowiedzialności operator może korzystać z danych wygenerowanych przez system sztucznej inteligencji, by udowodnić, że poszkodowany również ponosi odpowiedzialność zgodnie z rozporządzeniem (UE) 2016/679 i innymi właściwymi przepisami dotyczącymi ochrony danych. Poszkodowany również może korzystać z takich danych w celu udowodnienia lub sprecyzowania roszczenia o odszkodowanie.
Artykuł 11
Odpowiedzialność solidarna
Jeżeli system sztucznej inteligencji był obsługiwany przez kilku operatorów, odpowiadają oni solidarnie. Jeżeli operator front-end jest również producentem systemu sztucznej inteligencji, niniejsze rozporządzenie ma charakter nadrzędny wobec dyrektywy w sprawie odpowiedzialności za produkty. Jeżeli operatora back-end można również uznać za producenta zgodnie z definicją zawartą w art. 3 dyrektywy w sprawie odpowiedzialności za produkty, dyrektywa ta powinna mieć do niego zastosowanie. Jeżeli jedyny operator jest również producentem systemu sztucznej inteligencji, niniejsze rozporządzenie ma charakter nadrzędny wobec dyrektywy w sprawie odpowiedzialności za produkty.
Artykuł 12
Regres
1. Operatorowi nie przysługuje prawo do regresu, chyba że poszkodowany otrzymał pełną kwotę odszkodowania, jakie przysługuje mu na mocy niniejszego rozporządzenia.
2. W przypadku gdy operator ponosi wobec poszkodowanego odpowiedzialność solidarnie z innymi operatorami i – na mocy art. 4 ust. 1 lub art. 8 ust. 1 – wypłacił poszkodowanemu pełne odszkodowanie, ma prawo odzyskać od pozostałych operatorów przypadającą na nich część odszkodowania.
Proporcje odpowiedzialności zależą od stopnia kontroli poszczególnych operatorów nad ryzykiem związanym z działaniem systemu sztucznej inteligencji. Jeżeli od odpowiedzialnego solidarnie operatora nie można uzyskać jego części odszkodowania wynikającego z odpowiedzialności solidarnej, kwotę tę pokrywają pozostali operatorzy. Odpowiedzialny solidarnie operator, który wypłaci odszkodowanie poszkodowanemu i zażąda dostosowania płatności zaliczkowych od pozostałych odpowiedzialnych operatorów, wstępuje na zasadzie subrogacji w prawa poszkodowanego do roszczeń z tytułu odszkodowania wobec pozostałych operatorów. Regres nie zachodzi ze szkodą dla pierwotnego roszczenia.
3. W przypadku gdy operator wadliwego systemu sztucznej inteligencji w pełni zrekompensuje poszkodowanemu szkody, zgodnie z postanowieniami art. 4 ust. 1 lub art. 8 ust. 1 niniejszego rozporządzenia, może skorzystać z prawa do dochodzenia odszkodowania od producenta wadliwego systemu sztucznej inteligencji zgodnie z postanowieniami dyrektywy 85/374/EWG oraz przepisami krajowymi dotyczącymi odpowiedzialności za wadliwe produkty.
4. W przypadku gdy ubezpieczyciel operatora zrekompensuje poszkodowanemu szkody zgodnie z postanowieniami art. 4 ust. 1 lub art. 8 ust. 1, ubezpieczyciel operatora korzysta z prawa regresu wobec innej osoby za te same szkody, w kwocie odszkodowania wypłaconego poszkodowanemu przez tego ubezpieczyciela.
Rozdział V
Przepisy końcowe
Artykuł 13
Wykonywanie przekazanych uprawnień
1. Powierzenie Komisji uprawnień do przyjęcia aktów delegowanych podlega warunkom określonym w niniejszym artykule.
2. Uprawnienia do przyjęcia aktów delegowanych, o których mowa w art. 4 ust. 2, powierza się Komisji na okres pięciu lat od dnia [data rozpoczęcia stosowania niniejszego rozporządzenia] r.
3. Przekazanie uprawnienia, o którym mowa w art. 4 ust. 2, może zostać w dowolnym momencie odwołane przez Parlament Europejski lub Radę. Decyzja o odwołaniu kończy przekazanie określonych w niej uprawnień. Decyzja o odwołaniu staje się skuteczna od następnego dnia po jej opublikowaniu w Dzienniku Urzędowym Unii Europejskiej lub w określonym w tej decyzji późniejszym terminie. Nie wpływa ona na ważność już obowiązujących aktów delegowanych.
4. Przed przyjęciem aktu delegowanego Komisja konsultuje się ze stałym Komitetem Technicznym ds. Obarczonych Wysokim Ryzykiem Systemów Sztucznej Inteligencji zgodnie z zasadami określonymi w Porozumieniu międzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa.
5. Niezwłocznie po przyjęciu aktu delegowanego Komisja przekazuje go równocześnie Parlamentowi Europejskiemu i Radzie.
6. Akt delegowany przyjęty na podstawie art. 4 ust. 2 wchodzi w życie tylko wtedy, kiedy Parlament Europejski albo Rada nie wyraziły sprzeciwu w terminie dwóch miesięcy od przekazania tego aktu Parlamentowi Europejskiemu i Radzie lub kiedy przed upływem tego terminu zarówno Parlament Europejski, jak i Rada poinformowały Komisję, że nie wniosą sprzeciwu. Termin ten przedłuża się o dwa miesiące z inicjatywy Parlamentu Europejskiego lub Rady.
Artykuł 14
Przegląd
Do dnia 1 stycznia 202X r. [3 lata od daty rozpoczęcia stosowania niniejszego rozporządzenia], a następnie co trzy lata Komisja przedkłada Parlamentowi Europejskiemu, Radzie i Europejskiemu Komitetowi Ekonomiczno-Społecznemu szczegółowe sprawozdanie z przeglądu niniejszego rozporządzenia w świetle dalszego rozwoju sztucznej inteligencji.
Przygotowując sprawozdanie, o którym mowa w akapicie pierwszym, Komisja zwraca się do państw członkowskich o przekazanie odnośnych informacji związanych z orzecznictwem, ugodami sądowymi, jak również statystykami wypadkowymi, takimi jak liczba wypadków, wyrządzone szkody, zaangażowane systemy sztucznej inteligencji, odszkodowania wypłacone przez firmy ubezpieczeniowe, a także ocena liczby roszczeń wniesionych przez poszkodowanych działających indywidualnie lub zbiorowo oraz opóźnień w ich rozpatrywaniu w sądzie.
W stosownych przypadkach Komisja dołącza do sprawozdania wnioski ustawodawcze, których celem jest wyeliminowanie luk wskazanych w sprawozdaniu.
Artykuł 15
Wejście w życie
Niniejsze rozporządzenie wchodzi w życie dwudziestego dnia po jego opublikowaniu w Dzienniku Urzędowym Unii Europejskiej.
Niniejsze rozporządzenie stosuje się od dnia 1 stycznia 202X r.
Niniejsze rozporządzenie wiąże w całości i jest bezpośrednio stosowane we wszystkich państwach członkowskich.’
Dyrektywa Rady 85/374/EWG z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących odpowiedzialności za produkty wadliwe (Dz.U. L 210 z 7.8.1985, s. 29).
Zob.: s. 24 Białej księgi Komisji z dnia 19 lutego 2020 r. w sprawie sztucznej inteligencji – Europejskie podejście do doskonałości i zaufania (COM(2020)0065),
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.U. L 119 z 4.5.2016, s. 1).
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2018/858 z dnia 30 maja 2018 r. w sprawie homologacji i nadzoru rynku pojazdów silnikowych i ich przyczep oraz układów, komponentów i oddzielnych zespołów technicznych przeznaczonych do tych pojazdów, zmieniające rozporządzenie (WE) nr 715/2007 i (WE) nr 595/2009 oraz uchylające dyrektywę 2007/46/WE (Dz.U. L 151 z 14.6.2018, s. 1).
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2019/1020 z dnia 20 czerwca 2019 r. w sprawie nadzoru rynku i zgodności produktów oraz zmieniające dyrektywę 2004/42/WE oraz rozporządzenia (WE) nr 765/2008 i (UE) nr 305/2011 (Dz.U. L 169 z 25.6.2019, s. 1).
Zgodnie z ust. 19 rezolucji Komisja Europejska dokona przeglądu kwoty.
Prawa własności intelektualnej w dziedzinie rozwoju technologii sztucznej inteligencji
165k
53k
Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. w sprawie praw własności intelektualnej w dziedzinie rozwoju technologii sztucznej inteligencji (2020/2015(INI))
– uwzględniając Traktat o funkcjonowaniu Unii Europejskiej (TFUE), w szczególności jego art. 4, 16, 26, 114 i 118,
– uwzględniając Konwencję berneńską o ochronie dzieł literackich i artystycznych,
– uwzględniając Porozumienie międzyinstytucjonalne z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa(1) oraz wytyczne Komisji dotyczące lepszego stanowienia prawa (COM(2015)0215),
– uwzględniając Traktat Światowej Organizacji Własności Intelektualnej (WIPO) o prawie autorskim, Traktat WIPO o artystycznych wykonaniach i fonogramach oraz zmieniony dokument tematyczny WIPO z dnia 29 maja 2020 r. dotyczący polityki w dziedzinie własności intelektualnej i sztucznej inteligencji,
– uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/790 z dnia 17 kwietnia 2019 r. w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym oraz zmiany dyrektyw 96/9/WE i 2001/29/WE(2),
– uwzględniając dyrektywę 96/9/WE Parlamentu Europejskiego i Rady z dnia 11 marca 1996 r. w sprawie ochrony prawnej baz danych(3),
– uwzględniając dyrektywę Parlamentu Europejskiego i Rady 2009/24/WE z dnia 23 kwietnia 2009 r. w sprawie ochrony prawnej programów komputerowych(4),
– uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2016/943 z dnia 8 czerwca 2016 r. w sprawie ochrony niejawnego know-how i niejawnych informacji handlowych (tajemnic przedsiębiorstwa) przed ich bezprawnym pozyskiwaniem, wykorzystywaniem i ujawnianiem(5),
– uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/1024 z dnia 20 czerwca 2019 r. w sprawie otwartych danych i ponownego wykorzystywania informacji sektora publicznego(6),
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE(7) (ogólne rozporządzenie o ochronie danych),
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2018/1807 z dnia 14 listopada 2018 r. w sprawie ram swobodnego przepływu danych nieosobowych w Unii Europejskiej(8),
– uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2019/1150 z dnia 20 czerwca 2019 r. w sprawie propagowania sprawiedliwości i przejrzystości dla użytkowników biznesowych korzystających z usług pośrednictwa internetowego(9),
– uwzględniając białą księgę Komisji Europejskiej z dnia 19 lutego 2020 r. w sprawie sztucznej inteligencji – „Europejskie podejście do doskonałości i zaufania” (COM(2020)0065),
– uwzględniając prace powołanej przez Komisję grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji,
– uwzględniając komunikaty Komisji pt. „Europejska strategia w zakresie danych” (COM(2020)0066) oraz „Nowa strategia przemysłowa dla Europy” (COM(2020)0102),
– uwzględniając wytyczne dotyczące rozpatrywania wniosków w Europejskim Urzędzie Patentowym z listopada 2019 r.,
– uwzględniając dokument roboczy nr 2016/05 Wspólnego Centrum Badawczego Komisji i jego Instytutu Perspektywicznych Studiów Technologicznych dotyczący gospodarki cyfrowej, zatytułowany „An Economic Policy Perspective on Online Platforms” [Perspektywa polityki gospodarczej w odniesieniu do platform internetowych],
– uwzględniając wytyczne polityczne na następną kadencję Komisji Europejskiej (2019–2024) pt. „Unia, która mierzy wyżej – Mój program dla Europy”,
– uwzględniając swoją rezolucję z dnia 16 lutego 2017 r. zawierającą zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki(10),
– uwzględniając art. 54 Regulaminu,
– uwzględniając opinie przedstawione przez Komisję Rynku Wewnętrznego i Ochrony Konsumentów, Komisję Transportu i Turystyki oraz Komisję Kultury i Edukacji,
– uwzględniając sprawozdanie Komisji Prawnej (A9-0176/2020),
A. mając na uwadze, że unijne ramy prawne dotyczące własności intelektualnej służą zapewnieniu wspierania innowacji i kreatywności, a także dostępu do wiedzy i informacji;
B. mając na uwadze, że art. 118 TFUE stanowi, że organy prawodawcze Unii ustanawiają środki dotyczące tworzenia europejskich praw własności intelektualnej w celu zapewnienia jednolitej ochrony tych praw w całej Unii; mając na uwadze, że jednolity rynek sprzyja warunkom korzystnym dla silniejszego wzrostu gospodarczego, gwarantującego dobrobyt obywatelom Unii;
C. mając na uwadze, że w dziedzinie sztucznej inteligencji (AI) i podobnych powstających technologii odnotowano ostatnio znaczny postęp technologiczny, który otwiera perspektywy i stawia wyzwania przed obywatelami, przedsiębiorstwami, administracją publiczną, twórcami i sektorem obrony w Unii;
D. mając na uwadze, że technologie AI mogą utrudnić identyfikowanie praw własności intelektualnej i ich stosowanie do produktów wygenerowanych przez AI, uniemożliwiając tym samym godziwe wynagradzanie twórców-ludzi, których oryginalne utwory są wykorzystywane do napędzania takich technologii;
E. mając na uwadze, że cel zakładający uczynienie Unii światowym liderem w dziedzinie technologii AI musi obejmować wysiłki z myślą o odzyskaniu i ochronie jej suwerenności cyfrowej i przemysłowej, zapewnieniu jej konkurencyjności oraz promowaniu i ochronie innowacji, a także wymagać strukturalnej reformy unijnej polityki przemysłowej, aby umożliwić jej czołową pozycję w dziedzinie technologii AI przy jednoczesnym poszanowaniu różnorodności kulturowej; mając na uwadze, że wiodąca światowa pozycja Unii w dziedzinie AI wymaga skutecznego systemu własności intelektualnej odpowiedniego dla ery cyfrowej, umożliwiającego innowatorom wprowadzanie na rynek nowych produktów; mając na uwadze, że silne zabezpieczenia są kluczowe dla ochrony systemu patentowego Unii przed nadużyciami ze szkodą dla innowacyjnych twórców AI; mając na uwadze, że potrzebne jest podejście do AI ukierunkowane na człowieka, zgodne z zasadami etyki i prawami człowieka, aby technologia pozostała instrumentem służącym ludziom i dobru wspólnemu;
F. mając na uwadze, że aby uniknąć fragmentacji jednolitego rynku oraz rozbieżnych przepisów i wytycznych krajowych, właściwe byłoby uregulowanie technologii AI na szczeblu unijnym; mając na uwadze, że w pełni zharmonizowane ramy regulacyjne Unii w dziedzinie AI będą wykazywać potencjał, by stać się normatywnym punktem odniesienia na szczeblu międzynarodowym; mając na uwadze, że nowym wspólnym zasadom dotyczącym systemów AI należy nadać formę rozporządzenia, aby ustanowić jednakowe standardy w całej Unii, oraz że prawodawstwo należy tworzyć tak, by wytrzymało próbę czasu i było w stanie nadążać za szybkim rozwojem tej technologii, i że należy je monitorować za pomocą dogłębnych ocen skutków; mając na uwadze, że pewność prawa przyczynia się do rozwoju technologicznego oraz że zaufanie obywateli do nowych technologii jest kluczowe dla rozwoju tego sektora, gdyż wzmacnia przewagę konkurencyjną Unii; mając na uwadze, że ramy regulacyjne dotyczące AI powinny zatem wzbudzać zaufanie do bezpieczeństwa i niezawodności AI oraz zapewniać równowagę między ochroną obywateli a zachęcaniem przedsiębiorstw do inwestowania w innowacje;
G. mając na uwadze, że AI i powiązane technologie opierają się na modelach obliczeniowych i algorytmach, które uznaje się za metody matematyczne w rozumieniu konwencji o patencie europejskim (EPC), a zatem nie mają zdolności patentowej jako takiej; mając na uwadze, że metody matematyczne i programy komputerowe mogą być objęte ochroną patentową na podstawie art. 52 ust. 3 EPC, jeżeli są wykorzystywane jako część systemu AI, który przyczynia się do osiągnięcia dalszych skutków technicznych; mając na uwadze, że należy dogłębnie ocenić wpływ takiej potencjalnej ochrony patentowej;
H. mając na uwadze, że AI i powiązane technologie opierają się na tworzeniu i wykorzystywaniu programów komputerowych, które jako takie podlegają szczególnemu systemowi ochrony praw autorskich, zakładającemu, że ochronie podlega tylko wyrażenie programu komputerowego, a nie koncepcje, metody i zasady leżące u podstaw jakiegokolwiek jego elementu;
I. mając na uwadze, że przyznawana jest coraz większa liczba patentów związanych z AI;
J. mając na uwadze, że postęp AI i powiązanych technologii rodzi pytania co do samej ochrony innowacji i co do ujęcia w prawie własności intelektualnej materiałów, treści lub danych generowanych przez technologie AI i powiązane technologie, mogących mieć charakter przemysłowy lub artystyczny oraz stwarzających różnego rodzaju możliwości komercyjne; mając na uwadze, że niekiedy trudno dokonać rozróżnienia między twórczością człowieka wspomaganą przez AI a twórczością autonomicznie generowaną przez AI;
K. mając na uwadze, że AI i powiązane technologie zależą w znacznym stopniu od wcześniej istniejących treści i dużej ilości danych; mając na uwadze, że większy przejrzysty i otwarty dostęp do niektórych danych nieosobowych i baz takich danych w Unii, zwłaszcza dla MŚP i start-upów, a także interoperacyjność danych, która ogranicza efekt blokady technologicznej, odegra kluczową rolę w rozwoju europejskiej AI i we wspieraniu konkurencyjności przedsiębiorstw europejskich na szczeblu globalnym; mając na uwadze, że gromadzenie danych osobowych musi odbywać się z poszanowaniem praw podstawowych i zasad ochrony danych oraz wymaga dostosowanego zarządzania, mianowicie w zakresie zarządzania danymi i przejrzystości danych wykorzystywanych do opracowywania i wdrażania technologii AI w całym cyklu życia systemu wspomaganego przez AI;
1. przyjmuje do wiadomości białą księgę Komisji Europejskiej pt. „Sztuczna inteligencja – europejskie podejście do doskonałości i zaufania” oraz europejską strategię w zakresie danych; podkreśla, że przedstawione tam podejścia mogą przyczynić się do uwolnienia potencjału AI ukierunkowanej na człowieka w UE; zauważa jednak, że ochrona praw własności intelektualnej w kontekście rozwoju AI i powiązanych technologii nie została uwzględniona przez Komisję pomimo kluczowego znaczenia tych praw; podkreśla konieczność utworzenia jednolitej europejskiej przestrzeni danych oraz uważa, że korzystanie z niej odegra ważną rolę w innowacyjności i kreatywności gospodarki unijnej, do czego należy zachęcać; zaznacza, że Unia powinna odgrywać zasadniczą rolę w określaniu podstawowych zasad dotyczących rozwoju, wykorzystania i stosowania AI, bez ograniczania jej postępu czy utrudniania konkurencji;
2. podkreśla fakt, że rozwój AI i powiązanych technologii w sektorach transportu i turystyki przyniesie ze sobą innowacje, badania, mobilizację inwestycji oraz znaczne korzyści gospodarcze, społeczne, środowiskowe, publiczne i dotyczące bezpieczeństwa, jednocześnie zwiększając atrakcyjność tych sektorów dla nowych pokoleń i tworząc nowe możliwości zatrudnienia i bardziej zrównoważone modele biznesowe, zaznacza jednak, że nie powinno to powodować szkód ani stanowić zagrożenia dla ludzi lub społeczeństwa;
3. podkreśla znaczenie utworzenia operacyjnych i w pełni zharmonizowanych ram regulacyjnych w dziedzinie technologii AI; sugeruje, że takie ramy powinny mieć formę rozporządzenia, a nie dyrektywy, aby uniknąć rozdrobnienia europejskiego jednolitego rynku cyfrowego i promować innowacje;
4. wzywa Komisję, aby we wszystkich aktach prawnych dotyczących AI uwzględniła siedem kluczowych wymogów określonych w wytycznych grupy ekspertów wysokiego szczebla, do których to wymogów odniosła się pozytywnie w komunikacie z dnia 8 kwietnia 2019 r.(11), oraz aby należycie je wdrożyła;
5. podkreśla, że opracowanie i wdrożenie i wykorzystywanie technologii AI, a także rozkwit światowej gospodarki opartej na danych wymagają zajęcia się ważnymi kwestii technicznymi, społecznymi, gospodarczymi, etycznymi i prawnymi w różnych obszarach działania, obejmujących prawa własności intelektualnej i ich wpływ na te obszary; podkreśla, że aby uwolnić potencjał technologii AI, konieczne jest usunięcie zbędnych barier prawnych, tak by nie hamować wzrostu ani innowacyjności w rozwijającej się unijnej gospodarce opartej na danych; wzywa do przeprowadzenia oceny skutków w odniesieniu do ochrony praw własności intelektualnej w kontekście rozwoju technologii AI;
6. zwraca uwagę, że wyważona ochrona praw własności intelektualnej w odniesieniu do technologii AI oraz wielowymiarowy charakter takiej ochrony mają kluczowe znaczenie, a jednocześnie zwraca uwagę, że ważne jest zapewnienie wysokiego poziomu ochrony praw własności intelektualnej, zagwarantowanie pewności prawa i budowanie niezbędnego zaufania zachęcającego do inwestycji w te technologie oraz zapewniającego ich długoterminową rentowność i wykorzystywanie przez konsumentów; uważa, że Unia ma potencjał, by odgrywać wiodącą rolę w tworzeniu technologii AI, jeżeli przyjmie sprawnie funkcjonujące ramy regulacyjne, które będą regularnie oceniane w świetle rozwoju technologicznego, oraz będzie realizować aktywną politykę publiczną, szczególnie w odniesieniu do programów szkoleniowych i wsparcia finansowego na rzecz badań naukowych oraz współpracy sektora publicznego i prywatnego; ponownie podkreśla potrzebę zapewnienia wystarczającej swobody działania, aby umożliwić rozwój nowych technologii, produktów i usług; podkreśla, że tworzenie środowiska sprzyjającego kreatywności i innowacjom dzięki zachęcaniu twórców do korzystania z technologii AI nie może odbywać się kosztem interesów twórców-ludzi ani zasad etycznych Unii;
7. uważa również, że Unia musi ująć różne aspekty AI w definicjach neutralnych pod względem technologicznym i wystarczająco elastycznych, by miały zastosowanie do przyszłych zmian technologicznych, a także do przyszłych zastosowań; uważa, że należy kontynuować refleksję nad wzajemnym oddziaływaniem AI i praw własności intelektualnej, zarówno z punktu widzenia urzędów ds. własności intelektualnej, jak i użytkowników; uważa, że wyzwanie, jakim jest ocena zastosowań AI, powoduje potrzebę wprowadzenia wymogów dotyczących przejrzystości i opracowanie nowych metod, ponieważ na przykład systemy adaptacyjnego uczenia się mogą kalibrować się na nowo po każdym wprowadzeniu danych, co sprawia, że w niektórych przypadkach ujawnianie informacji o nich z wyprzedzeniem jest nieskuteczne;
8. podkreśla znaczenie przejrzystości i odpowiedzialności w stosowaniu algorytmów przez usługi transmisji strumieniowej, tak aby zagwarantować lepszy dostęp do treści kulturowych i kreatywnych zróżnicowanych pod względem formy i wielojęzycznych oraz równorzędny dostęp do utworów europejskich;
9. zaleca w pierwszej kolejności dokonanie oceny z podziałem na sektory i rodzaje implikacji technologii AI w dziedzinie praw własności intelektualnej; uważa, że takie podejście powinno uwzględniać na przykład stopień interwencji człowieka, autonomię AI, znaczenie roli i pochodzenia wykorzystywanych danych i materiałów chronionych prawem autorskim oraz ewentualne zaangażowanie innych istotnych czynników; przypomina, że każde podejście musi zapewniać właściwą równowagę między potrzebą ochrony inwestycji, zarówno pod względem zasobów, jak i wysiłku, a potrzebą zachęcania do tworzenia i udostępniania; uważa, że należy przeprowadzić pogłębione badanie w celu oceny wkładu ludzkiego w odniesieniu do danych algorytmicznych wykorzystywanych przez AI; uważa, że przełomowe technologie, takie jak AI, oferują zarówno małym, jak i dużym przedsiębiorstwom szansę na tworzenie produktów wiodących na rynku; uważa, że wszystkie przedsiębiorstwa powinny korzystać z równie sprawnej i skutecznej ochrony praw własności intelektualnej; w związku z tym wzywa Komisję i państwa członkowskie do oferowania wsparcia przedsiębiorstwom typu start-up i MŚP za pośrednictwem programu na rzecz jednolitego rynku i centrów innowacji cyfrowych w zakresie ochrony ich produktów;
10. sugeruje, aby ocena ta koncentrowała się na wpływie i skutkach AI i powiązanych z nią technologii w ramach obecnego systemu prawa patentowego, ochrony znaków towarowych i wzorów, prawa autorskiego i praw pokrewnych, w tym możliwości stosowania ochrony prawnej baz danych i programów komputerowych, a także ochrony niejawnego know-how i niejawnych informacji handlowych („tajemnic przedsiębiorstwa”) przed ich bezprawnym pozyskiwaniem, wykorzystywaniem i ujawnianiem; uznaje potencjał technologii AI w zakresie poprawy egzekwowania praw własności intelektualnej, niezależnie od potrzeby weryfikacji i przeglądu przez człowieka, zwłaszcza w odniesieniu do skutków prawnych; podkreśla ponadto potrzebę dokonania oceny, czy prawo umów powinno zostać zaktualizowane w celu jak najlepszej ochrony konsumentów oraz czy należy dostosować zasady konkurencji w celu zaradzenia niedoskonałościom rynku i nadużyciom w gospodarce cyfrowej, potrzebę stworzenia bardziej kompleksowych ram prawnych dla sektorów gospodarki, w których AI jest obecna, co pozwoli europejskim przedsiębiorstwom i zainteresowanym stronom zwiększyć skalę swojej działalności, a także potrzebę zapewnienia pewności prawa; podkreśla, że ochrona własności intelektualnej musi być zawsze zgodna z innymi podstawowymi prawami i swobodami;
11. zwraca uwagę, że metody matematyczne jako takie są wyłączone ze zdolności patentowej, chyba że są wykorzystywane do celów technicznych związanych z wynalazkami technicznymi i wówczas same mają zdolność patentową, o ile spełnione są kryteria dotyczące wynalazków; zwraca ponadto uwagę, że jeżeli wynalazek odnosi się albo do metody wykorzystującej środki techniczne, albo do urządzenia technicznego, jego przeznaczenie, rozpatrywane jako całość, ma w rzeczywistości charakter techniczny i w związku z tym nie jest wykluczone z możliwości udzielenia patentu; podkreśla w związku z tym rolę ram ochrony patentowej w zachęcaniu do tworzenia wynalazków w zakresie AI i w promowaniu ich upowszechniania, a także potrzebę tworzenia możliwości dla europejskich przedsiębiorstw i przedsiębiorstw typu start-up w zakresie wspierania rozwoju i wdrażania AI w Europie; zwraca uwagę, że patenty niezbędne do spełnienia norm odgrywają kluczową rolę w opracowywaniu i rozpowszechnianiu nowej AI i powiązanych z nią technologii oraz w zapewnianiu interoperacyjności; wzywa Komisję, aby wspierała ustanawianie norm branżowych i zachęcała do formalnej normalizacji;
12. wskazuje, że ochrona patentowa może być przyznana, o ile wynalazek jest nowy, nieoczywisty i powstał w wyniku innowacyjnego działania; zauważa ponadto, że prawo patentowe wymaga kompleksowego opisu technologii bazowej, co może stanowić wyzwanie w przypadku niektórych technologii AI ze względu na złożoność rozumowania; podkreśla również wyzwania prawne związane z inżynierią wsteczną, która stanowi wyjątek od ochrony praw autorskich w odniesieniu do programów komputerowych i od ochrony tajemnic przedsiębiorstwa, które z kolei mają zasadnicze znaczenie dla innowacji i badań naukowych i które należy odpowiednio uwzględnić w kontekście rozwoju technologii AI; wzywa Komisję do oceny możliwości odpowiedniego testowania produktów, na przykład w sposób modułowy, bez stwarzania ryzyka dla podmiotów praw własności intelektualnej lub w odniesieniu do tajemnic przedsiębiorstwa wynikającego z ujawniania licznych informacji o produktach łatwych do powielenia; podkreśla, że technologie AI powinny być ogólnie dostępne do celów edukacyjnych i badawczych, takich jak bardziej efektywne metody uczenia się;
13. zauważa, że autonomizacja w procesie tworzenia treści o charakterze artystycznym może rodzić pytania związane z tytułem do praw własności intelektualnej obejmujących te treści; uważa w związku z tym, że nie należy dążyć do nadania osobowości prawnej technologiom AI i wskazuje na negatywny wpływ takiej możliwości na bodźce motywacyjne dla twórców będących ludźmi;
14. podkreśla różnicę między twórczością wytworzoną przez człowieka za pomocą AI z jednej strony a twórczością wygenerowaną przez AI z drugiej strony, przy czym ta ostatnia wiąże się z nowymi wyzwaniami regulacyjnymi w zakresie ochrony praw własności intelektualnej, takimi jak kwestie własności, wynalazczości i odpowiedniego wynagrodzenia, a także kwestie związane z potencjalną koncentracją na rynku; uważa ponadto, że prawa własności intelektualnej na rzecz rozwoju technologii AI należy odróżnić od wszelkich praw własności intelektualnej przyznawanych w odniesieniu do twórczości wytworzonej przez AI; podkreśla, że w przypadku gdy AI jest wykorzystywana wyłącznie jako narzędzie wspomagające autora w procesie tworzenia, nadal zastosowanie mają obecne ramy własności intelektualnej;
15. jest zdania, że twórczość technologiczna tworzona przez technologie AI musi być chroniona w ramach praw własności intelektualnej, aby zachęcić do inwestowania w tę formę twórczości i zwiększyć pewność prawa dla obywateli, przedsiębiorstw i wynalazców, którzy obecnie należą do najczęstszych użytkowników technologii AI; uważa, że dzieła wyprodukowane samodzielnie przez sztuczne podmioty i roboty mogą nie kwalifikować się do ochrony na podstawie prawa autorskiego w celu poszanowania zasady oryginalności związanej z osobą fizyczną, ponieważ pojęcie „twórczości intelektualnej” odnosi się do osobowości autora; wzywa Komisję, aby wspierała horyzontalne, oparte na dowodach i technologicznie neutralne podejście do wspólnych jednolitych przepisów dotyczących prawa autorskiego mających zastosowanie do utworów wytwarzanych przez AI w Unii, jeżeli zostanie ustalone, że takie utwory mogą być chronione prawem autorskim; zaleca, aby wszelkie prawa własności przysługiwały wyłącznie osobom fizycznym lub prawnym, które stworzyły utwór zgodnie z prawem, i wyłącznie za zgodą podmiotu praw autorskich, jeżeli wykorzystywane są materiały chronione prawem autorskim, chyba że mają zastosowanie wyjątki lub ograniczenia dotyczące praw autorskich; podkreśla znaczenie ułatwiania dostępu do danych i wymiany danych, otwartych standardów i technologii opartych na otwartym oprogramowaniu, przy jednoczesnym zachęcaniu do inwestycji i pobudzaniu innowacji;
16. zauważa, że AI umożliwia przetwarzanie dużej ilości danych związanych z aktualnym stanem wiedzy lub istnieniem praw własności intelektualnej; zauważa jednocześnie, że AI lub powiązane z nią technologie wykorzystywane w procedurze rejestracji przyznawania praw własności intelektualnej i ustalania odpowiedzialności za naruszenia praw własności intelektualnej nie mogą zastąpić przeglądów dokonywanych przez człowieka w poszczególnych przypadkach w celu zapewnienia jakości i uczciwości decyzji; zauważa, że sztuczna inteligencja stopniowo zyskuje zdolność do przejmowania zadań zazwyczaj wykonywanych przez człowieka i w związku z tym podkreśla potrzebę wprowadzenia odpowiednich zabezpieczeń, w tym systemów projektowania, które stale angażują ludzi w procesy kontroli i przeglądu, a także przejrzystości, rozliczalności i weryfikacji decyzji podejmowanych w kontekście AI;
17. zauważa, że jeśli chodzi o wykorzystywanie danych nieosobowych przez technologie AI, legalne korzystanie z utworów chronionych prawem autorskim i innych przedmiotów objętych ochroną i powiązanych z nimi danych, w tym wcześniej istniejących treści, zbiorów danych wysokiej jakości i metadanych, należy oceniać w świetle obowiązujących przepisów dotyczących ograniczeń i wyjątków w zakresie ochrony praw autorskich, takich jak wyjątek dotyczący eksploracji tekstów i danych, zgodnie z dyrektywą w sprawie praw autorskich i pokrewnych na jednolitym rynku cyfrowym; wzywa do dalszego wyjaśnienia kwestii ochrony danych na podstawie prawa autorskiego oraz potencjalnej ochrony znaków towarowych i wzorów przemysłowych w odniesieniu do dzieł wygenerowanych samodzielnie przez aplikacje oparte na AI; uważa, że należy promować dobrowolną wymianę danych nieosobowych między przedsiębiorstwami i sektorami w oparciu o uczciwe umowy, w tym umowy licencyjne; zwraca uwagę na kwestie związane z prawami własności intelektualnej wynikające z tworzenia fałszywych informacji na podstawie wprowadzających w błąd, zmanipulowanych danych czy po prostu danych o niskiej jakości, niezależnie od tego, czy takie fałszywe informacje zawierają dane, które mogą podlegać prawom autorskim; jest zaniepokojony możliwością masowej manipulacji obywateli w celu destabilizacji demokracji i wzywa do zwiększenia świadomości i umiejętności korzystania z mediów, a także do udostępnienia pilnie potrzebnych technologii AI w celu weryfikacji faktów i informacji; uważa, że podlegające kontroli rejestrowanie danych nieosobowych wykorzystywanych w cyklu życia technologii opartych na AI zgodnie z przepisami o ochronie danych mogłoby ułatwić śledzenie wykorzystania utworów chronionych prawem autorskim, a tym samym lepiej chronić podmioty praw i przyczynić się do ochrony prywatności; podkreśla, że technologie AI mogłyby być przydatne w kontekście egzekwowania praw własności intelektualnej, ale wymagałyby zaangażowania człowieka w ich przegląd i zagwarantowania pełnej przejrzystości wszelkich systemów decyzyjnych opartych na AI; podkreśla, że jakikolwiek przyszły system AI nie może obchodzić ewentualnych wymogów dotyczących technologii opartych na otwartym oprogramowaniu w przetargach publicznych ani uniemożliwiać wzajemnych połączeń między usługami cyfrowymi; zauważa, że systemy AI są oparte na oprogramowaniu i opierają się na modelach statystycznych, które mogą obejmować błędy; podkreśla, że produkty generowane przez AI nie mogą skutkować przejawami żadnej dyskryminacji oraz że jednym z najbardziej wydajnych sposobów ograniczania obciążeń w systemach AI jest zapewnienie – w zakresie, w jakim jest to możliwe zgodnie z prawem Unii – dostępności maksymalnej ilości danych nieosobowych na potrzeby szkoleń i uczenia się maszyn; wzywa Komisję do zastanowienia się nad wykorzystaniem do takich celów danych należących do domeny publicznej;
18. podkreśla znaczenie pełnego wdrożenia strategii jednolitego rynku cyfrowego w celu poprawy dostępności i interoperacyjności danych nieosobowych w UE; podkreśla, że europejska strategia w zakresie danych musi zapewniać równowagę między promowaniem przepływu danych, szerokim dostępem do nich oraz ich wykorzystywaniem i udostępnianiem a ochroną praw własności intelektualnej i tajemnic przedsiębiorstwa, przy jednoczesnym poszanowaniu zasad ochrony danych i prywatności; podkreśla w związku z tym, że należy ocenić, czy unijne przepisy dotyczące własności intelektualnej są odpowiednim narzędziem do ochrony danych, w tym danych sektorowych potrzebnych do rozwoju AI, i przypomina, że dane ustrukturyzowane, takie jak bazy danych, w przypadku gdy podlegają ochronie własności intelektualnej, zazwyczaj nie mogą być uznawane za dane; uważa, że należy dostarczać wyczerpujące informacje na temat wykorzystywania danych, które są częścią własności intelektualnej, w szczególności w kontekście stosunków między platformami a przedsiębiorstwami; z zadowoleniem przyjmuje zamiar Komisji dotyczący utworzenia jednolitej europejskiej przestrzeni danych;
19. zauważa, że Komisja rozważa celowość działań legislacyjnych w kwestiach mających wpływ na interakcje między podmiotami gospodarczymi, aby móc korzystać z danych nieosobowych, i z zadowoleniem przyjmuje ewentualny przegląd dyrektywy w sprawie baz danych oraz ewentualne wyjaśnienie stosowania dyrektywy w sprawie ochrony tajemnic przedsiębiorstwa jako ogólnych ram; oczekuje z zainteresowaniem na wyniki konsultacji publicznych zainicjowanych przez Komisję w sprawie europejskiej strategii dotyczącej danych;
20. podkreśla, że Komisja powinna dążyć do zapewnienia zrównoważonej i opartej na innowacjach ochrony własności intelektualnej z korzyścią dla europejskich podmiotów rozwijających AI, do wzmocnienia międzynarodowej konkurencyjności przedsiębiorstw europejskich, w tym przeciw nieuczciwym taktykom w postępowaniu sądowym, oraz do zapewnienia użytkownikom jak największej pewności prawa, zwłaszcza w negocjacjach międzynarodowych, w tym szczególności w odniesieniu do toczących się dyskusji na temat AI i rewolucji w zakresie danych pod auspicjami Światowej Organizacji Własności Intelektualnej (WIPO); z zadowoleniem przyjmuje niedawne wnioski Komisji dotyczące opinii Unii w ramach konsultacji publicznych WIPO na temat projektu dokumentu tematycznego WIPO dotyczącego polityki w dziedzinie własności intelektualnej i sztucznej inteligencji; przypomina w związku z tym o spoczywającym na Unii etycznym obowiązku wspierania rozwoju na całym świecie poprzez ułatwianie współpracy transgranicznej w dziedzinie AI, w tym poprzez ograniczenia i wyjątki w odniesieniu do badań transgranicznych oraz eksploracji tekstów i danych, jak przewidziano w dyrektywie w sprawie praw autorskich i praw pokrewnych na jednolitym rynku cyfrowym;
21. jest w pełni świadomy, że postęp w dziedzinie AI będzie musiał być powiązany z inwestycjami publicznymi w infrastrukturę, szkoleniami w zakresie umiejętności cyfrowych oraz znacznymi ulepszeniami w zakresie łączności i interoperacyjności, aby osiągnąć pełne rezultaty; podkreśla w związku z tym znaczenie bezpiecznych i zrównoważonych sieci 5G dla pełnego wdrożenia technologii AI, ale, co ważniejsze, niezbędnych prac nad poziomem infrastruktury i jej bezpieczeństwem w całej Unii; odnotowuje intensywną aktywność patentową zachodzącą w sektorze transportu, jeśli chodzi o AI; wyraża zaniepokojenie, że może to doprowadzić do masowych sporów sądowych, które będą szkodliwe dla całego sektora i mogą również wpłynąć na bezpieczeństwo ruchu drogowego, jeśli na szczeblu Unii nie wprowadzimy bezzwłocznie przepisów dotyczących rozwoju technologii związanych z AI;
22. popiera gotowość Komisji do zaproszenia kluczowych podmiotów z sektora wytwórczego – producentów sektora transportowego, innowatorów w zakresie AI i łączności, usługodawców z sektora turystyki i innych podmiotów w łańcuchu wartości w sektorze motoryzacyjnym – do uzgodnienia warunków, na jakich będą gotowi dzielić się swoimi danymi;
23. zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji Radzie i Komisji, a także parlamentom i rządom państw członkowskich.
„Budowanie zaufania do sztucznej inteligencji ukierunkowanej na człowieka” (COM(2019)0168).
Zalecenie dla Rady oraz Wiceprzewodniczącego Komisji / Wysokiego Przedstawiciela Unii do Spraw Zagranicznych i Polityki Bezpieczeństwa w sprawie wdrażania stałej współpracy strukturalnej (PESCO) oraz zarządzania nią
169k
57k
Zalecenie Parlamentu Europejskiego z dnia 20 października 2020 r. dla Rady oraz wiceprzewodniczącego Komisji / wysokiego przedstawiciela Unii do spraw zagranicznych i polityki bezpieczeństwa w sprawie wdrażania stałej współpracy strukturalnej (PESCO) oraz zarządzania nią (2020/2080(INI))
– uwzględniając Traktat o Unii Europejskiej (TUE), w szczególności jego art. 36, art. 42 ust. 6, art. 46, a także jego Protokół (nr 10) w sprawie stałej współpracy strukturalnej,
– uwzględniając decyzję Rady (WPZiB) 2017/2315 z dnia 11 grudnia 2017 r. w sprawie ustanowienia stałej współpracy strukturalnej (PESCO) oraz ustalenia listy uczestniczących w niej państw członkowskich(1),
– uwzględniając decyzję Rady (WPZiB) 2018/340 z dnia 6 marca 2018 r. ustanawiającą listę projektów do zrealizowania w ramach PESCO(2),
– uwzględniając decyzję Rady (WPZiB) 2018/909 z dnia 25 czerwca 2018 r. ustanawiającą wspólny zbiór przepisów dotyczących zarządzania projektami PESCO(3),
– uwzględniając decyzję Rady (WPZiB) 2018/1797 z dnia 19 listopada 2018 r. zmieniającą i aktualizującą decyzję (WPZiB) 2018/340 ustanawiającą listę projektów do zrealizowania w ramach PESCO(4),
– uwzględniając decyzję Rady (WPZiB) 2019/1909 z dnia 12 listopada 2019 r. zmieniającą i aktualizującą decyzję (WPZiB) 2018/340 ustanawiającą listę projektów do zrealizowania w ramach PESCO(5),
– uwzględniając konkluzje Rady z dnia 13 listopada 2017 r. w sprawie bezpieczeństwa i obrony w kontekście globalnej strategii UE,
– uwzględniając konkluzje Rady z dnia 19 listopada 2018 r. w sprawie bezpieczeństwa i obrony w kontekście globalnej strategii UE,
– uwzględniając konkluzje Rady z dnia 17 czerwca 2019 r. w sprawie bezpieczeństwa i obrony w kontekście globalnej strategii UE,
– uwzględniając zalecenie Rady z dnia 15 października 2018 r. w sprawie ustalenia kolejności wypełniania dalej idących zobowiązań podjętych w ramach stałej współpracy strukturalnej (PESCO) oraz precyzujące bardziej szczegółowe cele (2018/C374/01)(6),
– uwzględniając swoją rezolucję z dnia 16 marca 2017 r. w sprawie skutków konstytucyjnych, prawnych i instytucjonalnych wspólnej polityki bezpieczeństwa i obrony – możliwości oferowane przez Traktat z Lizbony(7),
– uwzględniając Traktat o handlu bronią, który wszedł w życie w grudniu 2014 r.,
– uwzględniając przegląd Europejskiego Trybunału Obrachunkowego nr 09/2019 z września 2019 r. w sprawie obronności europejskiej,
– uwzględniając art. 118 Regulaminu,
– uwzględniając sprawozdanie Komisji Spraw Zagranicznych (A9-0165/2020),
A. mając na uwadze, że zgodnie z art. 42 ust. 2 TUE wspólna polityka bezpieczeństwa i obrony (WPBiO) obejmuje stopniowe określanie wspólnej polityki obronnej Unii, co oznacza, że aby wspólna obrona zaistniała, konieczna jest jednomyślna decyzja Rady Europejskiej; mając na uwadze, że PESCO stanowi ważny krok w kierunku osiągnięcia tego celu;
B. mając na uwadze, że należy wykorzystać PESCO do dalszego wdrażania i rozwijania obowiązku udzielenia wzajemnej pomocy i wsparcia, o którym mowa w art. 42 ust. 7 TUE, i o którym przypomina się we wspólnej notyfikacji 23 państw członkowskich do Rady i wiceprzewodniczącego Komisji / wysokiego przedstawiciela Unii do spraw zagranicznych i polityki bezpieczeństwa w sprawie PESCO, podpisanej 13 listopada 2017 r. z myślą o zwiększeniu ich gotowości do zapewnienia solidarności temu z państw członkowskich, który stanie się ofiarą zbrojnej agresji na jego terytorium;
C. mając na uwadze, że zgodnie z art. 1 lit. a) Protokołu (nr 10) w sprawie stałej współpracy strukturalnej ustanowionej na mocy artykułu 42 Traktatu o Unii Europejskiej jednym z celów PESCO jest szybsze zwiększanie przez państwa członkowskie ich potencjału obronnego poprzez rozwój swoich wkładów krajowych i udział, w stosownym przypadku, w siłach wielonarodowych, w głównych europejskich programach wyposażenia wojskowego oraz w działalności Europejskiej Agencji Obrony;
D. mając na uwadze, że art. 1 lit. b) protokołu nr 10 stanowi, iż państwa członkowskie mają „posiadać możliwość zapewnienia, najpóźniej do 2010 roku, na poziomie krajowym albo jako część wielonarodowych sił zbrojnych, wyspecjalizowanych jednostek zbrojnych przeznaczonych do udziału w planowanych misjach, których strukturę określono na poziomie planu taktycznego jako zgrupowanie taktyczne wraz z elementami wsparcia, w tym transportem i logistyką, zdolnych do podjęcia misji, o których mowa w artykule 43 TUE, w terminie od 5 do 30 dni, w szczególności w odpowiedzi na żądanie Organizacji Narodów Zjednoczonych i które mogą prowadzić operacje w początkowym okresie przez 30 dni, z możliwością przedłużenia tego okresu do co najmniej 120 dni”; mając na uwadze, że należy dokonać zmiany art. 1 lit. b) w celu odpowiedniego zareagowania na trudne środowisko geopolityczne; mając na uwadze, że państwa członkowskie są nadal dalekie od osiągnięcia tego celu;
E. mając na uwadze, że ustanowienie wspólnej strategii obrony UE jest teraz potrzebne bardziej niż kiedykolwiek w kontekście wielu rosnących zagrożeń;
F. mając na uwadze, że poziom ambicji w ramach globalnej strategii UE w dziedzinie bezpieczeństwa i obrony obejmuje zarządzanie kryzysowe i budowanie potencjału w krajach partnerskich, aby zapewnić ochronę Europy i jej obywateli; mając na uwadze, że żadne państwo członkowskie nie może ochronić się samo, ponieważ zagrożenia dla bezpieczeństwa i obrony, z którymi boryka się UE i które są wymierzone w jej obywateli, terytoria i infrastrukturę, stanowią powszechne wielowymiarowe zagrożenia, którym jedno państwo członkowskie nie jest w stanie stawić czoła we własnym zakresie; mając na uwadze, że skuteczny i spójny unijny system strategicznego wspólnego korzystania z zasobów miałby korzystny wpływ na ogólny poziom bezpieczeństwa i obrony UE i w szybko pogarszającym się środowisku bezpieczeństwa jest potrzebny bardziej niż kiedykolwiek; mając na uwadze, że potrzebne są wzmożone wysiłki na rzecz współpracy w dziedzinie cyberobrony, takie jak wymiana informacji, szkolenia i wsparcie operacyjne, aby lepiej przeciwdziałać zagrożeniom hybrydowym;
G. mając na uwadze, że głównymi podmiotami PESCO są uczestniczące państwa członkowskie, które zapewniają zdolności do realizacji WPBiO (art. 42 ust. 1 i art. 42 ust. 3 TUE) i wykorzystują je podczas unijnych operacji i misji, których wykonanie powierza im Rada w ramach UE (art. 42 ust. 1, 4 i 5, art. 43 oraz art. 44 TUE), oraz które rozwijają w stosownych przypadkach swoje zdolności obronne w ramach Europejskiej Agencji Obrony (art. 42 ust. 3 i art. 45 TUE);
H. mając na uwadze, że długoterminowa wizja PESCO polega na zapewnieniu Unii zdolności operacyjnej w oparciu o zasoby wojskowe, które są uzupełniane środkami cywilnymi, aby osiągnąć spójny i pakiet sił o pełnym spektrum udostępniany państwom członkowskim na potrzeby wojskowej WPBiO; mając na uwadze, że PESCO powinna zwiększać zdolność UE do działania jako międzynarodowy gwarant bezpieczeństwa, tak aby mogła ona skutecznie i wiarygodnie przyczyniać się do międzynarodowego, regionalnego i europejskiego bezpieczeństwa, również poprzez zapobieganie wpływom konfliktów z zewnątrz na bezpieczeństwo wewnętrzne Unii, a także aby zwiększyć interoperacyjność na rzecz poprawy ochrony obywateli Unii i zmaksymalizować efektywność wydatków na obronę dzięki ograniczeniu powielania działań, nadmiernej zdolności i nieskoordynowanych zamówień;
I. mając na uwadze, że zgodnie z decyzją Rady (CFSP) 2017/2315 ustanawiającą PESCO zwiększone zdolności obronne państw członkowskich przyniosą również korzyści NATO, w myśl zasady jednolitych sił, pod warunkiem unikania powielania i priorytetowego traktowania interoperacyjności, a także umocnią europejski filar w ramach sojuszu i będą stanowić odpowiedź na wielokrotne wezwania do wyraźniejszego podziału obciążeń transatlantyckich; mając na uwadze, że NATO pozostaje podstawą struktury bezpieczeństwa wielu państw członkowskich;
J. mając na uwadze, że PESCO tworzy wiążące ramy między uczestniczącymi państwami członkowskimi, które same zobowiązały się do wspólnego inwestowania, planowania, rozwijania i realizowania zdolności obronnych w ramach Unii w sposób stały i strukturalny poprzez podjęcie 20 wiążących zobowiązań w pięciu dziedzinach określonych w TUE; mając na uwadze, że zobowiązania te powinny stanowić przejście od zwykłej współpracy w zakresie obrony do pełnej interoperacyjności i wzmocnienia sił obronnych państw członkowskich poprzez tworzenie dwustronnych partnerstw przynoszących obopólne korzyści; mając na uwadze, że te wiążące zobowiązania podlegają corocznej ocenie w krajowych planach wdrożenia przez sekretariat PESCO, z którym uczestniczące kraje członkowskie mogą się konsultować; mając na uwadze, że pomimo tych wiążących zobowiązań nie istnieje żaden skuteczny mechanizm zgodności dla PESCO; mając na uwadze, że projekty PESCO powinny być wdrażane w sposób odzwierciedlający potencjał przemysłowy, z uwzględnieniem obaw dotyczących powielania działań lub ograniczeń budżetowych uczestniczących państw członkowskich; mając na uwadze, że należy usprawnić mechanizm zgodności dla PESCO;
K. mając na uwadze, że uczestniczące państwa członkowskie muszą wykazać pełne zaangażowanie polityczne w ramach 20 wiążących zobowiązań, które podjęły; mając na uwadze, że cykle planowania zdolności wojskowej zwykle obejmują więcej niż trzy lata; mając na uwadze, że obecne krajowe cykle planowania zdolności wojskowej przebiegają zazwyczaj zgodnie z uprzednio ustalonym procesem planowania obrony NATO; mając na uwadze, że należy osiągnąć większe postępy w celu istotnego włączenia PESCO do krajowych procesów planowania obronnego w celu zapewnienia zdolności uczestniczących państw członkowskich do finalizowania projektów PESCO;
L. mając na uwadze, że w pierwotnym zamyśle PESCO była koncepcją awangardową, obejmującą państwa członkowskie, które chcą i są w stanie wznieść współpracę w dziedzinie obrony na nowy poziom ambicji; mając na uwadze, że obecność 25 uczestniczących państw członkowskich nie musi prowadzić do ograniczenia PESCO przez podejście „najniższego wspólnego mianownika”; mając na uwadze, że liczba uczestniczących państw członkowskich wskazuje na chęć bliższej współpracy w dziedzinie bezpieczeństwa i obrony;
M. mając na uwadze, że w wyniku prac w ramach pierwszych trzech serii projektów PESCO uczestniczące państwa członkowskie ustanowiły i przyjęły 47 projektów; mając na uwadze, że nie zrealizowano żadnego z nich; mając na uwadze, że projekty pierwszej fali obejmują głównie projekty w zakresie maksymalnych zdolności państw członkowskich; mając na uwadze, że pożądany udział w projektach PESCO nie może wpływać negatywnie na wysoki poziom ambicji uczestniczących państw członkowskich; mając na uwadze, jak istotne jest, by PESCO skupiła się na projektach wnoszących realną wartość dodaną;
N. mając na uwadze, że 47 projektów PESCO nie łączy najwyraźniej żadna nadrzędna wspólna logika; mając na uwadze, że obecnej liście projektów brakuje spójności, zakresu i ambicji strategicznych, przez co nie wypełni ona najbardziej oczywistych braków w zakresie zdolności ani nie rozwiąże w pełni lub w wystarczającym stopniu priorytetowych braków zidentyfikowanych przez uczestniczące państwa członkowskie w procesie związanym z celem podstawowym w ramach planu rozwoju zdolności (CDP) i skoordynowanego rocznego przeglądu w zakresie obronności (CARD); mając na uwadze, że realizacja jednego z tych projektów została wstrzymana, aby uniknąć niepotrzebnego powielenia; mając na uwadze, że w realizacji innych projektów nie poczyniono wystarczających postępów lub istnieje ryzyko, że projekty te zostaną wstrzymane, a około 30 projektów jest nadal na etapie koncepcji i przygotowania; mając na uwadze, że opracowanie ambitnych projektów w zakresie potencjału wojskowego może zająć nawet 10 lat; mając na uwadze, że przeważająca większość projektów PESCO musi się liczyć z brakami w zakresie Europejskiego Funduszu Obronnego (EFO) i NATO;
O. mając na uwadze, że drugi etap PESCO rozpocznie się w 2021 r.; mając na uwadze, że etap ten przyniesie konkretne i znaczące rezultaty, co oznacza, że konieczne jest opracowanie priorytetowej listy projektów;
P. mając na uwadze, że niektóre projekty PESCO koncentrują się na rozmieszczaniu operacyjnym, np. Centrum EUFOR ds. operacji reagowania kryzysowego (EUFOR CROC), mobilności wojskowej i sieci centrów logistycznych, podczas gdy inne koncentrują się bardziej na rozwoju zdolności wojskowych, np. Zespoły szybkiego reagowania na cyberincydenty i pomoc wzajemna w zakresie cyberbezpieczeństwa (CRRT); mając na uwadze, że oba podejścia są potrzebne, aby w decydujący sposób przyczynić się do przyjęcia wspólnej zintegrowanej strategii bezpieczeństwa i obrony UE;
Q. mając na uwadze, że niektóre najbardziej strategiczne projekty PESCO mogą w decydujący sposób przyczynić się do osiągnięcia strategicznej autonomii Unii i wypracowania spójnego pakietu sił o pełnym spektrum;
R. mając na uwadze, że europejskie projekty z dziedziny obronności, takie jak FCAS (Future Air Combat System) czy MGCS (Main Ground Combat System), pozostają obecnie poza zakresem PESCO;
S. mając na uwadze, że kluczowe znaczenie ma priorytetowe traktowanie i wyeliminowanie braków w zdolnościach określonych w planie rozwoju zdolności, a także wykorzystanie CARD do zwiększenia strategicznej autonomii Europy;
T. mając na uwadze, że tylko niektóre z obecnych projektów PESCO w wystarczającym stopniu odnoszą się do braków w zakresie zdolności zidentyfikowanych w CDP i CARD lub już teraz w wystarczającym stopniu uwzględniają cele zdolnościowe o dużym oddziaływaniu (HICG) wynikające z CDP i powinny być traktowane jako priorytet;
U. mając na uwadze, że należy zwiększyć jednolitość, spójność i wzajemne wzmocnienie między PESCO, CARD, krajowymi planami wdrażania i CDP;
V. mając na uwadze, że proces planowania obrony NATO (NDPP) wnosi wkład w krajowe procesy planowania obrony w 21 uczestniczących państwach członkowskich należących do NATO;
W. mając na uwadze, że wzajemne oddziaływanie krajowych priorytetów państw członkowskich, priorytetów UE i priorytetów NATO powinno jak najszybciej nastąpić tam, gdzie to możliwe i odpowiednie; mając na uwadze, że aby osiągnąć cele UE w zakresie zdolności, należy lepiej zharmonizować priorytety UE i NATO,
X. mając na uwadze odmienny charakter i zadania obu organizacji, PESCO powinna być skutecznym narzędziem uzupełniającym służącym realizacji priorytetów w zakresie rozwoju zdolności i zapewnianiu zdolności wojskowych określonych w UE, a także może przyczyniać się do realizacji celów NATO;
Y. mając na uwadze, że w związku z globalną strategią UE konkretna strategia na rzecz obrony i bezpieczeństwa – taka jak strategia sformułowana w białej księdze UE na temat bezpieczeństwa i obrony proponowanej w wielu sprawozdaniach Parlamentu – mogłaby ułatwić wspólne pojmowanie istniejących i przyszłych wyzwań i zapewniać wytyczne pod kątem PESCO i CDP dzięki zrozumieniu strategicznych ambicji i działań podejmowanych w perspektywie długoterminowej;
Z. mając na uwadze, że obecnie realizacja projektów PESCO zależy od wkładów finansowych 25 uczestniczących państw członkowskich; mając na uwadze, że oczekuje się, iż w wyniku pandemii COVID-19 dojdzie do cięć krajowych budżetów na obronność; mając na uwadze, że paradoksalnie kilka spośród obecnie realizowanych 47 projektów PESCO, może – pod warunkiem odpowiedniego ich sfinansowania – zwiększyć gotowość państw członkowskich na ewentualny kolejny kryzys w dziedzinie zdrowia publicznego; dotyczy to projektów w zakresie mobilności wojskowej, europejskiego dowództwa medycznego i wielu innych projektów w dziedzinach związanych z logistyką i transportem, opieką zdrowotną, pomocą w przypadku katastrof, gotowością na wypadek użycia broni chemicznej, biologicznej, radiologicznej i jądrowej (CBRJ) oraz walką z szkodliwymi działaniami cybernetycznymi i wrogimi kampaniami dezinformacyjnymi; mając na uwadze, że ograniczanie środków finansowych przeznaczonych na strategiczne zdolności, którymi obecnie państwa członkowskie ani UE nie dysponują, osłabiłoby również ich zdolność do wspólnego przeciwdziałania przyszłym pandemiom, zagrożeniom CBRJ i innym nieprzewidywalnym zagrożeniom o poważnych skutkach międzynarodowych;
AA. mając na uwadze, że sfinansowanie infrastruktury transportowej podwójnego zastosowania będzie korzystne zarówno dla mobilności cywilnej, jak i wojskowej, a wdrożenie zharmonizowanych procedur administracyjnych umożliwi transport zasobów po całej UE po odpowiednich drogach zaopatrzeniowych i pomoże w budowaniu wspólnego bezpieczeństwa i obrony;
AB. mając na uwadze, że PESCO i przyszły EFO muszą się wzajemnie umacniać oraz że należy dalej rozwijać powiązania między nimi, aby stworzyć krytyczne zdolności określone w CDP;
AC. mając na uwadze, że perspektywa uzyskania współfinansowania zdolności badawczo-rozwojowych wynikających z niektórych projektów PESCO za pośrednictwem przyszłego EFO zachęciła uczestniczące państwa członkowskie do zwiększenia liczby wniosków oraz do wymiany i współpracy; mając na uwadze, że wszystkie wnioski muszą uwzględniać najlepszy wspólny interes strategiczny UE;
AD. mając na uwadze, że w niektórych przypadkach udział państw trzecich – spełniających uzgodniony zestaw istotnych politycznie i prawnych warunków – w poszczególnych projektach PESCO może leżeć w interesie strategicznym Unii Europejskiej, w szczególności jeśli chodzi o zapewnienie specjalistycznej wiedzy technicznej lub dodatkowych zdolności, i w przypadku partnerów strategicznych; mając na uwadze, że ewentualny udział państw trzecich w projektach PESCO nie powinien podważać celu wspierania WPBiO UE;
AE. mając na uwadze, że udział państw trzecich może mieć wyłącznie charakter wyjątku, a decyzję w tej sprawie podejmuje się indywidualnie dla każdego przypadku i na zaproszenie państw członkowskich UE; mając na uwadze, że udział państwa trzeciego powinien wnosić wartość dodaną do niektórych projektów i przyczyniać się do umocnienia PESCO i WPBiO oraz do wypełnienia bardziej wymagających zobowiązań, z zastrzeżeniem bardzo rygorystycznych warunków oraz na podstawie ustalonej i rzeczywistej wzajemności;
AF. mając na uwadze, że porozumienie w sprawie udziału państw trzecich w projektach PESCO powinno istnieć już od dawna;
AG. mając na uwadze, że w odniesieniu do obecnej roli Komitetu Politycznego i Bezpieczeństwa (KPiB) w kontekście PESCO i rozwoju zdolności Parlament wystąpił już z wnioskiem, zgodnie z którym „mandat Komitetu Politycznego i Bezpieczeństwa (KPiB), o którym mowa w art. 38 TUE, powinien podlegać zawężonej interpretacji”;
AH. mając na uwadze, że za zarządzanie PESCO odpowiadają uczestniczące państwa członkowskie; mając na uwadze, że sekretariat PESCO powinien nadal ułatwiać kontakty z innymi podmiotami UE w odniesieniu do możliwych synergii z innymi instrumentami i inicjatywami UE, aby zapewnić przejrzystość i uniwersalny charakter oraz uniknąć niepotrzebnego powielania;
AI. mając na uwadze, że pogłębianie współpracy w dziedzinie obronności między państwami członkowskimi na poziomie UE powinno iść w parze z umacnianiem uprawnień kontrolnych parlamentów państw członkowskich i Parlamentu Europejskiego;
AJ. mając na uwadze, że instrument „Łącząc Europę” powinien koncentrować się na projektach związanych z mobilnością i interoperacyjnością wojskową, które mają kluczowe znaczenie w przypadku niespodziewanych konfliktów i kryzysów; mając na uwadze, że PESCO powinno przyczyniać się do stworzenia skutecznej strefy Schengen dla mobilności wojskowej, w celu ograniczenia do minimum ilości procedur na granicach i obciążeń infrastrukturalnych; mając na uwadze, że należy z zadowoleniem przyjąć projekt Rail Baltica, który ma zasadnicze znaczenie dla integracji krajów bałtyckich z europejską siecią kolejową, oraz że należy zapewnić jego pełną skuteczność;
AK. mając na uwadze, że PESCO może w tym zakresie przyczynić się do większej spójności, koordynacji oraz interoperacyjności w dziedzinie bezpieczeństwa i obrony, a także do konsolidacji solidarności, spójności i odporności UE;
AL. mając na uwadze, że Parlament wspólnie z Radą powinien pełnić funkcję prawodawczą i budżetową oraz funkcję kontroli politycznej, a także pełnić rolę organu konsultacyjnego, zgodnie z warunkami przewidzianymi w Traktatach;
AM. mając na uwadze, że Parlament wzywa wiceprzewodniczącego Komisji / wysokiego przedstawiciela Unii do Spraw Zagranicznych i Polityki Bezpieczeństwa do przekazania swojego sprawozdania rocznego z wdrażania PESCO;
AN. mając na uwadze, że połączone wysiłki badawczo-rozwojowe uczestniczących państw członkowskich w ramach PESCO doprowadzą do znaczących przełomów technologicznych, dając w zamian UE przewagę konkurencyjną w dziedzinach związanych z nowoczesnymi zdolnościami w zakresie obrony;
1. zaleca Radzie i Wiceprzewodniczącemu Komisji / Wysokiemu Przedstawicielowi Unii do Spraw Zagranicznych i Polityki Bezpieczeństwa:
a)
informowanie Parlamentu Europejskiego i konsultowanie się z nim w sprawie przeglądu PESCO oraz dopilnowanie, aby poglądy Parlamentu zostały należycie uwzględnione, zgodnie z art. 36 TUE, w szczególności w kontekście obecnego strategicznego przeglądu pierwszego etapu PESCO, który zakończy się w 2020 r., aby zapewnić większą rozliczalność, przejrzystość i kontrolę;
b)
podkreśla priorytetowe znaczenie dążenia do rozwiązywania konfliktów i przełomowego odejścia od bezpieczeństwa i obrony, a w szczególności od strategii bezpieczeństwa i obrony opartej na zwiększonych wydatkach na cele wojskowe;
c)
określenie strategicznej wizji Unii i wspólnych zagrożeń m.in. w drodze wdrożenia poziomu ambicji określonego w globalnej strategii UE z 2016 r., w tym w ramach trwających prac nad Strategicznym kompasem, który wymaga współpracy ze wszystkimi odpowiednimi zainteresowanymi stronami i instytucjami, a także rozwijanie operacyjnego wymiaru PESCO;
d)
przygotowanie jak najszybciej, na podstawie wyników dyskusji na temat strategicznych ram działania, w pełni dopracowanej białej księgi UE na temat bezpieczeństwa i obrony; uwzględnienie faktu, że pierwsze wyniki Strategicznego kompasu spodziewane są w pierwszej połowie 2022 r.;
e)
zapewnienie synergii skutków i spójności pomiędzy różnymi inicjatywami i operacjami UE w zakresie obrony;
f)
zachęcanie uczestniczących państw członkowskich za pośrednictwem konkretnych propozycji oraz adekwatnych informacji do odchodzenia od ściśle krajowego spojrzenia na obronność na rzecz bardziej europejskiego podejścia, oraz do podjęcia zorganizowanych starań, aby w szerszym stopniu stosować jako priorytet europejskie podejście oparte na współpracy, gdyż żadne uczestniczące państwo członkowskie nie jest w stanie samo, we własnym zakresie rozwiązać kwestii zidentyfikowanych braków zdolności; zachęcanie uczestniczących państw członkowskich i bardziej ogólnie państw członkowskich, aby nie zmniejszały swych wydatków na obronę w nadchodzących latach, a w szczególności aby nie redukowały zobowiązań finansowych w ramach europejskich projektów dotyczących współpracy;
g)
zwiększenie ambicji budżetowej UE w celu poprawy zdolności obronnych, w szczególności dzięki przeznaczeniu wystarczających środków finansowych na EFO i mobilność wojskową w następnych WRF;
h)
zapewnienie, by PESO była skutecznie wykorzystywana jako instrument zrównoważonej i skutecznej współpracy obronnej UE, zwiększającej zdolności obronne uczestniczących państw członkowskich i interoperacyjność jako wspólny cel, w szczególności pod względem dostępności, interoperacyjności, elastyczności i możliwości rozmieszczenia sił zgodnie z ambitnym zamiarem zwiększenia strategicznej autonomii UE, przy jednoczesnym utrzymaniu ścisłej współpracy między zainteresowanymi uczestniczącymi państwami członkowskimi, zacieśnieniu współpracy UE-NATO w odniesieniu do członków UE-NATO oraz utrzymaniu ścisłej współpracy z innymi partnerami międzynarodowymi;
i)
zapewnienie, aby finansowanie zdolności w oparciu o projekty PESCO w ramach EFO koncentrowało się na zestawie kluczowych projektów strategicznych, zgodnie z priorytetami określonymi w CDP, tak aby zmaksymalizować jego oddziaływanie; zapewnienie, aby wybór projektów PESCO był zgodny z celami zdolnościowymi o dużym oddziaływaniu określonymi w CDP;
j)
uznanie, że Parlament wspólnie z Radą pełni funkcję prawodawczą i budżetową oraz funkcję kontroli politycznej, a także pełni rolę organu konsultacyjnego, zgodnie z warunkami przewidzianymi w Traktatach;
k)
uwzględnienie związku między PESCO a Europejskim programem rozwoju przemysłu obronnego i EFO bezpośrednio w cyklu projektu PESCO, aby skuteczniej przyczyniać się do realizacji ambitnych celów Unii w dziedzinie bezpieczeństwa i obrony; nałożenie wymogu dokumentacji w odniesieniu do każdego projektu przed wyborem warunków budżetowych;
l)
skoncentrowanie wysiłków PESCO na projektach mających na celu systematyczne wzmacnianie wojskowej WPBiO,
(i)
które przyczynią się do zaradzenia znaczącym niedoborom zdolności z bardziej operacyjnym ukierunkowaniem, w bezpośredniej odpowiedzi na potrzeby europejskich sił zbrojnych zaangażowanych w operacje,
(ii)
które mają wymiar strategiczny i integracyjny, takich jak EUFOR CROC, mobilność wojskowa, sieć centrów logistycznych czy CRRT, lub
(iii)
w celu uzyskania, w stosownych przypadkach, dodatkowych synergii i efektów skali;
m)
ukierunkowanie PESCO na konstruktywne projekty o realnym europejskim wymiarze strategicznym w celu wzmocnienia europejskiej bazy przemysłowej i technologicznej w dziedzinie obronności;
n)
podkreślenie znaczenia niewielkiej liczby projektów strategicznych, w szczególności narzędzi strategicznych (sterowanie i kontrola, transport, wywiad), które należy traktować priorytetowo z uwagi na to, że kładą podwaliny pod bardziej zintegrowaną obronę;
o)
podkreślenie, że utworzenie PESCO w ramach Traktatu z Lizbony było postrzegane jako ustanowienie awangardy państw członkowskich gotowych do połączenia zasobów i zdolności w celu osiągnięcia ambitnych wspólnych celów w dziedzinie bezpieczeństwa i obrony; uznanie, że aby stworzyć fundament prawdziwej europejskiej obronności, Unia musi stopniowo wypracować wspólne ramy pod nadzorem Wiceprzewodniczącego Komisji / Wysokiego Przedstawiciela Unii ds. Zagranicznych i Polityki Bezpieczeństwa, w których to ramach państwa członkowskie będą prowadzić przegląd krajowej polityki obronnej oraz dzielić się wynikami i danymi wywiadowczymi;
p)
uznanie w związku z tym wartości wytycznych politycznych Komisji dotyczących polityki obronnej, a w szczególności potrzeby podjęcia odważnych działań na rzecz prawdziwej Europejskiej Unii Obrony, a także przyjęcia zintegrowanego i kompleksowego podejścia do bezpieczeństwa UE; uznanie, że utworzenie nowej Dyrekcji Generalnej ds. Przemysłu Obronnego i Przestrzeni Kosmicznej w Komisji powinno zwiększyć spójność, uczciwą konkurencję i zintegrowaną koordynację przy tworzeniu zdolności obronnych we wszystkich państwach członkowskich UE, a także wzmocnić infrastrukturę wojskową UE oraz zwiększyć wydajność unijnego przemysłu i rynku wewnętrznego;
q)
uznanie, że Parlament powinien odgrywać wiodącą rolę w kontrolowaniu i nadzorowaniu wdrażania WPBiO oraz w procesie jej oceny; pełne informowanie Parlamentu i konsultowanie się z nim w kontekście obecnego przeglądu strategicznego pierwszego etapu PESCO, który kończy się w 2020 r.; uznanie, że zacieśnienie współpracy w dziedzinie obronności między państwami członkowskimi na szczeblu unijnym powinno iść w parze ze zwiększeniem uprawnień kontrolnych Parlamentu;
r)
dążenie do tego, by najważniejsze zdolności, takie jak przyszłe kluczowe platformy lądowe, morskie, powietrzne i inne platformy sił zbrojnych państw członkowskich, były objęte PESCO lub przynajmniej ściśle z nią powiązane w odpowiednim przypadku, tak aby:
(i)
zwiększyć gotowość operacyjną wojskowej WPBiO oraz
(ii)
zapewnić, by działania PESCO uzupełniały istniejące zdolności i były wykorzystywane w sposób, który rozwiąże istniejące braki i kompensuje koszty pośrednie;
s)
sformułowanie innowacyjnych zachęt do poprawy interoperacyjności oraz rozwoju misji i operacji w ramach WPBiO;
t)
zwiększenie inwestycji w łączenie cywilnej infrastruktury transportowej kompatybilnej z planowaniem mobilności wojskowej;
u)
rozważenie uwzględnienia w ramach PESCO systemu grup bojowych UE przy okazji reformy tego systemu, aby zwiększyć jego zdolność operacyjną, modułową konstrukcję i sprawność, poprzez utworzenie stałych jednostek wielonarodowych wykorzystywanych do wykonywania zadań wojskowych określonych w art. 43 TUE, a także do zwiększenia zdolność UE do prowadzenia operacji wojskowych związanych z zarządzaniem kryzysami, w tym najbardziej wymagających operacji takich jak przywracanie pokoju, oraz wykorzystywanych jako strategiczne siły stacjonujące poza obszarem działań;
v)
wspieranie i promowanie, w odpowiednim przypadku, grupowania projektów PESCO w klastry pod względem zdolności oraz ocena ich strategicznej wartości, mając na uwadze cel, jakim jest stworzenie pakietu sił o pełnym spektrum, a także skoncentrowanie wysiłków na projektach o najwyższym potencjale zapewnienia strategicznej autonomii Europy; dokonanie przeglądu bieżącej listy 47 projektów i pogrupowanie ich w klastry lub zaprzestanie realizacji tych projektów, które zdaniem uczestniczących państw członkowskich nie wykazują niewystarczających postępów lub nie przynoszą UE wystarczających wzajemnych korzyści;
w)
wspieranie zgodności z 20 zobowiązaniami w ramach PESCO poprzez ustanowienie wyraźnych i jasno zdefiniowanych punktów odniesienia w zakresie zgodności oraz poprzez dopilnowanie, aby przyszłe wnioski dotyczące projektów odnosiły się do konkretnego priorytetu EU w zakresie rozwoju zdolności; zapewnienie, aby przeglądy postępów w realizacji projektów opierały się na wyraźnych i przejrzystych kryteriach, w tym w odniesieniu do projektów współfinansowanych w ramach Europejskiego programu rozwoju przemysłu obronnego / przyszłego EFO; dopilnowanie, aby takie kryteria służyły jako wskaźnik dla wszystkich państw członkowskich uczestniczących w projektach PESCO; zapewnienie, aby uczestniczące państwa członkowskie nadal zwiększały jakość i szczegółowość informacji zawartych w krajowych planach wdrażania, w których określają sposób, w jaki zamierzają spełnić 20 zobowiązań w ramach PESCO;
x)
zwiększenie spójności unijnych narzędzi i inicjatyw w zakresie planowania obronnego i rozwoju; wykorzystywanie synergii między cyklem projektu PESCO a innymi procesami w zakresie zdolności obronnych, w tym z unijnym procesem związanym z celem podstawowym, CDP i CARD, aby umożliwić składanie bardziej ukierunkowanych, zaawansowanych i lepiej rozwiniętych projektów o lepszej strukturze; zapewnienie, że cykl składania projektów umożliwia zsynchronizowaną realizację kilku europejskich inicjatyw, w tym EFO;
y)
zachęcenie uczestniczących państw członkowskich do włączenia CDP do krajowych procesów planowania obrony, aby ułatwić w ten sposób przezwyciężenie braków w zakresie zdolności;
z)
potwierdzenie centralnej roli Sekretariatu PESCO jako pojedynczego punktu kontaktowego dla wszystkich projektów oraz zachęcenie Sekretariatu do organizowania regularnych analiz sytuacji w zakresie postępów w realizacji projektów dla Parlamentu oraz na potrzeby wszystkich zainteresowanych stron, na podstawie informacji zebranych od państw członkowskich odpowiedzialnych za koordynację projektu; zachęcanie uczestniczących państw członkowskich do dalszego angażowania się w skuteczniejszy dialog z Sekretariatem PESCO na temat przeglądu i aktualizacji krajowych planów wdrażania;
aa)
wezwanie uczestniczących państw członkowskich do zapewnienia namacalnego postępu w realizacji bieżących projektów w ramach PESCO;
ab)
wyjaśnienie roli Komitetu Politycznego i Bezpieczeństwa w procesie PESCO, czego nie przewidziano w TUE, oraz zapewnienie, w tym kontekście, aby Komitet Wojskowy Unii Europejskiej (EUMC) odgrywał ważną rolę pod względem udzielania doradztwa wojskowego ad hoc Wiceprzewodniczącemu Komisji / Wysokiemu Przedstawicielowi Unii do Spraw Zagranicznych i Polityki Bezpieczeństwa;
ac)
zaangażowanie EUMC w prace nad ustanowieniem spójnego pakietu sił o pełnym spektrum;
ad)
zbadanie możliwości ustanowienia Rady Obrony UE na podstawie istniejącej Rady do Spraw Zagranicznych w formule posiedzeń ministrów obrony, będącej również ministerialną Radą Sterującą EDA i formułą spotkań ministrów obrony w ramach PESCO, aby zagwarantować wyznaczanie priorytetów w zakresie zasobów oraz skuteczną współpracę i integrację państw członkowskich w odpowiednich przypadkach;
ae)
wyjaśnienie lub określenie związku między zarządzaniem PESCO a zarządzaniem EFO oraz informowanie Parlamentu w procesie kontroli ex post, jeśli chodzi o finansowanie projektów PESCO ze środków EFO;
af)
rozważenie – na wniosek niektórych uczestniczących państw członkowskich – zmiany cyklu składania projektów PESCO w celu zapewnienia lepszego ukierunkowania, zaawansowania i poprawy struktury tych projektów;
ag)
wyjaśnienie zasad uczestnictwa osób trzecich w PESCO, z uwzględnieniem znaczenia unijnej autonomii podejmowania decyzji i pełnej wzajemności, przy założeniu, że indywidualne podejście do poszczególnych przypadków jest najkorzystniejsze dla Unii z uwzględnieniem:
(i)
potrzeby przygotowania i przyjęcia wszechstronnego podstawowego dokumentu regulującego przyszłą współpracę z osobami trzecimi uczestniczącymi w projektach PESCO, oraz
(ii)
faktu, że proces podejmowania decyzji dotyczący zaangażowania osób trzecich powinien być kontrolowany na poziomie każdego projektu PESCO;
ah)
zachęcanie, aby „przyszłe zagrożenia” stanowiły podstawę przyszłych propozycji projektów PESCO; wzmocnienie partnerstwa z NATO, ONZ, Unią Afrykańską i poza nimi; zapewnienie, aby we wszystkich istotnych aspektach projektów PESCO uwzględniać zaangażowanie i włączanie MŚP;
ai)
zapewnienie, aby projekty PESCO nadal rozwijały i zwiększały potencjał przemysłowy uczestniczących państw członkowskich w dziedzinie nanotechnologii, superkomputerów, sztucznej inteligencji, technologii dronów, robotyki i innych, zabezpieczając w zamian europejską samowystarczalność i niezależność od zagranicznych importerów w tych sektorach, a także ułatwiając tworzenie nowych miejsc pracy;
aj)
odnotowanie, że pandemia COVID-19 wykazała brak wystarczających kompetencji UE w zakresie opieki zdrowotnej; uznanie, że analogicznie należy stworzyć wspólną strategię obronną UE pozwalającą reagować w przypadku ataku na granice i terytoria UE oraz że PESCO stanowi dobry krok w kierunku osiągnięcia tego celu;
ak)
odnotowanie zasadniczej roli, jaką odgrywają europejskie siły zbrojne w stawianiu czoła wyzwaniom związanym z pandemią COVID-19, zarówno w zarządzaniu stanem zagrożenia zdrowia, jak i we wspieraniu misji i operacji cywilnych, również ze względu na swój transgraniczny wymiar i solidarny charakter; podkreślenie potencjalnych korzyści płynących z nowych ambitnych projektów PESCO dla rozwoju wspólnych europejskich zdolności w tej dziedzinie, w oparciu o osiągnięcia poprzednich projektów, zwłaszcza Pakietu dotyczącego mobilnych wojskowych zdolności reagowania na katastrofy i Europejskiego Dowództwa Medycznego;
al)
wezwanie Rady i uczestniczących państw członkowskich, by skupiły się na odporności cybernetycznej i opracowały wspólną strategię i procedury reagowania na incydenty cybernetyczne przez projekty PESCO w celu stworzenia bardziej odpornego środowiska w państwach członkowskich;
am)
uwzględnienie stanowiska Parlamentu w sprawie konferencji o przyszłości Europy, wyrażone w rezolucji z 15 stycznia 2020 r.(8),, zgodnie z którym bezpieczeństwo i rola UE na świecie powinny znaleźć się na niewyczerpującej liście zdefiniowanych priorytetów polityki, i uznanie, że będzie to okazja do zaangażowania obywateli w debatę na temat wzmocnienia PESCO jako sposobu na poczynienie postępów w realizacji autonomicznej wspólnej polityki bezpieczeństwa i obrony Unii.
2. zobowiązuje swojego przewodniczącego do przekazania niniejszego zalecenia Radzie oraz Wiceprzewodniczącemu Komisji / Wysokiemu Przedstawicielowi Unii do Spraw Zagranicznych i Polityki Bezpieczeństwa.
– uwzględniając art. 8 oraz tytuł V, w szczególności art. 21, 22, 36 i 37, Traktatu o Unii Europejskiej (TUE) oraz część piątą Traktatu o funkcjonowaniu Unii Europejskiej (TFUE),
– uwzględniając układ o stowarzyszeniu między Unią Europejską i Europejską Wspólnotą Energii Atomowej oraz ich państwami członkowskimi, z jednej strony, a Republiką Mołdawii, z drugiej strony (układ o stowarzyszeniu), który obejmuje pogłębioną i kompleksową strefę wolnego handlu (DCFTA) i w pełni wszedł w życie z dniem 1 lipca 2016 r.,
– uwzględniając ustanowienie ruchu bezwizowego dla obywateli Republiki Mołdawii w marcu 2014 r. w wyniku wprowadzenia zmian do rozporządzenia Rady (WE) nr 539/2001(1) przez Parlament Europejski i Radę,
– uwzględniając podpisanie w listopadzie 2017 r. protokołu ustaleń, umowy pożyczki i umowy o udzielenie dotacji na pomoc mikrofinansową w kwocie 100 mln EUR na lata 2017–2018,
– uwzględniając mołdawski krajowy plan działania w zakresie wdrażania układu o stowarzyszeniu Mołdawia–Unia Europejska (NAPIAA) w latach 2017–2019,
– uwzględniając swoje wcześniejsze rezolucje, zwłaszcza poprzednią rezolucję z dnia 14 listopada 2018 r. w sprawie wdrożenia układu o stowarzyszeniu UE z Mołdawią(2), swoją rezolucję z dnia 5 lipca 2018 r. w sprawie kryzysu politycznego w Republice Mołdawii po unieważnieniu wyborów na urząd burmistrza Kiszyniowa(3), z dnia 15 listopada 2017 r. w sprawie Partnerstwa Wschodniego w perspektywie szczytu w listopadzie 2017 r.(4), z dnia 4 lipca 2017 r. w sprawie udzielenia pomocy makrofinansowej Republice Mołdawii(5) i z dnia 21 stycznia 2016 r. w sprawie układów o stowarzyszeniu / pogłębionych i kompleksowych stref wolnego handlu z Gruzją, Mołdawią i Ukrainą(6),
– uwzględniają decyzję UE z lipca 2018 r. o wstrzymaniu wypłaty pierwszej transzy pomocy makrofinansowej w następstwie wyroku Sądu Najwyższego w sprawie wyborów na urząd burmistrza Kiszyniowa oraz decyzję UE z listopada 2018 r. o ograniczeniu jej pomocy finansowej w wyniku obaw dotyczących praworządności i zaprzepaszczenia demokratycznych osiągnięć państwa,
– uwzględniając późniejszą decyzję UE z lipca 2019 r. o wznowieniu wypłat wsparcia z budżetu w świetle zobowiązania się Republiki Mołdawii do przeprowadzenia reformy systemu wymiaru sprawiedliwości,
– uwzględniając decyzję UE z października 2019 r. o wypłacie pierwszej transzy pomocy makrofinansowej wynoszącej 30 mln EUR na skutek wdrożenia kluczowych reform mających na celu poprawę standardów demokratycznych i ochronę praworządności,
– uwzględniając wspólny dokument roboczy służb Komisji Europejskiej i Europejskiej Służby Działań Zewnętrznych (ESDZ) w sprawie sprawozdania z wdrożenia układu o stowarzyszeniu z Republiką Mołdawii z dnia 11 września 2019 r.,
– uwzględniając wyniki piątego posiedzenia Rady Stowarzyszenia UE–Republika Mołdawii z dnia 30 września 2019 r.,
– uwzględniając wspólne deklaracje ze szczytów Partnerstwa Wschodniego, z których ostatnią wydano dnia 24 listopada 2017 r. w Brukseli,
– uwzględniając konkluzje Rady do Spraw Zagranicznych w sprawie Republiki Mołdawii z dnia 26 lutego 2018 r.,
– uwzględniając rezolucję nr 2308 Zgromadzenia Parlamentarnego Rady Europy (PACE) w sprawie funkcjonowania instytucji demokratycznych w Republice Mołdawii, przyjętą w dniu 3 października 2019 r.,
– uwzględniając wykaz postrzegania korupcji z 2019 r. sporządzany przez Transparency International, w którym Republice Mołdawii przyznano 120. miejsce spośród 180 ocenionych państw i terytoriów (pierwsze miejsce oznacza najniższą korupcję), podczas gdy w wykazie postrzegania korupcji Transparency International w 2018 r. Republika Mołdawii zajęła 117. miejsce,
– uwzględniając wskaźnik demokracji w 2019 r. (Democracy Index 2019) opublikowany przez The Economist Intelligence Unit, który klasyfikuje Republikę Mołdawii jako „reżim hybrydowy”,
– uwzględniając sprawozdanie Freedom House z 2020 r. pt. „Wolność na świecie”, w którym Republika Mołdawii została oceniona jako „częściowo wolna”, oraz sprawozdanie z 2020 r. pt. „Narody w czasie przemian”, w którym ocenia się Republikę Mołdawii jako „reżim przejściowy lub hybrydowy”,
– uwzględniając mołdawski krajowy plan działania w zakresie wdrażania układu o stowarzyszeniu UE z Mołdawią, krajowy plan działania na rzecz praw człowieka na lata 2018–2022, krajową strategię na rzecz zapobiegania przemocy wobec kobiet i przemocy domowej i jej zwalczania na lata 2018–2023, w której wyraźnie wspomina się o ratyfikacji konwencji stambulskiej,
– uwzględniając analizy i zalecenia wydane przez Organizację Współpracy Gospodarczej i Rozwoju (OECD), w szczególności z dnia 8 marca 2018 r. pt. „Młoda Mołdawia: problemy, wartości i aspiracje” oraz z dnia 20 kwietnia 2018 r. pt. „Przegląd polityki dotyczącej dobrostanu młodzieży w Mołdawii”,
– uwzględniając opinie i zalecenia Biura Instytucji Demokratycznych i Praw Człowieka Organizacji Bezpieczeństwa i Współpracy w Europie (ODIHR) oraz Komisji Weneckiej Rady Europy, w szczególności te z dnia 15 marca 2018 r. w sprawie reformy ordynacji wyborczej w Mołdawii, z dnia 24 czerwca 2019 r. w sprawie sytuacji konstytucyjnej ze szczególnym uwzględnieniem możliwości rozwiązania parlamentu oraz z dnia 14 października 2019 r. w sprawie projektu ustawy o reformie Sądu Najwyższego i Prokuratury,
– uwzględniając wspólny komunikat Komisji Europejskiej z dnia 18 marca 2020 r. zatytułowany „Polityka Partnerstwa Wschodniego po 2020 r.: wzmacnianie odporności – Partnerstwo Wschodnie, które służy wszystkim”,
– uwzględniając konkluzje Rady z dnia 11 maja 2020 r. w sprawie polityki Partnerstwa Wschodniego po 2020 r.,
– uwzględniając wspólny komunikat Komisji i Wysokiego Przedstawiciela Unii do Spraw Zagranicznych i Polityki Bezpieczeństwa do Parlamentu Europejskiego, Rady, Europejskiego Komitetu Ekonomiczno-Społecznego i Komitetu Regionów z dnia 8 kwietnia 2020 r. w sprawie światowej reakcji UE na COVID-19 oraz decyzję Parlamentu Europejskiego i Rady (UE) 2020/701 z dnia 25 maja 2020 r. w sprawie udzielenia pomocy makrofinansowej na rzecz partnerów objętych procesem rozszerzenia i polityką sąsiedztwa w kontekście pandemii COVID-19(7),
– uwzględniając sprawozdanie Komisji dla Parlamentu Europejskiego i Rady, trzecie sprawozdanie w ramach mechanizmu zawieszającego zwolnienie z obowiązku wizowego oraz towarzyszący mu dokument roboczy służb Komisji, opublikowane w dniu 10 lipca 2020 r.,
– uwzględniając zalecenie Parlamentu Europejskiego dla Rady, Komisji i wiceprzewodniczącego Komisji / wysokiego przedstawiciela Unii do spraw zagranicznych i polityki bezpieczeństwa w sprawie Partnerstwa Wschodniego przed szczytem w czerwcu 2020 r.,
– uwzględniając działania i zalecenia Komisji Parlamentarnej Stowarzyszenia UE–Mołdawia, Zgromadzenia Parlamentarnego Euronest, Forum Społeczeństwa Obywatelskiego Partnerstwa Wschodniego, Platformy Społeczeństwa Obywatelskiego UE-Mołdawia oraz innych przedstawicieli społeczeństwa obywatelskiego w Republiki Mołdawii,
– uwzględniając oświadczenie i zalecenia przyjęte z okazji 7. posiedzenia Komisji Parlamentarnej Stowarzyszenia UE–Mołdawia, które odbyło się w dniach 18–19 grudnia 2019 r. w Strasburgu,
– uwzględniając konkluzje misji obserwacji wyborów z ramienia Parlamentu Europejskiego dotyczącej wyborów do parlamentu Republiki Mołdawii z dnia 24 lutego 2019 r. włączonej do międzynarodowej misji obserwacji wyborów prowadzonej przez OBWE/ODIHR,
– uwzględniając pakiet pomocy gospodarczej Komisji przyjęty w dniu 29 marca 2020 r., aby pomóc m.in. Republice Mołdawii w zwalczaniu pandemii COVID-19, który obejmuje przekierowanie istniejących instrumentów celem złagodzenia społeczno-ekonomicznego wpływu kryzysu,
– uwzględniając art. 54 Regulaminu oraz art. 1 ust. 1 lit. e) i załącznik 3 do decyzji Konferencji Przewodniczących z dnia 12 grudnia 2002 r. dotyczącej procedury udzielania zgody na sporządzenie sprawozdań z własnej inicjatywy,
– uwzględniając opinię przedstawioną przez Komisję Handlu Międzynarodowego,
– uwzględniając sprawozdanie Komisji Spraw Zagranicznych (A9‑0166/2020),
A. mając na uwadze, że za pośrednictwem układu o stowarzyszeniu / DCFTA Unia Europejska i Republika Mołdawii zobowiązały się do wspierania stowarzyszenia politycznego i osiągnięcia integracji gospodarczej, a Republika Mołdawii zobowiązała się do włączania dorobku prawnego UE do swoich przepisów i praktyk w wielu obszarach; mając na uwadze, że celem wsparcia tych starań Unia zobowiązała się zapewnić Republice Mołdawii znaczną pomoc finansową i wsparcie budżetowe, pod warunkiem przestrzegania podstawowych wartości i zasad europejskich, takich jak praworządność, prawa człowieka i prawa demokratyczne, oraz zagwarantowania walki z korupcją, przestępczością zorganizowaną, praniem pieniędzy, strukturami oligarchicznymi i nepotyzmem; mając na uwadze, że w poważnych przypadkach regresu współpraca może zostać odwołana;
B. mając na uwadze, że w dniu 13 września 2017 r. Parlament i Rada przyjęły decyzję w sprawie udzielenia pomocy makrofinansowej Republice Mołdawii w wysokości 100 mln EUR w ramach programu MFW, aby wesprzeć gospodarcze i finansowe reformy tego państwa;
C. mając na uwadze, że UE wielokrotnie wyrażała zaniepokojenie dotyczące praworządności, braku postępów w ściganiu sądowym osób odpowiedzialnych za oszustwa bankowe ujawnione w 2014 r. oraz nieustannego łamania praw człowieka;
D. mając na uwadze, że wykaz postrzegania korupcji z 2018 r. sporządzany przez Transparency International oraz sprawozdanie Freedom House z 2020 r. wskazują na nieznaczne postępy Republiki Mołdawii w ostatnich latach, natomiast ogólny trend w tych wskaźnikach, jak również w indeksie demokracji, wskazuje na pogarszającą się długoterminową tendencję w zakresie stanu demokracji, korupcji, praw politycznych i swobód obywatelskich w Mołdawii;
E. mając na uwadze, że pomimo zmian w rządzie instytucje państwowe Republiki Mołdawii są nadal słabe, a Mołdawia wciąż zmaga się z problemem zawłaszczania państwa, ponieważ koncentracja władzy i kontroli nad wszystkimi ważnymi sektorami i instytucjami na najwyższym szczeblu władzy znacząco się nie zmniejszyła;
F. mając na uwadze, że ze względu na poważne naruszenia praworządności i procesu demokratycznego UE zawiesiła w 2018 r. wypłatę dwóch ostatnich transz w ramach programu wsparcia budżetowego na rzecz reformy wymiaru sprawiedliwości;
G. mając na uwadze, że w dniu 11 czerwca 2019 r. Europejski Trybunał Praw Człowieka (w sprawie Ozdil i inni przeciwko Republice Mołdawii) stwierdził, że Republika Mołdawii naruszyła prawa do wolności, bezpieczeństwa, prywatności i życia rodzinnego, gdy we wrześniu 2018 r. jej służby wywiadu i bezpieczeństwa (SIS) zatrzymały i przymusowo odesłały do Turcji pięciu obywateli tureckich, którzy ubiegali się o azyl; mając na uwadze, że ta ukryta ekstradycja jest tylko jednym z przykładów systematycznie powtarzającego się schematu przymusowych i wymuszonych zaginięć, nielegalnego przetrzymywania i deportacji do Turcji obywateli tureckich w dziesiątkach krajów na świecie;
H. mając na uwadze, że w następstwie utworzenia w czerwcu 2019 r. rządu, który zobowiązał się do przeprowadzenia ambitnych reform obejmujących program skoncentrowany na reformie wymiaru sprawiedliwości, Komisja wypłaciła pierwszą transzę pomocy makrofinansowej i wznowiła wypłaty na programy sektorowego wsparcia budżetowego, oświadczając jednocześnie, że będzie nadal stosować rygorystyczne warunki; mając na uwadze, że w dniu 10 lipca 2020 r. Komisja Europejska zatwierdziła wypłatę drugiej i ostatniej transzy z programu pomocy makrofinansowej w wysokości 30 mln EUR;
I. mając jednak na uwadze, że Republika Mołdawii nie miała dostępu do pozostałej części środków dostępnych w ramach tego programu, który wygasł w lipcu 2020 r.; mając na uwadze, że pomoc ta pozostaje uwarunkowana wdrożeniem wcześniej uzgodnionych reform, w szczególności tych, które mają na celu wzmocnienie praworządności, standardów demokratycznych i zapewnienie obywatelom wymiernych korzyści;
J. mając na uwadze, że w listopadzie 2019 r. parlament mołdawski przegłosował wniosek o wotum nieufności dla rządu powołanego w czerwcu 2019 r., utworzył rząd mniejszościowy, a następnie nowy rząd koalicyjny; mając na uwadze, że przedstawiciele instytucji europejskich wyrazili zaniepokojenie dotyczące sposobu zastąpienia poprzedniego rządu oraz kontynuowania procesu reform przez Republikę Mołdawii w ramach układu o stowarzyszeniu / DCFTA;
K. mając na uwadze, że większość parlamentarna nowego koalicyjnego rządu Republiki Mołdawii stale się zmniejsza, ponieważ deputowani opuszczają rządzący sojusz; mając na uwadze, że jesienią w Republice Mołdawii odbędą się wybory prezydenckie, a obecnie występuje okres poważnej niestabilności politycznej; mając na uwadze, że prezydent Igor Dodon podkreślił, że należy rozwiązać parlament i jak najszybciej przeprowadzić przedterminowe wybory; mając na uwadze, że w dniu 7 lipca 2020 r. Trybunał Konstytucyjny Republiki Mołdawii orzekł, że przedterminowe wybory mogą zostać przeprowadzone dopiero po wyborach prezydenckich;
L. mając na uwadze, że w dniu 17 kwietnia 2020 r. rządy Rosji i Mołdawii podpisały wynegocjowaną przez prezydentów obu krajów umowę o pożyczce w wysokości 200 mln EUR udzielonej Republice Mołdawii przez Federację Rosyjską z preferencyjnym oprocentowaniem wynoszącym 2 %; mając na uwadze, że umowa ta została ratyfikowana w dniu 23 kwietnia, a tego samego dnia, w następstwie odwołania złożonego przez członków opozycji parlamentarnej, Trybunał Konstytucyjny (TK) Republiki Mołdawii zawiesił ustawę o ratyfikacji umowy o pożyczce do czasu zakończenia badania jej zgodności z konstytucją; mając na uwadze, że w dniu 6 maja prezes TK poinformował o naciskach wywieranych na Trybunał przez władze Republiki Mołdawii, a także o próbach podważenia zaufania do jego sędziów; mając na uwadze, że w dniu 7 maja 2020 r. TK uznał umowę o pożyczce za niezgodną z konstytucją; mając na uwadze, że obecnie przedmiotem negocjacji z Federacją Rosyjską jest nowa umowa o pożyczce;
M. mając na uwadze, że pandemia COVID-19 wykazała rosnącą potrzebę koordynacji działań między Unią a krajami sąsiadującymi w zakresie zwalczania wspólnych zagrożeń; mając na uwadze, że Unia zareagowała na tę potrzebę, między innymi dostarczając pakiet pomocy finansowej dla swoich sąsiadów;
N. mając na uwadze, że podczas kryzysu związanego z COVID-19 solidarność z partnerami wschodnimi ma zasadnicze znaczenie i Unia udzieliła znacznego wsparcia w celu przeciwdziałania skutkom wybuchu pandemii w regionie; mając na uwadze, że w tym kontekście Republika Mołdawii skorzysta z 87 mln EUR przekierowanego finansowania dwustronnego;
O. mając na uwadze, że Unia udziela również Republice Mołdawii dalszych pożyczek w wysokości 100 mln EUR w ramach pomocy makrofinansowej na podstawie decyzji o udzieleniu pomocy makrofinansowej dziesięciu krajom partnerskim w sąsiedztwie, aby pomóc im ograniczyć skutki gospodarcze pandemii COVID-19; mając na uwadze, że pierwsza transza wyjątkowego pakietu pomocy makrofinansowej zostanie wypłacona jak najszybciej, biorąc pod uwagę dokonaną ratyfikację protokołu ustaleń z Republiką Mołdawii; mając na uwadze, że aby otrzymać drugą transzę, która zostanie wypłacona w ciągu roku od podpisania protokołu ustaleń, kraj ten będzie musiał spełnić pewne warunki; mając na uwadze, że istotnym warunkiem wstępnym przyznania tej pomocy makrofinansowej jest poszanowanie przez Mołdawię skutecznych mechanizmów demokratycznych, w tym wielopartyjnego systemu parlamentarnego, praworządności i zagwarantowanie poszanowania praw człowieka; mając na uwadze, że zawarcie protokołu ustaleń należy postrzegać pozytywnie, a realizacja podjętych zobowiązań powinna być zagwarantowana;
P. mając na uwadze, że Republika Mołdawii podjęła międzynarodowe i krajowe zobowiązania do wspierania równości płci i wzmocnienia pozycji kobiet; mając na uwadze, że kraj ten przyjął środki mające na celu wspieranie politycznej reprezentacji kobiet, w tym przez przyjęcie obowiązkowego 40 % udziału kobiet na listach wyborczych partii politycznych; mając na uwadze, że konieczne są dalsze wysiłki na rzecz postępów w osiąganiu celów krajowej strategii na rzecz równości płci na lata 2017–2021, w tym odpowiednie finansowanie i wzmocnione mechanizmy wdrażania;
Q. mając na uwadze, że pomimo całego postępu gospodarczego skutki społeczne pomocy finansowej i działań na rzecz reform są raczej marginalne; mając na uwadze, że Republika Mołdawii pozostaje jednym z najbiedniejszych krajów w Europie, który zmaga się z problemem niekorzystnej sytuacji społecznej, opuszczonych wsi i skrajnego ubóstwa; mając na uwadze, że w 2018 r. 38,5 % pracowników w Republiki Mołdawii było zatrudnionych nieformalnie, nie mając dostępu do żadnej formy ochrony socjalnej;
R. mając na uwadze, że od 1989 r. liczba ludności Republiki Mołdawii zmniejszyła się prawie o jedną trzecią; mając na uwadze, że pod względem demograficznym są to najgorsze dane w całej Europie; mając na uwadze, że Mołdawianie wyjeżdżają, aby mieć dostęp do wyższego wynagrodzenia oraz lepszej edukacji i udogodnień; mając na uwadze, że zjawisko to ma głębokie i długotrwałe konsekwencje polityczne, gospodarcze i społeczne; mając na uwadze, że Republika Mołdawii zmaga się z problemem niedoboru siły roboczej i braku specjalistów, takich jak pielęgniarki i lekarze; mając na uwadze, że osoby starsze, których znaczna część jest uzależniona od przekazów pieniężnych, są w Republice Mołdawii najbardziej narażone i podatne na ubóstwo;
S. mając na uwadze, że rozwiązania problemów Republiki Mołdawii nie można zapewnić z zewnątrz i że istnieje potrzeba zwiększenia odpowiedzialności społeczeństwa Mołdawii za pokonanie wyzwań stojących przed tym krajem; mając na uwadze, że nadal ważne jest podjęcie głównych wyzwań, takich jak walka z korupcją i strukturami oligarchicznymi, przestrzeganie standardów demokratycznych, potrzeba znalezienia rozwiązań wieloaspektowych problemów społecznych, zapewnienie pluralizmu mediów oraz rozwiązanie problemu ubóstwa i emigracji;
Wspólne wartości i ogólne zasady
1. przypomina, że wspólne wartości, na których opiera się Unia – mianowicie demokracja, poszanowanie praw człowieka i podstawowych wolności oraz praworządność – stanowią również kluczowe elementy stowarzyszenia politycznego i integracji gospodarczej między Unią a Republiką Mołdawii; potwierdza zobowiązanie Unii do wspierania europejskiej drogi Republiki Mołdawii poprzez stowarzyszenie polityczne, integrację gospodarczą i odpowiednie reformy; zauważa, że układ o stowarzyszeniu / DCFTA nadal mają podstawowe znaczenie dla rozwoju Republiki Mołdawii, zwłaszcza w obecnych wyjątkowych czasach, i wyraża uznanie dla trwałego zaangażowania w ten proces mołdawskiego społeczeństwa i władz; przypomina jednak, że należy osiągnąć dalsze postępy w jego wdrażaniu, aby w pełni wykorzystać jego potencjał i korzyści, w szczególności koncentrując się na niezależności instytucji państwowych, ich odporności na wpływy oligarchów, walce z korupcją, wymiarze sprawiedliwości, wzmocnieniu praworządności i poprawie warunków życia obywateli; podkreśla, że układ o stowarzyszeniu / DCFTA był głównym czynnikiem zachęcającym do procesu reform strukturalnych, demokracji i praworządności oraz wspierającym ten proces;
2. z zadowoleniem przyjmuje wszystkie zamiary dotyczące ściślejszej integracji politycznej, społecznej i gospodarczej z Unią, zgodnie z zasadą zróżnicowania i w oparciu o wyniki, rezultaty i aspiracje władz i społeczeństwa Republiki Mołdawii;
3. zauważa wnioski z konsultacji MFW na podstawie art. IV z marca 2020 r. oraz szósty i ostatni przegląd wyników gospodarczych Republiki Mołdawii w ramach ustaleń dotyczących Rozszerzonego Mechanizmu Kredytowego i instrumentu rozszerzonego wsparcia finansowego, ze szczególnym uwzględnieniem rehabilitacji mołdawskiego systemu bankowego i wzmocnienia zarządzania sektorem finansowym;
4. z zadowoleniem przyjmuje wypłatę drugiej transzy unijnej pomocy makrofinansowej; uznaje wysiłki reformatorskie podejmowane przez Republikę Mołdawii w dziedzinach takich jak walka z korupcją, wzmocnienie ram walki z praniem pieniędzy, przyjęcie nowej ustawy o działalności organizacji pozarządowych; oraz zauważa, że Republika Mołdawii przystąpiła do programu wzajemnej oceny OECD w zakresie zwalczania korupcji (stambulski plan działania);
5. jest zdania, że po wypłacie drugiej transzy programu pomocy makrofinansowej UE na lata 2017–2020 powinny nastąpić działania władz mołdawskich mające na celu spełnienie odpowiednich warunków w obszarach związanych ze wzmocnieniem ram przeciwdziałania praniu pieniędzy, które powinny przynieść wymierne i trwałe rezultaty, a także związanych z wzmocnieniem niezależności banku narodowego;
6. wzywa rząd mołdawski i UE do współpracy w celu przezwyciężenia negatywnego wpływu kryzysu związanego z COVID-19 na rozwój społeczny i gospodarczy;
7. z zadowoleniem przyjmuje wyniki negocjacji w sprawie protokołu ustaleń dotyczącego nowego wyjątkowego programu pomocy makrofinansowej UE mającego na celu przeciwdziałanie negatywnym skutkom gospodarczym pandemii COVID-19;
Znaczenie wdrażania postanowień układu o stowarzyszeniu w bieżącej sytuacji politycznej oraz w okresie poprzedzającym wybory prezydenckie w dniu 1 listopada
8. zauważa, że program działania rządu Republiki Mołdawii z listopada 2019 r. jest mniej ambitny niż światowy program do 2030 r. poprzedniego rządu oraz jest zaniepokojony faktem, że niestabilność polityczna i częste zmiany rządów wpływają na wdrażanie postanowień układu o stowarzyszeniu / DCFTA oraz ograniczają tempo reform; popiera połączenie kolejnego programu stowarzyszeniowego z nowym planem działania w zakresie wdrażania układu o stowarzyszeniu i podkreśla znaczenie szybkiego przyjęcia nowego programu stowarzyszeniowego jako instrumentu służącego przyspieszeniu wdrożenia układu o stowarzyszeniu i zaktualizowaniu priorytetów w zakresie jego wdrażania przy aktywnym udziale parlamentu i wkładzie ze strony społeczeństwa obywatelskiego oraz innych zainteresowanych stron w UE i w Mołdawii; przypomina, że dalsze unijne wsparcie polityczne i finansowe pozostaje zależne od wprowadzenia konkretnych reform, w szczególności w zakresie praworządności i wymiaru sprawiedliwości; w związku z tym ponownie podkreśla znaczenie wdrożenia wszystkich priorytetowych reform uzgodnionych w programie stowarzyszeniowym oraz spełnienia uzgodnionych warunków dotyczących wypłaty drugiej i trzeciej transzy pomocy makrofinansowej;
9. z zadowoleniem przyjmuje konstruktywny wkład Republiki Mołdawii we współpracę w ramach Partnerstwa Wschodniego oraz zachęca do stałej i zintensyfikowanej wymiany politycznej między krajami objętymi układem o stowarzyszeniu / DCFTA a Komisją na temat reform związanych ze stowarzyszeniem; wzywa Komisję Europejską do właściwego wykorzystania istniejących mechanizmów dalszego monitorowania konkretnego wdrażania reform oraz do opracowania warunkowego mechanizmu, w tym jasnych poziomów odniesienia, przy znaczącym zaangażowaniu społeczeństwa obywatelskiego, zwłaszcza na szczeblu lokalnym; w tym kontekście uważa za niezbędne zwiększenie wsparcia finansowego dla organizacji społeczeństwa obywatelskiego, które odgrywają kluczową rolę we wspieraniu udziału w debatach publicznych i monitorowaniu zarówno działań władz mołdawskich, jak i skuteczności polityki Unii wobec tego kraju; ponadto sugeruje wykorzystanie doświadczenia grupy wsparcia dla Ukrainy do stworzenia podobnej struktury dla Republiki Mołdawii, aby zwiększyć skuteczność i widoczność wsparcia UE;
10. podkreśla, że sytuacja w Republice Mołdawii powinna być uważnie monitorowana w perspektywie długoterminowej, w tym w okresie przedwyborczym, zgodnie z normalnymi praktykami i standardami OBWE/ODIHR, zwłaszcza w okresie obecnego kryzysu, ponieważ nadchodzące wybory prezydenckie będą sprawdzianem dla demokracji i praworządności w tym kraju;
11. w tym względzie wzywa władze Mołdawii do zapewnienia wolnych i uczciwych wyborów prezydenckich zaplanowanych na 1 listopada 2020 r. oraz do dalszej poprawy ordynacji wyborczej w celu zapewnienia skuteczności prawa do głosowania, jak również uczciwości kampanii wyborczych, przejrzystości procesu legislacyjnego i demokratycznego nadzoru, aby umożliwić odpowiednią kontrolę publiczną nad działalnością rządu i parlamentu; domaga się, aby władze Mołdawii powstrzymały się od dokonywania zmian zasad i przepisów w celu uzyskania politycznych korzyści, co zawsze kończy się niepokojami politycznymi i niestabilnością oraz rzutuje na zaangażowanie w reformy strukturalne; w związku z przyszłymi wyborami podkreśla znaczenie demokratycznej legitymacji rządu, przejrzystości w budowaniu koalicji, poszanowania woli wyborców oraz istotność tego, by większość rządowa odzwierciedlała głosy obywateli;
12. wzywa władze Mołdawii do wzmocnienia mechanizmów demokratycznych, w tym wielopartyjnego systemu parlamentarnego oraz do zapewnienia wolnych, niezależnych i pluralistycznych mediów, a także sprawiedliwego dostępu do finansów i mediów; w tym kontekście domaga się, aby władze Mołdawii wzmocniły odporność na dezinformację i manipulację informacjami przez podmioty krajowe i zagraniczne, w internecie i poza nim, oraz aby wdrożyły środki w celu rozwiązania jeszcze bardziej naglących problemów takich jak kupowanie głosów, zastraszanie obserwatorów wyborów, przekupstwo wyborcze i inne praktyki korupcyjne, a także niewłaściwe wykorzystywanie zasobów państwowych, ponieważ praktyki te podważają i niszczą wszelkie demokratyczne działania podejmowane przez podmioty polityczne Republiki Mołdawii;
13. podkreśla potrzebę zdecydowanej i uczciwej rywalizacji politycznej między kandydatami na prezydenta, która nie będzie możliwa bez zdrowego i przejrzystego systemu finansowania partii i kampanii prezydenckiej;
14. wzywa rząd mołdawski do wprowadzenia wszelkich niezbędnych środków w celu zapewnienia, by obywatele Republiki Mołdawii mieszkający w regionie Naddniestrza, jak również poza terytorium Republiki Mołdawii, mogli wziąć udział w wyborach w sposób dopuszczający udział wszystkich stron, przejrzysty i sprawiedliwy oraz wolny od zagranicznej ingerencji;
Reformy i ramy instytucjonalne
15. z zadowoleniem przyjmuje reformy, które doprowadziły do wprowadzenia ruchu bezwizowego z Unią; program ten jest szeroko wykorzystywany przez obywateli Republiki Mołdawii i stanowi bardzo dobry przykład tego, jak wdrażanie układu o stowarzyszeniu / DCFTA wpływa na życie obywateli przez wspieranie kontaktów międzyludzkich z innymi Europejczykami; wzywa Unię i Republikę Mołdawii do dalszej poprawy wymiany i kontaktów międzyludzkich w celu budowania wzajemnego pozytywnego wizerunku wśród społeczeństwa;
16. z zadowoleniem przyjmuje fakt, że od 2014 r. ponad 2,3 mln obywateli Mołdawii skorzystało z ruchu bezwizowego i zauważa, że zgodnie z ostatnim sprawozdaniem Komisji Republika Mołdawii nadal spełnia wymogi związane z liberalizacją przepisów wizowych oraz że ruch bezwizowy nadal przynosi Unii i Republice Mołdawii wymierne korzyści gospodarcze, społeczne i kulturalne; zachęca obie strony do utrzymania swobodnego przepływu osób również w sytuacjach kryzysowych;
17. docenia wysiłki podjęte przez władze mołdawskie w celu wdrożenia zaleceń przedstawionych w rocznych sprawozdaniach dotyczących mechanizmu zawieszającego zwolnienie z obowiązku wizowego; zaleca kontynuację wdrażania poziomów odniesienia związanych z polityką liberalizacji systemu wizowego oraz wzywa władze do kontynuowania działań na rzecz spełnienia kryteriów liberalizacji przepisów wizowych, w szczególności w dziedzinie walki z korupcją, do wzmocnienia wymiaru sprawiedliwości, do stosowania przepisów dotyczących przeciwdziałania praniu pieniędzy oraz do podjęcia konkretnych działań w celu rozwiązania problemu rosnącej liczby nieuzasadnionych wniosków o azyl; w tym kontekście jest zaniepokojony wzrostem liczby obywateli Mołdawii, w odniesieniu do których stwierdzono nielegalny pobyt w strefie Schengen+ (wzrost o 47 %) oraz wzrostem liczby wniosków o azyl (wzrost o 48 %); wzywa władze mołdawskie, aby nadal wypełniały zobowiązania podjęte w kontekście zliberalizowanego systemu wizowego dla strefy Schengen w obszarze skutecznego zarządzania migracją oraz aby zapewniły prawa do azylu w Republice Mołdawii wnioskodawcom pochodzącym z państw trzecich;
18. pozytywnie ocenia przyjęcie przez parlament Republiki Mołdawii szeregu aktów ustawodawczych zgodnie ze zobowiązaniem tego państwa zapisanym w układzie o stowarzyszeniu, mianowicie dotyczących administracji publicznej, zarządzania finansami publicznymi i reform systemu wymiaru sprawiedliwości; podkreśla znaczenie pełnego wdrożenia tych aktów, w tym poprzez przyjęcie prawa wtórnego;
19. przyjmuje z zadowoleniem postępy osiągnięte w zakresie finansów publicznych i wzywa władze mołdawskie do przyspieszenia wdrażania innych reform wynikających z układu o stowarzyszeniu / DCFTA, bazując na poprawie stanu praworządności;
20. docenia podstawowe kroki podjęte przez Republikę Mołdawii w celu poprawy funkcjonowania administracji publicznej; w związku z tym wzywa rząd mołdawski do zapewnienia pełnego wdrożenia reformy administracji publicznej na lata 2016–2020 zgodnie z zasadami OECD / wsparcia ulepszeń w zakresie ładu administracyjno-regulacyjnego i zarządzania dotyczącymi administracji publicznej; ponadto zachęca władze Mołdawii do zwiększenia przejrzystości i zwalczania powszechnej korupcji w administracji publicznej oraz do założenia krajowej szkoły administracji publicznej;
21. podkreśla, że bardziej skuteczne i trwałe wdrożenie układu o stowarzyszeniu wywodzi się z bezstronnej i profesjonalnej administracji instytucji i agencji państwowych; w związku z tym ponownie podkreśla zaniepokojenie brakiem stałego zobowiązania do poprawy sytuacji w sektorze publicznym, co zniechęca kompetentne osoby do kontynuowania kariery w administracji publicznej oraz zwraca uwagę na potrzebę rozwoju profesjonalnej administracji publicznej i zachęcania młodych ludzi do podejmowania kariery w sektorze publicznym, tak aby osiągnąć większą przejrzystość administracji pozbawionej chronicznego upolitycznienia w wyniku nepotyzmu i faworyzowania;
22. wzywa do podjęcia działań na rzecz jak najszybszego rozpoczęcia bardziej kompleksowej reformy decentralizacyjnej, w tym reformy systemu administracyjno-terytorialnego Republiki Mołdawii, rozwoju regionalnego i decentralizacji administracyjnej, z możliwością generowania podatków lokalnych; w związku z tym podkreśla potrzebę pogłębienia i poszerzenia współpracy między władzami lokalnymi, zmniejszenia liczby administracji lokalnych i wprowadzenia dodatkowych środków mających na celu zapewnienie im większej niezależności i zmniejszenie kosztów operacyjnych; wzywa władze mołdawskie do przestrzegania zasad demokracji lokalnej i autonomii lokalnej zgodnie z Europejską Kartą Samorządu Lokalnego przez zapewnienie samorządom lokalnym odpowiednich kompetencji i wystarczającego finansowania oraz przez zagwarantowanie ich skutecznego funkcjonowania;
23. jest zaniepokojony wysokim poziomem koncentracji i upolitycznienia sektorów mediów i reklamy, co prowadzi do niskiego poziomu zaufania społecznego do mediów; wzywa władze Mołdawii do kontynuowania reformy sektora medialnego, w szczególności przy silniejszym zaangażowaniu w ten proces społeczeństwa obywatelskiego, apeluje do Republiki Mołdawii o dokonanie przeglądu kodeksu audiowizualnego i liberalizację rynku reklamy zgodnie z europejskimi standardami wolności i pluralizmu mediów zalecanymi przez Komisję Europejską i Komisję Wenecką w celu zapewnienia pełnej przejrzystości w dziedzinie własności w mediach i na rynku reklamy;
24. jest zdania, że zwiększenie pluralizmu mediów i ich niezależności powinno być dla Unii i Republiki Mołdawii priorytetem w ich stosunkach partnerskich i że powinno znaleźć odpowiednie odzwierciedlenie również w przydziale środków finansowych; wzywa Komisję Europejską do zwiększenia wsparcia dla mediów niezależnych, w tym mediów w regionach; wzywa władze mołdawskie do powstrzymania się przed wykorzystywaniem pandemii COVID-19 do wprowadzania środków ograniczających wolność słowa i zdolność mediów do podawania faktów o pełnej skali wpływu kryzysu związanego z COVID-19 na społeczeństwo w niezależny i bezstronny sposób; wyraża zaniepokojenie w związku z rozpowszechnianiem fałszywych wiadomości i dezinformacji w Republice Mołdawii w czasie kryzysu związanego z COVID-19 i zwraca uwagę na konieczność opracowania zarówno przez władze lokalne, jak i Unię Europejską konkretnych programów promujących umiejętność korzystania z mediów, zwalczających dezinformację i wspierających wysokiej jakości, sprawdzone pod względem merytorycznym treści medialne;
25. wzywa władze Mołdawii do wspierania wolnych i niezależnych mediów, w tym przez przeprowadzenie niezależnego audytu, zapewnienia skuteczności Rady Audiowizualnej jako niezależnego organu regulacyjnego walczącego z trwającym zastraszaniem dziennikarzy, upolitycznieniem i brakiem przejrzystości instytucji publicznych i regulacyjnych oraz brakiem publicznego dostępu do informacji i wysokiej jakości treści medialnych, oraz do zapewnienia przejrzystości w dziedzinie własności w mediach;
26. podkreśla, że Unia jest największym dostarczycielem pomocy dla Republiki Mołdawii; z wielkim niepokojem obserwuje ciągłą propagandę, kampanie dezinformacyjne i oczerniające przekazy rządzących polityków skierowane przeciwko Unii, które rysują jej zniekształcony i nierzeczywisty obraz w telewizji publicznej i mediach; ubolewa nad takimi publicznymi atakami na pomoc i wizerunek Unii, ponieważ utrudniają one wdrożenie układu o stowarzyszeniu i podważają stosunki między UE a Republiką Mołdawii; wzywa władze mołdawskie do zaprzestania antyunijnych kampanii dezinformacyjnych i propagandowych, na które narażeni są obywatele Republiki Mołdawii, oraz do zwiększenia wsparcia w walce z fałszywymi wiadomościami, wojną hybrydową w obszarze komunikacji, ukierunkowanymi kampaniami dezinformacyjnymi i pogarszaniem się jakości programów w mediach; podkreśla, że zaangażowanie polityczne w środki masowego przekazu strukturalnie osłabia podstawowe wolności i dostęp do informacji;
27. ubolewa, że obecny rząd w Kiszyniowie stopniowo oddala się od drogi ku Europie, co szkodzi demokratycznym aspiracjom Mołdawii, i wzywa wszystkie proeuropejskie partie polityczne do znalezienia rozwiązań w drodze dialogu, aby zapewnić ciągłość procesu integracji Republiki Mołdawii z Unią Europejską i w pełni wykorzystać wszystkie korzyści oferowane przez układ o stowarzyszeniu / DCFTA;
28. wzywa władze mołdawskie do podjęcia większych wysiłków w celu zagwarantowania, że możliwości związane z układem o stowarzyszeniu / DCFTA oraz pomoc i programy UE dotrą do szczebla lokalnego, w tym do odległych części kraju, w szczególności do obszarów wiejskich, tak aby umożliwić mieszkańcom dążenie do pozytywnych zmian w ich społecznościach, w szczególności tych bardziej narażonych na postsowieckie nastroje i manipulacje ze strony Rosji;
29. jest zdania, że władze powinny przekazywać przejrzyste informacje na temat pomocy zewnętrznej, o którą zamierzają się ubiegać, oraz że finansowanie z Federacji Rosyjskiej powinno być otwarcie omawiane w Parlamencie oraz z ekspertami i społeczeństwem obywatelskim, w tym również w odniesieniu do uwarunkowań geostrategicznych i długoterminowego wpływu tego rodzaju finansowania na gospodarkę; uważa, że władze powinny również udzielać społeczeństwu niezbędnych wyjaśnień dotyczących warunków związanych z pomocą finansową UE; podkreśla, że warunki UE należy postrzegać jako szansę na przeprowadzenie niezbędnych reform;
30. podkreśla potrzebę zwalczania rosyjskiej dezinformacji przez oparte na faktach i dostępne informacje wysokiej jakości, a także przez kampanie publiczne mające na celu zwiększenie świadomości społecznej; zachęca władze Republiki Mołdawii do pogłębienia współpracy z Unią i jej państwami członkowskimi w celu poprawy wdrażania dobrych praktyk i rozwiązań w zakresie przeciwdziałania dezinformacji, propagandzie, manipulacji i wrogim wpływom sił zewnętrznych w celu podziału, destabilizacji i podważania integralności wewnętrznych procesów politycznych i stosunków z Unią;
31. docenia postępy w przyjmowaniu przez parlament mołdawski nowej ustawy o organizacjach niekomercyjnych w ramach spełnienia wymogów dotyczących warunków przyznania pomocy makrofinansowej UE; oczekuje, że jej szybkie i skuteczne wdrożenie będzie sprzyjać pełnemu poszanowaniu praw i wolności społeczeństwa obywatelskiego i organizacji pozarządowych, a także swobody zrzeszania się, i wzywa rząd mołdawski do większego wsparcia rozwoju społeczeństwa obywatelskiego; zwraca uwagę na kluczową rolę, jaką organizacje pozarządowe odgrywają w każdym demokratycznym społeczeństwie, i wyraża nadzieję, że nowe przepisy poprawią przejrzystość publicznego procesu decyzyjnego i zapewnią zmodernizowane ramy funkcjonowania społeczeństwa obywatelskiego w tym kraju; wzywa władze mołdawskie do powstrzymania się od wszelkich nacisków na organizacje pozarządowe i inne podmioty obywatelskie; wyraża ubolewanie z powodu braku zaufania i wrogości ze strony urzędników politycznych wobec ogółu społeczeństwa obywatelskiego; wzywa do bardziej znaczącego i aktywnego zaangażowania społeczeństwa obywatelskiego w procesy kształtowania polityki i wdrażania, w szczególności w obszarze praw człowieka i podstawowych wolności, w którym organizacje pozarządowe mogłyby działać w charakterze strażnika i pociągać odpowiednie instytucje państwowe do odpowiedzialności; mając to na uwadze, wzywa Komisję i państwa członkowskie do zapewnienia politycznego, technicznego i finansowego wsparcia społeczeństwu obywatelskiemu i apeluje do instytucji UE o ustanowienie jasnych zasad pomagających uniknąć udzielania dotacji „GONGO” (organizacjom pozarządowym założonym i finansowanym przez rządy za pośrednictwem nieformalnych kanałów);
32. wzywa władze mołdawskie do wspierania przejrzystości w publicznym procesie podejmowania decyzji oraz do zapewnienia odpowiedniego zaangażowania i konsultacji z zainteresowanymi stronami i społeczeństwem obywatelskim na wszystkich etapach, co zwiększy również kontrolę publiczną i społeczną akceptację przeprowadzanych reform;
33. z zadowoleniem przyjmuje zmiany ordynacji wyborczej przyjęte w sierpniu 2019 r. oraz wyrok mołdawskiego Trybunału Konstytucyjnego z lutego 2020 r. w sprawie wymogów terytorialnych w zakresie tworzenia partii politycznych;
34. zwraca uwagę, że kryzys związany z COVID-19 pokazał, że system opieki zdrowotnej Republiki Mołdawii jest słabo rozwinięty i z trudem radzi sobie z ostatnio odnotowanym gwałtownym wzrostem liczby zakażeń; wzywa Komisję Europejską, państwa członkowskie i Republikę Mołdawii do zacieśnienia współpracy w zakresie odporności zdrowia publicznego, wymiany najlepszych praktyk i współpracy ze społeczeństwem obywatelskim, środowiskiem biznesowym i MŚP w zakresie opracowywania koncentrujących się na najbardziej wrażliwych grupach w społeczeństwie strategii na wypadek epidemii; wzywa rząd mołdawski do wzmocnienia systemu opieki zdrowotnej, poprawy standardów sanitarnych, zwłaszcza w szpitalach, a także do przekazywania ludności wszystkich istotnych informacji o pandemii w sposób przejrzysty i nikogo nie wyłączający;
Współpraca w dziedzinie wspólnej polityki zagranicznej i bezpieczeństwa (WPZiB) oraz postępy poczynione w rozwiązywaniu konfliktu dotyczącego Naddniestrza
35. z zadowoleniem przyjmuje udział Republiki Mołdawii w misjach i operacjach prowadzonych w ramach wspólnej polityki bezpieczeństwa i obrony (WPBiO) dotyczących cyberbezpieczeństwa i dochodzeń w sprawach związanych z cyberprzestępczością, a także współpracę Republiki Mołdawii z NATO i jej dostosowanie do deklaracji UE w zakresie WPZiB; wzywa instytucje UE do włączenia Republiki Mołdawii do nowych form współpracy w zakresie cyberbezpieczeństwa, przeciwdziałaniu zagrożeniom hybrydowym i dochodzeń w sprawach związanych z cyberprzestępczością;
36. docenia znaczenie misji granicznej UE dla Mołdawii i Ukrainy (EUBAM) w harmonizacji zarządzania granicami i systemu celnego z systemem unijnym, ale także w odniesieniu do rozwiązania kwestii Naddniestrza;
37. uznaje wyjątkowe doświadczenie i wiedzę specjalistyczną, jaką dysponuje Republika Mołdawii, oraz wkład, jaki może ona wnieść do unijnej polityki bezpieczeństwa zbiorowego i obrony oraz zachęca do pogłębienia współpracy w dziedzinie polityki obronnej związanej z UE, w tym do udziału w PESCO po ustaleniu kwestii zaangażowania państw trzecich;
38. potwierdza, że UE popiera suwerenność i integralność terytorialną Republiki Mołdawii oraz wysiłki w procesie negocjacji 5+2 na rzecz pokojowego, trwałego i kompleksowego politycznego rozwiązania konfliktu w Naddniestrzu, które opierać się będzie na poszanowaniu suwerenności i integralności terytorialnej Republiki Mołdawii w jej uznanych na arenie międzynarodowej granicach, ze szczególnym statusem Naddniestrza i zapewni ochronę praw człowieka na terytoriach niekontrolowanych przez władze konstytucyjne; przypomina, że Zgromadzenie Ogólne ONZ przyjęło w dniu 22 czerwca 2018 r. rezolucję wzywającą Federację Rosyjską do bezwarunkowego wycofania swoich wojsk i uzbrojenia z terytorium Republiki Mołdawii i potwierdzającą poparcie dla natychmiastowego wdrożenia tej rezolucji;
39. zachęca rząd mołdawski do dalszego promowania środowiska sprzyjającego rozwiązywaniu konfliktów i wspierania działań, które zwiększają zaufanie i poprawiają kontakty międzyludzkie w społecznościach podzielonych konfliktem;
40. uznaje większą wzajemną zależność Republiki Mołdawii i regionu Naddniestrza w kwestii bezpieczeństwa oraz stabilność obu tych podmiotów za główny czynnik zapobiegania problemom związanym z bezpieczeństwem, takim jak zagrożenia hybrydowe, ataki cybernetyczne, ingerencje cybernetyczne w wybory, kampanie dezinformacyjne i propagandowe oraz ingerencja stron trzecich w procesy polityczne, wyborcze i inne procesy demokratyczne, oraz rozwiązywania tych problemów;
41. z zadowoleniem przyjmuje wysiłki rządu Mołdawii na rzecz rozszerzenia korzyści płynących z umowy DCFTA i systemu ruchu bezwizowego na region Naddniestrza, które umożliwiły znaczny wzrost mobilności i wymiany handlowej z tym regionem, jak również wszystkie działania wzmacniające współpracę gospodarczą i zwiększające poziom wymiany towarów i usług między Republiką Mołdawii a Naddniestrzem;
42. uważa, że gwarantując bezcłowy dostęp do rynków UE naddniestrzańskim przedsiębiorstwom zarejestrowanym na zachodnim brzegu Dniestru i poddanym kontrolom celnym przez mołdawskich urzędników, DCFTA doprowadziła do ogromnej zmiany w kierunku handlu z Euroazjatyckiej Unii Gospodarczej do Unii; zachęca władze mołdawskie do dalszych działań na rzecz handlu i współpracy z rynkami UE w celu zwiększenia dostępu do rynku, przejrzystości, dobrych praktyk biznesowych i ograniczenia możliwości manipulacji rynkiem i monopolizacji przez oligarchów;
43. podkreśla, że każda rezolucja w sprawie kwestii Naddniestrza musi szanować suwerenne prawo Republiki Mołdawii do wyboru własnego kierunku polityki obronnej i zagranicznej;
44. wzywa władze Republiki Mołdawii do rozważenia opracowania i wdrożenia pakietu ustaw odnoszących się do części NAPIAA w latach 2017–2019 dotyczącej obszarów zapobiegania konfliktom i zarządzania kryzysowego;
Praworządność i dobre rządy
45. jest zaniepokojony powolnym przebiegiem reform dotyczących praworządności i instytucji demokratycznych; apeluje, aby rząd Republiki Mołdawii niezwłocznie zakończył reformę wymiaru sprawiedliwości, tak by zagwarantować niezawisłość, bezstronność i skuteczność wymiaru sprawiedliwości oraz wyspecjalizowanych instytucji antykorupcyjnych; wzywa mołdawski rząd do zapewnienia w tym zakresie przejrzystego procesu opracowywania zmian w mołdawskiej konstytucji dotyczących Najwyższej Rady Sądownictwa, oraz do ich późniejszego przyjęcia, przy wykorzystywaniu międzynarodowych precedensów i najlepszych praktyk, zgodnie z zaleceniami Komisji Weneckiej i w konsultacji z Radą Europy, unijnymi ekspertami, społeczeństwem obywatelskim i innymi zainteresowanymi stronami; ubolewa, że poprawki dotyczące mianowania członków Najwyższej Rady Sądownictwa zostały przyspieszone przez Parlament; podkreśla potrzebę zapewnienia niezależności Najwyższej Rady Sądownictwa i apeluje do mołdawskich władz o zapewnienie procedur wyboru i awansu sędziów opartych na kryteriach merytorycznych;
46. wzywa władze do kontynuowania skutecznych konsultacji w celu przyjęcia koncepcji i planu działania dotyczących reformy wymiaru sprawiedliwości w oparciu o kompleksową diagnostykę, przy zapewnieniu szerokiego konsensusu ze strony zainteresowanych podmiotów i ścisłym przestrzeganiu mołdawskiej konstytucji i norm europejskich;
47. jest zaniepokojony niskim poziomem zaufania do uczciwości i skuteczności wymiaru sprawiedliwości oraz podatnością sądownictwa na naciski polityczne, które ograniczają jego niezależność; wzywa władze Republiki Mołdawskiej do zapewnienia przejrzystości procesu mianowania sędziów oraz by Prokurator Generalny, jego pracownicy oraz prokuratorzy ogółem pracowali w sposób niezawisły i przestrzegali najwyższych standardów profesjonalizmu i uczciwości;
48. w związku z tym zwraca uwagę, że brak zasobów i wiedzy na temat dobrych rządów, praworządności i praw człowieka przenika mołdawską administrację i negatywnie wpływa na jej skuteczne funkcjonowanie oraz apeluje do Komisji Europejskiej o zwiększenie finansowania za pomocą dostępnego wsparcia budżetowego i instrumentów pomocy technicznej, aby wzmocnić potencjał i skuteczność organów wymiaru sprawiedliwości i organów ścigania, uwzględniając postępy we wdrażaniu reform;
49. apeluje, by władze Republiki Mołdawii wzmocniły całkowitą niezawisłość trybunału konstytucyjnego oraz zapewniły, aby nie podlegał on żadnej formie ingerencji politycznej; zdecydowanie odrzuca wszelkie próby zastraszania sędziów mołdawskiego Trybunału Konstytucyjnego lub wywierania na nich nacisku oraz potępia ogromną presję, szantażowanie i nękanie sędziów trybunału przed wydaniem decyzji w sprawie rosyjskiej pożyczki; wyraża głębokie ubolewanie z powodu prób upolitycznienia mołdawskiego Trybunału Konstytucyjnego oraz braku działania prokuratury i ośrodka antykorupcyjnego w obronie niezależności tego trybunału;
50. jest zaniepokojony utrzymującą się od dłuższego czasu tendencją polegającą na braku postępów w zwalczaniu korupcji w Mołdawii i w związku z tym wzywa rząd do zintensyfikowania walki z korupcją i zawłaszczaniem państwa, jak również zwalczania prania pieniędzy, przemytu i przestępczości zorganizowanej, w tym handlu ludźmi; wzywa rząd Republiki Mołdawii do przyjęcia konkretnych środków służących zwiększeniu niezawisłości, uczciwości i skuteczności Biura Krajowego Ośrodka Antykorupcyjnego i Biura Prokuratury Antykorupcyjnej, a także odpolitycznieniu publicznych instytucji antykorupcyjnych i organów ścigania; zwraca uwagę na potrzebę stałych i konsekwentnych wysiłków na rzecz zapobiegania korupcji na wysokim szczeblu i przestępczości zorganizowanej oraz ich ścigania; jest zdania, że jest to jedyny sposób na przywrócenie zaufania obywateli mołdawskich i zapewnienie przeprowadzenia trwałych reform w Republice Mołdawii; wzywa Komisję do udzielenia znacznie bardziej spójnego wsparcia organizacjom społeczeństwa obywatelskiego monitorującym działania związane z nadużyciami finansowymi i praniem pieniędzy;
51. wzywa władze do wzmożenia wysiłków na rzecz zwalczania przestępczości zorganizowanej i likwidacji układów przestępczych;
52. pozytywnie odnosi się do przyjęcia w dniu 21 maja 2020 r. ustawy o sankcjach w zakresie przeciwdziałania praniu pieniędzy i wzywa do szybkiego opracowania wytycznych dotyczących stosowania nowych przepisów, a także do przeprowadzenia specjalistycznych szkoleń dla zainteresowanych organów; wzywa wszystkie zainteresowane strony do utrzymania konsekwentnych wysiłków w walce z przemytem, praniem pieniędzy, likwidacją sieci powiązań przestępczych i ograniczeniem wpływu oligarchów; wzywa do ściślejszej współpracy z Europolem, Interpolem i organizacjami celnymi, takimi jak WCO i siecią antykorupcyjną OECD;
53. z zaniepokojeniem odnotowuje zawarte w sprawozdaniu Komisji i ESDZ z 2019 r. wnioski z wdrożenia układu o stowarzyszeniu z Mołdawią, zgodnie z którymi ustanawianie instrumentów i organów mających na celu zapobieganie nadużyciom finansowym i praniu pieniędzy przebiega powoli; oczekuje, że nowy rząd będzie opierał się na ostatnich działaniach podjętych przez poprzedni rząd w zakresie zwalczania korupcji i ujawniania schematów przestępstw i prania pieniędzy;
54. odnotowuje działania podjęte w celu dalszego ścigania masowych oszustw bankowych ujawnionych w 2014 r. oraz innych przypadków prania pieniędzy; ponownie podkreśla jednak swoje obawy związane z uporczywym brakiem przejrzystego osądzenia wszystkich osób odpowiedzialnych za oszustwa bankowe ujawnione w 2014 r., a także powolnym odzyskiwaniem skradzionego mienia; ponownie wyraża zaniepokojenie faktem, że jak dotąd nie dokonano żadnego znaczącego odzyskania aktywów i podkreśla, że należy podjąć dalsze kroki w tym kierunku; wzywa władze mołdawskie do przyspieszenia procesów ścigania przestępstw, bezzwłocznego postawienia przed sądem wszystkich odpowiedzialnych za to osób oraz do odzyskania zdefraudowanych środków; wzywa państwa członkowskie do udzielenia władzom Republiki Mołdawii znacznego wsparcia w dochodzeniu w tej sprawie, jeżeli zostaną zgłoszone jakiekolwiek wnioski o jego udzielenie;
55. z zadowoleniem przyjmuje przyjęcie w dniu 18 czerwca 2020 r. nowej ustawy znoszącej program „Obywatelstwo za inwestycje” z dniem 1 września 2020 r., z końcem obowiązującego moratorium; uważa, że jest to zasadniczy krok w kierunku zmniejszenia ryzyka korupcji, uchylania się od opodatkowania i prania pieniędzy w Republice Mołdawii; zauważa, że do czasu anulowania programu nadal rozpatrywane będą tylko dotychczasowe wnioski i wzywa Komisję do uważnego monitorowania, w jaki sposób będzie się to odbywać;
56. apeluje do władz Republiki Mołdawii o zwiększenie przejrzystości finansowania partii politycznych oraz o zbadanie wszelkich nieprawidłowości w sposób uczciwy i bezstronny; podkreśla potrzebę zwalczania korupcji wewnątrz mołdawskiej klasy politycznej; jest głęboko zaniepokojony niedawnymi zarzutami o przekupywanie posłów do parlamentu w celu zmiany przynależności politycznej, a także zarzutami porywania, zastraszania i wywierania presji na wybranych członków parlamentu; zwraca uwagę, że zarzuty te muszą zostać zbadane i że takie zachowanie jest niezgodne z wartościami leżącymi u podstaw układu o stowarzyszeniu z Republiką Mołdawii; zwraca również uwagę na odpowiedzialność partii politycznych za zwalczanie korupcji we własnych szeregach; ponadto wzywa władze do zapewnienia, by podczas kampanii wyborczej nie wykorzystywano żadnych funduszy fundacji charytatywnych; wzywa władze do zakazania wykorzystywania funduszy administracyjnych na rzecz rządzącej klasy politycznej podczas kampanii wyborczej;
Prawa człowieka i podstawowe wolności
57. docenia poprawę ustawodawstwa dotyczącego ochrony praw człowieka, w szczególności w wyniku nowego planu działania na rzecz praw człowieka na lata 2018–2022; wzywa władze mołdawskie do znacznego wzmożenia wysiłków oraz przyjęcia środków wykonawczych i prawa wtórnego na rzecz poszanowania praw człowieka i podstawowych wolności, w szczególności w odniesieniu do mniejszości i słabszych grup społecznych, takich jak kobiety i dzieci wykorzystywane przez handlarzy ludźmi, mniejszości językowe, osoby niepełnosprawne, Romowie i osoby LGTB+, uznając w ten sposób poszanowanie praw człowieka za kluczowe kryterium i istotny warunek istnienia demokratycznego społeczeństwa; jest zaniepokojony, że nadal nie rozwiązano znaczących problemów związanych z prawami człowieka, takich jak presja i politycznie umotywowane ściganie i zatrzymania, tortury, arbitralne zatrzymania, surowe i zagrażające życiu warunki w więzieniach, arbitralna lub bezprawna ingerencja w prywatność, korzystanie z przymusowej lub obowiązkowej pracy dzieci;
58. wyraża głębokie zaniepokojenie sytuacją Mołdawian zablokowanych w państwach członkowskich UE z powodu kryzysu COVID-19 bez ochrony socjalnej; wzywa Komisję i państwa członkowskie do zapewnienia, by w dobie COVID-19 pracownicy sezonowi z państw trzecich byli traktowani na równi z obywatelami UE, zgodnie z dyrektywą 2014/36/UE(8), przypominając, że pracownicy ci mają takie same prawa pracownicze i socjalne jak obywatele UE; wzywa państwa członkowskie do zapewnienia pracownikom transgranicznym i sezonowym dobrych miejsc zakwaterowania, których koszty będą odrębne od wynagrodzenia i które będą gwarantowały godne warunki mieszkania oraz ochronę prywatności, a także będą przedmiotem pisemnej umowy najmu egzekwowanej przez inspektoraty pracy; wzywa także do ustanowienia norm w tym zakresie;
59. zauważa z niepokojem, że realizacja zobowiązań wynikających z układu o stowarzyszeniu w sferze społecznej, zwłaszcza w dziedzinie inspekcji pracy, środków antydyskryminacyjnych i dialogu społecznego, jest ograniczona; jest zaniepokojony, że postępy w rozwiązywaniu problemów makrofinansowych są nadal niewystarczające do znacznego podniesienia poziomu życia i są obecnie zagrożone skutkami kryzysu związanego z COVID-19; nalega na obowiązkowe zaangażowanie związków zawodowych, a także organizacji społeczeństwa obywatelskiego, we wdrażanie układów o stowarzyszeniu;
60. podkreśla, że Unia musi rozliczać Republikę Mołdawii z jej zobowiązań w odniesieniu do społecznego wymiaru układu o stowarzyszeniu; wzywa Komisję do przedstawiania szczegółowych rocznych sprawozdań z postępów we wdrażaniu kwestii społecznych i związanych z pracą w ramach układu o stowarzyszeniu, w którym analizuje się nie tylko transpozycję odpowiednich dyrektyw i norm unijnych, ale także ich rzeczywiste wdrożenie; wzywa Komisję do przyjęcia wniosków ekspertów ds. pracy w celu wprowadzenia mechanizmu sankcji za naruszanie uzgodnionych standardów; sugeruje wykorzystanie wypłaty pomocy makrofinansowej jako dźwigni lub warunku zmuszającego Republikę Mołdawii do poprawy warunków pracy pracowników;
61. wyraża zaniepokojenie kwestią poszanowania praw człowieka w regionie Naddniestrza, zwłaszcza w kontekście pandemii COVID-19;
62. wzywa Komisję do poprawienia zaniedbanych obszarów układów o stowarzyszeniu w odniesieniu do ważnych obszarów polityki, takich jak płeć, Europejski Zielony Ład oraz zapobieganie kryzysom zdrowotnym;
63. podkreśla, że równość płci jest kluczowym warunkiem wstępnym zrównoważonego rozwoju sprzyjającego włączeniu społecznemu; wzywa rząd i władze mołdawskie do wdrożenia środków mających na celu dalsze zwiększenie reprezentacji kobiet i równego traktowania na wszystkich szczeblach życia politycznego i społecznego; zwraca się do Komisji Europejskiej o włączenie kwestii równości płci do wszystkich strategii politycznych, programów i działań dotyczących Mołdawii oraz zachęca władze Republiki Mołdawii do promowania programów, które obejmują w konsekwentny sposób wymiar równości płci, oferowania większego wsparcia dla grup społecznych znajdujących się w najtrudniejszej sytuacji i najsłabszych oraz wdrażania przepisów dotyczących zwalczania mowy nienawiści i przemocy fizycznej wobec najsłabszych grup społecznych;
64. wzywa władze Mołdawii do ratyfikowania konwencji stambulskiej, podpisanej przez Republikę Mołdawii w dniu 6 lutego 2017 r., której ratyfikacja jest opóźniona, mimo że jako wyraźny cel wymieniono krajowy plan działania w zakresie praw człowieka na lata 2018–2022 oraz krajową strategię na rzecz zapobiegania przemocy wobec kobiet i przemocy domowej oraz walki z nimi na lata 2018–2023; przypomina, że przemoc wobec kobiet i dziewcząt jest powszechna w Republice Mołdawii, a dwie na pięć kobiet od 15. roku życia doświadczyły przemocy fizycznej lub seksualnej ze strony partnera lub osoby niebędącej partnerem;
65. apeluje o podjęcie dalszych kroków w celu wdrożenia krajowych przepisów dotyczących przeciwdziałania handlowi ludźmi i zwalczania tego procederu oraz do znacznego podniesienia jakości usług świadczonych na rzecz ofiar oraz o zapewnienie większej ochrony, pomocy i wsparcia dla ofiar przestępstw, zwłaszcza dzieci, w trakcie dochodzenia i po zakończeniu procesu sądowego; ponadto wzywa do zapewnienia większego wsparcia podczas społecznej reintegracji ofiar; wzywa do zacieśnienia współpracy między organami sądowymi i organami ścigania Republiki Mołdawii i państw członkowskich w celu ograniczenia przestępczości transgranicznej, w szczególności handlu ludźmi i handlu narkotykami;
66. wzywa władze do zagwarantowania prawa do rzetelnego procesu sądowego i poszanowania praw człowieka w aresztach i zakładach karnych, w tym poprzez zajęcie się kwestią nieodpowiednich przepisów dotyczących opieki zdrowotnej; w związku z tym podkreśla potrzebę zapewnienia więźniom bezpiecznego środowiska; ponadto wzywa do przyjęcia środków mających na celu unikanie wybiórczego i politycznie umotywowanego wymierzania sprawiedliwości;
67. powtarza swój apel do władz mołdawskich o dopilnowanie, by wszelkie wnioski o ekstradycję otrzymywane z państw trzecich były rozpatrywane w przejrzysty sposób w ramach procedur sądowych w pełni zgodnych z zasadami i normami europejskimi;
68. wzywa do podjęcia bardziej konkretnych środków w celu poprawy warunków przetrzymywania osób z niepełnosprawnościami w szpitalach psychiatrycznych wbrew ich woli; wzywa do całkowitego wyeliminowania tortur i złego traktowania w więzieniach jako metody wywierania nacisku na uwięzionych lub zatrzymanych przeciwników politycznych;
69. uznaje środki podjęte na szczeblu krajowym w celu zapobiegania torturom i zwalczania ich, ale podkreśla, że Republika Mołdawii jest nadal często skazywana przez Europejski Trybunał Praw Człowieka za stosowanie tortur i złe traktowanie; wzywa zatem do ustanowienia w pełni niezależnej agencji zajmującej się w szczególności dochodzeniem w sprawie zarzutów stosowania tortur i innych naruszeń praw człowieka popełnianych przez policję i innych funkcjonariuszy organów ścigania;
70. jest zaniepokojony stałą obecnością w debacie publicznej przypadków mowy nienawiści również ze strony polityków, a także przywódców religijnych i przywódców społeczności; podkreśla w tym kontekście, że w szczególności dotyczy ona kobiet i osób LGBTI+; wzywa urzędników publicznych do powstrzymania się od stosowania mowy nienawiści i do publicznego wypierania mowy nienawiści, gdy tylko ma ona miejsce, oraz wzywa władze do dopracowania ram prawnych i instytucjonalnych służących zwalczaniu mowy nienawiści w celu przeciwdziałania temu zjawisku za pomocą wszelkich dostępnych mechanizmów;
71. przypomina, że do parlamentu mołdawskiego został już wprowadzony projekt ustawy ustanawiającej prawo wzorowane na tzw. ustawie Magnitskiego; zachęca organ ustawodawczy do kontynuowania analizy ustawy, która, jeżeli zostanie przyjęta, przyczyni się do zwalczania naruszeń praw człowieka, korupcji i prania pieniędzy;
Współpraca handlowa i gospodarcza
72. jest zdania, że priorytetem pomocy UE dla Republiki Mołdawii powinna nadal być poprawa poziomu życia obywateli i należy ją ukierunkować na takie obszary, jak ułatwianie rozwoju MŚP, pomoc dla młodzieży, a także ogólna reforma sektorów edukacji i zdrowia;
73. z zadowoleniem przyjmuje inicjatywy w zakresie przedsiębiorczości, które mają na celu rozwój mołdawskiego sektora przedsiębiorstw typu start-up; uznaje jednak, że konieczne są dalsze reformy sektora publicznego i pomoc finansowa w celu stworzenia dodatkowych możliwości zatrudnienia, które zachęcą młodych ludzi i wykwalifikowanych pracowników do powrotu do kraju pochodzenia;
74. wzywa Komisję do wniesienia wkładu w rozwiązywanie problemów ekonomicznych młodych ludzi w Republice Mołdawii przez inwestowanie w programy sprzyjające przedsiębiorczości młodzieży i przedsiębiorczości społecznej oraz do wzmocnienia związku między reformą systemu edukacyjnego a potrzebami rynku pracy; podkreśla potrzebę inwestowania w programy skierowane do młodych ludzi pochodzących z obszarów wiejskich, ponieważ ta kategoria osób jest jedną z najbardziej narażonych i brakuje jej możliwości społeczno-gospodarczych w porównaniu z młodymi ludźmi z obszarów miejskich;
75. przyznaje, że zjawisko „drenażu mózgów”, często wynikające z braku zaufania do wymiaru sprawiedliwości, nepotyzmu i braku odpowiednich reform w kraju, stanowi poważne zagrożenie dla przyszłości Mołdawii oraz jest zaniepokojony dużą skalą emigracji obywateli Mołdawii, która uwidacznia negatywne tendencje demograficzne; zachęca rząd mołdawski do wdrożenia dalszych środków mających na celu zapobieganie temu zjawisku i przeciwdziałanie mu, w szczególności poprzez tworzenie możliwości i poprawę warunków i płac dla młodych pracowników w ich ojczyźnie, tak aby mogli powrócić po studiach lub szkoleniach zagranicznych, oraz poprzez wspieranie przedsiębiorczości młodzieży; wzywa Komisję, aby skoncentrowała się na tej kwestii w swoich programach;
76. z zadowoleniem przyjmuje dywersyfikację mołdawskiej gospodarki i znaczny wzrost wymiany handlowej między Republiką Mołdawii a UE, a także fakt, że UE jest największym inwestorem w tym kraju; z zadowoleniem przyjmuje fakt, że w 2018 r. na Unię przypadało 70 % całkowitego wywozu Republiki Mołdawii i 56 % jej całkowitej wymiany handlowej; zachęca do dalszych postępów w takich dziedzinach, jak kodeks celny, ochrona praw własności intelektualnej, w tym oznaczeń geograficznych, poprawa norm sanitarnych i fitosanitarnych, poprawa warunków rynkowych w dziedzinie energii, zamówień publicznych oraz dostęp MŚP do finansowania;
77. zachęca do pełnego wdrożenia DCFTA w celu dalszego zwiększenia dwustronnych stosunków handlowych i inwestycyjnych między UE a Mołdawią, w tym przez usunięcie barier pozataryfowych w handlu, ułatwienie dostępu oraz postępy w dalszej integracji z jednolitym rynkiem; przypomina, że umowa DCFTA z Republiką Mołdawii powinna przewidywać przestrzeganie zasad określonych w rozdziałach dotyczących zrównoważonego rozwoju, zgodnie z międzynarodowymi zobowiązaniami, w szczególności z porozumieniem paryskim i zasadami WTO;
78. pochwala przyjęcie przez parlament mołdawski europejskiego podejścia LEADER jako podstawy krajowej polityki dotyczącej obszarów wiejskich; zachęca jednak Republikę Mołdawii, w tym za pomocą specjalnych środków w następnej krajowej strategii na rzecz rolnictwa i rozwoju obszarów wiejskich, do pełnego wykorzystania preferencyjnych możliwości eksportowych do Unii poprzez skuteczniejszą i bardziej zrównoważoną uprawę gruntów rolnych, a także bardziej demokratyczny dostęp i wykorzystanie gruntów, co pozwoli na wytwarzanie produktów rolnych, które wzmocniłyby relatywne zalety rolnictwa Republiki Mołdawii;
79. z zadowoleniem przyjmuje zbliżenie przepisów do dorobku prawnego UE i zachęca Komisję do udzielenia mołdawskim instytucjom i administracji publicznej technicznej i finansowej pomocy w tych staraniach, a następnie we wdrażaniu tych przepisów; podkreśla, że pomoc taka powinna być wykorzystywana w celu zwiększenia wiedzy na temat praw człowieka i praworządności oraz wzywa władze mołdawskie do przyspieszenia postępów w zakresie zbliżenia przepisów do układu o stowarzyszeniu / DCFTA w odniesieniu do zdrowia zwierząt i bezpieczeństwa żywności;
80. z zadowoleniem przyjmuje krajową strategię „Cyfrowa Mołdawia 2020”, ale domaga się, aby Komisja wspierała i wspomagała programy i reformy dotyczące umiejętności korzystania z mediów i informacji, aby dostosować się do obecnej epoki cyfrowej, a także podnieść poziom współpracy sektorowej w gospodarce cyfrowej; wzywa Republikę Mołdawii do zbudowania niezawodnej rynkowej gospodarki cyfrowej, uwypuklając potrzebę postępów w zakresie otwartych danych, poszerzając dostęp do systemów cyfrowych i zapewniając obywatelom lepszy dostęp do usług elektronicznych i różnych rozwiązań komunikacyjnych;
81. wzywa Komisję do wspierania inwestycji w sektorach, które mają potencjał w zakresie rozwoju, wzrostu i konkurencyjności w UE, w szczególności w trzech sektorach o znaczeniu strategicznym (tj. zrównoważona energia i klimat, jednolity rynek cyfrowy i cyberbezpieczeństwo oraz transport);
82. wzywa rząd mołdawski do skoncentrowania się również na społecznym wymiarze handlu i zrównoważonym rozwoju poprzez przestrzeganie i egzekwowanie norm pracy, ratyfikację i pełne wdrożenie wszystkich konwencji MOP oraz wyeliminowanie pozostałych braków w systemie inspekcji pracy oraz poprzez likwidację ograniczeń i niedociągnięć systemu inspekcji pracy oraz problemów systemu sądownictwa, które mają negatywny wpływ na egzekwowanie norm pracy;
83. wzywa władze mołdawskie do przyjęcia i wdrożenia strategii politycznych mających na celu uregulowanie udziału podmiotów z jurysdykcji niestosujących międzynarodowych standardów przejrzystości (terytoria zamorskie) lub przedsiębiorstw, które są bezpośrednio lub pośrednio kontrolowane przez takie przedsiębiorstwa, w handlu z władzami publicznymi (zamówienia publiczne, prywatyzacja, koncesje, partnerstwo publiczno-prywatne);
84. wzywa UE do rozważenia możliwości przystąpienia przez kraje posiadające układ o stowarzyszeniu / DCFTA z UE do jednolitego obszaru płatności w euro (SEPA), ponieważ przyniesie to korzyści przede wszystkim obywatelom i stworzy nowe możliwości dla rozwoju MŚP;
Energia, środowisko i zmiana klimatu
85. wzywa rząd Mołdawii do dalszej reformy sektora energetycznego w celu zwiększenia odporności, przejrzystości kosztów i umów w tym sektorze oraz do poprawy niezależności i efektywności energetycznej, w szczególności przez zwiększenie wzajemnych połączeń energetycznych z Unią, zróżnicowanie źródeł energii, również energii odnawialnej, oraz zmniejszenie zależności od paliw kopalnych; podkreśla, że wszystkie te aspekty mają ogromne znaczenie dla zwiększenia bezpieczeństwa energetycznego kraju;
86. z zadowoleniem przyjmuje działania na rzecz wzmocnienia zdolności instytucjonalnych i niezależności urzędu regulacji energetyki i zachęca do podjęcia niezbędnych i pilnych działań w celu wdrożenia trzeciego pakietu energetycznego, w szczególności w dziedzinie gazu ziemnego, oraz zapewnienia pełnej zgodności z dorobkiem prawnym Wspólnoty Energetycznej; w szczególności wzywa Krajową Agencję ds. Regulacji Energetyki Republiki Mołdawii do zatwierdzenia przepisów dotyczących rynku energii opartych na uczciwej konkurencji i do zapewnienia ich przestrzegania przez wszystkich uczestników rynku, w tym podmioty gospodarcze będące własnością państwa;
87. podkreśla znaczenie zacieśnienia współpracy w zakresie infrastruktury w regionie, również z myślą o dywersyfikacji dostaw energii w Republice Mołdawii, oraz poprawy połączeń w mołdawskim sektorze energetycznym przy jednoczesnym zapewnieniu równowagi środowiskowej;
88. podkreśla znaczenie dywersyfikacji systemu elektroenergetycznego Republiki Mołdawii; wzywa władze mołdawskie do zapewnienia terminowej realizacji projektu połączenia systemów elektroenergetycznych Republiki Mołdawii i Rumunii poprzez zapewnienie niezbędnego wsparcia i środków finansowych;
89. zachęca władze mołdawskie do kontynuowania wysiłków na rzecz wzmocnienia bezpieczeństwa energetycznego kraju i wyraża uznanie dla sfinalizowania budowy gazociągu Ungheni – Kiszyniów do końca 2020 r; ponadto zwraca się do Komisji Europejskiej o włączenie Republiki Mołdawii do testów warunków skrajnych przeprowadzanych w odniesieniu do wewnętrznego rynku energii;
90. wyraża uznanie dla ustaleń poczynionych między Republiką Mołdawii, Ukrainą i Rumunią w grudniu 2019 r., mających na celu umożliwienie przesyłania gazu na Ukrainę i do Republiki Mołdawii za pośrednictwem Gazociągu Transbałkańskiego oraz planu działania z lutego 2020 r. dotyczącego zapewnienia niezależności operatora systemu przesyłowego – Moldovatransgazu;
91. z zadowoleniem przyjmuje kroki podjęte w celu asynchronicznego połączenia systemu elektroenergetycznego Republiki Mołdawii z UE przez Rumunię, co stanowi istotny kamień milowy na drodze do wzmocnienia i dywersyfikacji mołdawskiej infrastruktury energetycznej; wzywa wszystkie organy do osiągnięcia celu polegającego na połączeniu Republiki Mołdawii z rumuńską siecią energetyczną do 2024 r. przy wsparciu UE;
92. z zadowoleniem przyjmuje pakiet na rzecz klimatu i środowiska Republiki Mołdawii z lutego 2019 r. oraz jej krajową reakcję, dzięki której jako czwarty kraj na świecie przedłożyła sekretariatowi Ramowej Konwencji Narodów Zjednoczonych w Sprawie Zmian Klimatu (UNFCCC) swój ustalony na poziomie krajowym wkład (NDC2), w tym bardziej ambitny cel dotyczący ograniczenia emisji gazów cieplarnianych; wzywa do zwiększenia wysiłków w zakresie krajowych zobowiązań do zwalczania zmiany klimatu związanych z porozumieniem paryskim z 2015 r., a także do włączenia kwestii zmiany klimatu do wszystkich obszarów kształtowania polityki;
93. wzywa Republikę Mołdawii do dalszego zwiększania zaangażowania w walkę ze zmianą klimatu, w szczególności do działań w zakresie gospodarki odpadami i gospodarki wodnej rzeki Dniestr, oraz wzywa Komisję do ułatwienia udziału Republiki Mołdawii w Europejskim Zielonym Ładzie oraz do zadbania o to, by DCFTA nie była sprzeczna z określonymi w niej celami i inicjatywami w zakresie ochrony środowiska;
94. uznaje znaczenie dalszej modernizacji systemu edukacyjnego w Republice Mołdawii, a także rosnącą rolę młodzieży we wszystkich dziedzinach życia, i zachęca UE do oferowania dalszego wsparcia, zwłaszcza w obszarze kształcenia i szkolenia zawodowego, w celu zaspokojenia potrzeb rynku pracy; podkreśla potrzebę promowania możliwości w zakresie wolontariatu i zaangażowania obywatelskiego młodych ludzi oraz zwiększenia inwestycji w młodych ludzi poprzez zwiększenie finansowania i liczniejszy udział przedstawicieli Mołdawii w istniejących programach mobilności, takich jak Erasmus+, Kreatywna Europa i Horyzont 2020;
95. zachęca Komisję Europejską do konsultowania, przygotowania i tworzenia programów dostosowanych do potrzeb obywateli z uwzględnieniem bezpośredniego kontaktu z beneficjentami za pośrednictwem platformy internetowej do składania wniosków i sprawozdań na temat wykorzystania funduszy udostępnianych w ramach tych programów; wzywa w związku z tym do wzięcia pod uwagę celów Zielonego Ładu oraz codziennych potrzeb obywateli Republiki Mołdawii;
Postanowienia instytucjonalne
96. podkreśla, że bez szczerej determinacji klasy politycznej, by zreformować kraj i rzeczywiście wdrożyć układ o stowarzyszeniu z UE, nie uda się osiągnąć prawdziwego i trwałego rozwoju; w związku z tym zachęca wszystkie podmioty polityczne i siły polityczne w kraju, aby wnosiły wkład i inicjowały wielostronne formaty i współpracę w dobrej wierze w zakresie strategicznych celów Republiki Mołdawii, przyczyniając się tym samym do jakości demokracji i poprawy warunków życia ludzi; mając to na uwadze, zachęca władze mołdawskie do wykorzystywania dialogu im. Jeana Monneta, aby wesprzeć dialog między stronami i budowanie zdolności parlamentu;
97. wzywa wszystkie instytucje Unii i państwa członkowskie w ścisłej współpracy z władzami Republiki Mołdawii do lepszego informowania obywateli Republiki Mołdawii o korzyściach wynikających z układu o stowarzyszeniu / DCFTA i pomocy unijnej;
98. wzywa Komisję do wzmocnienia delegatury Unii Europejskiej w Republice Mołdawii, nasilenia monitorowania oraz wzmocnienia zespołu projektowego w Kiszyniowie, aby pomóc Mołdawii skutecznie informować o jej zbliżeniu do prawa UE, zwalczać dezinformację oraz promować pozytywny wizerunek UE i Republiki Mołdawii wśród wszystkich zainteresowanych stron;
o o o
99. zobowiązuje swojego Przewodniczącego do przekazania niniejszej rezolucji Radzie, Komisji Europejskiej oraz wiceprzewodniczącemu Komisji / wysokiemu przedstawicielowi Unii do spraw zagranicznych i polityki bezpieczeństwa, a także prezydentowi, rządowi i parlamentowi Republiki Mołdawii.
Rozporządzenie Rady (WE) nr 539/2001 z dnia 15 marca 2001 r. wymieniające państwa trzecie, których obywatele muszą posiadać wizy podczas przekraczania granic zewnętrznych, oraz te, których obywatele są zwolnieni z tego wymogu (Dz.U. L 81 z 21.3.2001, s. 1)
Dyrektywa Parlamentu Europejskiego i Rady 2014/36/UE z dnia 26 lutego 2014 r. w sprawie warunków wjazdu i pobytu obywateli państw trzecich w celu zatrudnienia w charakterze pracownika sezonowego (Dz.U. L 94 z 28.3.2014, s. 375).