Indeks 
 Poprzedni 
 Następny 
 Pełny tekst 
Procedura : 2020/2014(INL)
Przebieg prac nad dokumentem podczas sesji
Dokument w ramach procedury : A9-0178/2020

Teksty złożone :

A9-0178/2020

Debaty :

PV 19/10/2020 - 15
PV 19/10/2020 - 18
CRE 19/10/2020 - 15
CRE 19/10/2020 - 18

Głosowanie :

PV 20/10/2020 - 21

Teksty przyjęte :

P9_TA(2020)0276

Teksty przyjęte
PDF 282kWORD 88k
Wtorek, 20 października 2020 r. - Bruksela
System odpowiedzialności cywilnej za sztuczną inteligencję
P9_TA(2020)0276A9-0178/2020
Rezolucja
 Załącznik
 Załącznik

Rezolucja Parlamentu Europejskiego z dnia 20 października 2020 r. z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję (2020/2014(INL))

Parlament Europejski,

–  uwzględniając art. 225 Traktatu o funkcjonowaniu Unii Europejskiej,

–  uwzględniając art. 114 i 169 Traktatu o funkcjonowaniu Unii Europejskiej,

–  uwzględniając dyrektywę Rady 85/374/EWG z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących odpowiedzialności za produkty wadliwe(1) (dyrektywa w sprawie odpowiedzialności za produkty),

–  uwzględniając dyrektywę 2005/29/WE Parlamentu Europejskiego i Rady z dnia 11 maja 2005 r. dotyczącą nieuczciwych praktyk handlowych stosowanych przez przedsiębiorstwa wobec konsumentów na rynku wewnętrznym (dyrektywę w sprawie nieuczciwych praktyk handlowych)(2), dyrektywę Parlamentu Europejskiego i Rady 2011/83/UE z dnia 25 października 2011 r. w sprawie praw konsumentów(3) oraz inne przepisy dotyczące ochrony konsumentów,

–  uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745 z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych(4),

–  uwzględniając rozporządzenie Rady (UE) 2018/1488 z dnia 28 września 2018 r. w sprawie ustanowienia Wspólnego Przedsięwzięcia w dziedzinie Europejskich Obliczeń Wielkiej Skali(5),

–  uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/770 z dnia 20 maja 2019 r. w sprawie niektórych aspektów umów o dostarczanie treści cyfrowych i usług cyfrowych(6),

–  uwzględniając porozumienie międzyinstytucjonalne w sprawie lepszego stanowienia prawa z dnia 13 kwietnia 2016 r. oraz wytyczne dotyczące lepszego stanowienia prawa(7),

–  uwzględniając wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady z dnia 6 czerwca 2018 r. ustanawiającego program „Cyfrowa Europa” na lata 2021–2027 (COM(2018)0434),

–  uwzględniając komunikat Komisji z dnia 25 kwietnia 2018 r. w sprawie sztucznej inteligencji dla Europy (COM(2018)0237),

–  uwzględniając komunikat Komisji z dnia 7 grudnia 2018 r. w sprawie skoordynowanego planu w dziedzinie sztucznej inteligencji (COM(2018)0795),

–  uwzględniając komunikat Komisji z dnia 8 kwietnia 2019 r. w sprawie budowania zaufania do sztucznej inteligencji ukierunkowanej na człowieka (COM(2019)0168),

–  uwzględniając sprawozdanie Komisji dla Parlamentu Europejskiego, Rady i Europejskiego Komitetu Ekonomiczno-Społecznego z dnia 19 lutego 2020 r. na temat wpływu sztucznej inteligencji, internetu rzeczy i robotyki na bezpieczeństwo i odpowiedzialność (COM(2020)0064),

–  uwzględniając Białą księgę Komisji Europejskiej z dnia 19 lutego 2020 r. pt. „Sztucznej inteligencja – Europejskie podejście do doskonałości i zaufania” (COM(2020)0065),

–  uwzględniając swoją rezolucję z dnia 16 lutego 2017 r. zawierającą zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki(8),

–  uwzględniając swoją rezolucję z dnia 1 czerwca 2017 r. w sprawie cyfryzacji europejskiego przemysłu(9),

–  uwzględniając swoją rezolucję z dnia 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia(10),

–  uwzględniając swoją rezolucję z dnia 12 lutego 2019 r. w sprawie kompleksowej europejskiej polityki przemysłowej w dziedzinie sztucznej inteligencji i robotyki(11),

–  uwzględniając swoją rezolucję z dnia 12 lutego 2020 r. w sprawie zautomatyzowanych procesów decyzyjnych – zagwarantowanie ochrony konsumenta oraz swobodnego przepływu towarów i usług(12),

–  uwzględniając sprawozdanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z 8 kwietnia 2019 r. pt. „Wytyczne w zakresie etyki na rzecz wiarygodnej sztucznej inteligencji”,

–  uwzględniając sprawozdanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z 8 kwietnia 2019 r. pt. „Definicja sztucznej inteligencji: podstawowe możliwości i dziedziny zastosowania”,

–  uwzględniając sprawozdanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z 26 czerwca 2019 r. pt. „Zalecenia polityczne i inwestycyjne na rzecz wiarygodnej sztucznej inteligencji”,

–  uwzględniając sprawozdanie grupy ekspertów ds. odpowiedzialności i nowych technologii – Forum Nowych Technologii z 21 listopada 2019 r. pt. „Odpowiedzialność w związku ze sztuczną inteligencją i innymi rozwijającymi się technologiami cyfrowymi”,

–  uwzględniając studium w sprawie oceny europejskiej wartości dodanej przygotowane przez Biuro Analiz Parlamentu Europejskiego, zatytułowane: 'Civil liability regime for artificial intelligence: European added value assessment' („System odpowiedzialności cywilnej za sztuczną inteligencję: ocena europejskiej wartości dodanej”(13)

–  uwzględniając dokument tematyczny Zespołu Parlamentu Europejskiego ds. Przyszłości Nauki i Techniki (STOA) z czerwca 2016 r. dotyczący aspektów prawnych i etycznych w związku z robotyką(14),

–  uwzględniając analizę Dyrekcji Generalnej ds. Polityki Wewnętrznej Parlamentu Europejskiego z października 2016 r., przygotowaną dla Komisji Prawnej, pt. „Przepisy europejskiego prawa cywilnego w robotyce”(15),

–  uwzględniając art. 47 i 54 Regulaminu,

–  uwzględniając opinie przedstawione przez Komisję Rynku Wewnętrznego i Ochrony Konsumentów oraz Komisję Transportu i Turystyki,

–  uwzględniając sprawozdanie Komisji Prawnej (A9-0178/2020),

A.  mając na uwadze, że pojęcie „odpowiedzialności” odgrywa istotną, ale i dwojaką rolę w naszym codziennym życiu, gdyż – z jednej strony – gwarantuje osobie, która ucierpiała lub poniosła szkody, prawo do wniesienia roszczenia o odszkodowanie i do uzyskania odszkodowania od strony, której udowodniono, że ponosi odpowiedzialność za wyrządzone szkody, zaś – z drugiej strony – stanowi zachętę ekonomiczną dla osób fizycznych i prawnych, by przede wszystkim unikać wyrządzania szkód lub uwzględniać w swoim działaniu konieczność wypłacenia odszkodowania;

B.  mając na uwadze, że przyszłościowe ramy prawne odpowiedzialności cywilnej muszą wzbudzać zaufanie do bezpieczeństwa, niezawodności i spójności produktów i usług, w tym do technologii cyfrowej, aby zapewnić równowagę między skuteczną i sprawiedliwą ochroną potencjalnych poszkodowanych a jednoczesnym dawaniem wystarczającego pola do manewru, by umożliwić przedsiębiorstwom, w szczególności małym i średnim, rozwój nowych technologii, produktów i usług; mając na uwadze, że pomoże to w budowie zaufania i tworzeniu stabilnego otoczenia dla inwestycji; mając na uwadze, że ostatecznie celem wszelkich systemów odpowiedzialności powinno być stworzenie wszystkim stronom poczucia pewności prawa niezależnie od tego, czy jest to producent, operator, osoba poszkodowana czy dowolna inna strona trzecia;

C.  mając na uwadze, że system prawny państwa członkowskiego może różnicować zasady dotyczące odpowiedzialności pewnych podmiotów lub zaostrzać je w stosunku do pewnych działań; mając na uwadze, że odpowiedzialność na zasadzie ryzyka oznacza, że strona może zostać pociągnięta do odpowiedzialności pomimo braku winy; mając na uwadze, że w wielu krajowych systemach prawnych oskarżony ponosi odpowiedzialność na zasadzie ryzyka, jeżeli stworzone przez niego zagrożenie dla ogółu społeczeństwa, takie jak związane z wykorzystaniem pojazdu czy niebezpiecznym działaniem, lub też takie, którego nie może on kontrolować, np. przykład wynikające z zachowania zwierząt, powoduje szkodę;

D.  mając na uwadze, że wszelkie przyszłe prawodawstwo Unii mające za cel jednoznaczne przypisanie odpowiedzialności w odniesieniu do systemów sztucznej inteligencji (SI) powinny być poprzedzone analizą i konsultacjami z państwami członkowskimi w sprawie zgodności proponowanego aktu ustawodawczego z warunkami gospodarczymi, prawnymi i społecznymi;

E.  mając na uwadze, że zagadnienie systemu odpowiedzialności cywilnej za SI powinno być przedmiotem szerokiej debaty publicznej uwzględniającej wszystkie niezbędne interesy, zwłaszcza aspekty etyczne, prawne, gospodarcze i społeczne, aby uniknąć nieporozumień i nieuzasadnionych obaw, jakie technologia ta może wywołać wśród obywateli; mając na uwadze, że dokładna analiza następstw wszelkich nowych ram regulacyjnych dla wszystkich podmiotów uczestniczących w ocenie skutków powinna być warunkiem wstępnym dla dalszych kroków legislacyjnych;

F.  mając na uwadze, że pojęcie systemów SI obejmuje dużą grupę różnych technologii, w tym proste statystyki, uczenie się maszyn i głębokie uczenie maszynowe;

G.  mając na uwadze, że dzięki używaniu terminu „zautomatyzowane podejmowanie decyzji” można by uniknąć ewentualnej niejednoznaczności terminu SI; mając na uwadze, że „zautomatyzowane podejmowanie decyzji” polega na wstępnym przeniesieniu przez użytkownika podjęcia decyzji, w części lub w całości, na inny podmiot w drodze korzystania z oprogramowania lub usługi; mając na uwadze, że z kolei podmiot ten stosuje następnie modele automatycznego podejmowania decyzji w celu wykonania czynności w imieniu użytkownika lub informowania o decyzjach użytkownika dotyczących realizacji działania;

H.  mając na uwadze, że niektóre systemy SI stanowią istotne wyzwanie prawne dla obowiązujących ram prawnych w zakresie odpowiedzialności i mogą prowadzić do sytuacji, w których brak ich przejrzystości może sprawić, że wskazanie, kto kontrolował ryzyko związane z systemem SI czy też który kod, które dane wejściowe lub dane ostatecznie wywołały szkodliwe działanie, może okazać się bardzo drogie lub niemożliwe; mając na uwadze, że ten czynnik może utrudniać ustalenie powiązania między szkodą a powodującym ją zachowaniem, przez co ofiary mogą nie otrzymać odpowiedniego odszkodowania;

I.  mając na uwadze, że te wyzwania prawne wynikają też z powiązań między danym systemem SI a innymi systemami, w tym systemami SI, z ich zależności od danych zewnętrznych, podatności na naruszenia cyberbezpieczeństwa, jak również projektowania coraz bardziej autonomicznych systemów SI z wykorzystaniem m.in. uczenia się maszyn i technik głębokiego uczenia maszynowego;

J.  mając na uwadze, że surowe normy etyczne w odniesieniu do systemów SI powiązane z rozsądnymi i sprawiedliwymi procedurami rekompensowania szkód pomagają zająć się tymi wyzwaniami prawnymi i wyeliminować ryzyko, że użytkownicy będą mniej skłonni do zaakceptowania nowej technologii; mając na uwadze, że sprawiedliwe procedury odszkodowawcze oznaczają, że każda osoba, która ucierpiała w wyniku działania systemu SI lub poniosła szkody majątkowe w wyniku działania takiego systemu, powinna korzystać z tego samego poziomu ochrony, który przysługiwałby w przypadkach bez udziału systemów SI; mając na uwadze, że użytkownik musi mieć pewność, że potencjalne szkody spowodowane przez systemy wykorzystujące SI są objęte odpowiednim ubezpieczeniem oraz że istnieje określona droga prawna dochodzenia roszczeń;

K.  mając na uwadze, że pewność prawa jest również zasadniczym warunkiem dynamicznego opracowywania i unowocześniania technologii opartych na SI, w szczególności dla przedsiębiorstw typu start-up, mikroprzedsiębiorstw oraz małych i średnich przedsiębiorstw, oraz ich praktycznego zastosowania w życiu codziennym; mając na uwadze, że kluczowa rola przedsiębiorstw typu start-up, mikroprzedsiębiorstw oraz małych i średnich przedsiębiorstw, zwłaszcza w gospodarce europejskiej, uzasadnia podejście ściśle proporcjonalne, umożliwiające im rozwój i innowacyjność;

L.  mając na uwadze, że różnorodność systemów SI i zróżnicowanie zakresu zagrożeń, jakie stwarza ta technologia, utrudnia wysiłki na rzecz znalezienia jednego rozwiązania odpowiedniego dla całego spektrum zagrożeń; mając na uwadze, że w związku z tym należy przyjąć podejście, w ramach którego eksperymenty, projekty pilotażowe i piaskownice regulacyjne będą wykorzystywane do opracowywania proporcjonalnych rozwiązań opartych na dowodach, w razie potrzeby uwzględniających konkretne sytuacje i sektory;

Wprowadzenie

1.  wyraża przekonanie, że wyzwanie związane z wprowadzeniem systemów SI w społeczeństwie, miejscu pracy i gospodarce jest obecnie jedną z najważniejszych kwestii w działaniach politycznych; technologie oparte na SI mogłyby i powinny poprawić jakość życia w niemal każdej sferze: od życia osobistego, obejmującego np. transport, dostosowaną do potrzeb danej osoby edukację, pomoc osobom znajdującym się w trudnej sytuacji, programy w zakresie fitnessu i przyznawanie kredytów, poprzez środowisko pracy, np. uwolnienie od uciążliwych i powtarzających się zadań, po wyzwania globalne, takie jak zmiana klimatu, opieka zdrowotna, żywienie czy logistyka;

2.  jest głęboko przekonany, że aby skutecznie korzystać z zalet systemów SI, przeciwdziałać ich potencjalnemu nadużywaniu i zapobiegać fragmentacji regulacyjnej w Unii, zasadnicze znaczenie ma przyjęcie w całej UE jednolitego prawodawstwa w zakresie wszelkich systemów SI, opartego na konkretnych zasadach i nieulegającego dezaktualizacji; stoi na stanowisku, że choć lepsze wydają się sektorowe przepisy dla szerokiego wachlarza możliwych zastosowań SI, konieczne wydaje się przyjęcie przekrojowych i ujednoliconych ram prawnych opierających się na powszechnych zasadach, by zagwarantować pewność prawa, ustanowić te same normy w całej Unii i skutecznie chronić wartości europejskie i prawa obywateli;

3.  stwierdza, że jednolity rynek cyfrowy wymaga pełnej harmonizacji, ponieważ sfera cyfrowa charakteryzuje się bardzo zmienną dynamiką ponadgraniczną i międzynarodowym przepływem danych; uważa, że jedynie poprzez przyjęcie spójnych, powszechnych zasad Unia może osiągnąć cele utrzymania suwerenności cyfrowej i przyspieszenia innowacji cyfrowych w Europie w zgodzie z kulturą innowacji;

4.  zauważa, że globalny wyścig ku sztucznej inteligencji już trwa, a Unia powinna odegrać w nim czołową rolę, wykorzystując swój potencjał naukowy i technologiczny; zdecydowanie podkreśla, że rozwój technologii nie może osłabiać ochrony użytkowników przed szkodami, które mogą być powodowane przez urządzenia i systemy wykorzystujące SI; zachęca do promowania unijnych norm odpowiedzialności cywilnej na szczeblu międzynarodowym;

5.  wyraża stanowcze przeświadczenie, że nowe, powszechne zasady dotyczące systemów sztucznej inteligencji powinny przyjąć formę rozporządzenia; uważa, że kwestia odpowiedzialności w odniesieniu do szkód spowodowanych przez system SI jest jednym z kluczowych aspektów, którymi należy się zająć w ramach tych przepisów;

Odpowiedzialność a sztuczna inteligencja

6.  wyraża przekonanie, że nie ma potrzeby dokonywać całkowitego przeglądu dobrze funkcjonujących systemów odpowiedzialności, ale że złożoność, zdolność do łączenia się, nieprzejrzystość, podatność na zagrożenia, możliwość modyfikowania w drodze aktualizacji, możliwość samodzielnego uczenia się, potencjalna autonomiczność systemów SI i duża liczba zaangażowanych podmiotów stanowią jednak poważne wyzwanie dla skuteczności krajowych i unijnych przepisów ramowych dotyczących odpowiedzialności; uważa, że niezbędne są konkretne i skoordynowane dostosowania systemów odpowiedzialności, by uniknąć sytuacji, w której osoba, która ucierpiała lub poniosła szkody majątkowe, nie otrzyma rekompensaty;

7.  zauważa, że wszystkie działania fizyczne czy wirtualne opierające się na systemach SI, urządzenia czy procesy, w których korzysta się z tych systemów, mogą zasadniczo być bezpośrednią lub pośrednią przyczyną szkody, a jednocześnie są one niemal zawsze wynikiem tego, że ktoś skonstruował lub wdrożył taki system albo ingerował w niego; zauważa w tym względzie, że nie jest konieczne nadawanie systemom SI osobowości prawnej; wyraża opinię, że nieprzejrzystość, zdolność do łączenia się i autonomiczność systemów SI może sprawić, że w praktyce będzie bardzo trudno powiązać konkretne szkodliwe działania systemów SI z konkretnymi danymi wprowadzonymi przez człowieka lub jego decyzjami na etapie projektowania systemu, a nawet będzie to niemożliwe; przypomina, że zgodnie z szeroko stosowanymi koncepcjami odpowiedzialności można mimo wszystko obejść tę przeszkodę, czyniąc odpowiedzialnymi poszczególne osoby w całym łańcuchu wartości, które tworzą, utrzymują lub kontrolują ryzyko związane z systemem SI;

8.  uważa, że dyrektywa w sprawie odpowiedzialności za produkty jest od ponad 30 lat skutecznym sposobem uzyskania odszkodowania za szkodę wywołaną przez wadliwy produkt, ale mimo to potrzebny jest jej przegląd w celu dostosowania jej do świata cyfrowego i sprostania wyzwaniom związanym z powstającymi technologiami cyfrowymi, zapewniając tym samym wysoki poziom skutecznej ochrony konsumentów, a także pewność prawa dla konsumentów i przedsiębiorstw przy jednoczesnym unikaniu wysokich kosztów i ryzyka dla MŚP i przedsiębiorstw typu start-up; wzywa Komisję, aby oceniła, czy dyrektywę w sprawie odpowiedzialności za produkty należy przekształcić w rozporządzenie, wyjaśniła definicję „produktów”, określając, czy w zakres jej stosowania wchodzą treści cyfrowe i usługi cyfrowe, oraz rozważyła dostosowanie takich pojęć jak „szkoda”, „wada” i „producent”; jest zdania, że w celu zagwarantowania pewności prawa w całej Unii w następstwie przeglądu dyrektywy w sprawie odpowiedzialności za produkty pojęcie „producenta” powinno obejmować wytwórców, twórców, programistów, usługodawców i operatorów back-end; wzywa Komisję, aby rozważyła uchylenie przepisów dotyczących ciężaru dowodu w odniesieniu do szkód spowodowanych przez pojawiające się technologie cyfrowe w jasno określonych przypadkach i po odpowiedniej ocenie; podkreśla, że należy zadbać o to, by uaktualniony unijny akt nadal ograniczał się do jasno określonych problemów, w przypadku których istnieją już wykonalne rozwiązania, i jednocześnie pozwalał na uwzględnienie przyszłych zmian technologicznych, w tym rozwoju opartego na wolnym i otwartym oprogramowaniu; zauważa, że dyrektywę w sprawie odpowiedzialności za produkty należy nadal stosować w odniesieniu do roszczeń z tytułu odpowiedzialności cywilnej producenta wadliwego systemu SI, jeżeli system taki można uznać za produkt w rozumieniu tej dyrektywy; podkreśla, że wszelkie aktualizacje ram odpowiedzialności za produkt powinny iść w parze z aktualizacją dyrektywy 2001/95/WE Parlamentu Europejskiego i Rady z dnia 3 grudnia 2001 r. w sprawie ogólnego bezpieczeństwa produktów(16), aby mieć pewność, że w systemach SI stosuje się zasady uwzględniania bezpieczeństwa i ochrony już na etapie projektowania;

9.  uważa, że obowiązujące w państwach członkowskich prawo deliktów opierające się na winie w większości przypadków przewiduje odpowiedni poziom ochrony osób, które ucierpiały z uwagi na fakt, że strona trzecia, taka jak haker, ingerowała w system, lub które poniosły szkody majątkowe w wyniku działania takiej osoby, ponieważ ingerencja stanowi zazwyczaj zawinione działanie; zauważa, że jedynie w szczególnych przypadkach, w tym kiedy nie można wykryć tej osoby trzeciej lub jest ona niewypłacalna, konieczne wydaje się dodanie przepisów dotyczących odpowiedzialności w celu uzupełnienia istniejącego krajowego prawa deliktów;

10.  uważa zatem za stosowne, by w niniejszym sprawozdaniu skupić się na roszczeniach w ramach odpowiedzialności cywilnej operatora systemu SI; potwierdza, że odpowiedzialność operatora można uzasadnić faktem, że kontroluje on ryzyko związane z systemem SI porównywalne z ryzykiem kontrolowanym przez właściciela pojazdu; uważa, że ze względu na złożoność systemów SI oraz ich zdolność do połączeń operator będzie w wielu przypadkach pierwszą, identyfikowalną osobą kontaktową dla poszkodowanego;

Odpowiedzialność operatora

11.  stoi na stanowisku, że zasady odpowiedzialności dotyczące operatora powinny obejmować wszelkie działania systemów SI niezależnie od tego, gdzie są one realizowane i czy mają charakter fizyczny czy wirtualny; zauważa, że działania w przestrzeni publicznej, które narażają wiele osób na zagrożenie, wymagają dalszych rozważań; uważa, że potencjalni poszkodowani często nie są świadomi działania systemu i często nie mieliby umów, które dawałyby im prawo do zgłaszania roszczeń wobec operatora; zauważa, że w momencie gdy dojdzie do szkody, osoby takie mogłyby zgłaszać tylko roszczenia na zasadzie winy, a dowiedzenie winy operatora systemu SI mogłoby okazać się trudne i tym samym odpowiednie roszczenia z tytułu odpowiedzialności spełzłyby na niczym;

12.  uważa, że pojęcie operatora należy rozumieć jako obejmujące zarówno operator front-end, jak i operator back-end, o ile ten drugi nie jest objęty dyrektywą w sprawie odpowiedzialności za produkty; uważa, że operatora front-end należy zdefiniować jako osobę fizyczną lub prawną, która do pewnego stopnia kontroluje ryzyko związane z obsługą i funkcjonowaniem systemu SI i korzysta z jego działania; stwierdza, że operatora back-end należy zdefiniować jako osobę fizyczną lub prawną, która w sposób ciągły określa cechy technologii, dostarcza dane i podstawowe usługi wsparcia, a zatem sprawuje również pewną kontrolę nad ryzykiem związanym z obsługą i funkcjonowaniem systemu SI; uważa, że sprawowanie kontroli należy rozumieć jako dowolne działanie operatora, które wpływa na działanie systemu SI, a tym samym na zakres, w jakim naraża on osoby trzecie na zagrożenia z nim związane; uważa, że takie działania mogłyby wpływać na działanie systemu SI od początku do końca przez określanie danych wejściowych, wyjściowych lub wyników albo zmieniać konkretne funkcje czy procesy systemu SI;

13.  zauważa, że może dojść do sytuacji, w których mamy do czynienia z większą liczbą operatorów, na przykład z operatorem front-end i back-end; uważa, że w takim przypadku wszystkie podmioty powinny ponosić solidarną odpowiedzialność na zasadzie ryzyka, mając przy tym prawo do proporcjonalnego regresu wobec siebie nawzajem; jest zdania, że proporcje odpowiedzialności powinny być ustalane na podstawie odpowiedniego stopnia kontroli operatorów nad ryzykiem związanym z obsługą i funkcjonowaniem systemu SI; uważa, że należy poprawić identyfikowalność produktów , aby móc lepiej wskazywać podmioty zaangażowane na różnych etapach;

Różne zasady odpowiedzialności zależnie od rodzaju ryzyka

14.  uznaje, że czynnikiem determinującym odpowiedzialność jest rodzaj systemu SI, nad którym sprawuje kontrolę dany operator; zauważa, że system SI, który z natury wiąże się ze znacznym ryzykiem i działa autonomicznie, potencjalnie zagraża ogółowi społeczeństwa w znacznie większym stopniu; uważa, że w obliczu wyzwań prawnych wynikających ze stosowania systemów SI dla obowiązujących systemów odpowiedzialności cywilnej wydaje się zasadne stworzenie powszechnego surowego systemu odpowiedzialności dla tych autonomicznych systemów SI obarczonych wysokim ryzykiem; podkreśla, że takie podejście oparte na ryzyku, które może obejmować kilka poziomów ryzyka, powinno opierać się na jasnych kryteriach i odpowiedniej definicji wysokiego ryzyka oraz zapewniać pewność prawa;

15.  wyraża przekonanie, że system SI stanowi poważne ryzyko, gdy jego autonomiczne działanie wiąże się ze znaczącym potencjałem wyrządzenia szkód jednej osobie lub grupie osób w sposób losowy i wykraczający poza to, czego można zasadnie oczekiwać; wyraża przekonanie, że przy ustalaniu, czy system SI jest obarczony wysokim ryzykiem, pod uwagę należy również wziąć branżę, w której można oczekiwać wystąpienia znacznego ryzyka, a także charakter prowadzonej działalności; wyraża przekonanie, że znaczenie tego potencjału zależy od wzajemnego stosunku między powagą ewentualnej szkody, prawdopodobieństwem zaistnienia szkody i sposobem użycia systemu SI;

16.  zaleca, by wszystkie systemy SI obarczone wysokim ryzykiem zostały umieszczone w wyczerpującym załączniku do proponowanego rozporządzenia; biorąc pod uwagę szybki rozwój technologiczny i wymaganą wiedzę w zakresie technologii, Komisja powinna przeprowadzić niezwłocznie przegląd tego załącznika i robić to przynajmniej co sześć miesięcy, a w razie konieczności uaktualnić go w drodze aktu delegowanego; uważa, że Komisja powinna ściśle współpracować z niedawno utworzonym komitetem stałym, podobnym do istniejących już struktur, a mianowicie Stałego Komitetu ds. Prekursorów czy Komitetu Technicznego ds. Pojazdów Silnikowych, które skupiają ekspertów krajowych z państw członkowskich i inne zainteresowane podmioty; uważa, że zrównoważona reprezentacja w grupie ekspertów wysokiego szczebla ds. sztucznej inteligencji może posłużyć za przykład do utworzenia grupy zainteresowanych podmiotów, w skład której wejdą również eksperci w dziedzinie etyki, a także antropolodzy, socjolodzy i specjaliści ds. zdrowia psychicznego; wyraża również opinię, że Parlament Europejski powinien wyznaczyć ekspertów-konsultantów, którzy będą doradzać niedawno ustanowionemu komitetowi stałemu;

17.  uważa, że rozwój technologii opartych na SI jest bardzo dynamiczny i stale przyspiesza; podkreśla, że aby zapewnić użytkownikom odpowiednią ochronę, konieczne jest podejście przyspieszone pozwalające analizować pod kątem potencjalnych zagrożeń nowe urządzenia i systemy wykorzystujące systemy SI, które pojawiają się na rynku europejskim; zaleca jak największe uproszczenie wszystkich procedur w tym zakresie; sugeruje ponadto, aby Komisja rozpoczynała ocenę tego, czy system SI stwarza wysokie ryzyko, w tym samym czasie co ocenę bezpieczeństwa produktu, aby zapobiec sytuacji, w której system SI wysokiego ryzyka został już zatwierdzony do obrotu, ale nie został jeszcze sklasyfikowany jako obarczony wysokim ryzykiem i w związku z tym działa bez obowiązkowej ochrony ubezpieczeniowej;

18.  uważa, że Komisja powinna ocenić, w jaki sposób dane gromadzone, rejestrowane lub przechowywane w systemach SI wysokiego ryzyka do celów gromadzenia dowodów w przypadku szkody spowodowanej przez ten system SI mogłyby być udostępniane i wykorzystywane przez organ dochodzeniowy oraz w jaki sposób można poprawić identyfikowalność i możliwość kontrolowania takich danych przy jednoczesnym uwzględnianiu praw podstawowych i prawa do prywatności;

19.  uważa, że zgodnie z surowymi systemami odpowiedzialności w państwach członkowskich proponowane rozporządzenie powinno obejmować naruszenia istotnych chronionych przepisami praw do życia, zdrowia, nienaruszalności cielesnej i własności oraz powinno wskazywać kwoty i zakres odszkodowania, a także termin przedawnienia roszczeń; jest zdania, że proponowane rozporządzenie powinno również obejmować poważne szkody niematerialne skutkujące możliwą do zweryfikowania stratą ekonomiczną powyżej progu zharmonizowanego w prawie Unii dotyczącym odpowiedzialności, zapewniającym równowagę między dostępem poszkodowanych do wymiaru sprawiedliwości a interesami innych zainteresowanych osób; wzywa Komisję do ponownej oceny i dostosowania progów szkód w prawie Unii; jest zdania, że Komisja powinna dogłębnie przeanalizować tradycje prawne we wszystkich państwach członkowskich oraz obowiązujące w nich przepisy krajowe przyznające rekompensatę za szkody niematerialne, aby ocenić, czy włączenie szkód niematerialnych do aktów ustawodawczych dotyczących SI jest konieczne oraz czy jest ono sprzeczne z obowiązującymi ramami prawnymi Unii lub narusza prawo krajowe państw członkowskich;

20.  wskazuje, że wszelkie działania sterowane systemami sztucznej inteligencji, urządzenia czy procesy wykorzystujące te systemy, które powodują szkody, ale nie zostały wymienione w załączniku do proponowanego rozporządzenia powinny nadal być objęte odpowiedzialnością na zasadzie winy; uważa, że poszkodowany powinien mieć jednak prawo do domniemania winy operatora, który powinien mieć możliwość uwolnienia się od odpowiedzialności przez udowodnienie, że wywiązał się z obowiązku staranności;

21.  uważa, że system SI, który nie został jeszcze oceniony przez Komisję i nowo utworzony stały komitet, a zatem nie jest jeszcze sklasyfikowany jako system wysokiego ryzyka i nie znajduje się w wykazie zawartym w załączniku do proponowanego rozporządzenia, powinien jednak, w drodze wyjątku od systemu przewidzianego w ust. 20, podlegać odpowiedzialności na zasadzie ryzyka, jeżeli spowodował powtarzające się incydenty skutkujące poważnymi szkodami; zauważa, że w takim przypadku Komisja powinna również bez zbędnej zwłoki ocenić potrzebę zmiany tego załącznika w celu dodania tego systemu SI do wykazu; jest zdania, że jeżeli w wyniku tej oceny Komisja podejmie decyzję o umieszczeniu tego systemu SI w wykazie, włączenie to powinno mieć moc wsteczną od momentu pierwszego udowodnionego incydentu spowodowanego przez ten system SI, w wyniku którego doszło do poważnych szkód;

22.  wzywa Komisję, aby oceniła potrzebę wprowadzenia przepisów prawnych na szczeblu Unii dotyczących umów w celu zapobiegania klauzulom o braku odpowiedzialności umownej, w tym w relacjach między przedsiębiorstwami i między przedsiębiorstwami a administracją;

Ubezpieczenia a systemy sztucznej inteligencji

23.  uważa, że pokrycie zobowiązań z tytułu odpowiedzialności jest kluczowym czynnikiem, który stanowi o sukcesie nowych technologii, produktów i usług; zauważa, że prawidłowe podejście do odpowiedzialności ma również zasadnicze znaczenie dla zadbania o to, by ogół społeczeństwa mógł zaufać nowym technologiom pomimo faktu, że potencjalnie można w związku z nimi ucierpieć lub też że poszkodowany może wystąpić z roszczeniami; odnotowuje jednocześnie, że ten system regulacyjny skupia się na potrzebie wykorzystania i wzmocnienia korzyści oferowanych przez systemy SI przy jednoczesnym wprowadzeniu solidnych zabezpieczeń;

24.  jest zdania, że ze względu na znaczny potencjał spowodowania szkody oraz uwzględniając dyrektywę Parlamentu Europejskiego i Rady 2009/103/WE z dnia 16 września 2009 r. w sprawie ubezpieczenia od odpowiedzialności cywilnej za szkody powstałe w związku z ruchem pojazdów mechanicznych i egzekwowania obowiązku ubezpieczania od takiej odpowiedzialności(17), wszyscy operatorzy systemów SI obarczonych wysokim ryzykiem wymienieni w załączniku do proponowanego rozporządzenia powinni posiadać ubezpieczenie od odpowiedzialności cywilnej; uważa, że taki system obowiązkowych ubezpieczeń dla obarczonych wysokim ryzykiem systemów SI powinien pokrywać odszkodowania w kwocie i zakresie, które wynikają z proponowanego rozporządzeniu; jest świadomy, że taka technologia jest obecnie nadal bardzo rzadka, ponieważ zakłada wysoki stopień autonomicznego podejmowania decyzji, oraz że obecne dyskusje dotyczą głównie przyszłości; uważa jednak, że niepewność dotycząca zagrożeń nie powinna powodować, że składki ubezpieczeniowe będą zbyt wysokie, a tym samym będą stanowić przeszkodę dla badań i innowacji;

25.  uważa, że unijny mechanizm odszkodowawczy finansowany ze środków publicznych nie jest właściwym sposobem na usuwanie ewentualnych niedociągnięć systemów ubezpieczeniowych; uważa, że brak danych na temat ryzyka związanego z systemami SI w połączeniu z niepewnością dotyczącą wydarzeń w przyszłości utrudnia sektorowi ubezpieczeń opracowanie dostosowanych lub nowych produktów ubezpieczeniowych; uważa, że pozostawienie opracowania obowiązkowego ubezpieczenia wyłącznie w gestii rynku może doprowadzić do przyjęcia jednego uniwersalnego podejścia charakteryzującego się nieproporcjonalnie wysokimi cenami i niewłaściwymi zachętami, co zachęci operatorów do wybierania najtańszego, a nie najlepszego ubezpieczenia i może stać się przeszkodą dla badań i innowacji; uważa, że Komisja powinna ściśle współpracować z sektorem ubezpieczeń, aby sprawdzić, jak wykorzystać dane i innowacyjne modele do stworzenia polis ubezpieczeniowych oferujących odpowiednią ochronę za przystępną cenę;

Kwestie końcowe

26.  zwraca się do Komisji o przedłożenie, na podstawie art. 225 Traktatu o funkcjonowaniu Unii Europejskiej, wniosku dotyczącego rozporządzenia w sprawie odpowiedzialności za działanie systemów sztucznej inteligencji w oparciu o zalecenia przedstawione w załączniku do niniejszej rezolucji;

27.  uważa, iż wspomniany wniosek nie pociągnie za sobą skutków finansowych;

o
o   o

28.  zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji oraz zaleceń zawartych w załączniku Komisji i Radzie.

(1) Dz.U. L 210 z 7.8.1985, s. 29.
(2) Dz.U. L 149 z 11.6 2005, s. 22.
(3) Dz.U. L 304 z 22.11 2011, s. 64.
(4) Dz.U. L 117 z 5.5 2017, s. 1.
(5) Dz.U. L 252 z 8.10.2018, s. 1.
(6) Dz.U. L 136 z 22.5.2019, s. 1.
(7) Dz.U. L 123 z 12.5.2016, s. 1.
(8) Dz.U. C 252 z 18.7.2018, s. 239.
(9) Dz.U. C 307 z 30.8.2018, s. 163.
(10) Dz.U. C 433 z 23.12.2019, s. 86.
(11) Teksty przyjęte, P8_TA(2019)0081.
(12) Teksty przyjęte, P9_TA(2020)0032.
(13)https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654178'
(14)https://www.europarl.europa.eu/RegData/etudes/STUD/2016/563501/EPRS_STU(2016)563501(ANN)_EN.pdf
(15)https://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IPOL_STU(2016)571379_EN.pdf
(16) Dz.U. L 011 z 15.1.2002, s. 4.
(17) Dz.U. L 263 z 7.10.2009, s. 11.


ZAŁĄCZNIK DO REZOLUCJI:

SZCZEGÓŁOWE ZALECENIA DLA PRZYGOTOWUJĄCYCH PROJEKT ROZPORZĄDZENIA PARLAMENTU EUROPEJSKIEGO I RADY WS. ODPOWIEDZIALNOŚCI ZA DZIAŁANIE SYSTEMÓW SZTUCZNEJ INTELIGENCJI

A.  ZASADY I CELE WNIOSKU

Niniejsze sprawozdanie dotyczy istotnego aspektu cyfryzacji, którą z kolei kształtują działalność ponadgraniczna, konkurencja na świecie i podstawowe kwestie społeczne. Poniższe zasady powinny służyć jako wytyczne:

1.  Rzeczywisty jednolity rynek cyfrowy wymaga pełnego ujednolicenia za pośrednictwem rozporządzenia.

2.  Nowymi wyzwaniami prawnymi wynikającymi z rozwoju systemów sztucznej inteligencji należy się zająć przez stworzenie w całym łańcuchu odpowiedzialności, w tym producentom, operatorom, poszkodowanym i innym stronom trzecim, poczucia maksymalnej pewności prawa.

3.  Nie powinno się iść w stronę nadmiernego stanowienia prawa i należy zapobiegać biurokracji, gdyż w przeciwnym razie zahamowane zostałoby tworzenie innowacyjnych rozwiązań z użyciem sztucznej inteligencji w Europie, szczególnie w przypadku technologii, produktów czy usług rozwijanych przez MŚP lub przedsiębiorstwa typu start-up.

4.  Przepisy dotyczące odpowiedzialności cywilnej za sztuczną inteligencję powinny mieć na celu zapewnienie równowagi między ochroną ogółu społeczeństwa z jednej strony a zachętami dla przedsiębiorstw do inwestowania w innowacje, zwłaszcza w systemy sztucznej inteligencji, z drugiej strony.

5.  Zamiast zastępować istniejące już i dobrze funkcjonujące systemy odpowiedzialności powinniśmy dokonać kilku niezbędnych dostosowań, wprowadzając nowe, niedezaktualizujące się rozwiązania.

6.  Przyszły wniosek dotyczący rozporządzenia i dyrektywa w sprawie odpowiedzialności za produkty stanowią dwa filary powszechnych ram odpowiedzialności za systemy sztucznej inteligencji i wymagają ścisłej koordynacji i dostosowania między wszystkimi podmiotami politycznymi na szczeblu unijnym i krajowym.

7.  Aby zwiększyć zaufanie obywateli do nowej technologii, należy zapewnić im ten sam poziom ochrony i te same prawa niezależnie od tego, czy szkoda została spowodowana przez system sztucznej inteligencji, czy też nie, lub od tego, czy szkoda ma charakter fizyczny czy wirtualny.

8.  W przyszłym wniosku dotyczącym rozporządzenia należy uwzględnić zarówno szkody materialne, jak i niematerialne. Na podstawie m.in. komunikatu Komisji z dnia 19 lutego 2020 r. w sprawie wpływu sztucznej inteligencji i robotyki na bezpieczeństwo i odpowiedzialność wzywa się Komisję Europejską do dogłębnego przeanalizowania tradycji prawnych we wszystkich państwach członkowskich, a także obowiązujących przepisów prawnych przyznających odszkodowanie za szkodę niematerialną, aby ocenić, czy włączenie szkody niematerialnej do przyszłego wniosku dotyczącego rozporządzenia jest prawnie uzasadnione i konieczne z punktu widzenia osoby poszkodowanej. W oparciu o obecnie dostępne informacje Parlament uważa, że należy uwzględnić istotną szkodę niematerialną, jeżeli dana osoba poniosła zauważalną, to znaczy możliwą do zweryfikowania, szkodę ekonomiczną.

B.  TEKST PROPONOWANEGO WNIOSKU

Wniosek dotyczący

ROZPORZĄDZENIA PARLAMENTU EUROPEJSKIEGO I RADY

w sprawie odpowiedzialności za działanie systemów sztucznej inteligencji

PARLAMENT EUROPEJSKI I RADA UNII EUROPEJSKIEJ,

uwzględniając Traktat o funkcjonowaniu Unii Europejskiej, w szczególności jego art. 114,

uwzględniając wniosek Komisji Europejskiej,

po przekazaniu projektu aktu ustawodawczego parlamentom narodowym,

uwzględniając opinię Europejskiego Komitetu Ekonomiczno-Społecznego(1),

stanowiąc zgodnie ze zwykłą  procedurą ustawodawczą(2),

a także mając na uwadze, co następuje:

(1)  Pojęcie „odpowiedzialności” odgrywa istotną, ale i dwojaką rolę w naszym codziennym życiu, gdyż – z jednej strony – gwarantuje osobie, która ucierpiała lub poniosła szkody, prawo do wystąpienia z roszczeniem o odszkodowanie od strony odpowiedzialnej za te szkody, zaś – z drugiej strony – stanowi zachętę ekonomiczną, by przede wszystkim unikać wyrządzania szkód. We wszelkich przepisach o odpowiedzialności należy dążyć do wzbudzania zaufania w odniesieniu do bezpieczeństwa, niezawodności i spójności produktów i usług, w tym pojawiających się technologii cyfrowych, takich jak sztuczna inteligencja (SI), internet rzeczy czy robotyka, w celu zapewnienia równowagi między skuteczną ochroną ofiar potencjalnych szkód a jednoczesnym dawaniem wystarczającego pola do manewru, by umożliwić rozwój nowych technologii, produktów i usług.

(2)  Szczególnie na początkowych etapach cyklu życia nowych produktów i usług, po wstępnym przetestowaniu, ich użycie wiąże się dla użytkownika i osób postronnych z pewnym poziomem ryzyka, że produkty czy usługi nie zawsze będą prawidłowo funkcjonować. Taki proces prób i błędów jest jednocześnie kluczowym czynnikiem przyczyniającym się do postępu technicznego, bez którego większość towarzyszących nam technologii nie ujrzałaby światła dziennego. Dotychczas ryzyko związane z nowymi produktami i usługami odpowiednio łagodziły surowe przepisy dotyczące bezpieczeństwa produktów oraz zasady odpowiedzialności.

(3)  Jednak rozwój SI stanowi znaczące wyzwanie dla istniejących ram odpowiedzialności. Korzystanie z systemów SI w życiu codziennym może prowadzić do sytuacji, w których ich brak przejrzystości („czarna skrzynka”) i mnogość podmiotów ingerujących w ich cykl życia mogą sprawić, że wskazanie, kto kontrolował zagrożenie związane z systemem SI, czy też który kod lub które dane wejściowe ostatecznie wywołały szkodliwe działanie, może okazać się niezmiernie drogie lub nawet niemożliwe. Tę trudność potęgują powiązania między danym systemem SI a innymi systemami, w tym systemami niewykorzystującymi SI, ich zależność od danych zewnętrznych, podatność na naruszenia cyberbezpieczeństwa, jak również coraz większa autonomia systemów SI wynikająca z uczenia się maszyn i możliwości maszyn w zakresie głębokiego uczenia się. Poza tą złożonością i potencjalnym narażeniem na ryzyko systemy SI mogłyby być również wykorzystywane, by spowodować poważne szkody, takie jak narażenie na szwank godności ludzkiej, europejskich wartości i swobód, przez śledzenie obywateli wbrew ich woli, wprowadzenie systemów zaufania społecznego, podejmowanie stronniczych decyzji dotyczących ubezpieczenia zdrowotnego, przyznawania kredytów, wydawania postanowień sądowych lub decyzji dotyczących rekrutacji lub zatrudnienia czy stworzenie śmiercionośnych systemów broni autonomicznej.

(4)  Należy zaznaczyć, że korzyści płynące z wdrożenia systemów SI przewyższają znacznie ich wady. Pomogą one skuteczniej walczyć ze zmianą klimatu, usprawnić badania lekarskie i poprawić warunki pracy, lepiej zintegrować osoby z niepełnosprawnością i osoby starsze w społeczeństwie i organizować działania oświatowe dostosowane do każdego typu ucznia. Aby wykorzystać wszystkie możliwości technologiczne i zwiększyć zaufanie obywateli do stosowania systemów SI przy jednoczesnym zapobieganiu negatywnym scenariuszom, najlepszym sposobem postępowania jest przyjęcie stanowczych norm etycznych powiązanych z solidnymi i sprawiedliwymi procedurami odszkodowawczymi.

(5)  Aby przeciwdziałać naruszeniom zasad bezpieczeństwa, niezbędny jest także odpowiedni system odpowiedzialności. System odpowiedzialności ustanowiony w niniejszym rozporządzeniu musi jednak uwzględniać wszystkie niezbędne interesy. Dokładna analiza konsekwencji wszelkich nowych ram regulacyjnych dla małych i średnich przedsiębiorstw (MŚP) i przedsiębiorstw typu start-up jest warunkiem wstępnym dalszych działań legislacyjnych. Kluczowa rola, jaką takie przedsiębiorstwa odgrywają w gospodarce europejskiej, uzasadnia podejście ściśle proporcjonalne umożliwiające im rozwój i innowacyjność. Z drugiej strony ofiary szkód spowodowanych przez systemy SI muszą mieć prawo do dochodzenia roszczeń i pełnego odszkodowania za poniesione szkody i krzywdy.

(6)  Wszelkie zmiany wymagane w obowiązujących ramach prawnych powinny rozpocząć się od wyjaśnienia, że systemy SI nie mają osobowości prawnej ani sumienia, a ich jedynym zadaniem jest służenie ludzkości. Wiele systemów SI nie różni się znacząco od innych technologii, które czasem opierają się na znacznie bardziej złożonym oprogramowaniu. Ostatecznie zdecydowaną większość systemów SI wykorzystuje się do realizacji trywialnych zadań, a ryzyko dla społeczeństwa jest minimalne lub jest go brak. Dzięki używaniu terminu „zautomatyzowane podejmowanie decyzji” można by uniknąć ewentualnej niejednoznaczności terminu SI. Termin ten opisuje sytuację, w której użytkownik wstępnie przenosi podjęcie decyzji, w części lub w całości, na inny podmiot w drodze oprogramowania lub usługi. Z kolei podmiot ten stosuje modele automatycznego podejmowania decyzji w celu wykonania czynności w imieniu użytkownika lub poinformowania o decyzji użytkownika dotyczącej realizacji działania.

(7)  Istnieją jednak systemy SI, które opracowuje się i wdraża w krytyczny sposób i które opierają się na takich technologiach, jak sieci neuronowe i procesy głębokiego uczenia się. Ich możliwości i autonomia mogą sprawić, iż bardzo trudne będzie powiązanie konkretnych ich działań z konkretnymi decyzjami człowieka podjętymi podczas ich projektowania lub działania. Operator takiego systemu SI może na przykład argumentować, że powodujące szkodę fizyczne lub wirtualne działanie, urządzenie czy wywołujący szkodę fizyczny bądź wirtualny proces były poza jego kontrolą, ponieważ szkoda wynikała z autonomicznego działania należącego do niego systemu SI. Ponadto samo działanie autonomicznego systemu SI nie powinno stanowić powodu wystarczającego do przyjęcia na siebie odpowiedzialności w związku z roszczeniem. W konsekwencji możemy mieć do czynienia z przypadkami odpowiedzialności, w których wskazanie odpowiedzialności mogłoby być niesprawiedliwe lub nieskuteczne lub w których osoba poszkodowana przez system SI nie może dowieść winy producenta, ingerującej strony trzeciej czy operatora, a tym samym nie może uzyskać odszkodowania.

(8)  Mimo wszystko zawsze powinno być jasne, że ten, kto tworzy, utrzymuje i kontroluje system sztucznej inteligencji i kto ingeruje w jego działanie, powinien być odpowiedzialny za szkody wynikające z działania, funkcjonowania urządzenia czy procesu. Powyższe wynika z ogólnych i szeroko akceptowanych koncepcji odpowiedzialności i sprawiedliwości, zgodnie z którymi osoba, która stwarza lub stanowi zagrożenie dla ogółu społeczeństwa, ponosi odpowiedzialność, gdy zagrożenie takie powoduje szkodę, a zatem powinna zawczasu zminimalizować lub później zrekompensować to ryzyko. W konsekwencji coraz częstsze pojawianie się systemów SI nie wiąże się z potrzebą dogłębnej nowelizacji zasad odpowiedzialności w całej Unii. Konkretne dostosowania do obowiązującego prawodawstwa oraz wprowadzenie dobrze dostępnych i ukierunkowanych nowych przepisów wystarczą, by zająć się wyzwaniami związanymi ze sztuczną inteligencją, w celu zapobieżenia fragmentacji regulacyjnej i zapewnienia harmonizacji prawodawstwa dotyczącego odpowiedzialności cywilnej w całej Unii w związku ze sztuczną inteligencją.

(9)  Dyrektywa Rady 85/374/EWG(3) (dyrektywa w sprawie odpowiedzialności za produkty) jest od ponad 30 lat skutecznym sposobem uzyskania odszkodowania za szkodę wywołaną przez wadliwy produkt. Dlatego należy z niej również korzystać w odniesieniu do roszczeń poszkodowanego z tytułu odpowiedzialności cywilnej producenta wadliwego systemu sztucznej inteligencji. Zgodnie z zasadami Unii w zakresie lepszego stanowienia prawa wszelkie konieczne dostosowanie prawodawstwa należy przedyskutować w niezbędnym procesie przeglądu tej dyrektywy. Obowiązujące w państwach członkowskich prawo dotyczące odpowiedzialności opierające się na winie w większości przypadków przewiduje również odpowiedni poziom ochrony osób, które ucierpiały wskutek ingerencji osoby trzeciej w system, ponieważ ingerencja zwyczajowo stanowi zawinione działanie, jeżeli osoba trzecia używa systemu SI do wyrządzenia szkody. W konsekwencji w niniejszym rozporządzeniu należy skupić się na roszczeniach w ramach odpowiedzialności cywilnej operatora systemu SI.

(10)  Na mocy niniejszego rozporządzenia odpowiedzialność operatora opiera się na fakcie, że do pewnego stopnia kontroluje on ryzyko związane z działaniem systemu SI, które jest porównywalne z ryzykiem, jakie ponosi właściciel samochodu. W miarę wzrostu zaawansowania i autonomiczności systemu definiowanie algorytmów i wpływanie na nie, na przykład przez ciągłe aktualizacje, ma coraz większe znaczenie. Ponieważ często więcej niż jedna osoba może racjonalnie zostać uznana za „obsługującą“ system SI, na mocy niniejszego rozporządzenia pojęcie „operator” należy rozumieć jako obejmujące zarówno operatora front-end, jak i operatora back-end. Chociaż ogólnie rzecz biorąc operator front-end wydaje się być osobą, która „w pierwszej kolejności“ decyduje o wykorzystaniu systemu SI, operator back-end mógłby w rzeczywistości mieć większą kontrolę nad ryzykiem operacyjnym. Jeżeli operator back-end również zalicza się do definicji „producenta” zgodnie z art. 3 dyrektywy w sprawie odpowiedzialności za produkty, dyrektywa ta powinna mieć do niego zastosowanie. Jeżeli jest tylko jeden operator będący również producentem systemu SI, niniejsze rozporządzenie powinno mieć charakter nadrzędny wobec dyrektywy w sprawie odpowiedzialności za produkty.

(11)  Jeżeli użytkownik, a zatem osoba, która korzysta z systemu SI, jest uczestnikiem negatywnego wydarzenia, powinien on w świetle niniejszego rozporządzenia ponosić odpowiedzialność tylko wówczas, gdy można go uznać za operatora. Jeżeli tak nie jest, zakres rażącego zaniedbania lub umyślnego udziału użytkownika w ryzyku może skutkować uznaniem jego odpowiedzialności opartej na winie wobec poszkodowanego. Mające zastosowanie prawa konsumenckie użytkownika powinny pozostać nienaruszone.

(12)  Na mocy niniejszego rozporządzenia poszkodowany powinien mieć prawo zgłaszania roszczeń z tytułu odpowiedzialności w całym łańcuchu odpowiedzialności i w całym cyklu życia systemu SI. Niniejsze rozporządzenie powinno zasadniczo odnosić się też do wszystkich systemów SI niezależnie od tego, gdzie działają i czy ich działanie ma charakter fizyczny czy wirtualny. Większość roszczeń z tytułu odpowiedzialności na mocy niniejszego rozporządzenia powinna jednak odnosić się do przypadków odpowiedzialności strony trzeciej, gdy system SI działa w przestrzeni publicznej, a co za tym idzie zagrożonych jest wiele osób. W takiej sytuacji poszkodowani często nie będą świadomi działania systemu SI i nie będą pozostawać w żadnym stosunku prawnym czy umownym z operatorem. W konsekwencji działanie systemu SI stwarza sytuację, w której w przypadku powstania szkód poszkodowani mogą występować z roszczeniami z tytułu odpowiedzialności wyłącznie na zasadzie winy operatora systemu SI, przy czym będą musieli stawić czoła poważnym trudnościom, by dowieść jego winy.

(13)  Czynnikiem determinującym jest rodzaj systemu SI, który kontroluje operator. System SI obarczony wysokim ryzykiem jest potencjalnie znacznie groźniejszy dla użytkownika lub społeczeństwa, a zagrożenie występuje w sposób losowy, wykraczając poza to, czego można racjonalnie oczekiwać. Oznacza to, że na początku autonomicznego działania systemu SI nie znamy i nie możemy wskazać większości potencjalnie pokrzywdzonych, np. osób na publicznym placu czy osób w sąsiednim budynku, w porównaniu z działaniem systemu SI przeznaczonego dla konkretnych osób, które wcześniej regularnie zgadzały się na jego zastosowanie, np. operacja chirurgiczna w szpitalu czy pokaz produktu w małym sklepie. Określenie, z jakim prawdopodobieństwem systemy SI obciążone wysokim ryzykiem mogą spowodować szkody, zależy od wzajemnych powiązań między celem zastosowania, dla którego system SI jest wprowadzany do obrotu, sposobem wykorzystania systemu SI, powagą ewentualnych szkód, stopniem autonomiczności w podejmowaniu decyzji, które mogą spowodować szkodę, a prawdopodobieństwem, że zagrożenie rzeczywiście wystąpi. Stopień powagi szkody należy określić w oparciu o odpowiednie wskaźniki takie jak zakres potencjalnej szkody wynikającej z działania systemu względem poszkodowanych osób, w tym zwłaszcza wpływ na prawa podstawowe, liczbę poszkodowanych, całkowitą wartość potencjalnych szkód, jak również szkody dla ogółu społeczeństwa. Prawdopodobieństwo wystąpienia szkody należy określać w oparciu o odpowiednie wskaźniki takie jak rola obliczeń algorytmicznych w procesie podejmowania decyzji, złożoność decyzji i odwracalność jej skutków. Ponadto sposób wykorzystania powinien zależeć od odpowiednich wskaźników takich jak kontekst i branża, w której działa system SI, od tego, czy system ten może mieć prawny lub faktyczny wpływ na istotne, prawnie chronione prawa poszkodowanego oraz od tego, czy skutków jego działania można uniknąć przy zastosowaniu rozsądnych środków.

(14)  Wszystkie obarczone wysokim ryzykiem systemy SI należy umieścić w wyczerpującym wykazie załącznika do niniejszego rozporządzenia. Biorąc pod uwagę szybki rozwój technologii i rynku, jak również wiedzę techniczną wymaganą, by adekwatnie przeanalizować systemy SI, należy powierzyć Komisji uprawnienia do przyjmowania aktów delegowanych zgodnie z art. 290 Traktatu o funkcjonowaniu Unii Europejskiej w celu zmiany niniejszego rozporządzenia w odniesieniu do rodzajów systemów SI, które stanowią poważne zagrożenie i do istotnych branż, w których systemy te są wykorzystywane. W oparciu o definicje i przepisy określone w niniejszym rozporządzeniu Komisja powinna niezwłocznie przeprowadzić przegląd załącznika i robić to przynajmniej co sześć miesięcy, a w razie konieczności wprowadzać zmiany w drodze aktów delegowanych. Komisja powinna rozpoczynać ocenę tego, czy system SI stwarza poważne zagrożenie, w tym samym czasie co ocenę bezpieczeństwa produktu, aby zapobiec sytuacji, w której system SI wysokiego ryzyka został już zatwierdzony do obrotu, ale nie został jeszcze sklasyfikowany jako stwarzający poważne zagrożenie i w związku z tym działa bez obowiązkowej ochrony ubezpieczeniowej. Aby dać przedsiębiorcom i organizacjom badawczym poczucie pewności w planowaniu i inwestycjach, zmiany w wykazie branż o zasadniczym znaczeniu należy wprowadzać jedynie co dwanaście miesięcy. Należy wezwać operatorów, by powiadamiali Komisję, jeżeli pracują nad nową technologią, nowym produktem czy nową usługą, które miałyby być wykorzystywane w jednej z branż o zasadniczym znaczeniu, o których mowa w załączniku, i które mogłyby się później kwalifikować do kategorii systemów SI obarczonych wysokim ryzykiem.

(15)  Szczególnie ważne jest, aby w czasie prac przygotowawczych Komisja prowadziła należyte konsultacje z odpowiednimi zainteresowanymi stronami, w tym na poziomie ekspertów, oraz aby konsultacje te prowadzone były zgodnie z zasadami określonymi w Porozumieniu międzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa(4). Stały Komitet Techniczny ds. Obarczonych Wysokim Ryzykiem Systemów Sztucznej Inteligencji (ang. TCRAI) powinien wspierać Komisję w regularnym przeglądzie niniejszego rozporządzenia. W skład tego komitetu stałego powinni wchodzić przedstawiciele państw członkowskich oraz zainteresowane podmioty dobrane na zasadzie zrównoważonej reprezentacji, w tym organizacje konsumenckie, stowarzyszenia reprezentujące poszkodowanych, przedstawiciele przedsiębiorstw różnej wielkości i z różnych branż, badacze i naukowcy. W szczególności aby zapewnić Parlamentowi Europejskiemu i Radzie udział na równych zasadach w przygotowaniu aktów delegowanych, instytucje te otrzymują wszelkie dokumenty w tym samym czasie co eksperci państw członkowskich, a eksperci tych instytucji mogą regularnie brać udział w posiedzeniach grup eksperckich Komisji, w tym komitetu TCRAI, zajmujących się przygotowaniem aktów delegowanych.

(16)  Niniejsze rozporządzenie powinno obejmować szkody powodujące śmierć, uszczerbek na zdrowiu, integralności cielesnej i własności oraz poważne szkody niematerialne skutkujące możliwą do zweryfikowania stratą ekonomiczną powyżej progu zharmonizowanego w prawie Unii dotyczącym odpowiedzialności, zapewniającym równowagę między dostępem poszkodowanych do wymiaru sprawiedliwości a interesami innych zainteresowanych osób. Komisja powinna ponownie ocenić i dostosować progi szkód w prawie Unii. Poważną szkodę niematerialną należy rozumieć jako szkodę, w wyniku której poszkodowany doznał znacznej krzywdy, obiektywnego i dającego się udowodnić naruszenia jego osobistych interesów oraz straty ekonomicznej obliczonej z uwzględnieniem, na przykład, średnich rocznych dochodów z przeszłych dochodów i innych istotnych okoliczności. W niniejszym rozporządzeniu należy również określić kwotę i zakres odszkodowania, jak również okres przedawnienia, po upływie którego nie można już wnosić roszczeń z tytułu odpowiedzialności. W niniejszym rozporządzeniu należy ustanowić znacząco niższy pułap odszkodowań niż w dyrektywie w sprawie odpowiedzialności za produkty, gdyż odnosi się ono wyłącznie do szkody poniesionej przez pojedynczą osobę i wynikającej z jednostkowego działania systemu SI, natomiast dyrektywa odnosi się do szeregu produktów lub nawet całej linii produktów z tą samą wadą.

(17)  Wszelkie fizyczne bądź wirtualne działania, urządzenia czy procesy sterowane systemem SI, które nie zostały wymienione jako obarczone wysokim ryzykiem w załączniku do niniejszego rozporządzenia, powinny być nadal objęte odpowiedzialnością na zasadzie winy, chyba że w mocy są surowsze przepisy krajowe i prawodawstwo w zakresie ochrony konsumentów. Prawo krajowe państw członkowskich, w tym wszelkie odnośne orzecznictwo, odnoszące się do kwoty i zakresu odszkodowania, jak również do okresu przedawnienia powinno mieć nadal zastosowanie. Osoba poszkodowana w wyniku działania systemu SI, który nie został wymieniony jako obarczony wysokim ryzykiem, powinna korzystać z domniemania winy operatora.

(18)  Staranność, której można oczekiwać od operatora, powinna być współmierna do (i) charakteru systemu SI; (ii) chronionego prawem uprawnienia, które może zostać naruszone; (iii) potencjalnej szkody, jaką mógłby spowodować system SI, oraz (iv) prawdopodobieństwa wystąpienia takiej szkody. Należy przy tym wziąć pod uwagę, że operator może mieć ograniczoną wiedzę na temat algorytmów i danych wykorzystywanych w systemie SI. Należy założyć, że zgodnie z rozsądnymi oczekiwaniami operator dołożył należytej staranności, wybierając odpowiedni system SI, jeżeli wybrał system SI, dla którego uzyskano certyfikat w systemie podobnym do systemu dobrowolnej certyfikacji przewidzianego przez Komisję(5). Należy założyć, że zgodnie z rozsądnymi oczekiwaniami operator dochował należytej staranności podczas wykorzystywania systemu SI, jeżeli może dowieść, że rzeczywiście i regularnie monitorował system SI w trakcie jego działania i powiadomił jego wytwórcę o potencjalnych nieprawidłowościach podczas działania systemu. Należy założyć, że zgodnie z rozsądnymi oczekiwaniami operator dołożył należytej staranności w odniesieniu do utrzymania niezawodności operacyjnej systemu, jeżeli zainstalował wszelkie dostępne aktualizacje przekazane przez producenta systemu SI. Ponieważ poziom złożoności operatorów może się różnić w zależności od tego, czy są oni jedynie konsumentami czy specjalistami, należy odpowiednio dostosować obowiązki w zakresie staranności.

(19)  Aby umożliwić operatorowi udowodnienie, że nie ponosi winy za nieprawidłowości, lub osobie poszkodowanej udowodnienie istnienia nieprawidłowości, producenci powinni być zobowiązani do współpracy z obiema zainteresowanymi stronami, w tym do udzielania dobrze udokumentowanych informacji. Zarówno producenci z siedzibą w Unii, jak i poza nią powinni mieć ponadto obowiązek wyznaczenia przedstawiciela ds. odpowiedzialności w zakresie sztucznej inteligencji na terenie UE jako punktu kontaktowego, który będzie odpowiadał na wszelkie pytania operatorów, podobnie jak inspektor ochrony danych, o którym mowa w art. rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679(6), przedstawiciel producenta, o którym mowa w art. 3 ust. 41 i art. 13 ust. 4 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/858(7), czy upoważniony przedstawiciel, o którym mowa w art. 4 ust. 2 i art. 5 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/1020(8).

(20)  Prawodawca musi rozważyć ryzyko odpowiedzialności związanej z systemami sztucznej inteligencji w całym cyklu ich życia, od ich opracowania przez wykorzystanie do końca ich użytkowania, w tym zarządzania odpadami i recyklingiem. Wykorzystanie systemów SI w produkcie lub usłudze pociąga za sobą ryzyko finansowe dla przedsiębiorstw i w konsekwencji będzie mieć poważny wpływ na możliwości i wybory MŚP i przedsiębiorstw typu start-up w odniesieniu do ubezpieczania i finansowania swoich projektów badawczych i rozwojowych opierających się na nowych technologiach. Dlatego celem odpowiedzialności nie jest jedynie zadbanie o możliwość korzystania z istotnych praw chronionych prawem, ale również ustalenie, czy przedsiębiorstwa – przede wszystkim MŚP i przedsiębiorstwa typu start-up – są w stanie zgromadzić odpowiedni kapitał, pójść w stronę innowacji, prowadzić badania, a ostatecznie oferować nowe produkty i usługi, jak również czy klienci chcą z nich korzystać pomimo potencjalnych zagrożeń i narażenia się na ewentualne roszczenia w związku z takimi produktami lub usługami.

(21)  Ubezpieczenie może być pomocne w zagwarantowaniu, by ofiary otrzymywały skuteczne odszkodowanie i by łączyć ryzyko wszystkich ubezpieczonych. Jednym z czynników, na których firmy ubezpieczeniowe opierają swoją ofertę produktów i usług ubezpieczeniowych, jest ocena ryzyka oparta na dostępie do dostatecznie obszernych danych historycznych w zakresie roszczeń. Brak dostępu do danych wysokiej jakości lub ich niewystarczająca ilość może być powodem początkowych trudności w tworzeniu produktów ubezpieczeniowych dla nowych, rozwijających się dopiero technologii. Jednak większy dostęp do danych wytwarzanych przy użyciu nowych technologii i zoptymalizowanie ich wykorzystania w połączeniu z obowiązkiem dostarczania dobrze udokumentowanych informacji poprawiłyby możliwości ubezpieczycieli w zakresie tworzenia modeli opartych na nowych zagrożeniach oraz tworzenia bardziej innowacyjnych polis ubezpieczeniowych.

(22)  Biorąc pod uwagę brak historycznych danych dotyczących roszczeń, należy zbadać, w jaki sposób i na jakich warunkach można ubezpieczać odpowiedzialność w celu powiązania ubezpieczenia z produktem, a nie z osobą odpowiedzialną. Istnieją już produkty ubezpieczeniowe, które są tworzone dla poszczególnych obszarów i w ramach różnych polis w miarę rozwoju technologii. Wielu ubezpieczycieli specjalizuje się w pewnych segmentach rynku (np. MŚP) lub w sprzedaży polis dla pewnego typu produktów (np. sprzęt elektryczny), co oznacza, że zazwyczaj ubezpieczony będzie w stanie znaleźć odpowiadający mu produkt ubezpieczeniowy. Trudno jest jednak wyobrazić sobie rozwiązanie uniwersalne, a rynek ubezpieczeniowy będzie potrzebował czasu na dostosowanie się. Komisja powinna ściśle współpracować z rynkiem ubezpieczeniowym w celu stworzenia innowacyjnych produktów ubezpieczeniowych, które mogłyby zlikwidować lukę ubezpieczeniową. W wyjątkowych przypadkach, takich jak wydarzenia wiążące się z powstaniem szkód zbiorowych, w których odszkodowanie znacznie przewyższa kwoty maksymalne ustalone w niniejszym rozporządzeniu, należy zachęcać państwa członkowskie do utworzenia na ograniczony czas specjalnego funduszu odszkodowawczego, który pozwoli zająć się konkretnymi potrzebami w takich przypadkach. Można by również utworzyć specjalne fundusze kompensacyjne w celu pokrycia tych wyjątkowych przypadków, w których system SI, który nie jest jeszcze sklasyfikowany jako system SI obarczony wysokim ryzykiem i w związku z tym nie jest jeszcze ubezpieczony, powoduje szkodę. Aby zagwarantować pewność prawa i wywiązać się z obowiązku informowania wszystkich potencjalnie poszkodowanych, istnienie specjalnego funduszu kompensacyjnego oraz warunki korzystania z niego należy podać do wiadomości publicznej w jasny i kompleksowy sposób.

(23)  Jest niezwykle istotne, by wszelkie dalsze zmiany w niniejszym rozporządzeniu były zbieżne z koniecznym przeglądem dyrektywy w sprawie odpowiedzialności za produkty z myślą o dokonaniu kompleksowego i spójnego przeglądu oraz o zagwarantowaniu praw i obowiązków wszystkich zainteresowanych stron w całym łańcuchu odpowiedzialności. Wprowadzenie nowego systemu odpowiedzialności operatora systemów SI wymaga ścisłej koordynacji przepisów niniejszego rozporządzenia i przeglądu dyrektywy w sprawie odpowiedzialności za produkty pod względem treści i podejścia, tak by mogły one wspólnie stanowić spójne ramy odpowiedzialności za systemy SI – ramy, które równoważą interesy producenta, operatora, konsumenta i poszkodowanego w odniesieniu do ryzyka bycia pociągniętym do odpowiedzialności i stosownych form odszkodowania. Konieczne jest zatem dostosowanie i uproszczenie definicji systemu SI, operatora front-end, operatora back-end, producenta, wadliwego działania, produktu i usługi we wszystkich aktach prawnych i należy je przewidzieć równolegle.

(24)  Ponieważ celem niniejszego rozporządzenia jest opracowanie przyszłościowego i jednolitego podejścia na poziomie Unii, które wyznacza wspólne europejskie normy dla europejskich obywateli i przedsiębiorstw, aby zadbać o spójny charakter praw i pewność prawa w całej Unii, aby uniknąć fragmentaryzacji jednolitego rynku cyfrowego, która położyłaby się cieniem na osiągnięciu celu utrzymania suwerenności cyfrowej, pobudzania innowacji cyfrowych w Europie i zapewnienia wysokiego poziomu ochrony obywateli i praw konsumentów, niezbędna jest pełna harmonizacja systemów odpowiedzialności za systemy SI. Państwa członkowskie nie są w stanie zrealizować tego celu w dostatecznym stopniu z uwagi na szybko postępujące zmiany technologiczne, ponadgraniczny rozwój, jak również ponadgraniczne wykorzystanie systemów SI, a ostatecznie sprzeczne podejścia legislacyjne w Unii. W związku z tym należałoby raczej skorzystać z efektu skali i zrealizować ten cel na poziomie UE. Unia może zatem przyjąć środki zgodnie z zasadą pomocniczości określoną w art. 5 Traktatu o Unii Europejskiej. Zgodnie z zasadą proporcjonalności, określoną w tym artykule, niniejsze rozporządzenie nie wykracza poza to, co jest konieczne do osiągnięcia tych celów.

PRZYJMUJĄ NINIEJSZE ROZPORZĄDZENIE:

Rozdział I

Przepisy ogólne

Artykuł 1

Przedmiot

Niniejsze rozporządzenie określa zasady wnoszenia roszczeń z tytułu odpowiedzialności cywilnej przez osoby fizyczne i prawne wobec operatorów systemów sztucznej inteligencji.

Artykuł 2

Zakres stosowania

1.  Niniejsze rozporządzenie ma zastosowanie na terytorium Unii, gdzie fizyczne bądź wirtualne działanie systemu sztucznej inteligencji, działanie urządzenia wykorzystującego taki system lub fizyczny bądź wirtualny proces oparty na takim systemie pozbawia życia osoby fizyczne, powoduje uszczerbek na ich zdrowiu i okalecza je, powoduje szkody majątkowe u osób fizycznych bądź prawnych lub powoduje poważne szkody niematerialne skutkujące możliwą do zweryfikowania stratą ekonomiczną.

2.  Wszelkie umowy między operatorem systemu sztucznej inteligencji a osobą fizyczną bądź prawną poszkodowaną z uwagi na działanie tego systemu, które obchodzą bądź ograniczają prawa i obowiązki przewidziane w niniejszym rozporządzeniu, zawarte przed wystąpieniem szkody lub później, są uznawane za nieważne w odniesieniu do praw i obowiązków przewidzianych w niniejszym rozporządzeniu.

3.  Niniejsze rozporządzenie nie narusza prawa do dodatkowych roszczeń z tytułu odpowiedzialności, wynikających ze stosunków umownych oraz regulacji dotyczących odpowiedzialności za produkt, ochrony konsumentów, niedyskryminacji, ochrony pracy i środowiska między operatorem a osobą fizyczną lub prawną poszkodowaną w wyniku działania systemu sztucznej inteligencji, które to roszczenia mogą zostać zgłoszone wobec operatora na mocy prawa unijnego lub krajowego.

Artykuł 3

Definicje

Do celów niniejszego rozporządzenia stosuje się następujące definicje:

a)  „system sztucznej inteligencji” oznacza system, który opiera się na oprogramowaniu albo jest wbudowany w urządzenia, wykazuje się zachowaniem symulującym inteligencję m.in. w oparciu o gromadzenie i przetwarzanie danych, analizowanie i wyciąganie wniosków dotyczących otoczenia oraz podejmuje działania w pewnym stopniu autonomicznie, aby osiągnąć konkretne cele;

b)  „autonomiczny” oznacza system sztucznej inteligencji, który działa na podstawie interpretacji określonych danych wejściowych i wykorzystuje zestaw wcześniej zdefiniowanych instrukcji, lecz nie jest do tych instrukcji ograniczony, mimo że zachowanie systemu jest ograniczone celem, który mu postawiono, ukierunkowane na jego osiągnięcie i uwarunkowane innymi odnośnymi wyborami twórcy systemu;

c)  „wysokie ryzyko” oznacza znaczącą potencjalną możliwość wyrządzenia przez autonomicznie działający system sztucznej inteligencji losowo występujących szkód jednej osobie lub większej liczbie osób w taki sposób, że wykracza to poza okoliczności, jakich można by racjonalnie oczekiwać; znaczenie tego potencjału zależy od wzajemnego powiązania między powagą ewentualnej szkody, stopniem autonomiczności w podejmowaniu decyzji, prawdopodobieństwem, że zagrożenie rzeczywiście wystąpi, oraz sposobem i kontekstem użycia systemu sztucznej inteligencji;

d)  „operator” oznacza zarówno operatora front-end, jak i operatora back-end, o ile odpowiedzialność tego drugiego nie jest już objęta dyrektywą 85/374/EWG;

e)  „operator front-end” oznacza osobę fizyczną lub prawną, która do pewnego stopnia kontroluje ryzyko związane z działaniem systemu sztucznej inteligencji i czerpie korzyści z jego działania;

f)  „operator back-end” oznacza osobę fizyczną lub prawną, która w sposób ciągły określa cechy technologii, dostarcza dane i podstawowe usługi wsparcia, a zatem też sprawuje pewną kontrolę nad ryzykiem związanym z działaniem systemu SI;

g)  „kontrola” oznacza każde działanie operatora, które wpływa na działanie systemu sztucznej inteligencji, a tym samym na zakres, w jakim operator naraża osoby trzecie na potencjalne ryzyko związane z działaniem systemu sztucznej inteligencji; takie działania mogą wpływać na funkcjonowanie na dowolnym etapie poprzez określanie danych wejściowych, wyjściowych lub wyników albo zmieniać konkretne funkcje czy procesy w systemie sztucznej inteligencji; stopień, w jakim są determinowane te aspekty funkcjonowania systemu sztucznej inteligencji, zależy od poziomu wpływu operatora na ryzyko związane z działaniem systemu sztucznej inteligencji;

h)  „poszkodowany” oznacza dowolną osobę, która ucierpiała lub odniosła szkodę na skutek fizycznego lub wirtualnego działania, urządzenia lub procesu wykorzystującego system sztucznej inteligencji, a która nie jest jednocześnie operatorem;

i)  „szkoda” oznacza negatywny wpływ na życie, zdrowie i nienaruszalność cielesną osoby fizycznej, na własność osoby fizycznej lub prawnej albo negatywny wpływ powodujący poważną szkodę niematerialną skutkującą możliwą do zweryfikowania stratą ekonomiczną;

j)  „producent” oznacza producenta w rozumieniu art. 3 dyrektywy 85/374/EWG.

Rozdział II

Systemy sztucznej inteligencji obarczone wysokim ryzykiem

Artykuł 4

Odpowiedzialność na zasadzie ryzyka dla systemów sztucznej inteligencji obarczonych wysokim ryzykiem

1.  Operator systemu sztucznej inteligencji obarczonego wysokim ryzykiem odpowiada na zasadzie ryzyka za wszelkie szkody spowodowane przez fizyczne bądź wirtualne działanie, fizyczne bądź wirtualne działanie urządzenia lub fizyczny bądź wirtualny proces z wykorzystaniem systemu sztucznej inteligencji.

2.  Wszystkie systemy sztucznej inteligencji obarczone wysokim ryzykiem oraz wszystkie istotne branże, w których systemy te są wykorzystywane, umieszcza się w wykazie załącznika do niniejszego rozporządzenia. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 13, aby uaktualnić ten wyczerpujący wykaz przez:

a)  uwzględnienie nowych rodzajów systemów sztucznej inteligencji obarczonych wysokim ryzykiem oraz istotnych branż, w których są one stosowane;

b)  usunięcie tych rodzajów systemów sztucznej inteligencji, których nie można dłużej uważać za stwarzające poważne zagrożenia i/lub

c)  zmianę listy istotnych branż, w których stosowane są obecnie systemy sztucznej inteligencji.

Akty delegowane nowelizujące załącznik wchodzą w życie sześć miesięcy po ich przyjęciu. Podczas określania nowych systemów sztucznej inteligencji obarczonych wysokim ryzykiem i/lub istotnych branż, które mają zostać dodane do wykazu załącznika w drodze aktu delegowanego, Komisja bierze pod uwagę kryteria przewidziane w niniejszym rozporządzeniu, a w szczególności w art. 3 lit. c).

3.  Operatorzy systemów sztucznej inteligencji obarczonych wysokim ryzykiem nie mogą uniknąć odpowiedzialności, twierdząc, że działali z należytą starannością lub że szkodę spowodowało autonomiczne działanie, urządzenie lub proces sterowany przez należący do nich system sztucznej inteligencji. Operatorzy nie ponoszą odpowiedzialności za szkody spowodowane działaniem siły wyższej.

4.  Operator front-end systemu sztucznej inteligencji obarczonego wysokim ryzykiem dopilnowuje, aby działanie systemu sztucznej inteligencji było objęte ubezpieczeniem od odpowiedzialności, które będzie adekwatne pod względem kwoty i zakresu odszkodowania przewidzianych w art. 5 i 6 niniejszego rozporządzenia. Operator back-end dopilnowuje, aby jego usługi były objęte ubezpieczeniem od odpowiedzialności za działalność lub produkt, które będzie adekwatne pod względem kwoty i zakresu odszkodowania przewidzianych w art. 5 i 6 niniejszego rozporządzenia. Jeżeli uznaje się, że obowiązkowe systemy ubezpieczeniowe operatora front-end lub operatora back-end obowiązujące już na mocy innych przepisów krajowych lub unijnych albo dobrowolne korporacyjne fundusze ubezpieczeniowe obejmują działanie systemu sztucznej inteligencji lub świadczoną usługę, obowiązek ubezpieczenia systemu sztucznej inteligencji lub świadczonej usługi zgodnie z niniejszym rozporządzeniem uznaje się za spełniony, jeżeli wspomniane istniejące obowiązkowe ubezpieczenie lub dobrowolne korporacyjne fundusze ubezpieczeniowe pokrywają kwoty i zakres odszkodowania, o których mowa w art. 5 i 6 niniejszego rozporządzenia.

5.  Niniejsze rozporządzenie ma charakter nadrzędny wobec krajowych systemów odpowiedzialności w przypadku sprzecznej klasyfikacji systemów sztucznej inteligencji jako objętych odpowiedzialnością na zasadzie ryzyka.

Artykuł 5

Kwota odszkodowania

1.  Operator systemu sztucznej inteligencji obarczonego wysokim ryzykiem którego – na mocy niniejszego rozporządzenia – pociągnięto do odpowiedzialności za szkody wypłaca odszkodowanie:

a)  do maksymalnej kwoty dwóch milionów euro w przypadku śmierci, uszczerbku na zdrowiu lub okaleczenia osoby w wyniku działania systemu sztucznej inteligencji obarczonego wysokim ryzykiem;

b)  do maksymalnej kwoty jednego miliona euro w przypadku poważnej szkody niematerialnej skutkującej możliwą do zweryfikowania stratą ekonomiczną lub szkody majątkowej, w tym zniszczenia kilku przedmiotów należących do poszkodowanego w wyniku pojedynczego działania jednego systemu sztucznej inteligencji obarczonego wysokim ryzykiem; jeżeli na mocy zawartej umowy poszkodowany ma również prawo do wystąpienia z roszczeniem w stosunku do operatora, zgodnie z niniejszym rozporządzeniem nie wypłaca się odszkodowania, jeżeli całkowita wartość zniszczonego mienia lub poważnej szkody niematerialnej nie przekracza [500 EUR](9).

2.  W przypadku gdy łączne odszkodowanie, które ma zostać wypłacone kilku osobom poszkodowanym w wyniku tego samego działania tego samego systemu sztucznej inteligencji obarczonego wysokim ryzykiem, przekracza maksymalne kwoty całkowite przewidziane w ust. 1, kwoty wypłacane każdej z osób zostaną proporcjonalnie zmniejszone, tak by łączna kwota odszkodowania nie przekroczyła maksymalnej kwoty przewidzianej w ust. 1.

Artykuł 6

Zakres odszkodowania

1.  Odszkodowanie, które ma zostać wypłacone przez operatora odpowiedzialnego za okaleczenie skutkujące śmiercią poszkodowanego, jest wyliczane – w ramach kwoty przewidzianej w art. 5 ust. 1 lit. a) – w oparciu o koszty leczenia, które poszkodowany poniósł przed śmiercią, oraz o szkody majątkowe poniesione przed śmiercią w związku z zaprzestaniem lub ograniczeniem możliwości zarobkowania lub wzrostem potrzeb w związku ze szkodami poniesionymi przed śmiercią. Pociągnięty do odpowiedzialności operator powinien poza tym zwrócić koszty pochówku poszkodowanego stronie, która poniosła te wydatki.

Jeżeli w momencie zajścia, które spowodowało szkody, a w konsekwencji doprowadziło do śmierci, poszkodowany pozostawał w związku ze stroną trzecią i był prawnie zobowiązany do jej utrzymywania, odpowiedzialny operator łoży na utrzymanie tej strony trzeciej w zakresie, w którym do ponoszenia tych kosztów byłby zobowiązany poszkodowany, przez okres odpowiadający średniej długości życia osoby w tym wieku i w podobnym stanie. Operator pokrywa również koszty utrzymania strony trzeciej, jeżeli w momencie zdarzenia została ona już poczęta, ale jeszcze się nie narodziła.

2.  Odszkodowanie, które ma zostać wypłacone przez operatora odpowiedzialnego za uszczerbek na zdrowiu lub okaleczenie poszkodowanego, obejmuje – w ramach kwoty przewidzianej w art. 5 ust. 1 lit. b) – zwrot kosztów związanego ze szkodą leczenia, jak również zwrot kosztów szkód materialnych, które poszkodowany poniósł w wyniku czasowego zawieszenia, ograniczenia lub całkowitego ustania możliwości zarobkowania lub wynikającego z poniesionych szkód, potwierdzonego orzeczeniem lekarskim wzrostu potrzeb.

Artykuł 7

Okres przedawnienia

1.  Do roszczeń z tytułu odpowiedzialności cywilnej, wniesionych zgodnie z postanowieniami art. 4 ust. 1, dotyczących śmierci, uszczerbku na zdrowiu lub kalectwa zastosowanie ma specjalny okres przedawnienia o długości 30 lat od daty powstania szkody.

2.  Do roszczeń z tytułu odpowiedzialności cywilnej, wniesionych zgodnie z postanowieniami art. 4 ust. 1, dotyczących szkód majątkowych lub poważnych szkód niematerialnych skutkujących możliwą do zweryfikowania stratą ekonomiczną zastosowanie ma specjalny okres przedawnienia o długości:

a)  10 lat od daty powstania szkody majątkowej lub możliwej do zweryfikowania straty ekonomicznej wynikającej z poważnej szkody niematerialnej albo

b)  30 lat od daty przeprowadzenia operacji z wykorzystaniem systemu sztucznej inteligencji obarczonego wysokim ryzykiem, która doprowadziła do zniszczenia własności poszkodowanego lub do poważnej szkody niematerialnej.

Spośród okresów przedawnienia, o których mowa w ust. 1, zastosowanie ma ten, który kończy się jako pierwszy.

3.  Niniejszy artykuł nie narusza postanowień prawa krajowego w odniesieniu do zawieszenia lub przerwania okresu przedawnienia.

Rozdział III

Inne systemy sztucznej inteligencji

Artykuł 8

Odpowiedzialność na zasadzie winy za inne systemy sztucznej inteligencji

1.  Operator systemu sztucznej inteligencji, który nie jest systemem obarczonym wysokim ryzykiem na podstawie art. 3 lit. c) i art. 4 ust. 2 i w konsekwencji nie został umieszczony w wykazie załącznika do niniejszego rozporządzenia, może być pociągnięty do odpowiedzialności na zasadzie winy za wszelkie szkody spowodowane przez fizyczne bądź wirtualne działanie tego systemu sztucznej inteligencji, działanie urządzenia sterowanego tym systemem lub wskutek procesu opartego na tym systemie.

2.  Operator nie ponosi odpowiedzialności, jeżeli może dowieść, że szkody powstały nie z jego winy, przy czym może skorzystać z następujących uzasadnień:

a)  system sztucznej inteligencji został uruchomiony bez jego zgody, a jednocześnie podjęto wszelkie rozsądne i niezbędne środki, by uniknąć takiego uruchomienia poza kontrolą operatora lub

b)  dochowano należytej staranności przez wykonanie wszystkich poniższych działań: dobierając odpowiedni system sztucznej inteligencji do danego zadania i umiejętności, uruchamiając go odpowiednio, nadzorując działanie i utrzymując go w dobrym stanie poprzez regularną instalację dostępnych aktualizacji.

Operator nie może uniknąć odpowiedzialności, stwierdzając, że szkoda została spowodowana autonomicznym działaniem systemu sztucznej inteligencji, autonomicznym działaniem urządzenia sterowanego takim systemem lub wskutek procesu opartego na takim systemie. Operator nie odpowiada za szkody spowodowane działaniem siły wyższej.

3.  Operator odpowiada mimo wszystko za wypłatę odszkodowania, jeżeli szkoda została spowodowana przez stronę trzecią, która zaingerowała w działanie systemu sztucznej inteligencji przez modyfikację jego funkcjonowania lub skutków, ale nie można ustalić miejsca jej pobytu lub jest ona niewypłacalna.

4.  Na wniosek operatora lub poszkodowanego producent systemu sztucznej inteligencji ma obowiązek współpracować z nimi i udzielać im informacji w zakresie uzasadnionym powagą roszczenia, aby umożliwić określenie odpowiedzialności.

Artykuł 9

Przepisy krajowe w zakresie odszkodowań i okresu przedawnienia

Pod względem okresu przedawnienia, jak również kwot i zakresu odszkodowania roszczenia z tytułu odpowiedzialności cywilnej wniesione na mocy postanowień art. 8 ust. 1 są regulowane przepisami państwa członkowskiego, w którym powstała szkoda.

Rozdział IV

Podział odpowiedzialności

Artykuł 10

Zaniedbanie wspólne

1.  Jeżeli szkoda powstała zarówno przez fizyczne bądź wirtualne działanie systemu sztucznej inteligencji, działanie urządzenia sterowanego takim systemem lub wskutek procesu opartego na takim systemie i wskutek działań podjętych przez poszkodowanego lub dowolną osobę, za której działania poszkodowany odpowiada, na mocy niniejszego rozporządzenia należy odpowiednio zmniejszyć zakres odpowiedzialności operatora. Operator nie ponosi odpowiedzialności, jeżeli za powstałą szkodę odpowiada wyłącznie poszkodowany lub osoba, za którą on odpowiada.

2.  Pociągnięty do odpowiedzialności operator może korzystać z danych wygenerowanych przez system sztucznej inteligencji, by udowodnić, że poszkodowany również ponosi odpowiedzialność zgodnie z rozporządzeniem (UE) 2016/679 i innymi właściwymi przepisami dotyczącymi ochrony danych. Poszkodowany również może korzystać z takich danych w celu udowodnienia lub sprecyzowania roszczenia o odszkodowanie.

Artykuł 11

Odpowiedzialność solidarna

Jeżeli system sztucznej inteligencji był obsługiwany przez kilku operatorów, odpowiadają oni solidarnie. Jeżeli operator front-end jest również producentem systemu sztucznej inteligencji, niniejsze rozporządzenie ma charakter nadrzędny wobec dyrektywy w sprawie odpowiedzialności za produkty. Jeżeli operatora back-end można również uznać za producenta zgodnie z definicją zawartą w art. 3 dyrektywy w sprawie odpowiedzialności za produkty, dyrektywa ta powinna mieć do niego zastosowanie. Jeżeli jedyny operator jest również producentem systemu sztucznej inteligencji, niniejsze rozporządzenie ma charakter nadrzędny wobec dyrektywy w sprawie odpowiedzialności za produkty.

Artykuł 12

Regres

1.  Operatorowi nie przysługuje prawo do regresu, chyba że poszkodowany otrzymał pełną kwotę odszkodowania, jakie przysługuje mu na mocy niniejszego rozporządzenia.

2.  W przypadku gdy operator ponosi wobec poszkodowanego odpowiedzialność solidarnie z innymi operatorami i – na mocy art. 4 ust. 1 lub art. 8 ust. 1 – wypłacił poszkodowanemu pełne odszkodowanie, ma prawo odzyskać od pozostałych operatorów przypadającą na nich część odszkodowania.

Proporcje odpowiedzialności zależą od stopnia kontroli poszczególnych operatorów nad ryzykiem związanym z działaniem systemu sztucznej inteligencji. Jeżeli od odpowiedzialnego solidarnie operatora nie można uzyskać jego części odszkodowania wynikającego z odpowiedzialności solidarnej, kwotę tę pokrywają pozostali operatorzy. Odpowiedzialny solidarnie operator, który wypłaci odszkodowanie poszkodowanemu i zażąda dostosowania płatności zaliczkowych od pozostałych odpowiedzialnych operatorów, wstępuje na zasadzie subrogacji w prawa poszkodowanego do roszczeń z tytułu odszkodowania wobec pozostałych operatorów. Regres nie zachodzi ze szkodą dla pierwotnego roszczenia.

3.  W przypadku gdy operator wadliwego systemu sztucznej inteligencji w pełni zrekompensuje poszkodowanemu szkody, zgodnie z postanowieniami art. 4 ust. 1 lub art. 8 ust. 1 niniejszego rozporządzenia, może skorzystać z prawa do dochodzenia odszkodowania od producenta wadliwego systemu sztucznej inteligencji zgodnie z postanowieniami dyrektywy 85/374/EWG oraz przepisami krajowymi dotyczącymi odpowiedzialności za wadliwe produkty.

4.  W przypadku gdy ubezpieczyciel operatora zrekompensuje poszkodowanemu szkody zgodnie z postanowieniami art. 4 ust. 1 lub art. 8 ust. 1, ubezpieczyciel operatora korzysta z prawa regresu wobec innej osoby za te same szkody, w kwocie odszkodowania wypłaconego poszkodowanemu przez tego ubezpieczyciela.

Rozdział V

Przepisy końcowe

Artykuł 13

Wykonywanie przekazanych uprawnień

1.  Powierzenie Komisji uprawnień do przyjęcia aktów delegowanych podlega warunkom określonym w niniejszym artykule.

2.  Uprawnienia do przyjęcia aktów delegowanych, o których mowa w art. 4 ust. 2, powierza się Komisji na okres pięciu lat od dnia [data rozpoczęcia stosowania niniejszego rozporządzenia] r.

3.  Przekazanie uprawnienia, o którym mowa w art. 4 ust. 2, może zostać w dowolnym momencie odwołane przez Parlament Europejski lub Radę. Decyzja o odwołaniu kończy przekazanie określonych w niej uprawnień. Decyzja o odwołaniu staje się skuteczna od następnego dnia po jej opublikowaniu w Dzienniku Urzędowym Unii Europejskiej lub w określonym w tej decyzji późniejszym terminie. Nie wpływa ona na ważność już obowiązujących aktów delegowanych.

4.  Przed przyjęciem aktu delegowanego Komisja konsultuje się ze stałym Komitetem Technicznym ds. Obarczonych Wysokim Ryzykiem Systemów Sztucznej Inteligencji zgodnie z zasadami określonymi w Porozumieniu międzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa.

5.  Niezwłocznie po przyjęciu aktu delegowanego Komisja przekazuje go równocześnie Parlamentowi Europejskiemu i Radzie.

6.  Akt delegowany przyjęty na podstawie art. 4 ust. 2 wchodzi w życie tylko wtedy, kiedy Parlament Europejski albo Rada nie wyraziły sprzeciwu w terminie dwóch miesięcy od przekazania tego aktu Parlamentowi Europejskiemu i Radzie lub kiedy przed upływem tego terminu zarówno Parlament Europejski, jak i Rada poinformowały Komisję, że nie wniosą sprzeciwu. Termin ten przedłuża się o dwa miesiące z inicjatywy Parlamentu Europejskiego lub Rady.

Artykuł 14

Przegląd

Do dnia 1 stycznia 202X r. [3 lata od daty rozpoczęcia stosowania niniejszego rozporządzenia], a następnie co trzy lata Komisja przedkłada Parlamentowi Europejskiemu, Radzie i Europejskiemu Komitetowi Ekonomiczno-Społecznemu szczegółowe sprawozdanie z przeglądu niniejszego rozporządzenia w świetle dalszego rozwoju sztucznej inteligencji.

Przygotowując sprawozdanie, o którym mowa w akapicie pierwszym, Komisja zwraca się do państw członkowskich o przekazanie odnośnych informacji związanych z orzecznictwem, ugodami sądowymi, jak również statystykami wypadkowymi, takimi jak liczba wypadków, wyrządzone szkody, zaangażowane systemy sztucznej inteligencji, odszkodowania wypłacone przez firmy ubezpieczeniowe, a także ocena liczby roszczeń wniesionych przez poszkodowanych działających indywidualnie lub zbiorowo oraz opóźnień w ich rozpatrywaniu w sądzie.

W stosownych przypadkach Komisja dołącza do sprawozdania wnioski ustawodawcze, których celem jest wyeliminowanie luk wskazanych w sprawozdaniu.

Artykuł 15

Wejście w życie

Niniejsze rozporządzenie wchodzi w życie dwudziestego dnia po jego opublikowaniu w Dzienniku Urzędowym Unii Europejskiej.

Niniejsze rozporządzenie stosuje się od dnia 1 stycznia 202X r.

Niniejsze rozporządzenie wiąże w całości i jest bezpośrednio stosowane we wszystkich państwach członkowskich.’

Sporządzono w ...,

W imieniu Parlamentu Europejskiego W imieniu Rady

Przewodniczący Przewodniczący

(1) Dz.U. ...
(2) Dz.U. ...
(3) Dyrektywa Rady 85/374/EWG z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących odpowiedzialności za produkty wadliwe (Dz.U. L 210 z 7.8.1985, s. 29).
(4) Dz.U. L 123 z 12.5.2016, s. 1.
(5) Zob.: s. 24 Białej księgi Komisji z dnia 19 lutego 2020 r. w sprawie sztucznej inteligencji – Europejskie podejście do doskonałości i zaufania (COM(2020)0065),
(6) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.U. L 119 z 4.5.2016, s. 1).
(7) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2018/858 z dnia 30 maja 2018 r. w sprawie homologacji i nadzoru rynku pojazdów silnikowych i ich przyczep oraz układów, komponentów i oddzielnych zespołów technicznych przeznaczonych do tych pojazdów, zmieniające rozporządzenie (WE) nr 715/2007 i (WE) nr 595/2009 oraz uchylające dyrektywę 2007/46/WE (Dz.U. L 151 z 14.6.2018, s. 1).
(8) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2019/1020 z dnia 20 czerwca 2019 r. w sprawie nadzoru rynku i zgodności produktów oraz zmieniające dyrektywę 2004/42/WE oraz rozporządzenia (WE) nr 765/2008 i (UE) nr 305/2011 (Dz.U. L 169 z 25.6.2019, s. 1).
(9) Zgodnie z ust. 19 rezolucji Komisja Europejska dokona przeglądu kwoty.


ZAŁĄCZNIK

[...]

Ostatnia aktualizacja: 3 lutego 2021Informacja prawna - Polityka ochrony prywatności