Procedura : 2020/2014(INL)
Przebieg prac nad dokumentem podczas sesji
Dokument w ramach procedury : A9-0178/2020

Teksty złożone :

A9-0178/2020

Debaty :

PV 19/10/2020 - 18
CRE 19/10/2020 - 15
CRE 19/10/2020 - 18

Głosowanie :

Teksty przyjęte :

P9_TA(2020)0276

<Date>{05/10/2020}5.10.2020</Date>
<NoDocSe>A9-0178/2020</NoDocSe>
PDF 362kWORD 122k

<TitreType>SPRAWOZDANIE</TitreType>

<Titre>z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję

</Titre>

<DocRef>(2020/2014(INL))</DocRef>


<Commission>{JURI}Komisja Prawna</Commission>

Sprawozdawca: <Depute>Axel Voss</Depute>

(Inicjatywa – art. 47 Regulaminu)

PROJEKT REZOLUCJI PARLAMENTU EUROPEJSKIEGO
 ZAŁĄCZNIK DO PROJEKTU REZOLUCJI: SZCZEGÓŁOWE ZALECENIA DLA PRZYGOTOWUJĄCYCH PROJEKT ROZPORZĄDZENIA PARLAMENTU EUROPEJSKIEGO I RADY WS. ODPOWIEDZIALNOŚCI ZA DZIAŁANIE SYSTEMÓW SZTUCZNEJ INTELIGENCJI
 UZASADNIENIE
 OPINIA KOMISJI RYNKU WEWNĘTRZNEGO I OCHRONY KONSUMENTÓW
 OPINIA KOMISJI TRANSPORTU I TURYSTYKI
 INFORMACJE O PRZYJĘCIU PRZEZ KOMISJĘ PRZEDMIOTOWO WŁAŚCIWĄ
 GŁOSOWANIE KOŃCOWE W FORMIE GŁOSOWANIA IMIENNEGO W KOMISJI PRZEDMIOTOWO WŁAŚCIWEJ

PROJEKT REZOLUCJI PARLAMENTU EUROPEJSKIEGO

z zaleceniami dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję

(2020/2014(INL))

Parlament Europejski,

 uwzględniając art. 225 Traktatu o funkcjonowaniu Unii Europejskiej,

 uwzględniając art. 114 i 169 Traktatu o funkcjonowaniu Unii Europejskiej,

 uwzględniając dyrektywę Rady 85/374/EWG z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących odpowiedzialności za produkty wadliwe,

 uwzględniając dyrektywę 2005/29/WE Parlamentu Europejskiego i Rady z dnia 11 maja 2005 r. dotyczącą nieuczciwych praktyk handlowych stosowanych przez przedsiębiorstwa wobec konsumentów na rynku wewnętrznym (dyrektywę w sprawie nieuczciwych praktyk handlowych)[1], dyrektywę Parlamentu Europejskiego i Rady 2011/83/UE z dnia 25 października 2011 r. w sprawie praw konsumentów[2] oraz inne przepisy dotyczące ochrony konsumentów,

 uwzględniając rozporządzenie Parlamentu Europejskiego i Rady (UE) 2017/745 z dnia 5 kwietnia 2017 r. w sprawie wyrobów medycznych[3],

 uwzględniając rozporządzenie Rady (UE) 2018/1488 z dnia 28 września 2018 r. w sprawie ustanowienia Wspólnego Przedsięwzięcia w dziedzinie Europejskich Obliczeń Wielkiej Skali[4],

 uwzględniając dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/770 z dnia 20 maja 2019 r. w sprawie niektórych aspektów umów o dostarczanie treści cyfrowych i usług cyfrowych[5],

 uwzględniając porozumienie międzyinstytucjonalne w sprawie lepszego stanowienia prawa z dnia 13 kwietnia 2016 r. oraz wytyczne dotyczące lepszego stanowienia prawa[6],

 uwzględniając wniosek dotyczący rozporządzenia Parlamentu Europejskiego i Rady z dnia 6 czerwca 2018 r. ustanawiającego program „Cyfrowa Europa” na lata 2021–2027 (COM(2018)0434),

 uwzględniając komunikat Komisji z dnia 25 kwietnia 2018 r. w sprawie sztucznej inteligencji dla Europy (COM(2018)0237),

 uwzględniając komunikat Komisji z dnia 7 grudnia 2018 r. w sprawie skoordynowanego planu w dziedzinie sztucznej inteligencji (COM(2018)0795),

 uwzględniając komunikat Komisji z dnia 8 kwietnia 2019 r. w sprawie budowania zaufania do sztucznej inteligencji ukierunkowanej na człowieka (COM(2019)0168),

 uwzględniając sprawozdanie Komisji dla Parlamentu Europejskiego, Rady i Europejskiego Komitetu Ekonomiczno-Społecznego z dnia 19 lutego 2020 r. na temat wpływu sztucznej inteligencji, internetu rzeczy i robotyki na bezpieczeństwo i odpowiedzialność (COM(2020)0064),

 uwzględniając Białą księgę Komisji Europejskiej z dnia 19 lutego 2020 r. pt. „Sztucznej inteligencja – Europejskie podejście do doskonałości i zaufania” (COM(2020)0065),

 uwzględniając swoją rezolucję z dnia 16 lutego 2017 r. zawierającą zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki[7],

 uwzględniając swoją rezolucję z dnia 1 czerwca 2017 r. w sprawie cyfryzacji europejskiego przemysłu[8],

 uwzględniając swoją rezolucję z dnia 12 września 2018 r. w sprawie autonomicznych systemów uzbrojenia[9],

 uwzględniając swoją rezolucję z dnia 12 lutego 2019 r. w sprawie kompleksowej europejskiej polityki przemysłowej w dziedzinie sztucznej inteligencji i robotyki[10],

 uwzględniając swoją rezolucję z dnia 12 lutego 2020 r. w sprawie zautomatyzowanych procesów decyzyjnych – zagwarantowanie ochrony konsumenta oraz swobodnego przepływu towarów i usług[11],

 uwzględniając sprawozdanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z 8 kwietnia 2019 r. pt. „Wytyczne w zakresie etyki na rzecz wiarygodnej sztucznej inteligencji”,

 uwzględniając sprawozdanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z 8 kwietnia 2019 r. pt. „Definicja sztucznej inteligencji: podstawowe możliwości i dziedziny zastosowania”,

 uwzględniając sprawozdanie grupy ekspertów wysokiego szczebla ds. sztucznej inteligencji z 26 czerwca 2019 r. pt. „Zalecenia polityczne i inwestycyjne na rzecz wiarygodnej sztucznej inteligencji”,

 uwzględniając sprawozdanie grupy ekspertów ds. odpowiedzialności i nowych technologii – Forum Nowych Technologii z 21 listopada 2019 r. pt. „Odpowiedzialność w związku ze sztuczną inteligencją i innymi rozwijającymi się technologiami cyfrowymi”,

 uwzględniając dokument tematyczny Zespołu Parlamentu Europejskiego ds. Przyszłości Nauki i Techniki (STOA) z czerwca 2016 r. dotyczący aspektów prawnych i etycznych w związku z robotyką,

 uwzględniając analizę Dyrekcji Generalnej ds. Polityki Wewnętrznej Parlamentu Europejskiego z października 2016 r., przygotowaną dla Komisji Prawnej, pt. „Przepisy europejskiego prawa cywilnego w robotyce”,

 uwzględniając art. 47 i 54 Regulaminu,

 uwzględniając opinie przedstawione przez Komisję Rynku Wewnętrznego i Ochrony Konsumentów oraz Komisję Transportu i Turystyki,

 uwzględniając sprawozdanie Komisji Prawnej (A9-0178/2020),

A. mając na uwadze, że pojęcie „odpowiedzialności” odgrywa istotną, ale i dwojaką rolę w naszym codziennym życiu, gdyż – z jednej strony – gwarantuje osobie, która ucierpiała lub poniosła szkody, prawo do wniesienia roszczenia o odszkodowanie i do uzyskania odszkodowania od strony, której udowodniono, że ponosi odpowiedzialność za wyrządzone szkody, zaś – z drugiej strony – stanowi zachętę ekonomiczną dla osób fizycznych i prawnych, by przede wszystkim unikać wyrządzania szkód lub uwzględniać w swoim działaniu konieczność wypłacenia odszkodowania;

B. mając na uwadze, że przyszłościowe ramy prawne odpowiedzialności cywilnej muszą wzbudzać zaufanie do bezpieczeństwa, niezawodności i spójności produktów i usług, w tym do technologii cyfrowej, aby zapewnić równowagę między skuteczną i sprawiedliwą ochroną potencjalnych poszkodowanych a jednoczesnym dawaniem wystarczającego pola do manewru, by umożliwić przedsiębiorstwom, w szczególności małym i średnim, rozwój nowych technologii, produktów i usług; mając na uwadze, że pomoże to w budowie zaufania i tworzeniu stabilnego otoczenia dla inwestycji; mając na uwadze, że ostatecznie celem wszelkich systemów odpowiedzialności powinno być stworzenie wszystkim stronom poczucia pewności prawa niezależnie od tego, czy jest to producent, operator, osoba poszkodowana czy dowolna inna strona trzecia;

C. mając na uwadze, że system prawny państwa członkowskiego może różnicować zasady dotyczące odpowiedzialności pewnych podmiotów lub zaostrzać je w stosunku do pewnych działań; mając na uwadze, że odpowiedzialność na zasadzie ryzyka oznacza, że strona może zostać pociągnięta do odpowiedzialności pomimo braku winy; mając na uwadze, że w wielu krajowych systemach prawnych oskarżony ponosi odpowiedzialność na zasadzie ryzyka, jeżeli stworzone przez niego zagrożenie dla ogółu społeczeństwa, takie jak związane z wykorzystaniem pojazdu czy niebezpiecznym działaniem, lub też takie, którego nie może on kontrolować, np. przykład wynikające z zachowania zwierząt, powoduje szkodę;

D. mając na uwadze, że wszelkie przyszłe prawodawstwo Unii mające za cel jednoznaczne przypisanie odpowiedzialności w odniesieniu do systemów sztucznej inteligencji (SI) powinny być poprzedzone analizą i konsultacjami z państwami członkowskimi w sprawie zgodności proponowanego aktu ustawodawczego z warunkami gospodarczymi, prawnymi i społecznymi;

E. mając na uwadze, że zagadnienie systemu odpowiedzialności cywilnej za SI powinno być przedmiotem szerokiej debaty publicznej uwzględniającej wszystkie niezbędne interesy, zwłaszcza aspekty etyczne, prawne, gospodarcze i społeczne, aby uniknąć nieporozumień i nieuzasadnionych obaw, jakie technologia ta może wywołać wśród obywateli; mając na uwadze, że dokładna analiza następstw wszelkich nowych ram regulacyjnych dla wszystkich podmiotów uczestniczących w ocenie skutków powinna być warunkiem wstępnym dla dalszych kroków legislacyjnych;

F. mając na uwadze, że pojęcie systemów SI obejmuje dużą grupę różnych technologii, w tym proste statystyki, uczenie się maszyn i głębokie uczenie maszynowe;

G. mając na uwadze, że dzięki używaniu terminu „zautomatyzowane podejmowanie decyzji” można by uniknąć ewentualnej niejednoznaczności terminu SI; mając na uwadze, że „zautomatyzowane podejmowanie decyzji” polega na wstępnym przeniesieniu przez użytkownika podjęcia decyzji, w części lub w całości, na inny podmiot w drodze korzystania z oprogramowania lub usługi; mając na uwadze, że z kolei podmiot ten stosuje następnie modele automatycznego podejmowania decyzji w celu wykonania czynności w imieniu użytkownika lub informowania o decyzjach użytkownika dotyczących realizacji działania;

H. mając na uwadze, że niektóre systemy SI stanowią istotne wyzwanie prawne dla obowiązujących ram prawnych w zakresie odpowiedzialności i mogą prowadzić do sytuacji, w których brak ich przejrzystości może sprawić, że wskazanie, kto kontrolował ryzyko związane z systemem SI czy też który kod, które dane wejściowe lub dane ostatecznie wywołały szkodliwe działanie, może okazać się bardzo drogie lub niemożliwe; mając na uwadze, że ten czynnik może utrudniać ustalenie powiązania między szkodą a powodującym ją zachowaniem, przez co ofiary mogą nie otrzymać odpowiedniego odszkodowania;

I. mając na uwadze, że te wyzwania prawne wynikają też z powiązań między danym systemem SI a innymi systemami, w tym systemami SI, z ich zależności od danych zewnętrznych, podatności na naruszenia cyberbezpieczeństwa, jak również projektowania coraz bardziej autonomicznych systemów SI z wykorzystaniem m.in. uczenia się maszyn i technik głębokiego uczenia maszynowego;

J. mając na uwadze, że surowe normy etyczne w odniesieniu do systemów SI powiązane z rozsądnymi i sprawiedliwymi procedurami rekompensowania szkód pomagają zająć się tymi wyzwaniami prawnymi i wyeliminować ryzyko, że użytkownicy będą mniej skłonni do zaakceptowania nowej technologii; mając na uwadze, że sprawiedliwe procedury odszkodowawcze oznaczają, że każda osoba, która ucierpiała w wyniku działania systemu SI lub poniosła szkody majątkowe w wyniku działania takiego systemu, powinna korzystać z tego samego poziomu ochrony, który przysługiwałby w przypadkach bez udziału systemów SI; mając na uwadze, że użytkownik musi mieć pewność, że potencjalne szkody spowodowane przez systemy wykorzystujące SI są objęte odpowiednim ubezpieczeniem oraz że istnieje określona droga prawna dochodzenia roszczeń;

K. mając na uwadze, że pewność prawa jest również zasadniczym warunkiem dynamicznego opracowywania i unowocześniania technologii opartych na SI, w szczególności dla przedsiębiorstw typu start-up, mikroprzedsiębiorstw oraz małych i średnich przedsiębiorstw, oraz ich praktycznego zastosowania w życiu codziennym; mając na uwadze, że kluczowa rola przedsiębiorstw typu start-up, mikroprzedsiębiorstw oraz małych i średnich przedsiębiorstw, zwłaszcza w gospodarce europejskiej, uzasadnia podejście ściśle proporcjonalne, umożliwiające im rozwój i innowacyjność;

L. mając na uwadze, że różnorodność systemów SI i zróżnicowanie zakresu zagrożeń, jakie stwarza ta technologia, utrudnia wysiłki na rzecz znalezienia jednego rozwiązania odpowiedniego dla całego spektrum zagrożeń; mając na uwadze, że w związku z tym należy przyjąć podejście, w ramach którego eksperymenty, projekty pilotażowe i piaskownice regulacyjne będą wykorzystywane do opracowywania proporcjonalnych rozwiązań opartych na dowodach, w razie potrzeby uwzględniających konkretne sytuacje i sektory;

Wprowadzenie

1. wyraża przekonanie, że wyzwanie związane z wprowadzeniem systemów SI w społeczeństwie, miejscu pracy i gospodarce jest obecnie jedną z najważniejszych kwestii w działaniach politycznych; technologie oparte na SI mogłyby i powinny poprawić jakość życia w niemal każdej sferze: od życia osobistego, obejmującego np. transport, dostosowaną do potrzeb danej osoby edukację, pomoc osobom znajdującym się w trudnej sytuacji, programy w zakresie fitnessu i przyznawanie kredytów, poprzez środowisko pracy, np. uwolnienie od uciążliwych i powtarzających się zadań, po wyzwania globalne, takie jak zmiana klimatu, opieka zdrowotna, żywienie czy logistyka;

2. jest głęboko przekonany, że aby skutecznie korzystać z zalet systemów SI, przeciwdziałać ich potencjalnemu nadużywaniu i zapobiegać fragmentacji regulacyjnej w Unii, zasadnicze znaczenie ma przyjęcie w całej UE jednolitego prawodawstwa w zakresie wszelkich systemów SI, opartego na konkretnych zasadach i nieulegającego dezaktualizacji; stoi na stanowisku, że choć lepsze wydają się sektorowe przepisy dla szerokiego wachlarza możliwych zastosowań SI, konieczne wydaje się przyjęcie przekrojowych i ujednoliconych ram prawnych opierających się na powszechnych zasadach, by zagwarantować pewność prawa, ustanowić te same normy w całej Unii i skutecznie chronić wartości europejskie i prawa obywateli;

3. stwierdza, że jednolity rynek cyfrowy wymaga pełnej harmonizacji, ponieważ sfera cyfrowa charakteryzuje się bardzo zmienną dynamiką ponadgraniczną i międzynarodowym przepływem danych; uważa, że jedynie poprzez przyjęcie spójnych, powszechnych zasad Unia może osiągnąć cele utrzymania suwerenności cyfrowej i przyspieszenia innowacji cyfrowych w Europie w zgodzie z kulturą innowacji;

4. zauważa, że globalny wyścig ku sztucznej inteligencji już trwa, a Unia powinna odegrać w nim czołową rolę, wykorzystując swój potencjał naukowy i technologiczny; zdecydowanie podkreśla, że rozwój technologii nie może przebiegać kosztem ochrony użytkowników przed szkodami, które mogą być powodowane przez urządzenia i systemy wykorzystujące SI; zachęca do promowania unijnych norm odpowiedzialności cywilnej na szczeblu międzynarodowym;

5. wyraża stanowcze przeświadczenie, że nowe, powszechne zasady dotyczące systemów sztucznej inteligencji powinny przyjąć formę rozporządzenia; uważa, że kwestia odpowiedzialności w odniesieniu do szkód spowodowanych przez system SI jest jednym z kluczowych aspektów, którymi należy się zająć w ramach tych przepisów;

Odpowiedzialność a sztuczna inteligencja

6.  wyraża przekonanie, że nie ma potrzeby dokonywać całkowitego przeglądu dobrze funkcjonujących systemów odpowiedzialności, ale że złożoność, zdolność do łączenia się, nieprzejrzystość, podatność na zagrożenia, możliwość modyfikowania w drodze aktualizacji, możliwość samodzielnego uczenia się, potencjalna autonomiczność systemów SI i duża liczba zaangażowanych podmiotów stanowią jednak poważne wyzwanie dla skuteczności krajowych i unijnych przepisów ramowych dotyczących odpowiedzialności; uważa, że niezbędne są konkretne i skoordynowane dostosowania systemów odpowiedzialności, by uniknąć sytuacji, w której osoba, która ucierpiała lub poniosła szkody majątkowe, nie otrzyma rekompensaty;

7.  zauważa, że wszystkie działania fizyczne czy wirtualne opierające się na systemach SI, urządzenia czy procesy, w których korzysta się z tych systemów, mogą zasadniczo być bezpośrednią lub pośrednią przyczyną szkody, a jednocześnie są one niemal zawsze wynikiem tego, że ktoś skonstruował lub wdrożył taki system albo ingerował w niego; zauważa w tym względzie, że nie jest konieczne nadawanie systemom SI osobowości prawnej; wyraża opinię, że nieprzejrzystość, zdolność do łączenia się i autonomiczność systemów SI może sprawić, że w praktyce będzie bardzo trudno powiązać konkretne szkodliwe działania systemów SI z konkretnymi danymi wprowadzonymi przez człowieka lub jego decyzjami na etapie projektowania systemu, a nawet będzie to niemożliwe; przypomina, że zgodnie z szeroko stosowanymi koncepcjami odpowiedzialności można mimo wszystko obejść tę przeszkodę, czyniąc odpowiedzialnymi poszczególne osoby w całym łańcuchu wartości, które tworzą, utrzymują lub kontrolują ryzyko związane z systemem SI;

8. uważa, że dyrektywa w sprawie odpowiedzialności za produkty jest od ponad 30 lat skutecznym sposobem uzyskania odszkodowania za szkodę wywołaną przez wadliwy produkt, ale mimo to potrzebny jest jej przegląd w celu dostosowania jej do świata cyfrowego i sprostania wyzwaniom związanym z powstającymi technologiami cyfrowymi, zapewniając tym samym wysoki poziom skutecznej ochrony konsumentów, a także pewność prawa dla konsumentów i przedsiębiorstw przy jednoczesnym unikaniu wysokich kosztów i ryzyka dla MŚP i przedsiębiorstw typu start-up; wzywa Komisję, aby oceniła, czy dyrektywę w sprawie odpowiedzialności za produkty należy przekształcić w rozporządzenie, wyjaśniła definicję „produktów”, określając, czy w zakres jej stosowania wchodzą treści cyfrowe i usługi cyfrowe, oraz rozważyła dostosowanie takich pojęć jak „szkoda”, „wada” i „producent”; jest zdania, że w celu zagwarantowania pewności prawa w całej Unii w następstwie przeglądu dyrektywy w sprawie odpowiedzialności za produkty pojęcie „producenta” powinno obejmować wytwórców, twórców, programistów, usługodawców i operatorów back-end; wzywa Komisję, aby rozważyła uchylenie przepisów dotyczących ciężaru dowodu w odniesieniu do szkód spowodowanych przez pojawiające się technologie cyfrowe w jasno określonych przypadkach i po odpowiedniej ocenie; podkreśla, że należy zadbać o to, by uaktualniony unijny akt nadal ograniczał się do jasno określonych problemów, w przypadku których istnieją już wykonalne rozwiązania, i jednocześnie pozwalał na uwzględnienie przyszłych zmian technologicznych, w tym rozwoju opartego na wolnym i otwartym oprogramowaniu; zauważa, że dyrektywę w sprawie odpowiedzialności za produkty należy nadal stosować w odniesieniu do roszczeń z tytułu odpowiedzialności cywilnej producenta wadliwego systemu SI, jeżeli system taki można uznać za produkt w rozumieniu tej dyrektywy; podkreśla, że wszelkie aktualizacje ram odpowiedzialności za produkt powinny iść w parze z aktualizacją dyrektywy 2001/95/WE Parlamentu Europejskiego i Rady z dnia 3 grudnia 2001 r. w sprawie ogólnego bezpieczeństwa produktów[12], aby mieć pewność, że w systemach SI stosuje się zasady uwzględniania bezpieczeństwa i ochrony już na etapie projektowania;

9. uważa, że obowiązujące w państwach członkowskich prawo deliktów opierające się na winie w większości przypadków przewiduje odpowiedni poziom ochrony osób, które ucierpiały z uwagi na fakt, że strona trzecia, taka jak haker, ingerowała w system, lub które poniosły szkody majątkowe w wyniku działania takiej osoby, ponieważ ingerencja stanowi zazwyczaj zawinione działanie; zauważa, że jedynie w szczególnych przypadkach, w tym kiedy nie można wykryć tej osoby trzeciej lub jest ona niewypłacalna, konieczne wydaje się dodanie przepisów dotyczących odpowiedzialności w celu uzupełnienia istniejącego krajowego prawa deliktów;

10. uważa zatem za stosowne, by w niniejszym sprawozdaniu skupić się na roszczeniach w ramach odpowiedzialności cywilnej operatora systemu SI; potwierdza, że odpowiedzialność operatora można uzasadnić faktem, że kontroluje on ryzyko związane z systemem SI porównywalne z ryzykiem kontrolowanym przez właściciela pojazdu; uważa, że ze względu na złożoność systemów SI oraz ich zdolność do połączeń operator będzie w wielu przypadkach pierwszą, identyfikowalną osobą kontaktową dla poszkodowanego;

Odpowiedzialność operatora

11. stoi na stanowisku, że zasady odpowiedzialności dotyczące operatora powinny obejmować wszelkie działania systemów SI niezależnie od tego, gdzie są one realizowane i czy mają charakter fizyczny czy wirtualny; zauważa, że działania w przestrzeni publicznej, które narażają wiele osób na zagrożenie, wymagają dalszych rozważań; uważa, że potencjalni poszkodowani często nie są świadomi działania systemu i często nie mieliby umów, które dawałyby im prawo do zgłaszania roszczeń wobec operatora; zauważa, że w momencie gdy dojdzie do szkody, osoby takie mogłyby zgłaszać tylko roszczenia na zasadzie winy, a dowiedzenie winy operatora systemu SI mogłoby okazać się trudne i tym samym odpowiednie roszczenia z tytułu odpowiedzialności spełzłyby na niczym;

12. uważa, że pojęcie operatora należy rozumieć jako obejmujące zarówno operator front-end, jak i operator back-end, o ile ten drugi nie jest objęty dyrektywą w sprawie odpowiedzialności za produkty; uważa, że operatora front-end należy zdefiniować jako osobę fizyczną lub prawną, która do pewnego stopnia kontroluje ryzyko związane z obsługą i funkcjonowaniem systemu SI i korzysta z jego działania; stwierdza, że operatora back-end należy zdefiniować jako osobę fizyczną lub prawną, która w sposób ciągły określa cechy technologii, dostarcza dane i podstawowe usługi wsparcia, a zatem sprawuje również pewną kontrolę nad ryzykiem związanym z obsługą i funkcjonowaniem systemu SI; uważa, że sprawowanie kontroli należy rozumieć jako dowolne działanie operatora, które wpływa na działanie systemu SI, a tym samym na zakres, w jakim naraża on osoby trzecie na zagrożenia z nim związane; uważa, że takie działania mogłyby wpływać na działanie systemu SI od początku do końca przez określanie danych wejściowych, wyjściowych lub wyników albo zmieniać konkretne funkcje czy procesy systemu SI;

13. zauważa, że może dojść do sytuacji, w których mamy do czynienia z większą liczbą operatorów, na przykład z operatorem front-end i back-end; uważa, że w takim przypadku wszystkie podmioty powinny ponosić solidarną odpowiedzialność na zasadzie ryzyka, mając przy tym prawo do proporcjonalnego regresu wobec siebie nawzajem; jest zdania, że proporcje odpowiedzialności powinny być ustalane na podstawie odpowiedniego stopnia kontroli operatorów nad ryzykiem związanym z obsługą i funkcjonowaniem systemu SI; uważa, że należy poprawić identyfikowalność produktów , aby móc lepiej wskazywać podmioty zaangażowane na różnych etapach;

Różne zasady odpowiedzialności zależnie od rodzaju ryzyka

14.  uznaje, że czynnikiem determinującym odpowiedzialność jest rodzaj systemu SI, nad którym sprawuje kontrolę dany operator; zauważa, że system SI, który z natury wiąże się ze znacznym ryzykiem i działa autonomicznie, potencjalnie zagraża ogółowi społeczeństwa w znacznie większym stopniu; uważa, że w obliczu wyzwań prawnych wynikających ze stosowania systemów SI dla obowiązujących systemów odpowiedzialności cywilnej wydaje się zasadne stworzenie powszechnego surowego systemu odpowiedzialności dla tych autonomicznych systemów SI obarczonych wysokim ryzykiem; podkreśla, że takie podejście oparte na ryzyku, które może obejmować kilka poziomów ryzyka, powinno opierać się na jasnych kryteriach i odpowiedniej definicji wysokiego ryzyka oraz zapewniać pewność prawa;

15.  wyraża przekonanie, że system SI stanowi poważne ryzyko, gdy jego autonomiczne działanie wiąże się ze znaczącym potencjałem wyrządzenia szkód jednej osobie lub grupie osób w sposób losowy i wykraczający poza to, czego można zasadnie oczekiwać; wyraża przekonanie, że przy ustalaniu, czy system SI jest obarczony wysokim ryzykiem, pod uwagę należy również wziąć branżę, w której można oczekiwać wystąpienia znacznego ryzyka, a także charakter prowadzonej działalności; wyraża przekonanie, że znaczenie tego potencjału zależy od wzajemnego stosunku między powagą ewentualnej szkody, prawdopodobieństwem zaistnienia szkody i sposobem użycia systemu SI;

16. zaleca, by wszystkie systemy SI obarczone wysokim ryzykiem zostały umieszczone w wyczerpującym załączniku do proponowanego rozporządzenia; biorąc pod uwagę szybki rozwój technologiczny i wymaganą wiedzę w zakresie technologii, Komisja powinna przeprowadzić niezwłocznie przegląd tego załącznika i robić to przynajmniej co sześć miesięcy, a w razie konieczności uaktualnić go w drodze aktu delegowanego; uważa, że Komisja powinna ściśle współpracować z niedawno utworzonym komitetem stałym, podobnym do istniejących już struktur, a mianowicie Stałego Komitetu ds. Prekursorów czy Komitetu Technicznego ds. Pojazdów Silnikowych, które skupiają ekspertów krajowych z państw członkowskich i inne zainteresowane podmioty; uważa, że zrównoważona reprezentacja w grupie ekspertów wysokiego szczebla ds. sztucznej inteligencji może posłużyć za przykład do utworzenia grupy zainteresowanych podmiotów, w skład której wejdą również eksperci w dziedzinie etyki, a także antropolodzy, socjolodzy i specjaliści ds. zdrowia psychicznego; wyraża również opinię, że Parlament Europejski powinien wyznaczyć ekspertów-konsultantów, którzy będą doradzać niedawno ustanowionemu komitetowi stałemu;

17. uważa, że rozwój technologii opartych na SI jest bardzo dynamiczny i stale przyspiesza; podkreśla, że aby zapewnić użytkownikom odpowiednią ochronę, konieczne jest podejście przyspieszone pozwalające analizować pod kątem potencjalnych zagrożeń nowe urządzenia i systemy wykorzystujące systemy SI, które pojawiają się na rynku europejskim; zaleca jak największe uproszczenie wszystkich procedur w tym zakresie; sugeruje ponadto, aby Komisja rozpoczynała ocenę tego, czy system SI stwarza wysokie ryzyko, w tym samym czasie co ocenę bezpieczeństwa produktu, aby zapobiec sytuacji, w której system SI wysokiego ryzyka został już zatwierdzony do obrotu, ale nie został jeszcze sklasyfikowany jako obarczony wysokim ryzykiem i w związku z tym działa bez obowiązkowej ochrony ubezpieczeniowej;

18. uważa, że Komisja powinna ocenić, w jaki sposób dane gromadzone, rejestrowane lub przechowywane w systemach SI wysokiego ryzyka do celów gromadzenia dowodów w przypadku szkody spowodowanej przez ten system SI mogłyby być udostępniane i wykorzystywane przez organ dochodzeniowy oraz w jaki sposób można poprawić identyfikowalność i możliwość kontrolowania takich danych przy jednoczesnym uwzględnianiu praw podstawowych i prawa do prywatności;

19.  uważa, że zgodnie z surowymi systemami odpowiedzialności w państwach członkowskich proponowane rozporządzenie powinno obejmować naruszenia istotnych chronionych przepisami praw do życia, zdrowia, nienaruszalności cielesnej i własności oraz powinno wskazywać kwoty i zakres odszkodowania, a także termin przedawnienia roszczeń; jest zdania, że proponowane rozporządzenie powinno również obejmować poważne szkody niematerialne skutkujące możliwą do zweryfikowania stratą ekonomiczną powyżej progu zharmonizowanego w prawie Unii dotyczącym odpowiedzialności, zapewniającym równowagę między dostępem poszkodowanych do wymiaru sprawiedliwości a interesami innych zainteresowanych osób; wzywa Komisję do ponownej oceny i dostosowania progów szkód w prawie Unii; jest zdania, że Komisja powinna dogłębnie przeanalizować tradycje prawne we wszystkich państwach członkowskich oraz obowiązujące w nich przepisy krajowe przyznające rekompensatę za szkody niematerialne, aby ocenić, czy włączenie szkód niematerialnych do aktów ustawodawczych dotyczących SI jest konieczne oraz czy jest ono sprzeczne z obowiązującymi ramami prawnymi Unii lub narusza prawo krajowe państw członkowskich;

20. wskazuje, że wszelkie działania sterowane systemami sztucznej inteligencji, urządzenia czy procesy wykorzystujące te systemy, które powodują szkody, ale nie zostały wymienione w załączniku do proponowanego rozporządzenia powinny nadal być objęte odpowiedzialnością na zasadzie winy; uważa, że poszkodowany powinien mieć jednak prawo do domniemania winy operatora, który powinien mieć możliwość uwolnienia się od odpowiedzialności przez udowodnienie, że wywiązał się z obowiązku staranności;

21. uważa, że system SI, który nie został jeszcze oceniony przez Komisję i nowo utworzony stały komitet, a zatem nie jest jeszcze sklasyfikowany jako system wysokiego ryzyka i nie znajduje się w wykazie zawartym w załączniku do proponowanego rozporządzenia, powinien jednak, w drodze wyjątku od systemu przewidzianego w ust. 20, podlegać odpowiedzialności na zasadzie ryzyka, jeżeli spowodował powtarzające się incydenty skutkujące poważnymi szkodami; zauważa, że w takim przypadku Komisja powinna również bez zbędnej zwłoki ocenić potrzebę zmiany tego załącznika w celu dodania tego systemu SI do wykazu; jest zdania, że jeżeli w wyniku tej oceny Komisja podejmie decyzję o umieszczeniu tego systemu SI w wykazie, włączenie to powinno mieć moc wsteczną od momentu pierwszego udowodnionego incydentu spowodowanego przez ten system SI, w wyniku którego doszło do poważnych szkód;

22. wzywa Komisję, aby oceniła potrzebę wprowadzenia przepisów prawnych na szczeblu Unii dotyczących umów w celu zapobiegania klauzulom o braku odpowiedzialności umownej, w tym w relacjach między przedsiębiorstwami i między przedsiębiorstwami a administracją;

Ubezpieczenia a systemy sztucznej inteligencji

23. uważa, że pokrycie zobowiązań z tytułu odpowiedzialności jest kluczowym czynnikiem, który stanowi o sukcesie nowych technologii, produktów i usług; zauważa, że prawidłowe podejście do odpowiedzialności ma również zasadnicze znaczenie dla zadbania o to, by ogół społeczeństwa mógł zaufać nowym technologiom pomimo faktu, że potencjalnie można w związku z nimi ucierpieć lub też że poszkodowany może wystąpić z roszczeniami; odnotowuje jednocześnie, że ten system regulacyjny skupia się na potrzebie wykorzystania i wzmocnienia korzyści oferowanych przez systemy SI przy jednoczesnym wprowadzeniu solidnych zabezpieczeń;

24. jest zdania, że ze względu na znaczny potencjał spowodowania szkody oraz uwzględniając dyrektywę Parlamentu Europejskiego i Rady 2009/103/WE z dnia 16 września 2009 r. w sprawie ubezpieczenia od odpowiedzialności cywilnej za szkody powstałe w związku z ruchem pojazdów mechanicznych i egzekwowania obowiązku ubezpieczania od takiej odpowiedzialności[13], wszyscy operatorzy systemów SI obarczonych wysokim ryzykiem wymienieni w załączniku do proponowanego rozporządzenia powinni posiadać ubezpieczenie od odpowiedzialności cywilnej; uważa, że taki system obowiązkowych ubezpieczeń dla obarczonych wysokim ryzykiem systemów SI powinien pokrywać odszkodowania w kwocie i zakresie, które wynikają z proponowanego rozporządzeniu; jest świadomy, że taka technologia jest obecnie nadal bardzo rzadka, ponieważ zakłada wysoki stopień autonomicznego podejmowania decyzji, oraz że obecne dyskusje dotyczą głównie przyszłości; uważa jednak, że niepewność dotycząca zagrożeń nie powinna powodować, że składki ubezpieczeniowe będą zbyt wysokie, a tym samym będą stanowić przeszkodę dla badań i innowacji;

25.  uważa, że unijny mechanizm odszkodowawczy finansowany ze środków publicznych nie jest właściwym sposobem na usuwanie ewentualnych niedociągnięć systemów ubezpieczeniowych; uważa, że brak danych na temat ryzyka związanego z systemami SI w połączeniu z niepewnością dotyczącą wydarzeń w przyszłości utrudnia sektorowi ubezpieczeń opracowanie dostosowanych lub nowych produktów ubezpieczeniowych; uważa, że pozostawienie opracowania obowiązkowego ubezpieczenia wyłącznie w gestii rynku może doprowadzić do przyjęcia jednego uniwersalnego podejścia charakteryzującego się nieproporcjonalnie wysokimi cenami i niewłaściwymi zachętami, co zachęci operatorów do wybierania najtańszego, a nie najlepszego ubezpieczenia i może stać się przeszkodą dla badań i innowacji; uważa, że Komisja powinna ściśle współpracować z sektorem ubezpieczeń, aby sprawdzić, jak wykorzystać dane i innowacyjne modele do stworzenia polis ubezpieczeniowych oferujących odpowiednią ochronę za przystępną cenę;

Kwestie końcowe

26. zwraca się do Komisji o przedłożenie, na podstawie art. 225 Traktatu o funkcjonowaniu Unii Europejskiej, wniosku dotyczącego rozporządzenia w sprawie odpowiedzialności za działanie systemów sztucznej inteligencji w oparciu o zalecenia przedstawione w załączniku do niniejszej rezolucji;

27. uważa, iż wspomniany wniosek nie pociągnie za sobą skutków finansowych;

28. zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji oraz zaleceń zawartych w załączniku Komisji i Radzie.

 

 


 

ZAŁĄCZNIK DO PROJEKTU REZOLUCJI: SZCZEGÓŁOWE ZALECENIA DLA PRZYGOTOWUJĄCYCH PROJEKT ROZPORZĄDZENIA PARLAMENTU EUROPEJSKIEGO I RADY WS. ODPOWIEDZIALNOŚCI ZA DZIAŁANIE SYSTEMÓW SZTUCZNEJ INTELIGENCJI

A. ZASADY I CELE WNIOSKU

Niniejsze sprawozdanie dotyczy istotnego aspektu cyfryzacji, którą z kolei kształtują działalność ponadgraniczna, konkurencja na świecie i podstawowe kwestie społeczne. Poniższe zasady powinny służyć jako wytyczne:

Rzeczywisty jednolity rynek cyfrowy wymaga pełnego ujednolicenia za pośrednictwem rozporządzenia. Nowymi wyzwaniami prawnymi wynikającymi z rozwoju systemów sztucznej inteligencji należy się zająć przez stworzenie w całym łańcuchu odpowiedzialności, w tym producentom, operatorom, poszkodowanym i innym stronom trzecim, poczucia maksymalnej pewności prawa. Nie powinno się iść w stronę nadmiernego stanowienia prawa i należy zapobiegać biurokracji, gdyż w przeciwnym razie zahamowane zostałoby tworzenie innowacyjnych rozwiązań z użyciem sztucznej inteligencji w Europie, szczególnie w przypadku technologii, produktów czy usług rozwijanych przez MŚP lub przedsiębiorstwa typu start-up. Przepisy dotyczące odpowiedzialności cywilnej za sztuczną inteligencję powinny mieć na celu zapewnienie równowagi między ochroną ogółu społeczeństwa z jednej strony a zachętami dla przedsiębiorstw do inwestowania w innowacje, zwłaszcza w systemy sztucznej inteligencji, z drugiej strony. Zamiast zastępować istniejące już i dobrze funkcjonujące systemy odpowiedzialności powinniśmy dokonać kilku niezbędnych dostosowań, wprowadzając nowe, niedezaktualizujące się rozwiązania. Przyszły wniosek dotyczący rozporządzenia i dyrektywa w sprawie odpowiedzialności za produkty stanowią dwa filary powszechnych ram odpowiedzialności za systemy sztucznej inteligencji i wymagają ścisłej koordynacji i dostosowania między wszystkimi podmiotami politycznymi na szczeblu unijnym i krajowym.

 Aby zwiększyć zaufanie obywateli do nowej technologii, należy zapewnić im ten sam poziom ochrony i te same prawa niezależnie od tego, czy szkoda została spowodowana przez system sztucznej inteligencji, czy też nie, lub od tego, czy szkoda ma charakter fizyczny czy wirtualny.

 W przyszłym wniosku dotyczącym rozporządzenia należy uwzględnić zarówno szkody materialne, jak i niematerialne. Na podstawie m.in. komunikatu Komisji z dnia 19 lutego 2020 r. w sprawie wpływu sztucznej inteligencji i robotyki na bezpieczeństwo i odpowiedzialność wzywa się Komisję Europejską do dogłębnego przeanalizowania tradycji prawnych we wszystkich państwach członkowskich, a także obowiązujących przepisów prawnych przyznających odszkodowanie za szkodę niematerialną, aby ocenić, czy włączenie szkody niematerialnej do przyszłego wniosku dotyczącego rozporządzenia jest prawnie uzasadnione i konieczne z punktu widzenia osoby poszkodowanej. W oparciu o obecnie dostępne informacje Parlament uważa, że należy uwzględnić istotną szkodę niematerialną, jeżeli dana osoba poniosła zauważalną, to znaczy możliwą do zweryfikowania, szkodę ekonomiczną.


B. TEKST PROPONOWANEGO WNIOSKU

 

Wniosek dotyczący

ROZPORZĄDZENIA PARLAMENTU EUROPEJSKIEGO I RADY

w sprawie odpowiedzialności za działanie systemów sztucznej inteligencji

 

uwzględniając Traktat o funkcjonowaniu Unii Europejskiej, w szczególności jego art. 114,

uwzględniając wniosek Komisji Europejskiej,

po przekazaniu projektu aktu ustawodawczego parlamentom narodowym,

uwzględniając opinię Europejskiego Komitetu Ekonomiczno-Społecznego[14],

stanowiąc zgodnie ze zwykłą  procedurą ustawodawczą[15],

a także mając na uwadze, co następuje:

 

(1) Pojęcie „odpowiedzialności” odgrywa istotną, ale i dwojaką rolę w naszym codziennym życiu, gdyż – z jednej strony – gwarantuje osobie, która ucierpiała lub poniosła szkody, prawo do wystąpienia z roszczeniem o odszkodowanie od strony odpowiedzialnej za te szkody, zaś – z drugiej strony – stanowi zachętę ekonomiczną, by przede wszystkim unikać wyrządzania szkód. We wszelkich przepisach o odpowiedzialności należy dążyć do wzbudzania zaufania w odniesieniu do bezpieczeństwa, niezawodności i spójności produktów i usług, w tym pojawiających się technologii cyfrowych, takich jak sztuczna inteligencja (SI), internet rzeczy czy robotyka, w celu zapewnienia równowagi między skuteczną ochroną ofiar potencjalnych szkód a jednoczesnym dawaniem wystarczającego pola do manewru, by umożliwić rozwój nowych technologii, produktów i usług.

 

(2) Szczególnie na początkowych etapach cyklu życia nowych produktów i usług, po wstępnym przetestowaniu, ich użycie wiąże się dla użytkownika i osób postronnych z pewnym poziomem ryzyka, że produkty czy usługi nie zawsze będą prawidłowo funkcjonować. Taki proces prób i błędów jest jednocześnie kluczowym czynnikiem przyczyniającym się do postępu technicznego, bez którego większość towarzyszących nam technologii nie ujrzałaby światła dziennego. Dotychczas ryzyko związane z nowymi produktami i usługami odpowiednio łagodziły surowe przepisy dotyczące bezpieczeństwa produktów oraz zasady odpowiedzialności.

(3) Jednak rozwój SI stanowi znaczące wyzwanie dla istniejących ram odpowiedzialności. Korzystanie z systemów SI w życiu codziennym może prowadzić do sytuacji, w których ich brak przejrzystości („czarna skrzynka”) i mnogość podmiotów ingerujących w ich cykl życia mogą sprawić, że wskazanie, kto kontrolował zagrożenie związane z systemem SI, czy też który kod lub które dane wejściowe ostatecznie wywołały szkodliwe działanie, może okazać się niezmiernie drogie lub nawet niemożliwe. Tę trudność potęgują powiązania między danym systemem SI a innymi systemami, w tym systemami niewykorzystującymi SI, ich zależność od danych zewnętrznych, podatność na naruszenia cyberbezpieczeństwa, jak również coraz większa autonomia systemów SI wynikająca z uczenia się maszyn i możliwości maszyn w zakresie głębokiego uczenia się. Poza tą złożonością i potencjalnym narażeniem na ryzyko systemy SI mogłyby być również wykorzystywane, by spowodować poważne szkody, takie jak narażenie na szwank godności ludzkiej, europejskich wartości i swobód, przez śledzenie obywateli wbrew ich woli, wprowadzenie systemów zaufania społecznego, podejmowanie stronniczych decyzji dotyczących ubezpieczenia zdrowotnego, przyznawania kredytów, wydawania postanowień sądowych lub decyzji dotyczących rekrutacji lub zatrudnienia czy stworzenie śmiercionośnych systemów broni autonomicznej.

(4) Należy zaznaczyć, że korzyści płynące z wdrożenia systemów SI przewyższają znacznie ich wady. Pomogą one skuteczniej walczyć ze zmianą klimatu, usprawnić badania lekarskie i poprawić warunki pracy, lepiej zintegrować osoby z niepełnosprawnością i osoby starsze w społeczeństwie i organizować działania oświatowe dostosowane do każdego typu ucznia. Aby wykorzystać wszystkie możliwości technologiczne i zwiększyć zaufanie obywateli do stosowania systemów SI przy jednoczesnym zapobieganiu negatywnym scenariuszom, najlepszym sposobem postępowania jest przyjęcie stanowczych norm etycznych powiązanych z solidną i sprawiedliwą procedurą odszkodowawczą.

(5) Aby przeciwdziałać naruszeniom zasad bezpieczeństwa, niezbędny jest także odpowiedni system odpowiedzialności. System odpowiedzialności ustanowiony w niniejszym rozporządzeniu musi jednak uwzględniać wszystkie niezbędne interesy. Dokładna analiza konsekwencji wszelkich nowych ram regulacyjnych dla małych i średnich przedsiębiorstw (MŚP) i przedsiębiorstw typu start-up jest warunkiem wstępnym dalszych działań legislacyjnych. Kluczowa rola, jaką takie przedsiębiorstwa odgrywają w gospodarce europejskiej, uzasadnia podejście ściśle proporcjonalne umożliwiające im rozwój i innowacyjność. Z drugiej strony ofiary szkód spowodowanych przez systemy SI muszą mieć prawo do dochodzenia roszczeń i pełnego odszkodowania za poniesione szkody i krzywdy.

(6) Wszelkie zmiany wymagane w obowiązujących ramach prawnych powinny rozpocząć się od wyjaśnienia, że systemy SI nie mają osobowości prawnej ani sumienia, a ich jedynym zadaniem jest służenie ludzkości. Wiele systemów SI nie różni się znacząco od innych technologii, które czasem opierają się na znacznie bardziej złożonym oprogramowaniu. Ostatecznie zdecydowaną większość systemów SI wykorzystuje się do realizacji trywialnych zadań, a ryzyko dla społeczeństwa jest minimalne lub jest go brak. Dzięki używaniu terminu „zautomatyzowane podejmowanie decyzji” można by uniknąć ewentualnej niejednoznaczności terminu SI. Termin ten opisuje sytuację, w której użytkownik wstępnie przenosi podjęcie decyzji, w części lub w całości, na inny podmiot w drodze oprogramowania lub usługi. Z kolei podmiot ten stosuje modele automatycznego podejmowania decyzji w celu wykonania czynności w imieniu użytkownika lub poinformowania o decyzji użytkownika dotyczącej realizacji działania.

(7) Istnieją jednak systemy SI, które opracowuje się i wdraża w krytyczny sposób i które opierają się na takich technologiach, jak sieci neuronowe i procesy głębokiego uczenia się. Ich możliwości i autonomia mogą sprawić, iż bardzo trudne będzie powiązanie konkretnych ich działań z konkretnymi decyzjami człowieka podjętymi podczas ich projektowania lub działania. Operator takiego systemu SI może na przykład argumentować, że powodujące szkodę fizyczne lub wirtualne działanie, urządzenie czy wywołujący szkodę fizyczny bądź wirtualny proces były poza jego kontrolą, ponieważ szkoda wynikała z autonomicznego działania należącego do niego systemu SI. Ponadto samo działanie autonomicznego systemu SI nie powinno stanowić powodu wystarczającego do przyjęcia na siebie odpowiedzialności w związku z roszczeniem. W konsekwencji możemy mieć do czynienia z przypadkami odpowiedzialności, w których wskazanie odpowiedzialności mogłoby być niesprawiedliwe lub nieskuteczne lub w których osoba poszkodowana przez system SI nie może dowieść winy producenta, ingerującej strony trzeciej czy operatora, a tym samym nie może uzyskać odszkodowania.

(8) Mimo wszystko zawsze powinno być jasne, że ten, kto tworzy, utrzymuje i kontroluje system sztucznej inteligencji i kto ingeruje w jego działanie, powinien być odpowiedzialny za szkody wynikające z działania, funkcjonowania urządzenia czy procesu. Powyższe wynika z ogólnych i szeroko akceptowanych koncepcji odpowiedzialności i sprawiedliwości, zgodnie z którymi osoba, która stwarza lub stanowi zagrożenie dla ogółu społeczeństwa, ponosi odpowiedzialność, gdy zagrożenie takie powoduje szkodę, a zatem powinna zawczasu zminimalizować lub później zrekompensować to ryzyko. W konsekwencji coraz częstsze pojawianie się systemów SI nie wiąże się z potrzebą dogłębnej nowelizacji zasad odpowiedzialności w całej Unii. Konkretne dostosowania do obowiązującego prawodawstwa oraz wprowadzenie dobrze dostępnych i ukierunkowanych nowych przepisów wystarczą, by zająć się wyzwaniami związanymi ze sztuczną inteligencją, w celu zapobieżenia fragmentacji regulacyjnej i zapewnienia harmonizacji prawodawstwa dotyczącego odpowiedzialności cywilnej w całej Unii w związku ze sztuczną inteligencją.

(9) Dyrektywa Rady 85/374/EWG[16] (dyrektywa w sprawie odpowiedzialności za produkty) jest od ponad 30 lat skutecznym sposobem uzyskania odszkodowania za szkodę wywołaną przez wadliwy produkt. Dlatego należy z niej również korzystać w odniesieniu do roszczeń poszkodowanego z tytułu odpowiedzialności cywilnej producenta wadliwego systemu sztucznej inteligencji. Zgodnie z zasadami Unii w zakresie lepszego stanowienia prawa wszelkie konieczne dostosowanie prawodawstwa należy przedyskutować w niezbędnym procesie przeglądu tej dyrektywy. Obowiązujące w państwach członkowskich prawo dotyczące odpowiedzialności opierające się na winie w większości przypadków przewiduje również odpowiedni poziom ochrony osób, które ucierpiały wskutek ingerencji osoby trzeciej w system, ponieważ ingerencja zwyczajowo stanowi zawinione działanie, jeżeli osoba trzecia używa systemu SI do wyrządzenia szkody. W konsekwencji w niniejszym rozporządzeniu należy skupić się na roszczeniach w ramach odpowiedzialności cywilnej operatora systemu SI.

(10) Na mocy niniejszego rozporządzenia odpowiedzialność operatora opiera się na fakcie, że do pewnego stopnia kontroluje on ryzyko związane z działaniem systemu SI, które jest porównywalne z ryzykiem, jakie ponosi właściciel samochodu. W miarę wzrostu zaawansowania i autonomiczności systemu definiowanie algorytmów i wpływanie na nie, na przykład przez ciągłe aktualizacje, ma coraz większe znaczenie. Ponieważ często więcej niż jedna osoba może racjonalnie zostać uznana za „obsługującą“ system SI, na mocy niniejszego rozporządzenia pojęcie „operator” należy rozumieć jako obejmujące zarówno operatora front-end, jak i operatora back-end. Chociaż ogólnie rzecz biorąc operator front-end wydaje się być osobą, która „w pierwszej kolejności“ decyduje o wykorzystaniu systemu SI, operator back-end mógłby w rzeczywistości mieć większą kontrolę nad ryzykiem operacyjnym. Jeżeli operator back-end również zalicza się do definicji „producenta” zgodnie z art. 3 dyrektywy w sprawie odpowiedzialności za produkty, dyrektywa ta powinna mieć do niego zastosowanie. Jeżeli jest tylko jeden operator będący również producentem systemu SI, niniejsze rozporządzenie powinno mieć charakter nadrzędny wobec dyrektywy w sprawie odpowiedzialności za produkty.

(11) Jeżeli użytkownik, a zatem osoba, która korzysta z systemu SI, jest uczestnikiem negatywnego wydarzenia, powinien on w świetle niniejszego rozporządzenia ponosić odpowiedzialność tylko wówczas, gdy można go uznać za operatora. Jeżeli tak nie jest, zakres rażącego zaniedbania lub umyślnego udziału użytkownika w ryzyku może skutkować uznaniem jego odpowiedzialności opartej na winie wobec poszkodowanego. Mające zastosowanie prawa konsumenckie użytkownika powinny pozostać nienaruszone.

(12) Na mocy niniejszego rozporządzenia poszkodowany powinien mieć prawo zgłaszania roszczeń z tytułu odpowiedzialności w całym łańcuchu odpowiedzialności i w całym cyklu życia systemu SI. Niniejsze rozporządzenie powinno zasadniczo odnosić się też do wszystkich systemów SI niezależnie od tego, gdzie działają i czy ich działanie ma charakter fizyczny czy wirtualny. Większość roszczeń z tytułu odpowiedzialności na mocy niniejszego rozporządzenia powinna jednak odnosić się do przypadków odpowiedzialności strony trzeciej, gdy system SI działa w przestrzeni publicznej, a co za tym idzie zagrożonych jest wiele osób. W takiej sytuacji poszkodowani często nie będą świadomi działania systemu SI i nie będą pozostawać w żadnym stosunku prawnym czy umownym z operatorem. W konsekwencji działanie systemu SI stwarza sytuację, w której w przypadku powstania szkód poszkodowani mogą występować z roszczeniami z tytułu odpowiedzialności wyłącznie na zasadzie winy operatora systemu SI, przy czym będą musieli stawić czoła poważnym trudnościom, by dowieść jego winy.

(13) Czynnikiem determinującym jest rodzaj systemu SI, który kontroluje operator. System SI obarczony wysokim ryzykiem jest potencjalnie znacznie groźniejszy dla użytkownika lub społeczeństwa, a zagrożenie występuje w sposób losowy, wykraczając poza to, czego można racjonalnie oczekiwać. Oznacza to, że na początku autonomicznego działania systemu SI nie znamy i nie możemy wskazać większości potencjalnie pokrzywdzonych, np. osób na publicznym placu czy osób w sąsiednim budynku, w porównaniu z działaniem systemu SI przeznaczonego dla konkretnych osób, które wcześniej regularnie zgadzały się na jego zastosowanie, np. operacja chirurgiczna w szpitalu czy pokaz produktu w małym sklepie. Określenie, z jakim prawdopodobieństwem systemy SI obciążone wysokim ryzykiem mogą spowodować szkody, zależy od wzajemnych powiązań między celem zastosowania, dla którego system SI jest wprowadzany do obrotu, sposobem wykorzystania systemu SI, powagą ewentualnych szkód, stopniem autonomiczności w podejmowaniu decyzji, które mogą spowodować szkodę, a prawdopodobieństwem, że zagrożenie rzeczywiście wystąpi. Stopień powagi szkody należy określić w oparciu o odpowiednie wskaźniki takie jak zakres potencjalnej szkody wynikającej z działania systemu względem poszkodowanych osób, w tym zwłaszcza wpływ na prawa podstawowe, liczbę poszkodowanych, całkowitą wartość potencjalnych szkód, jak również szkody dla ogółu społeczeństwa. Prawdopodobieństwo wystąpienia szkody należy określać w oparciu o odpowiednie wskaźniki takie jak rola obliczeń algorytmicznych w procesie podejmowania decyzji, złożoność decyzji i odwracalność jej skutków. Ponadto sposób wykorzystania powinien zależeć od odpowiednich wskaźników takich jak kontekst i branża, w której działa system SI, od tego, czy system ten może mieć prawny lub faktyczny wpływ na istotne, prawnie chronione prawa poszkodowanego oraz od tego, czy skutków jego działania można uniknąć przy zastosowaniu rozsądnych środków.

(14) Wszystkie obarczone wysokim ryzykiem systemy SI należy umieścić w wyczerpującym wykazie załącznika do niniejszego rozporządzenia. Biorąc pod uwagę szybki rozwój technologii i rynku, jak również wiedzę techniczną wymaganą, by adekwatnie przeanalizować systemy SI, należy powierzyć Komisji uprawnienia do przyjmowania aktów delegowanych zgodnie z art. 290 Traktatu o funkcjonowaniu Unii Europejskiej w celu zmiany niniejszego rozporządzenia w odniesieniu do rodzajów systemów SI, które stanowią poważne zagrożenie i do istotnych branż, w których systemy te są wykorzystywane. W oparciu o definicje i przepisy określone w niniejszym rozporządzeniu Komisja powinna niezwłocznie przeprowadzić przegląd załącznika i robić to przynajmniej co sześć miesięcy, a w razie konieczności wprowadzać zmiany w drodze aktów delegowanych. Komisja powinna rozpoczynać ocenę tego, czy system SI stwarza poważne zagrożenie, w tym samym czasie co ocenę bezpieczeństwa produktu, aby zapobiec sytuacji, w której system SI wysokiego ryzyka został już zatwierdzony do obrotu, ale nie został jeszcze sklasyfikowany jako stwarzający poważne zagrożenie i w związku z tym działa bez obowiązkowej ochrony ubezpieczeniowej. Aby dać przedsiębiorcom i organizacjom badawczym poczucie pewności w planowaniu i inwestycjach, zmiany w wykazie branż o zasadniczym znaczeniu należy wprowadzać jedynie co dwanaście miesięcy. Należy wezwać operatorów, by powiadamiali Komisję, jeżeli pracują nad nową technologią, nowym produktem czy nową usługą, które miałyby być wykorzystywane w jednej z branż o zasadniczym znaczeniu, o których mowa w załączniku, i które mogłyby się później kwalifikować do kategorii systemów SI obarczonych wysokim ryzykiem.

(15) Szczególnie ważne jest, aby w czasie prac przygotowawczych Komisja prowadziła należyte konsultacje z odpowiednimi zainteresowanymi stronami, w tym na poziomie ekspertów, oraz aby konsultacje te prowadzone były zgodnie z zasadami określonymi w Porozumieniu międzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa[17]. Stały Komitet Techniczny ds. Obarczonych Wysokim Ryzykiem Systemów Sztucznej Inteligencji (ang. TCRAI) powinien wspierać Komisję w regularnym przeglądzie niniejszego rozporządzenia. W skład tego komitetu stałego powinni wchodzić przedstawiciele państw członkowskich oraz zainteresowane podmioty dobrane na zasadzie zrównoważonej reprezentacji, w tym organizacje konsumenckie, stowarzyszenia reprezentujące poszkodowanych, przedstawiciele przedsiębiorstw różnej wielkości i z różnych branż, badacze i naukowcy. W szczególności aby zapewnić Parlamentowi Europejskiemu i Radzie udział na równych zasadach w przygotowaniu aktów delegowanych, instytucje te otrzymują wszelkie dokumenty w tym samym czasie co eksperci państw członkowskich, a eksperci tych instytucji mogą regularnie brać udział w posiedzeniach grup eksperckich Komisji, w tym komitetu TCRAI, zajmujących się przygotowaniem aktów delegowanych.

(16) Niniejsze rozporządzenie powinno obejmować szkody powodujące śmierć, uszczerbek na zdrowiu, integralności cielesnej i własności oraz poważne szkody niematerialne skutkujące możliwą do zweryfikowania stratą ekonomiczną powyżej progu zharmonizowanego w prawie Unii dotyczącym odpowiedzialności, zapewniającym równowagę między dostępem poszkodowanych do wymiaru sprawiedliwości a interesami innych zainteresowanych osób. Komisja powinna ponownie ocenić i dostosować progi szkód w prawie Unii. Poważną szkodę niematerialną należy rozumieć jako szkodę, w wyniku której poszkodowany doznał znacznej krzywdy, obiektywnego i dającego się udowodnić naruszenia jego osobistych interesów oraz straty ekonomicznej obliczonej z uwzględnieniem, na przykład, średnich rocznych dochodów z przeszłych dochodów i innych istotnych okoliczności. W niniejszym rozporządzeniu należy również określić kwotę i zakres odszkodowania, jak również okres przedawnienia, po upływie którego nie można już wnosić roszczeń z tytułu odpowiedzialności. W niniejszym rozporządzeniu należy ustanowić znacząco niższy pułap odszkodowań niż w dyrektywie w sprawie odpowiedzialności za produkty, gdyż odnosi się ono wyłącznie do szkody poniesionej przez pojedynczą osobę i wynikającej z jednostkowego działania systemu SI, natomiast dyrektywa odnosi się do szeregu produktów lub nawet całej linii produktów z tą samą wadą.

(17) Wszelkie fizyczne bądź wirtualne działania, urządzenia czy procesy sterowane systemem SI, które nie zostały wymienione jako obarczone wysokim ryzykiem w załączniku do niniejszego rozporządzenia, powinny być nadal objęte odpowiedzialnością na zasadzie winy, chyba że w mocy są surowsze przepisy krajowe i prawodawstwo w zakresie ochrony konsumentów. Prawo krajowe państw członkowskich, w tym wszelkie odnośne orzecznictwo, odnoszące się do kwoty i zakresu odszkodowania, jak również do okresu przedawnienia powinno mieć nadal zastosowanie. Osoba poszkodowana w wyniku działania systemu SI, który nie został wymieniony jako obarczony wysokim ryzykiem, powinna korzystać z domniemania winy operatora.

(18) Staranność, której można oczekiwać od operatora, powinna być współmierna do (i) charakteru systemu SI; (ii) chronionego prawem uprawnienia, które może zostać naruszone; (iii) potencjalnej szkody, jaką mógłby spowodować system SI, oraz (iv) prawdopodobieństwa wystąpienia takiej szkody. Należy przy tym wziąć pod uwagę, że operator może mieć ograniczoną wiedzę na temat algorytmów i danych wykorzystywanych w systemie SI. Należy założyć, że zgodnie z rozsądnymi oczekiwaniami operator dołożył należytej staranności, wybierając odpowiedni system SI, jeżeli wybrał system SI, dla którego uzyskano certyfikat w systemie podobnym do systemu dobrowolnej certyfikacji przewidzianego przez Komisję[18]. Należy założyć, że zgodnie z rozsądnymi oczekiwaniami operator dochował należytej staranności podczas wykorzystywania systemu SI, jeżeli może dowieść, że rzeczywiście i regularnie monitorował system SI w trakcie jego działania i powiadomił jego wytwórcę o potencjalnych nieprawidłowościach podczas działania systemu. Należy założyć, że zgodnie z rozsądnymi oczekiwaniami operator dołożył należytej staranności w odniesieniu do utrzymania niezawodności operacyjnej systemu, jeżeli zainstalował wszelkie dostępne aktualizacje przekazane przez producenta systemu SI. Ponieważ poziom złożoności operatorów może się różnić w zależności od tego, czy są oni jedynie konsumentami czy specjalistami, należy odpowiednio dostosować obowiązki w zakresie staranności.

(19) Aby umożliwić operatorowi udowodnienie, że nie ponosi winy za nieprawidłowości, lub osobie poszkodowanej udowodnienie istnienia nieprawidłowości, producenci powinni być zobowiązani do współpracy z obiema zainteresowanymi stronami, w tym do udzielania dobrze udokumentowanych informacji. Zarówno producenci z siedzibą w Unii, jak i poza nią powinni mieć ponadto obowiązek wyznaczenia przedstawiciela ds. odpowiedzialności w zakresie sztucznej inteligencji na terenie UE jako punktu kontaktowego, który będzie odpowiadał na wszelkie pytania operatorów, podobnie jak inspektor ochrony danych, o którym mowa w art. rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679[19], przedstawiciel producenta, o którym mowa w art. 3 ust. 41 i art. 13 ust. 4 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2018/858[20], czy upoważniony przedstawiciel, o którym mowa w art. 4 ust. 2 i art. 5 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2019/1020[21].

(20) Prawodawca musi rozważyć ryzyko odpowiedzialności związanej z systemami sztucznej inteligencji w całym cyklu ich życia, od ich opracowania przez wykorzystanie do końca ich użytkowania, w tym zarządzania odpadami i recyklingiem. Wykorzystanie systemów SI w produkcie lub usłudze pociąga za sobą ryzyko finansowe dla przedsiębiorstw i w konsekwencji będzie mieć poważny wpływ na możliwości i wybory MŚP i przedsiębiorstw typu start-up w odniesieniu do ubezpieczania i finansowania swoich projektów badawczych i rozwojowych opierających się na nowych technologiach. Dlatego celem odpowiedzialności nie jest jedynie zadbanie o możliwość korzystania z istotnych praw chronionych prawem, ale również ustalenie, czy przedsiębiorstwa – przede wszystkim MŚP i przedsiębiorstwa typu start-up – są w stanie zgromadzić odpowiedni kapitał, pójść w stronę innowacji, prowadzić badania, a ostatecznie oferować nowe produkty i usługi, jak również czy klienci chcą z nich korzystać pomimo potencjalnych zagrożeń i narażenia się na ewentualne roszczenia w związku z takimi produktami lub usługami.

(21) Ubezpieczenie może być pomocne w zagwarantowaniu, by ofiary otrzymywały skuteczne odszkodowanie i by łączyć ryzyko wszystkich ubezpieczonych. Jednym z czynników, na których firmy ubezpieczeniowe opierają swoją ofertę produktów i usług ubezpieczeniowych, jest ocena ryzyka oparta na dostępie do dostatecznie obszernych danych historycznych w zakresie roszczeń. Brak dostępu do danych wysokiej jakości lub ich niewystarczająca ilość może być powodem początkowych trudności w tworzeniu produktów ubezpieczeniowych dla nowych, rozwijających się dopiero technologii. Jednak większy dostęp do danych wytwarzanych przy użyciu nowych technologii i zoptymalizowanie ich wykorzystania w połączeniu z obowiązkiem dostarczania dobrze udokumentowanych informacji poprawiłyby możliwości ubezpieczycieli w zakresie tworzenia modeli opartych na nowych zagrożeniach oraz tworzenia bardziej innowacyjnych polis ubezpieczeniowych.

(22) Biorąc pod uwagę brak historycznych danych dotyczących roszczeń, należy zbadać, w jaki sposób i na jakich warunkach można ubezpieczać odpowiedzialność w celu powiązania ubezpieczenia z produktem, a nie z osobą odpowiedzialną. Istnieją już produkty ubezpieczeniowe, które są tworzone dla poszczególnych obszarów i w ramach różnych polis w miarę rozwoju technologii. Wielu ubezpieczycieli specjalizuje się w pewnych segmentach rynku (np. MŚP) lub w sprzedaży polis dla pewnego typu produktów (np. sprzęt elektryczny), co oznacza, że zazwyczaj ubezpieczony będzie w stanie znaleźć odpowiadający mu produkt ubezpieczeniowy. Trudno jest jednak wyobrazić sobie rozwiązanie uniwersalne, a rynek ubezpieczeniowy będzie potrzebował czasu na dostosowanie się. Komisja powinna ściśle współpracować z rynkiem ubezpieczeniowym w celu stworzenia innowacyjnych produktów ubezpieczeniowych, które mogłyby zlikwidować lukę ubezpieczeniową. W wyjątkowych przypadkach, takich jak wydarzenia wiążące się z powstaniem szkód zbiorowych, w których odszkodowanie znacznie przewyższa kwoty maksymalne ustalone w niniejszym rozporządzeniu, należy zachęcać państwa członkowskie do utworzenia na ograniczony czas specjalnego funduszu odszkodowawczego, który pozwoli zająć się konkretnymi potrzebami w takich przypadkach. Można by również utworzyć specjalne fundusze kompensacyjne w celu pokrycia tych wyjątkowych przypadków, w których system SI, który nie jest jeszcze sklasyfikowany jako system SI obarczony wysokim ryzykiem i w związku z tym nie jest jeszcze ubezpieczony, powoduje szkodę. Aby zagwarantować pewność prawa i wywiązać się z obowiązku informowania wszystkich potencjalnie poszkodowanych, istnienie specjalnego funduszu kompensacyjnego oraz warunki korzystania z niego należy podać do wiadomości publicznej w jasny i kompleksowy sposób.

(23) Jest niezwykle istotne, by wszelkie dalsze zmiany w niniejszym rozporządzeniu były zbieżne z koniecznym przeglądem dyrektywy w sprawie odpowiedzialności za produkty z myślą o dokonaniu kompleksowego i spójnego przeglądu oraz o zagwarantowaniu praw i obowiązków wszystkich zainteresowanych stron w całym łańcuchu odpowiedzialności. Wprowadzenie nowego systemu odpowiedzialności operatora systemów SI wymaga ścisłej koordynacji przepisów niniejszego rozporządzenia i przeglądu dyrektywy w sprawie odpowiedzialności za produkty pod względem treści i podejścia, tak by mogły one wspólnie stanowić spójne ramy odpowiedzialności za systemy SI – ramy, które równoważą interesy producenta, operatora, konsumenta i poszkodowanego w odniesieniu do ryzyka bycia pociągniętym do odpowiedzialności i stosownych form odszkodowania. Konieczne jest zatem dostosowanie i uproszczenie definicji systemu SI, operatora front-end, operatora back-end, producenta, wadliwego działania, produktu i usługi we wszystkich aktach prawnych i należy je przewidzieć równolegle.

(24) Ponieważ celem niniejszego rozporządzenia jest opracowanie przyszłościowego i jednolitego podejścia na poziomie Unii, które wyznacza wspólne europejskie normy dla europejskich obywateli i przedsiębiorstw, aby zadbać o spójny charakter praw i pewność prawa w całej Unii, aby uniknąć fragmentaryzacji jednolitego rynku cyfrowego, która położyłaby się cieniem na osiągnięciu celu utrzymania suwerenności cyfrowej, pobudzania innowacji cyfrowych w Europie i zapewnienia wysokiego poziomu ochrony obywateli i praw konsumentów, niezbędna jest pełna harmonizacja systemów odpowiedzialności za systemy SI. Państwa członkowskie nie są w stanie zrealizować tego celu w dostatecznym stopniu z uwagi na szybko postępujące zmiany technologiczne, ponadgraniczny rozwój, jak również ponadgraniczne wykorzystanie systemów SI, a ostatecznie sprzeczne podejścia legislacyjne w Unii. W związku z tym należałoby raczej skorzystać z efektu skali i zrealizować ten cel na poziomie UE. Unia może zatem przyjąć środki zgodnie z zasadą pomocniczości określoną w art. 5 Traktatu o Unii Europejskiej. Zgodnie z zasadą proporcjonalności, określoną w tym artykule, niniejsze rozporządzenie nie wykracza poza to, co jest konieczne do osiągnięcia tych celów.


PRZYJMUJĄ NINIEJSZE ROZPORZĄDZENIE:

Rozdział I

Przepisy ogólne

Artykuł 1

Przedmiot

Niniejsze rozporządzenie określa zasady wnoszenia roszczeń z tytułu odpowiedzialności cywilnej przez osoby fizyczne i prawne wobec operatorów systemów sztucznej inteligencji.

 

Artykuł 2

Zakres stosowania

 

1. Niniejsze rozporządzenie ma zastosowanie na terytorium Unii, gdzie fizyczne bądź wirtualne działanie systemu sztucznej inteligencji, działanie urządzenia wykorzystującego taki system lub fizyczny bądź wirtualny proces oparty na takim systemie pozbawia życia osoby fizyczne, powoduje uszczerbek na ich zdrowiu i okalecza je, powoduje szkody majątkowe u osób fizycznych bądź prawnych lub powoduje poważne szkody niematerialne skutkujące możliwą do zweryfikowania stratą ekonomiczną.

2. Wszelkie umowy między operatorem systemu sztucznej inteligencji a osobą fizyczną bądź prawną poszkodowaną z uwagi na działanie tego systemu, które obchodzą bądź ograniczają prawa i obowiązki przewidziane w niniejszym rozporządzeniu, zawarte przed wystąpieniem szkody lub później, są uznawane za nieważne w odniesieniu do praw i obowiązków przewidzianych w niniejszym rozporządzeniu.

3. Niniejsze rozporządzenie nie narusza prawa do dodatkowych roszczeń z tytułu odpowiedzialności, wynikających ze stosunków umownych oraz regulacji dotyczących odpowiedzialności za produkt, ochrony konsumentów, niedyskryminacji, ochrony pracy i środowiska między operatorem a osobą fizyczną lub prawną poszkodowaną w wyniku działania systemu sztucznej inteligencji, które to roszczenia mogą zostać zgłoszone wobec operatora na mocy prawa unijnego lub krajowego.

 

Artykuł 3

Definicje

Do celów niniejszego rozporządzenia stosuje się następujące definicje:

a) „system sztucznej inteligencji” oznacza system, który opiera się na oprogramowaniu albo jest wbudowany w urządzenia, wykazuje się zachowaniem symulującym inteligencję m.in. w oparciu o gromadzenie i przetwarzanie danych, analizowanie i wyciąganie wniosków dotyczących otoczenia oraz podejmuje działania w pewnym stopniu autonomicznie, aby osiągnąć konkretne cele;

b) „autonomiczny” oznacza system sztucznej inteligencji, który działa na podstawie interpretacji określonych danych wejściowych i wykorzystuje zestaw wcześniej zdefiniowanych instrukcji, lecz nie jest do tych instrukcji ograniczony, mimo że zachowanie systemu jest ograniczone celem, który mu postawiono, ukierunkowane na jego osiągnięcie i uwarunkowane innymi odnośnymi wyborami twórcy systemu;

c) „wysokie ryzyko” oznacza znaczącą potencjalną możliwość wyrządzenia przez autonomicznie działający system sztucznej inteligencji losowo występujących szkód jednej osobie lub większej liczbie osób w taki sposób, że wykracza to poza okoliczności, jakich można by racjonalnie oczekiwać; znaczenie tego potencjału zależy od wzajemnego powiązania między powagą ewentualnej szkody, stopniem autonomiczności w podejmowaniu decyzji, prawdopodobieństwem, że zagrożenie rzeczywiście wystąpi, oraz sposobem i kontekstem użycia systemu sztucznej inteligencji;

d) „operator” oznacza zarówno operatora front-end, jak i operatora back-end, o ile odpowiedzialność tego drugiego nie jest już objęta dyrektywą 85/374/EWG;

e) „operator front-end” oznacza osobę fizyczną lub prawną, która do pewnego stopnia kontroluje ryzyko związane z działaniem systemu sztucznej inteligencji i czerpie korzyści z jego działania;

f) „operator back-end” oznacza osobę fizyczną lub prawną, która w sposób ciągły określa cechy technologii, dostarcza dane i podstawowe usługi wsparcia, a zatem też sprawuje pewną kontrolę nad ryzykiem związanym z działaniem systemu SI;

g) „kontrola” oznacza każde działanie operatora, które wpływa na działanie systemu sztucznej inteligencji, a tym samym na zakres, w jakim operator naraża osoby trzecie na potencjalne ryzyko związane z działaniem systemu sztucznej inteligencji; takie działania mogą wpływać na funkcjonowanie na dowolnym etapie poprzez określanie danych wejściowych, wyjściowych lub wyników albo zmieniać konkretne funkcje czy procesy w systemie sztucznej inteligencji; stopień, w jakim są determinowane te aspekty funkcjonowania systemu sztucznej inteligencji, zależy od poziomu wpływu operatora na ryzyko związane z działaniem systemu sztucznej inteligencji;

h) „poszkodowany” oznacza dowolną osobę, która ucierpiała lub odniosła szkodę na skutek fizycznego lub wirtualnego działania, urządzenia lub procesu wykorzystującego system sztucznej inteligencji, a która nie jest jednocześnie operatorem;

i) „szkoda” oznacza negatywny wpływ na życie, zdrowie i nienaruszalność cielesną osoby fizycznej, na własność osoby fizycznej lub prawnej albo negatywny wpływ powodujący poważną szkodę niematerialną skutkującą możliwą do zweryfikowania stratą ekonomiczną;

j) „producent” oznacza producenta w rozumieniu art. 3 dyrektywy Rady 85/374/EWG[22].

 

Rozdział II

Systemy sztucznej inteligencji obarczone wysokim ryzykiem

Artykuł 4

Odpowiedzialność na zasadzie ryzyka dla systemów sztucznej inteligencji obarczonych wysokim ryzykiem

1. Operator systemu sztucznej inteligencji obarczonego wysokim ryzykiem odpowiada na zasadzie ryzyka za wszelkie szkody spowodowane przez fizyczne bądź wirtualne działanie, fizyczne bądź wirtualne działanie urządzenia lub fizyczny bądź wirtualny proces z wykorzystaniem systemu sztucznej inteligencji.

2. Wszystkie systemy sztucznej inteligencji obarczone wysokim ryzykiem oraz wszystkie istotne branże, w których systemy te są wykorzystywane, umieszcza się w wykazie załącznika do niniejszego rozporządzenia. Komisja jest uprawniona do przyjmowania aktów delegowanych zgodnie z art. 13, aby uaktualnić ten wyczerpujący wykaz przez:

a) uwzględnienie nowych rodzajów systemów sztucznej inteligencji obarczonych wysokim ryzykiem oraz istotnych branż, w których są one stosowane;

b) usunięcie tych rodzajów systemów sztucznej inteligencji, których nie można dłużej uważać za stwarzające poważne zagrożenia i/lub

c) zmianę listy istotnych branż, w których stosowane są obecnie systemy sztucznej inteligencji.

Akty delegowane nowelizujące załącznik wchodzą w życie sześć miesięcy po ich przyjęciu. Podczas określania nowych systemów sztucznej inteligencji obarczonych wysokim ryzykiem i/lub istotnych branż, które mają zostać dodane do wykazu załącznika w drodze aktu delegowanego, Komisja bierze pod uwagę kryteria przewidziane w niniejszym rozporządzeniu, a w szczególności w art. 3 lit. c).

3. Operatorzy systemów sztucznej inteligencji obarczonych wysokim ryzykiem nie mogą uniknąć odpowiedzialności, twierdząc, że działali z należytą starannością lub że szkodę spowodowało autonomiczne działanie, urządzenie lub proces sterowany przez należący do nich system sztucznej inteligencji. Operatorzy nie ponoszą odpowiedzialności za szkody spowodowane działaniem siły wyższej.

4. Operator front-end systemu sztucznej inteligencji obarczonego wysokim ryzykiem dopilnowuje, aby działanie systemu sztucznej inteligencji było objęte ubezpieczeniem od odpowiedzialności, które będzie adekwatne pod względem kwoty i zakresu odszkodowania przewidzianych w art. 5 i 6 niniejszego rozporządzenia. Operator back-end dopilnowuje, aby jego usługi były objęte ubezpieczeniem od odpowiedzialności za działalność lub produkt, które będzie adekwatne pod względem kwoty i zakresu odszkodowania przewidzianych w art. 5 i 6 niniejszego rozporządzenia. Jeżeli uznaje się, że obowiązkowe systemy ubezpieczeniowe operatora front-end lub operatora back-end obowiązujące już na mocy innych przepisów krajowych lub unijnych albo dobrowolne korporacyjne fundusze ubezpieczeniowe obejmują działanie systemu sztucznej inteligencji lub świadczoną usługę, obowiązek ubezpieczenia systemu sztucznej inteligencji lub świadczonej usługi zgodnie z niniejszym rozporządzeniem uznaje się za spełniony, jeżeli wspomniane istniejące obowiązkowe ubezpieczenie lub dobrowolne korporacyjne fundusze ubezpieczeniowe pokrywają kwoty i zakres odszkodowania, o których mowa w art. 5 i 6 niniejszego rozporządzenia.

5. Niniejsze rozporządzenie ma charakter nadrzędny wobec krajowych systemów odpowiedzialności w przypadku sprzecznej klasyfikacji systemów sztucznej inteligencji jako objętych odpowiedzialnością na zasadzie ryzyka.

 

Artykuł 5

Kwota odszkodowania

 

1. Operator systemu sztucznej inteligencji obarczonego wysokim ryzykiem którego – na mocy niniejszego rozporządzenia – pociągnięto do odpowiedzialności za szkody wypłaca odszkodowanie:

a)  do maksymalnej kwoty dwóch milionów euro w przypadku śmierci, uszczerbku na zdrowiu lub okaleczenia osoby w wyniku działania systemu sztucznej inteligencji obarczonego wysokim ryzykiem;

b)  do maksymalnej kwoty jednego miliona euro w przypadku poważnej szkody niematerialnej skutkującej możliwą do zweryfikowania stratą ekonomiczną lub szkody majątkowej, w tym zniszczenia kilku przedmiotów należących do poszkodowanego w wyniku pojedynczego działania jednego systemu sztucznej inteligencji obarczonego wysokim ryzykiem; jeżeli na mocy zawartej umowy poszkodowany ma również prawo do wystąpienia z roszczeniem w stosunku do operatora, zgodnie z niniejszym rozporządzeniem nie wypłaca się odszkodowania, jeżeli całkowita wartość zniszczonego mienia lub poważnej szkody niematerialnej nie przekracza [500 EUR][23].

2. W przypadku gdy łączne odszkodowanie, które ma zostać wypłacone kilku osobom poszkodowanym w wyniku tego samego działania tego samego systemu sztucznej inteligencji obarczonego wysokim ryzykiem, przekracza maksymalne kwoty całkowite przewidziane w ust. 1, kwoty wypłacane każdej z osób zostaną proporcjonalnie zmniejszone, tak by łączna kwota odszkodowania nie przekroczyła maksymalnej kwoty przewidzianej w ust. 1.

 

Artykuł 6

Zakres odszkodowania

 

1. Odszkodowanie, które ma zostać wypłacone przez operatora odpowiedzialnego za okaleczenie skutkujące śmiercią poszkodowanego, jest wyliczane – w ramach kwoty przewidzianej w art. 5 ust. 1 lit. a) – w oparciu o koszty leczenia, które poszkodowany poniósł przed śmiercią, oraz o szkody majątkowe poniesione przed śmiercią w związku z zaprzestaniem lub ograniczeniem możliwości zarobkowania lub wzrostem potrzeb w związku ze szkodami poniesionymi przed śmiercią. Pociągnięty do odpowiedzialności operator powinien poza tym zwrócić koszty pochówku poszkodowanego stronie, która poniosła te wydatki.

Jeżeli w momencie zajścia, które spowodowało szkody, a w konsekwencji doprowadziło do śmierci, poszkodowany pozostawał w związku ze stroną trzecią i był prawnie zobowiązany do jej utrzymywania, odpowiedzialny operator łoży na utrzymanie tej strony trzeciej w zakresie, w którym do ponoszenia tych kosztów byłby zobowiązany poszkodowany, przez okres odpowiadający średniej długości życia osoby w tym wieku i w podobnym stanie. Operator pokrywa również koszty utrzymania strony trzeciej, jeżeli w momencie zdarzenia została ona już poczęta, ale jeszcze się nie narodziła.

2. Odszkodowanie, które ma zostać wypłacone przez operatora odpowiedzialnego za uszczerbek na zdrowiu lub okaleczenie poszkodowanego, obejmuje – w ramach kwoty przewidzianej w art. 5 ust. 1 lit. b) – zwrot kosztów związanego ze szkodą leczenia, jak również zwrot kosztów szkód materialnych, które poszkodowany poniósł w wyniku czasowego zawieszenia, ograniczenia lub całkowitego ustania możliwości zarobkowania lub wynikającego z poniesionych szkód, potwierdzonego orzeczeniem lekarskim wzrostu potrzeb.

 

Artykuł 7

Okres przedawnienia

1. Do roszczeń z tytułu odpowiedzialności cywilnej, wniesionych zgodnie z postanowieniami art. 4 ust. 1, dotyczących śmierci, uszczerbku na zdrowiu lub kalectwa zastosowanie ma specjalny okres przedawnienia o długości 30 lat od daty powstania szkody.

2. Do roszczeń z tytułu odpowiedzialności cywilnej, wniesionych zgodnie z postanowieniami art. 4 ust. 1, dotyczących szkód majątkowych lub poważnych szkód niematerialnych skutkujących możliwą do zweryfikowania stratą ekonomiczną zastosowanie ma specjalny okres przedawnienia o długości:

a)  10 lat od daty powstania szkody majątkowej lub możliwej do zweryfikowania straty ekonomicznej wynikającej z poważnej szkody niematerialnej albo

b)  30 lat od daty przeprowadzenia operacji z wykorzystaniem systemu sztucznej inteligencji obarczonego wysokim ryzykiem, która doprowadziła do zniszczenia własności poszkodowanego lub do poważnej szkody niematerialnej.

Spośród okresów przedawnienia, o których mowa w ust. 1, zastosowanie ma ten, który kończy się jako pierwszy.

3. Niniejszy artykuł nie narusza postanowień prawa krajowego w odniesieniu do zawieszenia lub przerwania okresu przedawnienia.

 

Rozdział III

Inne systemy sztucznej inteligencji

Artykuł 8

Odpowiedzialność na zasadzie winy za inne systemy sztucznej inteligencji

1. Operator systemu sztucznej inteligencji, który nie jest systemem obarczonym wysokim ryzykiem na podstawie art. 3 lit. c) i art. 4 ust. 2 i w konsekwencji nie został umieszczony w wykazie załącznika do niniejszego rozporządzenia, może być pociągnięty do odpowiedzialności na zasadzie winy za wszelkie szkody spowodowane przez fizyczne bądź wirtualne działanie tego systemu sztucznej inteligencji, działanie urządzenia sterowanego tym systemem lub wskutek procesu opartego na tym systemie.

2. Operator nie ponosi odpowiedzialności, jeżeli może dowieść, że szkody powstały nie z jego winy, przy czym może skorzystać z następujących uzasadnień:

a) system sztucznej inteligencji został uruchomiony bez jego zgody, a jednocześnie podjęto wszelkie rozsądne i niezbędne środki, by uniknąć takiego uruchomienia poza kontrolą operatora lub

b)  dochowano należytej staranności przez wykonanie wszystkich poniższych działań: dobierając odpowiedni system sztucznej inteligencji do danego zadania i umiejętności, uruchamiając go odpowiednio, nadzorując działanie i utrzymując go w dobrym stanie poprzez regularną instalację dostępnych aktualizacji.

Operator nie może uniknąć odpowiedzialności, stwierdzając, że szkoda została spowodowana autonomicznym działaniem systemu sztucznej inteligencji, autonomicznym działaniem urządzenia sterowanego takim systemem lub wskutek procesu opartego na takim systemie. Operator nie odpowiada za szkody spowodowane działaniem siły wyższej.

3. Operator odpowiada mimo wszystko za wypłatę odszkodowania, jeżeli szkoda została spowodowana przez stronę trzecią, która zaingerowała w działanie systemu sztucznej inteligencji przez modyfikację jego funkcjonowania lub skutków, ale nie można ustalić miejsca jej pobytu lub jest ona niewypłacalna.

4. Na wniosek operatora lub poszkodowanego producent systemu sztucznej inteligencji ma obowiązek współpracować z nimi i udzielać im informacji w zakresie uzasadnionym powagą roszczenia, aby umożliwić określenie odpowiedzialności.

 

Artykuł 9

Przepisy krajowe w zakresie odszkodowań i okresu przedawnienia

 

Pod względem okresu przedawnienia, jak również kwot i zakresu odszkodowania roszczenia z tytułu odpowiedzialności cywilnej wniesione na mocy postanowień art. 8 ust. 1 są regulowane przepisami państwa członkowskiego, w którym powstała szkoda.

 

Rozdział IV

Podział odpowiedzialności

Artykuł 10

Zaniedbanie wspólne

1. Jeżeli szkoda powstała zarówno przez fizyczne bądź wirtualne działanie systemu sztucznej inteligencji, działanie urządzenia sterowanego takim systemem lub wskutek procesu opartego na takim systemie i wskutek działań podjętych przez poszkodowanego lub dowolną osobę, za której działania poszkodowany odpowiada, na mocy niniejszego rozporządzenia należy odpowiednio zmniejszyć zakres odpowiedzialności operatora. Operator nie ponosi odpowiedzialności, jeżeli za powstałą szkodę odpowiada wyłącznie poszkodowany lub osoba, za którą on odpowiada.

2. Pociągnięty do odpowiedzialności operator może korzystać z danych wygenerowanych przez system sztucznej inteligencji, by udowodnić, że poszkodowany również ponosi odpowiedzialność zgodnie z rozporządzeniem (UE) 2016/679 i innymi właściwymi przepisami dotyczącymi ochrony danych. Poszkodowany również może korzystać z takich danych w celu udowodnienia lub sprecyzowania roszczenia o odszkodowanie.

 

Artykuł 11

Odpowiedzialność solidarna

Jeżeli system sztucznej inteligencji był obsługiwany przez kilku operatorów, odpowiadają oni solidarnie. Jeżeli operator front-end jest również producentem systemu sztucznej inteligencji, niniejsze rozporządzenie ma charakter nadrzędny wobec dyrektywy w sprawie odpowiedzialności za produkty. Jeżeli operatora back-end można również uznać za producenta zgodnie z definicją zawartą w art. 3 dyrektywy w sprawie odpowiedzialności za produkty, dyrektywa ta powinna mieć do niego zastosowanie. Jeżeli jedyny operator jest również producentem systemu sztucznej inteligencji, niniejsze rozporządzenie ma charakter nadrzędny wobec dyrektywy w sprawie odpowiedzialności za produkty.

 

Artykuł 12

Regres

1. Operatorowi nie przysługuje prawo do regresu, chyba że poszkodowany otrzymał pełną kwotę odszkodowania, jakie przysługuje mu na mocy niniejszego rozporządzenia.

2. W przypadku gdy operator ponosi wobec poszkodowanego odpowiedzialność solidarnie z innymi operatorami i – na mocy art. 4 ust. 1 lub art. 8 ust. 1 – wypłacił poszkodowanemu pełne odszkodowanie, ma prawo odzyskać od pozostałych operatorów przypadającą na nich część odszkodowania.

Proporcje odpowiedzialności zależą od stopnia kontroli poszczególnych operatorów nad ryzykiem związanym z działaniem systemu sztucznej inteligencji. Jeżeli od odpowiedzialnego solidarnie operatora nie można uzyskać jego części odszkodowania wynikającego z odpowiedzialności solidarnej, kwotę tę pokrywają pozostali operatorzy. Odpowiedzialny solidarnie operator, który wypłaci odszkodowanie poszkodowanemu i zażąda dostosowania płatności zaliczkowych od pozostałych odpowiedzialnych operatorów, wstępuje na zasadzie subrogacji w prawa poszkodowanego do roszczeń z tytułu odszkodowania wobec pozostałych operatorów. Regres nie zachodzi ze szkodą dla pierwotnego roszczenia.

3. W przypadku gdy operator wadliwego systemu sztucznej inteligencji w pełni zrekompensuje poszkodowanemu szkody – zgodnie z postanowieniami art. 4 ust. 1 lub art. 8 ust. 1 – może skorzystać z prawa do dochodzenia odszkodowania od producenta wadliwego systemu sztucznej inteligencji zgodnie z postanowieniami dyrektywy 85/374/EWG oraz przepisami krajowymi dotyczącymi odpowiedzialności za wadliwe produkty.

4. W przypadku gdy ubezpieczyciel operatora zrekompensuje poszkodowanemu szkody zgodnie z postanowieniami art. 4 ust. 1 lub art. 8 ust. 1, ubezpieczyciel operatora korzysta z prawa regresu wobec innej osoby za te same szkody, w kwocie odszkodowania wypłaconego poszkodowanemu przez tego ubezpieczyciela.

 

Rozdział V

Przepisy końcowe

Artykuł 13

Wykonywanie przekazanych uprawnień

1. Powierzenie Komisji uprawnień do przyjęcia aktów delegowanych podlega warunkom określonym w niniejszym artykule.

2. Uprawnienia do przyjęcia aktów delegowanych, o których mowa w art. 4 ust. 2, powierza się Komisji na okres pięciu lat od dnia [data rozpoczęcia stosowania niniejszego rozporządzenia] r.

3. Przekazanie uprawnienia, o którym mowa w art. 4 ust. 2, może zostać w dowolnym momencie odwołane przez Parlament Europejski lub Radę. Decyzja o odwołaniu kończy przekazanie określonych w niej uprawnień. Decyzja o odwołaniu staje się skuteczna od następnego dnia po jej opublikowaniu w Dzienniku Urzędowym Unii Europejskiej lub w określonym w tej decyzji późniejszym terminie. Nie wpływa ona na ważność już obowiązujących aktów delegowanych.

4. Przed przyjęciem aktu delegowanego Komisja konsultuje się ze stałym Komitetem Technicznym ds. Obarczonych Wysokim Ryzykiem Systemów Sztucznej Inteligencji zgodnie z zasadami określonymi w Porozumieniu międzyinstytucjonalnym z dnia 13 kwietnia 2016 r. w sprawie lepszego stanowienia prawa.

5. Niezwłocznie po przyjęciu aktu delegowanego Komisja przekazuje go równocześnie Parlamentowi Europejskiemu i Radzie.

6. Akt delegowany przyjęty na podstawie art. 4 ust. 2 wchodzi w życie tylko wtedy, kiedy Parlament Europejski albo Rada nie wyraziły sprzeciwu w terminie dwóch miesięcy od przekazania tego aktu Parlamentowi Europejskiemu i Radzie lub kiedy przed upływem tego terminu zarówno Parlament Europejski, jak i Rada poinformowały Komisję, że nie wniosą sprzeciwu. Termin ten przedłuża się o dwa miesiące z inicjatywy Parlamentu Europejskiego lub Rady.

 

Artykuł 14

Przegląd

Do dnia 1 stycznia 202X r. [3 lata od daty rozpoczęcia stosowania niniejszego rozporządzenia], a następnie co trzy lata Komisja przedkłada Parlamentowi Europejskiemu, Radzie i Europejskiemu Komitetowi Ekonomiczno-Społecznemu szczegółowe sprawozdanie z przeglądu niniejszego rozporządzenia w świetle dalszego rozwoju sztucznej inteligencji.

Przygotowując sprawozdanie, o którym mowa w akapicie pierwszym, Komisja zwraca się do państw członkowskich o przekazanie odnośnych informacji związanych z orzecznictwem, ugodami sądowymi, jak również statystykami wypadkowymi, takimi jak liczba wypadków, wyrządzone szkody, zaangażowane systemy sztucznej inteligencji, odszkodowania wypłacone przez firmy ubezpieczeniowe, a także ocena liczby roszczeń wniesionych przez poszkodowanych działających indywidualnie lub zbiorowo oraz opóźnień w ich rozpatrywaniu w sądzie.

W stosownych przypadkach Komisja dołącza do sprawozdania wnioski ustawodawcze, których celem jest wyeliminowanie luk wskazanych w sprawozdaniu.

Artykuł 15

Wejście w życie

Niniejsze rozporządzenie wchodzi w życie dwudziestego dnia po jego opublikowaniu w Dzienniku Urzędowym Unii Europejskiej.

Niniejsze rozporządzenie stosuje się od dnia 1 stycznia 202X r.

 

 

Niniejsze rozporządzenie wiąże w całości i jest bezpośrednio stosowane we wszystkich państwach członkowskich.


ZAŁĄCZNIK

 


 

UZASADNIENIE

Pojęcie „odpowiedzialności” odgrywa istotną, ale i dwojaką rolę w naszym życiu codziennym, gdyż – z jednej strony – gwarantuje osobie, która ucierpiała lub poniosła szkody, prawo do wystąpienia z roszczeniem o odszkodowanie od strony, której udowodniono, że ponosi odpowiedzialność za te cierpienia lub szkody, zaś – z drugiej strony – stanowi zachętę ekonomiczną, by przede wszystkim unikać wyrządzania szkód. We wszelkich przyszłościowych przepisach o odpowiedzialności należy zatem dążyć do równowagi między skuteczną ochroną ofiar potencjalnych szkód a jednoczesnym dawaniem wystarczającego pola do manewru, by umożliwić rozwój nowych technologii, produktów i usług.

 

Szczególnie na początkowych etapach cyklu życia nowych produktów i usług ich użycie wiąże się dla użytkownika i osób postronnych z pewnym poziomem ryzyka, że coś nie zadziała prawidłowo. Taki proces prób i błędów jest jednak również kluczowym czynnikiem przyczyniającym się do postępu technicznego, bez którego większość towarzyszących nam technologii nie ujrzałaby światła dziennego. Dotychczas surowe europejskie przepisy w zakresie bezpieczeństwa produktów i zasady odpowiedzialności były w stanie bardzo skutecznie radzić sobie z potencjalnie wyższym ryzykiem związanym z nowymi technologiami. W oczach wielu osób rozwój sztucznej inteligencji kładzie się cieniem na tej pewności. Brak przejrzystości czy innymi słowy syndrom czarnej skrzynki jest cechą charakterystyczną tej technologii. W wykorzystaniu systemów sztucznej inteligencji – z ich zdolnością do łączenia się z innymi systemami, uzależnieniem od danych zewnętrznych, szczególną podatnością na naruszenia cyberbezpieczeństwa i charakterystyczną autonomią – wskazanie osoby, która kontrolowała system, czy określenie, który kod czy które dane wejściowe ostatecznie spowodowały szkodliwe działanie, może okazać się bardzo drogie lub wręcz niemożliwe. W konsekwencji poszkodowany może mieć trudności z uzyskaniem odszkodowania.

 

Choć systemy sztucznej inteligencji rzeczywiście pociągają za sobą nowe wyzwania prawne dla obowiązujących systemów odpowiedzialności co do zasady w wielu przypadkach nie są one odmienne od innych technologii, które czasem opierają się na nawet bardziej złożonym oprogramowaniu. Nowoczesne systemy sztucznej inteligencji opierają się raczej na prostym funkcjonowaniu i nijak się mają do świadomych robotów, które znamy z filmów science fiction. Dlatego wszelkie dyskusje na temat osobowości prawnej systemów sztucznej inteligencji nie mają już racji bytu. Wybór rozsądnego podejścia do wyzwań prawnych związanych z nowymi systemami sztucznej inteligencji oznacza, że powstrzymamy się od wprowadzania zasadniczych zmian w systemie odpowiedzialności. Jeżeli dana osoba ucierpiała w wyniku działania wadliwego systemu sztucznej inteligencji, dyrektywa w sprawie odpowiedzialności za produkty powinna pozostać środkiem prawnym służącym wnoszeniu roszczeń o odszkodowanie od producenta. Jeżeli szkoda wynikała z działania strony trzeciej ingerującej w działanie systemu, system odpowiedzialności na zasadzie win, obowiązujący w państwach członkowskich zapewnia (w większości przypadków) wystarczający poziom ochrony. Zgodnie z obowiązującą w Unii Europejskiej zasadą lepszego stanowienia prawa wszelkie konieczne dostosowania legislacyjne odnoszące się do producentów i stron trzecich ingerujących w działanie systemu należy przedyskutować w kontekście odnośnych ram prawnych.

 

Przy czym w niniejszym sprawozdaniu zwrócono uwagę na jeden istotny problem związany ze skutecznością obowiązujących systemów odpowiedzialności, a mianowicie na lukę prawną w odniesieniu do odpowiedzialności podmiotów wdrażających systemy sztucznej inteligencji. Choć podmioty te decydują o wykorzystaniu systemów sztucznej inteligencji, w głównej mierze kontrolują ryzyko związane z wykorzystaniem tych systemów oraz korzystają z ich działania, wiele roszczeń wobec nich nie zostanie uwieńczonych sukcesem, ponieważ poszkodowany nie będzie w stanie dowieść winy podmiotu wdrażającego. Szczególnie w przypadkach, w których szkoda jest spowodowana działaniem systemu sztucznej inteligencji w przestrzeni publicznej, potencjalnie bardzo liczna grupa poszkodowanych nie będzie zazwyczaj pozostawać w żadnym stosunku umownym z podmiotem wdrażającym, co sprawi że nie będą oni mieć żadnych szans na odszkodowanie za powstałą szkodę. Sprawozdawca proponuje dwa różne podejścia do zniwelowania tej luki prawnej zależnie od poziomu ryzyka, z którym wiąże się wykorzystanie systemu sztucznej inteligencji:

 

(1) Systemy sztucznej inteligencji obarczone wysokim ryzykiem: Podmiot wdrażający taki system jest w dość podobnej sytuacji do sytuacji właściciela samochodu czy zwierzęcia domowego. Ma on kontrolę nad elementem, który stanowi poważne zagrożenie dla społeczeństwa, przy czym zagrożenie ma charakter losowy i nie sposób go wcześniej przewidzieć. W konsekwencji podmiot wdrażający – jak właściciel samochodu czy zwierzęcia domowego – powinien być objęty systemem odpowiedzialności na zasadzie ryzyka i wypłacić ofierze odszkodowanie w pewnym zakresie i do pewnej wysokości za wszelkie naruszenie istotnych prawnie chronionych praw poszkodowanego (życie, zdrowie, nienaruszalność cielesna, majątek). Niniejsze sprawozdanie określa kryteria, na podstawie których systemy sztucznej inteligencji mogą zostać uznane za systemy obarczone wysokim ryzykiem, a co za tym idzie znaleźć się w wyczerpującym wykazie ZAŁĄCZNIKA. Biorąc pod uwagę szybki rozwój technologii i rynku, jak również wiedzę techniczną, wymaganą, by adekwatnie przeanalizować system sztucznej inteligencji, należy dać Komisji Europejskiej uprawnienia do aktualizowania ZAŁĄCZNIKA w drodze aktów delegowanych. Nowo utworzony komitet stały, w którym będą zasiadać eksperci krajowi i zainteresowane podmioty, winien wspierać Komisje w analizie systemów sztucznej inteligencji obarczonych potencjalnie wysokim ryzykiem.

 

(2) Wszystkie pozostałe systemy sztucznej inteligencji: Osoba, która poniosła szkody w związku z działaniem systemu sztucznej inteligencji, który nie został umieszczony na wykazie załącznika, powinna mimo wszystko móc skorzystać z domniemania winy podmiotu wdrażającego. Prawo krajowe regulujące kwotę i zakres odszkodowania, jak również okres przedawnienia w odniesieniu do szkód spowodowanych przez systemy sztucznej inteligencji pozostaje w mocy.

 

Wszelkie wnioski legislacyjne muszą opierać się na dogłębnej analizie obowiązujących aktów prawnych, by uniknąć powielania lub stanowienia sprzecznych przepisów. W oparciu o tę zasadę niniejsze sprawozdanie odnosi się jedynie do utraty życia, uszczerbku na zdrowiu, kalectwa i szkód majątkowych. Choć systemy sztucznej inteligencji mogą niewątpliwie poważnie godzić w prawa i inne istotne, prawnie chronione interesy osób fizycznych i prawnych, naruszeniami tymi można zająć się znacznie lepiej na gruncie obowiązujących już, odpowiednio dostosowanych przepisów prawa w tych obszarach (np. przepisy antydyskryminacyjne czy prawo ochrony konsumenta). Z tego samego powodu sprawozdawca nie bierze pod uwagę wykorzystania danych biometrycznych czy technologii rozpoznawania twarzy przez systemy sztucznej inteligencji; każde nieuprawnione użycie danych w tym obszarze zostało już ujęte w odpowiednich przepisach o ochronie danych, takich jak RODO. Zdaniem sprawozdawcy, jeżeli chodzi o sprzeczności w krajowych systemach odpowiedzialności, które miałyby odpowiedzieć na pytanie, czy system sztucznej inteligencji jest objęty odpowiedzialnością na zasadzie ryzyka czy też, czy postanowienia umowne ograniczają odpowiedzialność, charakter nadrzędny mają zawsze postanowienia niniejszego rozporządzenia. Celem sprawozdania jest ponadto uzyskanie pełnego odszkodowania dla poszkodowanego od podmiotu wdrażającego, zanim podmioty niebędące poszkodowanym będą mogły wystąpić z ewentualnymi roszczeniami wobec producenta. W celu zagwarantowania pewności prawnej w całej Unii Europejskiej podmiotu kontrolującego system – który nie mieści się w zakresie niniejszego rozporządzenia – powinny dotyczyć te same zasady odpowiedzialności, które mają zastosowanie do producenta, wytwórcy, czy podmiotu opracowującego;

 

Ponieważ Unia Europejska i jej państwa członkowskie nie wymagają radykalnych zmian w obowiązujących przepisach o odpowiedzialności, systemy sztucznej inteligencji również nie powinny odsuwać nas od tradycyjnych systemów ubezpieczeniowych. Mechanizmy odszkodowawcze finansowane ze środków publicznych nie są adekwatną odpowiedzią na rozwój sztucznej inteligencji. Takie systemy odszkodowawcze stwarzają niepotrzebne obciążenia finansowe dla podatników. Niezależnie od braku dostępu do wysokiej jakości danych na temat wcześniejszych roszczeń w związku z zastosowaniem systemów sztucznej inteligencji, wraz z dalszym rozwojem technologii europejscy ubezpieczyciele tworzą już nowe produkty dla każdego obszaru. Jeżeli pojawi się potrzeba nowej polisy, rynek ubezpieczeniowy stworzy odpowiednie rozwiązanie. Zwrócenie się w kierunku hipotetycznych scenariuszy, które są wykorzystywane, by lobbować za dodatkowymi systemami finansowanymi ze środków publicznych, byłoby niewłaściwe. Jeżeli pewnego dnia nastąpi wydarzenie prowadzące do masowych szkód, takie jak szeroko zakrojony atak terrorystyczny, państwa członkowskie mogłyby ustanowić specjalny fundusz odszkodowawczy na ograniczony okres, tak jak miało to miejsce w przeszłości. Dlatego niniejsze sprawozdanie wymaga zawierania odpowiednich umów ubezpieczeniowych (porównywalnych z obowiązkiem przewidzianym w dyrektywie w sprawie ubezpieczenia od odpowiedzialności cywilnej za szkody powstałe w związku z ruchem pojazdów mechanicznych), pozwalających na pokrycie odszkodowań w wysokości i zakresie, które określono w niniejszym rozporządzeniu, wyłącznie od podmiotów wdrażających systemy sztucznej inteligencji, obarczone wysokim ryzykiem. Sprawozdawca wyraża stanowcze przekonanie, że rynek ubezpieczeniowy albo dostosuje istniejące polisy ubezpieczeniowe, albo stworzy różnorakie, nowe produkty, z których każdy będzie dotyczył różnych typów systemów sztucznej inteligencji w różnych branżach.

 

Sprawozdawca jest przekonany, że tak wąskie, acz jasne podejście do zasad odpowiedzialności podmiotu wdrażającego systemy sztucznej inteligencji pozwoli na wypracowanie właściwej równowagi między skuteczną ochroną społeczeństwa a jednoczesnym umożliwieniem wprowadzania dalszych innowacji w istniejących rozwiązaniach technologicznych. Zbyt często uwypukla się jedynie ryzyko związane ze sztuczną inteligencją. Rzeczywiście z systemów sztucznej inteligencji można by korzystać, by wyrządzać zło. Jednak czy chcemy dopuścić do tego, by negatywne przejawy wykorzystania technologii, które mają miejsce również w przypadku innych rozwiązań, od telefonów komórkowych po energię jądrową, ograniczały korzystanie ze sztucznej inteligencji? Czy chcemy zignorować wsparcie ze strony systemów sztucznej inteligencji w walce ze zmianami klimatu, w doskonaleniu systemów opieki zdrowotnej czy usprawnianiu integracji osób z niepełnosprawnością? Niniejsze sprawozdanie stanowczo zaleca skupienie się na wykorzystaniu pozytywnych aspektów systemów sztucznej inteligencji przy jednoczesnym stworzeniu odpowiednio silnych zabezpieczeń,

przy czym wszystkie przepisy dotyczące sztucznej inteligencji powinny mieć formę rozporządzenia. Ponieważ sfera cyfrowa charakteryzuje się ogromną ponadgraniczną dynamiką, nasz jednolity rynek cyfrowy musi zostać w pełni ujednolicony, by dotrzymać kroku światowej konkurencji cyfrowej.

Należy również podkreślić, że dyskusji politycznej w zakresie niniejszego rozporządzenia powinien towarzyszyć konieczny przegląd dyrektywy w sprawie odpowiedzialności za produkty. Wprowadzenie nowego systemu odpowiedzialności dla podmiotu wdrażającego systemy sztucznej inteligencji wymaga ścisłej koordynacji negocjacji tego sprawozdania i przeglądu dyrektywy w sprawie odpowiedzialności za produkty w zakresie treści, jak również podejścia, tak by mogły one łącznie stanowić spójne ramy odpowiedzialności dla systemów sztucznej inteligencji – ramy, które równoważą interesy producenta, podmiotu wdrażającego oraz poszkodowanego w odniesieniu do ryzyka odpowiedzialności. Konieczne wydaje się zatem dostosowanie i odpowiednie ukierunkowanie definicji systemu sztucznej inteligencji, podmiotu wdrażającego, producenta, podmiotu opracowującego, wadliwego działania, produktu i usługi we wszystkich wnioskach legislacyjnych.

I w końcu należy też zauważyć, że gremia polityczne powinny zdać sobie sprawę, że postęp technologiczny nie zamiera podczas negocjacji aktów prawnych. Jeżeli poważnie traktujemy nasz cel, jakim jest dotrzymanie kroku cyfryzacji, utrzymanie naszej cyfrowej suwerenności i odegranie zasadniczej roli w erze cyfrowej, instytucje europejskie muszą wystąpić z jasnym przesłaniem politycznym dla naszego odnoszącego sukcesy przemysłu i dla naszych utalentowanych badaczy pracujących nad nowymi systemami sztucznej inteligencji. Do czasu, w którym nasza inicjatywa legislacyjna w odpowiedzi na rozwój sztucznej inteligencji zostanie uchwalona, przemysł i badacze powinni być w stanie podążać drogą innowacji zgodnie z obowiązującymi przepisami i korzystać z pięcioletniego okresu przejściowego. Jeśli nie zagwarantujemy im pewności w planowaniu, wiele nowych, fascynujących technologii, produktów i usług nie stanie się udziałem Europy.


 

 

OPINIA KOMISJI RYNKU WEWNĘTRZNEGO I OCHRONY KONSUMENTÓW (7.7.2020)

<CommissionInt>dla Komisji Prawnej</CommissionInt>


<Titre>w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję</Titre>

<DocRef>(2020/2014(INL))</DocRef>

Sprawozdawczyni komisji opiniodawczej: <Depute>Svenja Hahn</Depute>

(Inicjatywa – art. 47 Regulaminu)

 

WSKAZÓWKI

Komisja Rynku Wewnętrznego i Ochrony Konsumentów zwraca się do Komisji Prawnej, jako komisji przedmiotowo właściwej

 o uwzględnienie w końcowym tekście projektu rezolucji następujących wskazówek:

A. mając na uwadze, że korzystanie z nowo pojawiających się technologii cyfrowych, takich jak sztuczna inteligencja (AI), internet rzeczy i usług czy robotyka, będzie nadal odgrywać coraz większą rolę w naszym codziennym życiu;

B. mając na uwadze, że takie nowo powstające technologie cyfrowe mogą przyczynić się do rozwoju innowacji w wielu sektorach oraz przynieść korzyści konsumentom dzięki innowacyjnym produktom i usługom, przedsiębiorstwom, w szczególności przedsiębiorstwom typu start-up, mikroprzedsiębiorstwom oraz małym i średnim przedsiębiorstwom (MŚP), dzięki optymalizacji działania i większej konkurencyjności, a także administracji publicznej poprzez ulepszone, bardziej sprzyjające włączeniu społecznemu i dostosowane do indywidualnych potrzeb usługi publiczne;

C. mając na uwadze, że stosowanie, wprowadzanie i rozwój AI i innych nowo powstających technologii cyfrowych mogą również stwarzać ryzyko i problemy w obecnych ramach odpowiedzialności za produkt, które niekoniecznie są dostosowane do takich nowych zastosowań, a tym samym mogą osłabiać zaufanie i ochronę konsumentów;

D. mając na uwadze, że bezpieczeństwo produktów i odpowiedzialność za produkt są dwoma uzupełniającymi się mechanizmami, służącymi realizacji tego samego celu polityki, jakim jest funkcjonowanie jednolitego rynku towarów i usług, oraz że w niniejszej opinii zawarto propozycje możliwych dostosowań unijnych ram odpowiedzialności w świetle rosnącego znaczenia nowo pojawiających się technologii cyfrowych;

E. mając na uwadze, że solidne mechanizmy odpowiedzialności uruchamiające proces naprawy szkody przyczyniają się do lepszej ochrony obywateli i konsumentów przed szkodą oraz budowy zaufania do nowo pojawiających się technologii cyfrowych, a jednocześnie zapewniają przedsiębiorstwom, w szczególności przedsiębiorstwom typu start-up, mikroprzedsiębiorstwom oraz małym i średnim przedsiębiorstwom (MŚP), pewność prawa i dzięki temu umożliwiają im wprowadzanie innowacji;

F. mając na uwadze, że aby wzbudzić akceptację, wynikające z AI teoretyczne korzyści powinny również skutecznie przyczyniać się do dobrobytu i rozwoju;

G. mając na uwadze, że za podstawę przyszłego europejskiego prawodawstwa należy uznać sprawozdanie Komisji dla Parlamentu Europejskiego, Rady i Europejskiego Komitetu Ekonomiczno-Społecznego na temat wpływu sztucznej inteligencji, internetu rzeczy i robotyki na bezpieczeństwo i odpowiedzialność[24] oraz białą księgę w sprawie sztucznej inteligencji pt. „Europejskie podejście do doskonałości i zaufania”[25];

1. z zadowoleniem przyjmuje przyjęty przez Komisję cel polegający na dostosowaniu unijnych ram prawnych do nowych osiągnięć technologicznych, wdrożeń i zastosowań AI oraz innych nowo powstających technologii cyfrowych, aby zapewnić w ten sposób wysoki poziom ochrony konsumentów przed szkodą wynikającą z nowych technologii opartych na sztucznej inteligencji, robotyce i technologiach pokrewnych, a jednocześnie zachować równowagę z celem zakładającym cyfryzację produktów przemysłowych i konsumpcyjnych i wspieranie innowacji technologicznych;

2. apeluje do Komisji o aktualizację istniejących ram odpowiedzialności, w szczególności dyrektywy Rady 85/374/EWG[26] (dyrektywa w sprawie odpowiedzialności za produkty), aby dostosować je do świata cyfrowego;

3. wzywa Komisję, by dokonała przeglądu dyrektywy w sprawie odpowiedzialności za produkty, podejmując wyzwania związane z nowymi technologiami cyfrowymi, takimi jak sztuczna inteligencja, internet rzeczy i robotyka, żeby w ten sposób zapewnić obywatelom i konsumentom wysoki poziom skutecznej ochrony oraz pewność prawa i uniknąć przy tym wysokich kosztów i zagrożeń dla MŚP i przedsiębiorstw typu start-up;

4. podkreśla, że wszelkie aktualizacje ram odpowiedzialności za produkt powinny iść w parze z aktualizacją dyrektywy Parlamentu Europejskiego i Rady 2001/95/WE[27] (dyrektywa w sprawie bezpieczeństwa produktów), aby mieć pewność, że w systemach AI stosuje się zasady uwzględniania bezpieczeństwa i ochrony już na etapie projektowania;

5. podkreśla, że wszelkie zmiany istniejących ram odpowiedzialności powinny mieć na celu dalszą harmonizację przepisów dotyczących odpowiedzialności i ochrony konsumentów, aby zapewnić równe warunki działania oraz uniknąć różnic w ochronie konsumentów i rozdrobnienia jednolitego rynku;

6. zwraca się do Komisji o ocenę, czy rozporządzenie w sprawie ogólnej odpowiedzialności za produkty mogłoby przyczynić się do osiągnięcia tego celu; podkreśla jednak, że należy zadbać o to, by regulacje unijne ograniczały się do jasno określonych problemów, w przypadku których istnieją wykonalne rozwiązania, i pozostawiały miejsce na dalszy rozwój technologiczny, w tym rozwój oparty na wolnym i otwartym oprogramowaniu; podkreśla, że powinno się to odbywać z pełnym poszanowaniem obowiązującego prawodawstwa, w tym dyrektywy Parlamentu Europejskiego i Rady (UE) 2019/790[28];

7. wzywa Komisję, aby zaktualizowała ramy odpowiedzialności za produkt, uwzględniając szczególne wyzwania, jakie przed przepisami dotyczącymi odpowiedzialności stawia cyfryzacja; uważa, że problemy mogą się pojawić na przykład ze względu na to, że produkty są ze sobą wzajemnie połączone, zależne od danych lub narażone na cyberryzyko;

8. podkreśla w szczególności, że koniecznie należy uwzględnić procesy zachodzące w zastosowaniach AI, które mogą nie być dobrze udokumentowane lub mogą występować autonomicznie po wprowadzeniu produktu na rynek;

9. wzywa Komisję, aby wyjaśniła definicję „produktów” zgodnie z dyrektywą w sprawie odpowiedzialności za produkty, określając, czy w zakres jej stosowania wchodzą treści cyfrowe i usługi cyfrowe, oraz rozważyła dostosowanie takich pojęć jak „producent”, „szkoda” i „wada”; podkreśla, że należy uwzględnić przy tym dorobek prawny w dziedzinie praw konsumenta, w szczególności obowiązującą dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/770[29] (dyrektywa o treściach cyfrowych) oraz dyrektywę Parlamentu Europejskiego i Rady (UE) 2019/771[30] (dyrektywa w sprawie sprzedaży towarów);

10. zaleca, by nie przyznawać AI własnej osobowości prawnej; zwraca się do Komisji, aby zbadała również, czy należy dokonać przeglądu ram odpowiedzialności za produkt w celu skutecznej ochrony poszkodowanych i wypłaty im odszkodowania w przypadku zakupu produktów w pakiecie z powiązanymi usługami, a także by uznała, że konsumenci mogą racjonalnie oczekiwać stosowania wobec produktów cyfrowych zasad uwzględniania ochrony prywatności i bezpieczeństwa już na etapie projektowania;

11. podkreśla, że internetowe platformy handlowe, działające w łańcuchu dostaw jako importerzy lub dostawcy produktów sprzedawanych przez internet, są objęte zakresem dyrektywy w sprawie odpowiedzialności za produkty i w związku z tym odpowiadają za szkodę spowodowaną wadą sprzedanych przez siebie produktów, z wyjątkiem przypadków, w których działają jako dostawca i producent został zidentyfikowany zgodnie z odpowiednimi przepisami dyrektywy w sprawie odpowiedzialności za produkty;

12. apeluje do Komisji o ocenę, w ścisłym związku z ewentualnymi odpowiednimi zmianami unijnych ram bezpieczeństwa, czy pojęcie „czasu, w którym produkt został wprowadzony do obrotu” nadaje się do zastosowania w przypadku nowo pojawiających się technologii cyfrowych, oraz czy obowiązki i odpowiedzialność producenta mogą wykraczać poza to pojęcie, z uwagi na to, że produkty oparte na AI mogą zostać zmienione lub zmodyfikowane pod kontrolą producenta po wprowadzeniu ich do obrotu, co może spowodować powstanie wady i wynikającą z niej szkodę;

13. podkreśla, że należy zadbać o sprawiedliwe i skuteczne przypisanie odpowiedzialności w łańcuchu transakcji handlowych, aby możliwe było obarczenie odpowiedzialnością w najbardziej odpowiedni sposób; podkreśla, że ze względu na złożoność, połączalność i nieprzejrzystość produktów opartych na AI i nowych technologiach konsumentom może być trudno udowodnić, jaka wada produktu spowodowała szkodę, ponieważ nie można założyć, że konsumenci posiadają wszystkie niezbędne informacje lub szczególną wiedzę techniczną;

14. podkreśla w związku z tym, jak istotne jest, aby konsumenci, którzy ponieśli szkodę lub których mienie zostało uszkodzone, mogli udowodnić, że szkodę spowodowała wada produktu, nawet jeśli w grę wchodzi oprogramowanie dostarczone przez stronę trzecią lub trudno jest wykryć przyczynę wady, na przykład gdy produkty stanowią element złożonego, wzajemnie połączonego środowiska internetu rzeczy;

15. wzywa Komisję, aby rozważyła zmianę przepisów regulujących ciężar dowodu dotyczącego szkody wynikającej z nowo powstających technologii cyfrowych w jasno określonych przypadkach i po przeprowadzeniu odpowiedniej oceny, żeby dać konsumentom, którzy ponieśli szkodę lub których mienie zostało uszkodzone, możliwość obrony przysługujących im praw i zarazem zapobiec nadużyciom i zapewnić przedsiębiorstwom pewność prawa, a także aby zagwarantować sprawiedliwość i złagodzić asymetrie wpływające na sytuację poszkodowanych stron;

16. zwraca się do Komisji, aby oceniła, czy możliwe jest nałożenie na producentów nowo powstających technologii cyfrowych obowiązku wyposażania ich produktów w środki służące do zapisu informacji o działaniu technologii, zgodnie z obowiązującymi przepisami dotyczącymi ochrony danych i zasadami ochrony tajemnicy handlowej, z uwzględnieniem m.in. prawdopodobieństwa zmaterializowania się ryzyka związanego z technologią, tego, czy taki obowiązek jest odpowiedni i proporcjonalny, oraz technicznej wykonalności i kosztów tej technologii; proponuje, aby niewywiązanie się z tego obowiązku lub odmowa udzielenia danemu konsumentowi rozsądnego dostępu do tych informacji skutkowały powstaniem wzruszalnego domniemania odpowiedzialności producenta;

17. podkreśla, że w istniejących ramach odpowiedzialności konieczne jest przyjęcie podejścia do AI opartego na ryzyku, uwzględniającego różne poziomy ryzyka dla konsumentów w konkretnych sektorach i zastosowaniach AI; podkreśla, że takie podejście, które może obejmować kilka poziomów ryzyka, powinno opierać się na jasnych kryteriach i odpowiedniej definicji wysokiego ryzyka oraz zapewniać pewność prawa;

18. ponadto uważa, że podmioty zaangażowane na różnych etapach opracowywania, wdrażania i stosowania systemów opartych na AI powinny być rozliczane proporcjonalnie do ich odpowiedzialności w ramach stosunków wewnętrznych; podkreśla jednak, że należy zagwarantować solidarną odpowiedzialność tych różnych podmiotów wobec strony, która doznała szkody lub której mienie zostało uszkodzone; sugeruje poprawę identyfikowalności produktów, na przykład za pomocą wykorzystania technologii rozproszonego rejestru, takich jak łańcuch bloków, aby łatwiej można było wskazać osoby zaangażowane na różnych etapach;

19. podkreśla, że dla zapewnienia odpowiedniego, skutecznego i sprawiedliwego przypisania odpowiedzialności w ramach mechanizmów odpowiedzialności kluczowe znaczenie mają wyjaśnialność, interpretowalność i identyfikowalność systemów AI;

20. zwraca się do Komisji, aby skrupulatnie oceniła wprowadzenie odrębnego, a jednocześnie uzupełniającego rygorystycznego reżimu odpowiedzialności za systemy AI, w których występuje wysokie ryzyko wyrządzenia szkody osobie lub osobom lub ich mieniu w sposób losowy i niemożliwy do przewidzenia, z uwzględnieniem m.in. jego prawdopodobnego wpływu na ochronę obywateli i konsumentów przed szkodą, zdolności przedsiębiorstw, zwłaszcza MŚP, do innowacji, spójności unijnych ram bezpieczeństwa i odpowiedzialności oraz zasad pomocniczości i proporcjonalności; uważa, że system ten powinien zapewniać poszkodowanym skuteczną rekompensatę za szkodę spowodowaną przez systemy wykorzystujące AI;

21. wzywa Komisję, aby zaproponowała konkretne środki, takie jak rejestr przypadków odpowiedzialności za produkt, w celu zwiększenia przejrzystości i monitorowania wadliwych produktów znajdujących się w obrocie w UE; podkreśla, że jest to niezbędne do zapewnienia wysokiego poziomu ochrony konsumentów w związku z produktami, które można nabyć, i wysokiego poziomu informacji o tych produktach.


INFORMACJE O PRZYJĘCIU
W KOMISJI OPINIODAWCZEJ

Data przyjęcia

7.7.2020

 

 

 

Wynik głosowania końcowego

+:

–:

0:

39

0

5

Posłowie obecni podczas głosowania końcowego

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Zastępcy obecni podczas głosowania końcowego

Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin

 

 


 

GŁOSOWANIE KOŃCOWE W FORMIE GŁOSOWANIA IMIENNEGO
W KOMISJI OPINIODAWCZEJ

39

+

PPE

S&D

RENEW

ID

Verts/ALE

ECR

GUE/NGL

NI

Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

Andrus Ansip, Vlad-Marius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie Yon-Courtin

Alessandra Basso

David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kim Van Sparrentak

Adam Bielan, Carlo Fidanza, Beata Mazurek

Kateřina Konečná, Anne-Sophie Pelletier

Marco Zullo

 

0

-

 

 

 

5

0

ID

ECR

Hynek Blaško, Markus Buchheit, Virginie Joron, Jean-Lin Lacapelle

Eugen Jurzyca

 

Objaśnienie używanych znaków:

+ : za

- : przeciw

0 : wstrzymało się

 

 

 

 


 

OPINIA KOMISJI TRANSPORTU I TURYSTYKI (15.7.2020)

<CommissionInt>dla Komisji Prawnej</CommissionInt>


<Titre>zawierająca zalecenia dla Komisji w sprawie systemu odpowiedzialności cywilnej za sztuczną inteligencję</Titre>

<DocRef>(2020/2014(INL))</DocRef>

Sprawozdawczyni komisji opiniodawczej: <Depute>Cláudia Monteiro de Aguiar</Depute>

(Inicjatywa – art. 47 Regulaminu)

 

WSKAZÓWKI

Komisja Transportu i Turystyki zwraca się do Komisji Prawnej, jako komisji przedmiotowo właściwej, o uwzględnienie w końcowym tekście projektu rezolucji następujących wskazówek:

 uwzględniając art. 225 Traktatu o funkcjonowaniu Unii Europejskiej,

 uwzględniając dyrektywę 85/374/EWG[31],

 uwzględniając art. 56 Regulaminu,

A. mając na uwadze, że sztuczna inteligencja („SI”) i inne powstające technologie cyfrowe mogą pozytywnie zmieniać nasze społeczeństwa i gospodarki, ale nie można całkowicie wykluczyć możliwości wystąpienia szkód, uszczerbku na zdrowiu lub utraty życia w wyniku eksploatacji takich technologii;

B. mając na uwadze, że w różnych gałęziach transportu zastosowano szereg poziomów automatyzacji i SI, a SI obejmuje stosowanie wielu rodzajów technologii, takich jak pojazdy autonomiczne, systemy bezzałogowych statków powietrznych i inteligentne rozwiązania w zakresie zarządzania ruchem;

C. mając na uwadze, że ramy odpowiedzialności cywilnej w Unii są uzupełniane krajowymi systemami odpowiedzialności, i że zarówno ramy unijne jak i odpowiednie systemy krajowe powinny odzwierciedlać złożoność pojawiających się technologii, aby zagwarantować najwyższy poziom ochrony i jednocześnie wspierać innowacje technologiczne; mając na uwadze, że Unia nie posiada zharmonizowanego systemu odpowiedzialności cywilnej za produkty oparte na SI; mając na uwadze, że zachęcanie do wprowadzania i wykorzystywania SI w UE powinno być głównym priorytetem Unii i podstawowym celem przyświecającym opracowaniu ram odpowiedzialności dotyczących produktów opartych na SI ; mając na uwadze, że według danych przyczyną do 90 % wypadków drogowych jest przynajmniej w pewnej mierze błąd ludzki; mając na uwadze, że pojazdy autonomiczne powinny podlegać ramom etycznym; mając na uwadze, że chociaż wprowadzenie takich ram może zapobiegać błędom w procesach podejmowania decyzji przez automaty i w algorytmach, konieczny jest zharmonizowany system odpowiedzialności, aby zapewnić pełną rekompensatę wszystkich szkód spowodowanych przez systemy SI;

D. mając na uwadze, że przepisy unijne i przepisy krajowe powinny zapewniać wysoki poziom bezpieczeństwa produktów i usług i solidny system zarządzania zarówno ex ante, jak i przez cały cykl życia produktu, a zarazem ułatwiać wypłacanie osobom poszkodowanym odszkodowań ex post; mając na uwadze, że rozwój technologiczny w dziedzinie SI powinien pozostać ukierunkowany na człowieka, a produkty i zastosowania wykorzystujące SI powinny sprzyjać rozwojowi człowieka i dobrej jakości życia;

1. podkreśla, że SI w pojazdach, w infrastrukturze transportowej i środkach transportu może być stosowana na różnych poziomach i ma istotny wpływ na stopień autonomii systemu, począwszy od pełnej kontroli sprawowanej przez kierowcę aż po pełną autonomię, i że w związku z tym w miarę zwiększania się stopnia autonomii systemów zautomatyzowanej jazdy następuje stopniowe przesuwanie odpowiedzialności cywilnej z kierowcy na inne strony; domaga się jasnych definicji unijnych dla wszystkich rodzajów środków transportu i infrastruktury, w których wykorzystuje się oprogramowanie oparte na SI, a także odpowiedniej klasyfikacji ryzyka w celu wsparcia mechanizmu odpowiedzialności cywilnej w wyjaśnianiu kwestii odpowiedzialności, aby zapewnić najwyższe standardy bezpieczeństwa i ochrony, i podkreśla, że bezpieczeństwo ma ogromne znaczenie w sektorze transportu i mogłoby zostać opisane jako jedna ze stron medalu, którego drugą stroną jest odpowiedzialność;

2. przypomina, że sektor transportu od dziesięcioleci integruje technologie wykorzystujące SI, w szczególności od czasu wprowadzenia automatyzacji ruchu pociągów, w tym na obszarach miejskich, gdzie w pełni zautomatyzowana autonomiczna eksploatacja zwiększyła dostępność systemu, przepustowość sieci i wydajność operacyjną;

3. podkreśla, że zautomatyzowane funkcje mogą przynieść istotne usprawnienia w zakresie bezpieczeństwa w perspektywie średnio- i długoterminowej, ale mogą także wywołać niezamierzone skutki, na przykład związane z cyberbezpieczeństwem, prywatnością danych; zauważa, że choć współistnienie różnych poziomów automatyzacji stanowi wyzwanie, SI mogłaby być również wykorzystywana do planowania łańcuchów logistycznych i kierowania nimi, a także do zwiększania wydajności, odporności, niezawodności, zrównoważoności, interoperacyjności i elastyczności oraz że ma ona ogromny potencjał dla osób z niepełnosprawnościami i osób o ograniczonej możliwości poruszania się; podkreśla potrzebę zwiększenia kontroli w ramach unijnego systemu odpowiedzialności cywilnej w odniesieniu do produktów opartych na SI, aby zapewnić bezpieczeństwo osób z niepełnosprawnościami i osób o ograniczonej możliwości poruszania się;

4. podkreśla znaczenie zdefiniowania jasnego podziału obowiązków między twórcami oprogramowania, producentami różnych komponentów, dostawcami usług i danych oraz operatorami i użytkownikami końcowymi w celu zapewnienia jak najlepszego bezpieczeństwa produktów i poszanowania praw konsumentów; zwraca uwagę na potrzebę ustalenia odpowiedniego podziału ryzyka wynikającego z nowych cyfrowych interakcji między infrastrukturą a pojazdami oraz na potrzebę zastosowania sprawiedliwego systemu odpowiedzialności w przypadku awarii oprogramowania, awarii sieci i zagrożeń związanych z wyborami programowymi, które nie są w nim obecnie odpowiednio uwzględnione;

5. podkreśla, że w przypadku zastosowań SI w sektorze transportu o szczególnym wysokim poziomie ryzyka istnieje potrzeba podejścia opartego na analizie ryzyka w zależności od poziomu automatyzacji i samouczenia się systemu; zwraca uwagę na potrzebę wprowadzenia wymogów prawnych dotyczących zastosowań SI charakteryzujących się wysokim ryzykiem; zauważa jednak, że podejście to nie powinno opierać się na wskazywaniu z góry pewnych sektorów, np. transportu, jako sektorów, w których wykorzystuje się SI o wysokim ryzyku, lecz raczej na ocenach specyficznych dla obszaru i neutralnych pod względem technologicznym; podkreśla potrzebę harmonizacji takich wymogów w całej Unii w celu zapewnienia najwyższego poziomu bezpieczeństwa produktów i minimalnego poziomu ryzyka dla użytkowników podczas eksploatacji systemów SI, oraz zwraca uwagę na podstawową rolę jaką zasada ostrożności, która jest zapisana w art. 191 TFUE, odgrywa w analizie ryzyka i zarządzaniu ryzykiem; wzywa do podjęcia adekwatnych działań służących zapewnieniu odpowiedniego podejścia do ochrony danych i radzenia sobie z zagrożeniami związanymi z hakowaniem i cyberprzestępczością;

6. zauważa, że zgodnie z obowiązującym rozporządzeniem w sprawie bezpieczeństwa produktów odpowiedzialność ponosi producent, o ile nie zostanie udowodnione inaczej, i ciężar dowodu spoczywa na producentach lub twórcach; podkreśla, że zasadę tę należy rozszerzyć na produkty oparte na SI; zaleca, aby w przypadkach. gdy udowodnione zostanie, że odpowiedzialność nie spoczywa na producencie lub twórcy, operator, który posiada wyższy stopień kontroli niż właściciel lub użytkownik faktycznego produktu lub usługi, w których stosowana jest SI, powinien być stroną uznawaną za najwłaściwszą do zarządzania ryzykiem i w związku z tym ciężar dowodu powinien przejść na operatora; zauważa, że każdy obowiązek powinien spoczywać na podmiocie, który jest najbardziej kompetentny do wyeliminowania zagrożenia; podkreśla, że zgoda konsumenta jest podstawową zasadą rozwoju usług transportowych wykorzystujących SI; wzywa Komisję do ustanowienia sposobów certyfikowania takich usług; zauważa, że ochrona obywateli Unii i unijnych przedsiębiorstw korzystających z technologii SI wymaga wyraźnego podziału odpowiedzialności między poszczególne zaangażowane strony, niezależnie od tego, czy strony mają siedzibę w Unii, czy nie (efekt eksterytorialny);

7. podkreśla potrzebę zagwarantowania co najmniej takiego samego poziomu bezpieczeństwa produktów, jak ten istniejący obecnie, również z uwzględnieniem unijnego celu „wizja zero”, aby ułatwić ofiarom wypadków dochodzenie odszkodowań, zapobiec zwiększeniu obecnych kosztów postępowania sądowego i uniknąć niepewności prawnej, zwłaszcza w przypadku przedsiębiorstw, które wprowadzają swoje produkty do obrotu w Unii i na świecie; w związku z tym podkreśla, że ofiary powinny szybko otrzymywać odszkodowanie, niezależnie od łańcucha odpowiedzialności;

8. uważa, że pomimo poziomu automatyzacji i integracji SI w systemach transportowych i pojazdach ostatecznie odpowiedzialność musi zawsze spoczywać na osobie fizycznej lub prawnej, aby zapewnić pewność prawa i jednocześnie zachęcać do inwestowania i właściwego wdrażania technologii;

9. podkreśla, że ważne jest dopilnowanie, aby kierowcy byli właściwie szkoleni i zawsze byli w pełni świadomi poziomu automatyzacji pojazdu i stopnia swojej odpowiedzialności, oraz że powinni być informowani o systemach sztucznej inteligencji ich pojazdów i ograniczeniach związanych z takimi systemami, takich jak aktywacja, dezaktywacja, awaria; ponadto systemy pokładowe powinny okresowo przypominać kierowcy, że odpowiada za monitorowanie stanu pojazdu i wyraźnie ostrzegać kierowcę o granicach systemów SI dla kierowców; podkreśla, że kierowcy nie mogą ponosić odpowiedzialności, jeżeli stwierdzono, że korzystali z tych systemów całkowicie zautomatyzowanego prowadzenia pojazdów zgodnie z prawem;

10. zauważa, że istnieje potrzeba wdrażania technologii rejestrowania zdarzeń, która będzie wykorzystywana w razie poważnych wypadków, przy pełnym poszanowaniu przepisów o ochronie danych i prywatności, oraz która umożliwi znalezienie osoby fizycznej lub prawnej ponoszącej odpowiedzialność; zwraca uwagę na kluczową rolę, jaką przechowywanie danych, dzielenie się nimi i zarządzanie nimi będzie miało dla wdrożenia SI w sektorze mobilności i podkreśla, że rejestratory nie powinny w żadnym wypadku być wykorzystywane jako stałe systemy śledzenia; wzywa do wzmożenia prac badawczo-rozwojowych z wykorzystaniem zarówno środków publicznych, jak i prywatnych, oraz do przeprowadzania większej liczby testów, aby zwiększyć bezpieczeństwo produktów i w rezultacie bezpieczeństwo ruchu drogowego, ale również aby uzyskać konkretne dane pomagające w dalszym rozwoju; zauważa, że w celu ograniczenia incydentów do minimum potrzebne są nowoczesne systemy infrastruktury bazowej i inteligentny system transportu, korzystające z aktualnych, jasnych, interpretowalnych danych;

11. wzywa do przeprowadzenia dalszej analizy konieczności dostosowania dyrektywy 2006/126/WE Parlamentu Europejskiego i Rady[32] i dyrektywy Parlamentu Europejskiego i Rady 2009/103/WE[33] z uwagi na zautomatyzowane funkcje pojazdów; ponadto wzywa Komisję do dokonania okresowej oceny europejskich ram regulacyjnych dotyczących transportu, aby zapewnić ich zdolność do reagowania na wyzwania w zakresie bezpieczeństwa i odpowiedzialności związane z integracją technologii SI; ponadto wzywa Komisję, aby zbadała możliwość objęcia unijnym prawodawstwem w zakresie bezpieczeństwa produktów wymogów dotyczących zagrożenia, jakie błędne dane stwarzają dla bezpieczeństwa;

12. podkreśla, że systemy odpowiedzialności regulujące odpowiedzialność w razie wypadku lub naruszenia przepisów drogowych muszą być starannie opracowane dla każdego poziomu automatyzacji i integracji SI oraz być przekazywane użytkownikom w jasny sposób, aby zapewnić płynne przejście od pełnej odpowiedzialności kierowcy do pełnej odpowiedzialności producenta i operatora;

13. zauważa, że stopień, w jakim systemy bezzałogowe w sieci transportowej, takie jak pojazdy zautomatyzowane i systemy bezzałogowych statków powietrznych, mogą zostać włączone do infrastruktury lądowej i przestrzeni powietrznej, zależy od wielu zmiennych sygnałów i warunków oraz wszelkich zagrożeń lub przeszkód, które mogą napotkać; zauważa, że w związku ze wzrostem wykorzystania tego rodzaju systemów, zwłaszcza na obszarach miejskich, istniejący system odpowiedzialności cywilnej będzie nieustannie poddawany próbie, dlatego wzywa do regularnego aktualizowania map cyfrowych, systemów zarządzania ruchem i zasad wymiany danych zawierających obowiązkowy minimalny i odpowiedni zestaw informacji i instrukcji dotyczących użytkowania produktów wyposażonych w sztuczną inteligencję i na temat sieci dróg, oraz do prawidłowego opracowania i wdrożenia programu U-space; jest zdania, że ukierunkowanie na człowieka powinno stanowić podstawę wszelkich aktualizacji i opracowywania ram regulacyjnych dotyczących automatyzacji i integracji SI w transporcie;

14. zwraca się do Komisji o przedstawienie wytycznych w celu uniknięcia fragmentarycznego podejścia regulacyjnego na szczeblu krajowym oraz o uwzględnienie przy tym dyrektywy 85/374/EWG i istniejących krajowych systemów odpowiedzialności; podkreśla potrzebę istnienia unijnych ram odpowiedzialności cywilnej i zwraca uwagę, że fragmentacja byłaby niezwykle szkodliwa dla rozwoju takich technologii i dla konkurencyjności przedsiębiorstw w Unii, zwłaszcza dla MŚP, oraz że stanowiłaby zagrożenie dla pewności prawa i bezpieczeństwa oraz utrudniałaby szybkie przyznawanie odszkodowań dla ofiar; zauważa, że odpowiedzialność orzekana w wyniku rzetelnego procesu sądowego powinna spoczywać na podmiocie, który jest najbardziej kompetentny do wyeliminowania zagrożenia.


INFORMACJE O PRZYJĘCIU
W KOMISJI OPINIODAWCZEJ

Data przyjęcia

14.7.2020

 

 

 

Wynik głosowania końcowego

+:

–:

0:

49

0

0

Posłowie obecni podczas głosowania końcowego

Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, István Ujhelyi, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski

Zastępcy obecni podczas głosowania końcowego

Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti

 


 

GŁOSOWANIE KOŃCOWE W FORMIE GŁOSOWANIA IMIENNEGO
W KOMISJI OPINIODAWCZEJ

49

+

ECR

Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski

GUE/NGL

Leila Chaibi, Kateřina Konečná, Elena Kountoura

ID

Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo

NI

Mario Furore, Dorien Rookmaker

PPE

Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian‑Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg‑Vrionidi, Elżbieta Katarzyna Łukacijewska

Renew

José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan‑Christoph Oetjen, Dominique Riquet

S&D

Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi

Verts/ALE

Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay‑Grunenberg, Tilly Metz

 

0

-

 

 

 

0

0

 

 

 

Objaśnienie używanych znaków:

+ : za

- : przeciw

0 : wstrzymało się

 


INFORMACJE O PRZYJĘCIU PRZEZ KOMISJĘ PRZEDMIOTOWO WŁAŚCIWĄ

Data przyjęcia

1.10.2020

 

 

 

Wynik głosowania końcowego

+:

–:

0:

23

0

1

Posłowie obecni podczas głosowania końcowego

Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos

Zastępcy obecni podczas głosowania końcowego

Patrick Breyer, Evelyne Gebhardt, Kosma Złotowski

 


GŁOSOWANIE KOŃCOWE W FORMIE GŁOSOWANIA IMIENNEGO W KOMISJI PRZEDMIOTOWO WŁAŚCIWEJ

23

+

PPE

Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos

S&D

Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken

RENEW

Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara

ID

Gunnar Beck, Jean‑Paul Garraud, Gilles Lebreton

VERTS/ALE

Patrick Breyer, Marie Toussaint

ECR

Angel Dzhambazki, Kosma Złotowski

NI

Mislav Kolakušić

 

0

-

 

 

 

1

0

GUE/NGL

Manon Aubry

 

Objaśnienie używanych znaków:

+ : za

- : przeciw

0 : wstrzymało się

 

[1] Dz.U. L 149 z 11.6 2005, s. 22.

[2] Dz.U. L 304 z 22.11 2011, s. 64.

[3] Dz.U. L 117 z 5.5 2017, s. 1.

[4] Dz.U. L 252 z 8.10.2018, s. 1.

[5] Dz.U. L 136 z 22.5.2019, s. 1.

[6] Dz.U. L 123 z 12.5.2016, s. 1.

[7] Dz.U. C 252 z 18.7.2018, s. 239.

[8] Dz.U. C 307 z 30.8.2018, s. 163.

[9] Dz.U. C 433 z 23.12.2019, s. 86.

[10] Teksty przyjęte, P8_TA(2019)0081.

[11] Teksty przyjęte, P9_TA(2020)0032.

[12] Dz.U. L 011 z 15.1.2002, s. 4.

[13] Dz.U. L 263 z 7.10.2009, s. 11.

[14] Dz.U. ...

[15] Dz.U. ...

[16] Dyrektywa Rady 85/374/EWG z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących odpowiedzialności za produkty wadliwe (Dz.U. L 210 z 7.8.1985, s. 29).

[17] Dz.U. L 123 z 12.5.2016, s. 1.

[18] Zob.: s. 24 Białej księgi Komisji z dnia 19 lutego 2020 r. w sprawie sztucznej inteligencji – Europejskie podejście do doskonałości i zaufania (COM(2020)0065),

[19] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.U. L 119 z 4.5.2016, s. 1).

[20] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2018/858 z dnia 30 maja 2018 r. w sprawie homologacji i nadzoru rynku pojazdów silnikowych i ich przyczep oraz układów, komponentów i oddzielnych zespołów technicznych przeznaczonych do tych pojazdów, zmieniające rozporządzenie (WE) nr 715/2007 i (WE) nr 595/2009 oraz uchylające dyrektywę 2007/46/WE (Dz.U. L 151 z 14.6.2018, s. 1).

[21] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2019/1020 z dnia 20 czerwca 2019 r. w sprawie nadzoru rynku i zgodności produktów oraz zmieniające dyrektywę 2004/42/WE oraz rozporządzenia (WE) nr 765/2008 i (UE) nr 305/2011 (Dz.U. L 169 z 25.6.2019, s. 1).

[22] Dyrektywa Rady 85/374/EWG z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących odpowiedzialności za produkty wadliwe (Dz.U. L 210 z 7.8.1985, s. 29).

[23] Zgodnie z ust. 16 projektu rezolucji Komisja Europejska dokona przeglądu kwoty.

[26] Dyrektywa Rady 85/374/EWG z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących odpowiedzialności za produkty wadliwe (Dz.U. L 210 z 7.8.1985, s. 29).

[27] Dyrektywa 2001/95/WE Parlamentu Europejskiego i Rady z dnia 3 grudnia 2001 r. w sprawie ogólnego bezpieczeństwa produktów (Dz.U. L 11 z 15.1.2002, s. 4).

[28] Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/790 z dnia 17 kwietnia 2019 r. w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym (Dz.U. L 130 z 17.5.2019, s. 92).

[29] Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/770 z dnia 20 maja 2019 r. w sprawie niektórych aspektów umów o dostarczanie treści cyfrowych i usług cyfrowych (Dz.U. L 136 z 22.5.2019, s. 1).

[30] Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/771 z dnia 20 maja 2019 r. w sprawie niektórych aspektów umów sprzedaży towarów, zmieniająca rozporządzenie (UE) 2017/2394 oraz dyrektywę 2009/22/WE i uchylająca dyrektywę 1999/44/WE (Dz.U. L 136 z 22.5.2019, s. 28).

[31] Dyrektywa Rady 85/374/EWG z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych państw członkowskich dotyczących odpowiedzialności za produkty wadliwe (Dz.U. L 210 z 7.8.1985, s. 29).

[32]  Dyrektywa 2006/126/WE Parlamentu Europejskiego i Rady z dnia 20 grudnia 2006 r. w sprawie praw jazdy (Dz.U. L 403 z 30.12.2006, s. 18).

[33]  Dyrektywa Parlamentu Europejskiego i Rady 2009/103/WE z dnia 16 września 2009 r. w sprawie ubezpieczenia od odpowiedzialności cywilnej za szkody powstałe w związku z ruchem pojazdów mechanicznych i egzekwowania obowiązku ubezpieczania od takiej odpowiedzialności (Dz.U. L 263 z 7.10.2009, s. 11).

Ostatnia aktualizacja: 19 października 2020Informacja prawna - Polityka ochrony prywatności