Indeks 
 Poprzedni 
 Następny 
 Pełny tekst 
Procedura : 2015/2103(INL)
Przebieg prac nad dokumentem podczas sesji
Dokument w ramach procedury : A8-0005/2017

Teksty złożone :

A8-0005/2017

Debaty :

PV 15/02/2017 - 14
CRE 15/02/2017 - 14

Głosowanie :

PV 16/02/2017 - 6.9

Teksty przyjęte :

P8_TA(2017)0051

Teksty przyjęte
PDF 461kWORD 81k
Czwartek, 16 luty 2017 r. - Strasburg Wersja ostateczna
Przepisy prawa cywilnego dotyczące robotyki
P8_TA(2017)0051A8-0005/2017
Rezolucja
 Załącznik

Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017 r. zawierające zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL))

Parlament Europejski,

–  uwzględniając art. 225 Traktatu o funkcjonowaniu Unii Europejskiej,

–  uwzględniając dyrektywę Rady 85/374/EWG(1) ,

–  uwzględniając badanie na temat etycznych aspektów systemów cyberfizycznych przeprowadzone przez zespół Parlamentu ds. Weryfikacji Rozwiązań Naukowych i Technologicznych (STOA) i kierowane przez Dział Prognoz Naukowych (STOA) Dyrekcji Generalnej ds. Analiz Parlamentarnych;

–  uwzględniając art. 46 i 52 Regulaminu,

–  uwzględniając sprawozdanie Komisji Prawnej oraz opinie Komisji Transportu i Turystyki, Komisji Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych, Komisji Zatrudnienia i Spraw Socjalnych, Komisji Ochrony Środowiska Naturalnego, Zdrowia Publicznego i Bezpieczeństwa Żywności, Komisji Przemysłu, Badań Naukowych i Energii, jak również opinię Komisji Rynku Wewnętrznego i Ochrony Konsumentów (A8-0005/2017),

Wprowadzenie

A.  mając na uwadze, że od postaci Frankensteina stworzonej przez Mary Shelley po antyczny mit o Pigmalionie, poprzez historię praskiego golema i robota Karla Čapka (autora pojęcia robot) ludzkość zawsze snuła fantazje na temat możliwości stworzenia inteligentnych maszyn, najczęściej androidów o cechach ludzkich;

B.  mając na uwadze, że w związku z tym, że ludzkość stoi obecnie u progu ery, w której coraz bardziej zaawansowane roboty, komputery, androidy i inne wcielenia sztucznej inteligencji wydają się dawać początek nowej rewolucji przemysłowej, która prawdopodobnie nie ominie żadnej warstwy społecznej, niezmiernie ważne jest, by przepisy uwzględniały prawne i etyczne implikacje i skutki tych zmian bez hamowania innowacji;

C.  mając na uwadze, że istnieje potrzeba stworzenia powszechnie akceptowanych i elastycznych definicji pojęć „robot” i „sztuczna inteligencja”, które nie będą utrudniać innowacji;

D.  mając na uwadze, że latach 2010–2014 średni wzrost sprzedaży robotów wynosił 17 % rocznie, a w 2014 r. sprzedaż wzrosła o 29 %, co stanowi najwyższy w historii wzrost sprzedaży z roku na rok, a dostawcy części samochodowych oraz branża elektryczna/elektroniczna są głównymi motorami wzrostu; mając na uwadze, że w ciągu ostatnich dziesięciu lata trzykrotnie wzrosła liczba składanych wniosków patentowych dotyczących robotyki;

E.  mając na uwadze, że przez ostatnie 200 lat zatrudnienie stale rosło dzięki rozwojowi technicznemu; mając na uwadze, że rozwój robotyki i sztucznej inteligencji może nieść ze sobą potencjał przekształcenia życia i sposobów pracy, poprawy efektywności, zwiększenia oszczędności i podwyższenia poziomu bezpieczeństwa oraz jakości świadczenia usług, a w perspektywie średnio- i długoterminowej; natomiast robotyka i sztuczna inteligencja mają przynieść korzyści w postaci efektywności i oszczędności nie tylko w dziedzinie produkcji i handlu, ale również w obszarach takich jak transport, opieka medyczna, ratownictwo, edukacja i rolnictwo, a jednocześnie umożliwiają unikanie narażania ludzi na niebezpieczne warunki związane np. z odkażaniem obiektów zanieczyszczonych substancjami toksycznymi;

F.  mając na uwadze, że starzenie się społeczeństwa jest konsekwencją wzrostu długości życia wskutek poprawy warunków życia i postępu nowoczesnej medycyny oraz stanowi jedno z największych wyzwań politycznych, społecznych i gospodarczych, jakie stoją przed społeczeństwami europejskimi w XXI wieku; mając na uwadze, że do 2025 roku ponad 20 % Europejczyków będzie w wieku co najmniej 65 lat, a liczba osób mających co najmniej 80 lat będzie gwałtowanie wzrastać, co doprowadzi do znaczącej zmiany proporcji między pokoleniami w społeczeństwach, oraz mając na uwadze, że w interesie społeczeństw leży, aby osoby starsze jak najdłużej zachowały zdrowie i pozostały aktywne;

G.  mając na uwadze, że w perspektywie długoterminowej obecna tendencja do projektowania inteligentnych i autonomicznych maszyn, które można szkolić i które potrafią samodzielnie podejmować decyzje, niesie ze sobą nie tylko obietnicę korzyści gospodarczych, lecz także wiele obaw dotyczących ich bezpośredniego i pośredniego wpływu na całe społeczeństwo;

H.  mając na uwadze, że uczenie maszynowe, dzięki znacznej poprawie zdolności analizowania danych, oferuje społeczeństwu ogromne korzyści gospodarcze i w dziedzinie innowacyjności, ale jednocześnie wiąże się z wyzwaniami dotyczącymi zapewnienia niedyskryminacji, należytego postępowania, przejrzystości i zrozumiałości procesów podejmowania decyzji;

I.  mając na uwadze, że istnieje również konieczność oceny zmian gospodarczych i wpływu na zatrudnienie w wyniku rozwoju robotyki i uczenia maszynowego; mając na uwadze, że pomimo bezspornych zalet robotyka niesie ze sobą ryzyko zmian na rynku pracy oraz wiąże się z koniecznością refleksji nad przyszłością edukacji, zatrudnienia i polityki społecznej;

J.  mając na uwadze, że szerokie zastosowanie robotów nie musi automatycznie prowadzić do zastępowania ludzi robotami na stanowiskach pracy, jednak zawody wymagające niższych kwalifikacji w sektorach wymagających dużego nakładu siły roboczej będą prawdopodobnie podlegać automatyzacji w większym stopniu; mając na uwadze, że trend ten może zaowocować przenoszeniem procesów produkcji z powrotem do UE; mając na uwadze, że z badań wynika, iż zatrudnienie rośnie znacznie szybciej w zawodach w większym stopniu opierających się na pracy z komputerem; mając na uwadze, że automatyzacja pracy może wyzwolić ludzi z monotonii pracy fizycznej, umożliwiając im podejmowanie bardziej twórczych i sensownych zadań; mając na uwadze, że automatyzacja wymaga inwestowania przez państwa w kształcenie, a także innych działań reformatorskich w celu poprawy przekwalifikowywania pod kątem takich typów umiejętności, jakich pracownicy będą potrzebować w przyszłości;

K.  mając na uwadze, że w obliczu rosnących podziałów społeczeństwa i pomniejszania się klasy średniej należy mieć na uwadze, iż rozwój robotyki może doprowadzić do dużej koncentracji bogactwa i wpływów w rękach mniejszości;

L.  mając na uwadze, że rozwój robotyki i sztucznej inteligencji zdecydowanie wpłynie na strukturę miejsca pracy, co może wywołać nowe obawy dotyczące odpowiedzialności, jednocześnie eliminując inne; mając na uwadze, że na wypadek wystąpienia sytuacji wyjątkowych lub problemów, odpowiedzialność prawna wymaga jasnego określenia, zarówno pod kątem modelu biznesowego, jak i modelu doboru pracowników;

M.  mając na uwadze, że tendencja do automatyzacji wymaga, aby osoby zaangażowane w rozwój i komercjalizację rozwiązań opartych na sztucznej inteligencji od samego początku kierowały się zasadami bezpieczeństwa i etyki, tak aby były świadome konieczności poniesienia odpowiedzialności prawnej za jakość technologii, którą tworzą;

N.  mając na uwadze, że w rozporządzeniu Parlamentu Europejskiego i Rady (UE) 2016/679(2) (ogólnym rozporządzeniu o ochronie danych) określono ramy prawne dotyczące ochrony danych osobowych; mając na uwadze, że zbadania mogą nadal wymagać inne aspekty dostępu do danych oraz ochrony danych osobowych i prywatności, zważywszy że komunikowanie się aplikacji i urządzeń ze sobą oraz z bazami danych bez interwencji ludzi może budzić kolejne obawy dotyczące prywatności;

O.  mając na uwadze, że rozwiązania w dziedzinie robotyki i sztucznej inteligencji mogą i powinny być projektowane w sposób pozwalający zachować godność, autonomię i samookreślenie człowieka, szczególnie w dziedzinie opieki nad człowiekiem i dotrzymywania mu towarzystwa, oraz w kontekście urządzeń medycznych, „naprawiania” lub usprawniania organizmu ludzkiego;

P.  mając na uwadze, że istnieje możliwość, że w perspektywie długoterminowej sztuczna inteligencja przewyższy ludzkie zdolności intelektualne;

Q.  mając na uwadze, że dalszy rozwój i rosnące wykorzystanie automatycznego podejmowania decyzji opartego na algorytmach niewątpliwie wywrze wpływ na wybory dokonywane zarówno przez osoby fizyczne (np. przedsiębiorców i użytkowników internetu), jak i organy administracyjne, sądowe lub inne organy publiczne przy podejmowaniu ostatecznych decyzji dotyczących konsumentów, decyzji biznesowych lub decyzji o charakterze rozstrzygającym; mając na uwadze, że w procesie automatycznego podejmowania decyzji opartego na algorytmach konieczne jest zapewnienie zabezpieczeń oraz możliwości kontroli i weryfikacji przez człowieka;

R.  mając na uwadze, że w systemach prawnych niektórych państw, jak USA, Japonii, Chin i Korei Południowej rozważa podjęcie działań regulacyjnych dotyczących robotyki i sztucznej inteligencji, a w pewnym zakresie już podjęło takie działania, oraz mając na uwadze, że niektóre państwa członkowskie również rozpatrują możliwość opracowania norm prawnych lub przeprowadzenia zmian ustawodawczych w celu wzięcia pod uwagę pojawiających się zastosowań takich technologii;

S.  mając na uwadze, że przemysł europejski może skorzystać na skutecznym, spójnym i przejrzystym podejściu do regulacji na poziomie UE zapewniającym przewidywalne i wystarczająco jasne warunki, w oparciu o które przedsiębiorstwa będą mogły rozwijać aplikacje i planować swoje modele biznesowe na skalę europejską, a jednocześnie zapewni, że Unia i jej państwa członkowskie zachowają kontrolę nad standardami regulacyjnymi, które zostaną określone, aby nie były zmuszone do przyjmowania standardów ustalonych przez innych i do działania zgodnie z nimi – mianowicie ze standardami państw trzecich, które również znajdują się czołówce pod względem rozwoju robotyki i sztucznej inteligencji;

Zasady ogólne

T.  mając na uwadze, że prawa Asimova(3) muszą być traktowane jako prawa adresowane do projektodawców, producentów i operatorów robotów, w tym robotów z wbudowaną autonomią i możliwością samodzielnego uczenia się, ponieważ prawa te nie mogą zostać przekształcone w kod maszynowy;

U.  mając na uwadze, że szereg przepisów odnoszących się zwłaszcza do odpowiedzialności, przejrzystości i rozliczalności jest użytecznych oraz koniecznych, gdyż odzwierciedlają nieodłączne wartości europejskie i powszechne wartości humanistyczne, jakimi charakteryzuje się wkład Europy w społeczeństwo; mając na uwadze, że przepisy te nie mogą oddziaływać na proces badań, innowacji i rozwoju w dziedzinie robotyki;

V.  mając na uwadze, że Unia mogłaby odgrywać kluczową rolę w określaniu podstawowych zasad etycznych, które mają być przestrzegane w ramach rozwoju, programowania i wykorzystywania robotów i sztucznej inteligencji, a także we włączaniu tych zasad do unijnych uregulowań prawnych i kodeksów postępowania, z myślą o takim kształtowaniu rewolucji technologicznej, aby służyła ludzkości i aby wszyscy czerpali korzyści płynące z zaawansowanej robotyki i sztucznej inteligencji, jednocześnie unikając zagrożeń na tyle, na ile jest to możliwe;

W.  mając na uwadze, że do niniejszej rezolucji załączona jest Karta dotycząca robotyki, przygotowana z pomocą Działu Prognoz Naukowych (STOA) Dyrekcji Generalnej ds. Analiz Parlamentarnych, w której zaproponowano kodeks postępowania inżynierów w dziedzinie robotyki, kodeks mający zastosowanie do komitetów etycznych ds. badań, licencję dla projektantów i licencję dla użytkowników;

X.  mając na uwadze, że w odniesieniu do wszelkich przyszłych inicjatyw w dziedzinie robotyki i sztucznej inteligencji należy przyjąć na poziomie UE stopniowe, pragmatyczne i ostrożne podejście, do jakiego nawoływał Jean Monnet(4) , aby nie ograniczać innowacji;

Y.  mając na uwadze, że w związku z poziomem zaawansowania, jaki osiągnął rozwój robotyki i sztucznej inteligencji, należy zacząć od kwestii odpowiedzialności cywilnej;

Odpowiedzialność

Z.  mając na uwadze, że dzięki imponującemu postępowi techniki w ciągu ostatnich dziesięciu lat dzisiejsze roboty są w stanie nie tylko wykonywać zadania, które dotąd były zasadniczo i wyłącznie wykonywane przez ludzi, ale także – dzięki rozwojowi pewnych cech autonomii i zdolności poznawczych, np. zdolności uczenia się poprzez doświadczenia i zdolności podejmowania quasi-niezależnych decyzji – przypominają one coraz bardziej podmioty, które wchodzą w interakcje z otoczeniem i są zdolne do zmieniania go w sposób istotny; mając na uwadze, że w tym kontekście odpowiedzialność prawna wynikająca ze szkodliwej działalności robota staje się kwestią centralną;

AA.  mając na uwadze, że autonomiczność robota można określić jako zdolność do podejmowania decyzji i do realizacji ich w świecie zewnętrznym, niezależnie od kontroli zewnętrznej lub wpływu z zewnątrz; mając na uwadze, że autonomia ta ma charakter czysto techniczny i że jej stopień zależy od tego, jak bardzo zaawansowana interakcja robota z jego otoczeniem została zaprogramowana;

AB.  mając na uwadze, że im bardziej autonomiczne są roboty, tym w mniejszym stopniu można je traktować jako zwykłe narzędzia w rękach innych podmiotów (np. producentów, operatorów, właścicieli, użytkowników itp.); mając na uwadze, że to z kolei rodzi pytanie, czy zwykłe przepisy dotyczące odpowiedzialności są wystarczające, czy też niezbędne stają się nowe zasady i przepisy w celu zapewnienia jasności co do odpowiedzialności prawnej różnych podmiotów odnośnie do odpowiedzialności za działania i zaniechanie działania przez roboty, w przypadku gdy przyczyny nie można prześledzić i w efekcie przypisać konkretnemu podmiotowi, którym jest człowiek, jak również co do kwestii, czy można było uniknąć działań lub zaniechania działania przez robota, które przyniosły szkody;

AC.  mając wreszcie na uwadze, że z autonomią robotów wiąże się kwestia ich natury w świetle obowiązujących kategorii prawnych oraz tego, czy powinna zostać stworzona nowa kategoria o specyficznych dla niej cechach i implikacjach;

AD.  mając na uwadze, że w obrębie obecnych ram prawnych roboty nie mogą ponosić odpowiedzialności za działania lub zaniechanie działania skutkujące szkodą osób trzecich; mając na uwadze, że obowiązujące przepisy dotyczące odpowiedzialności dotyczą sytuacji, w których przyczynę przypadków działania lub zaniechania działania przez roboty można prześledzić i przypisać konkretnemu podmiotowi, którym jest człowiek, np. producent, operator, właściciel lub użytkownik, oraz w których podmiot ten mógł przewidzieć daną sytuację i zapobiec szkodliwemu działaniu robota; mając ponadto na uwadze, że producenci, operatorzy, właściciele i użytkownicy mogą ponosić odpowiedzialność na zasadzie ryzyka za działanie lub zaniechanie działania przez robota;

AE.  mając na uwadze, że zgodnie z obowiązującymi ramami prawnymi odpowiedzialność za produkt – w sytuacjach, gdy producent produktu ponosi odpowiedzialność za jego nieprawidłowe działanie – oraz przepisy regulujące odpowiedzialność za działania szkodliwe – w sytuacjach, gdy użytkownik produktu ponosi odpowiedzialność za zachowanie prowadzące do powstania szkody – mają zastosowanie do szkód spowodowanych przez roboty lub sztuczną inteligencję;

AF.  mając na uwadze, że w przypadku, gdy robot może podejmować niezależnie decyzje, tradycyjne przepisy nie będą wystarczające do ustalenia odpowiedzialności prawnej za szkody spowodowane przez robota, ponieważ na ich podstawie nie będzie możliwe określenie strony odpowiedzialnej za zapewnienie odszkodowania oraz żądanie od niej naprawienia wyrządzonej szkody;

AG.  mając na uwadze, że braki w obowiązujących obecnie ramach prawnych są również widoczne w obszarze odpowiedzialności umownej w zakresie, w jakim maszyny zaprojektowane tak, by wybierać swoich kontrahentów, negocjować warunki umowne, zawierać umowy i decydować o tym, czy i w jaki sposób je wdrożyć, sprawiają, że tradycyjne przepisy nie są możliwe do zastosowania, co uwydatnia potrzebę przyjęcia nowych, skutecznych i aktualnych przepisów, które powinny być dostosowane do rozwoju technicznego i innowacji ostatnio wprowadzonych i są wykorzystywane na rynku;

AH.  mając na uwadze, że jeżeli chodzi o odpowiedzialność pozaumowną, dyrektywa 85/374/EWG obejmuje jedynie szkody wynikające z wad produkcyjnych robota pod warunkiem, że poszkodowana osoba jest w stanie wykazać, że doszło do szkody, a ponadto wykazać wadliwość produktu oraz związek przyczynowo-skutkowy między szkodą a wadą, zatem ramy dotyczące odpowiedzialności na zasadzie ryzyka mogą być niewystarczające;

AI.  mając na uwadze, że z zastrzeżeniem zakresu dyrektywy 85/374/EWG, obecne ramy prawne nie będą wystarczające do uwzględnienia szkód powodowanych przez roboty nowej generacji w zakresie, w jakim roboty te mogą być wyposażone w zdolność dostosowywania się i uczenia się, z czym wiąże się pewien stopień nieprzewidywalności ich zachowania, gdyż roboty te będą w sposób niezależny uczyć się w oparciu o własne, zróżnicowane doświadczenia i wchodzić w interakcje z otoczeniem w jedyny w swoim rodzaju i nieprzewidywalny sposób;

Zasady ogólne dotyczące rozwoju robotyki i sztucznej inteligencji do celów cywilnych

1.  wzywa Komisję do zaproponowania wspólnej unijnej definicji systemów cyberfizycznych, systemów autonomicznych, inteligentnych robotów autonomicznych oraz ich podkategorii, przy uwzględnieniu następujących cech inteligentnych robotów:

   zdobywanie autonomii za pomocą czujników lub wymiany danych z otoczeniem (wzajemne połączenia) oraz wymiany i analizy tych danych;
   zdolność samokształcenia na podstawie zdobytego doświadczenia i interakcji z otoczeniem (kryterium fakultatywne);
   przynajmniej minimalna forma fizyczna;
   dostosowywanie swoich zachowania i działań do otoczenia;
   brak funkcji życiowych w sensie biologicznym;

2.  uważa, że w przypadkach, gdy jest to istotne i konieczne w odniesieniu do danej kategorii robotów, należy wprowadzić kompleksowy unijny system rejestracji zaawansowanych robotów na rynku wewnętrznym UE i wzywa Komisję do określenia kryteriów klasyfikacji robotów, które będą musiały być rejestrowane; w tym kontekście wzywa Komisję do zbadania, czy pożądane jest, by systemem rejestracji i rejestrem zarządzała specjalna europejska agencja robotyki i sztucznej inteligencji;

3.  zwraca uwagę, że rozwój technologii związanej z robotyką powinien w głównej mierze opierać się na uzupełnianiu, a nie zastępowaniu zdolności ludzkich; uważa, że przy opracowywaniu robotów i sztucznej inteligencji zasadnicze znaczenie ma dopilnowanie, by człowiek mógł zawsze sprawować kontrolę nad inteligentnymi maszynami; uważa, że szczególną uwagę należy poświęcić możliwości powstania związku emocjonalnego między człowiekiem a robotem, zwłaszcza wśród grup szczególnie wrażliwych (dzieci, osób starszych, osób niepełnosprawnych), i zwraca uwagę na wpływ, jaki takie przywiązanie emocjonalne lub fizyczne może wywrzeć na człowieka;

4.  podkreśla, że działania na szczeblu Unii mogą ułatwić rozwój dzięki uniknięciu rozdrobnienia rynku wewnętrznego, a jednocześnie zwraca uwagę na znaczenie zasady wzajemnego uznawania w transgranicznym stosowaniu robotów i systemów robotycznych; przypomina, że testowanie, certyfikacja i dopuszczanie do obrotu powinny być konieczne tylko w jednym państwie członkowskim; podkreśla, że podejściu temu powinien towarzyszyć skuteczny nadzór rynku;

5.  podkreśla znaczenie podjęcia działań w celu wspierania małych i średnich przedsiębiorstw oraz przedsiębiorstw rozpoczynających działalność w dziedzinie robotyki, które tworzą nowe segmenty rynku w tym sektorze lub które wykorzystują w swojej działalności roboty;

Badania i innowacje

6.  podkreśla, że wiele aplikacji robotycznych nadal znajduje się w fazie eksperymentalnej; z zadowoleniem przyjmuje fakt, że coraz więcej projektów badawczych finansowanych jest przez państwa członkowskie i Unię; uważa, że istotne jest, aby Unia i państwa członkowskie, dzięki finansowaniu ze środków publicznych, pozostały liderem w zakresie badań w dziedzinie robotyki i sztucznej inteligencji; wzywa Komisję i państwa członkowskie do wzmocnienia instrumentów finansowych wspierających projekty badawcze w dziedzinie robotyki oraz technologii informacyjno-komunikacyjnych, w tym partnerstw publiczno-prywatnych, oraz do uwzględnienia w swoich strategiach politycznych dotyczących badań naukowych zasad otwartej nauki oraz odpowiedzialnych i etycznych innowacji; podkreśla, że należy przeznaczyć odpowiednie środki na poszukiwanie rozwiązań dla wyzwań społecznych, etycznych, prawnych i gospodarczych, jakie mogą pojawić się w związku z tym rozwojem techniki i związanymi z nim zastosowaniami;

7.  wzywa Komisję i państwa członkowskie, by wspierały programy badawcze, podejmowały działania na rzecz rozwoju badań dotyczących ewentualnych długoterminowych zagrożeń oraz możliwości związanych z technologiami opartymi na robotyce i sztucznej inteligencji, a także zachęcały do jak najszybszego podjęcia zorganizowanego dialogu publicznego na temat skutków rozwoju tych technologii; wzywa Komisję, by w śródokresowym przeglądzie wieloletnich ram finansowych udzieliła większego wsparcia programowi SPARC finansowanemu w ramach programu ramowego „Horyzont 2020”; wzywa Komisję i państwa członkowskie do połączenia wysiłków w celu uważnego monitorowania i zapewnienia sprawnego przejścia tych technologii od etapu badań do etapu wprowadzenia do obrotu i stosowania na rynku, po dokonaniu oceny ich bezpieczeństwa zgodnie z zasadą ostrożności;

8.  podkreśla, że innowacje w dziedzinie robotyki i sztucznej inteligencji oraz wprowadzanie technologii z zakresu robotyki i sztucznej inteligencji do gospodarki i społeczeństwa wymagają infrastruktury cyfrowej, która gwarantuje powszechną łączność; wzywa Komisję do stworzenia ram, które pozwolą spełnić wymogi łączności dla przyszłości cyfrowej Unii, a jednocześnie zagwarantują, że dostęp do sieci szerokopasmowych i sieci 5G będzie w pełni zgodny z zasadą neutralności sieci;

9.  jest głęboko przekonany, że interoperacyjność systemów, narzędzi oraz usług w chmurze obliczeniowej oparta na wbudowanym bezpieczeństwie i ochronie prywatności ma ogromne znaczenie dla przepływu danych w czasie rzeczywistym, co zapewni robotom i sztucznej inteligencji większą elastyczność i autonomię; zwraca się do Komisji, aby promowała otwarte środowisko, począwszy od otwartych standardów i nowatorskich modeli udzielania zezwoleń, a skończywszy na otwartych platformach i przejrzystości, aby uniknąć zamykania się w systemach własności, które ograniczają interoperacyjność;

Zasady etyczne

10.  zauważa, że możliwości delegowania zadań pojawiające się w związku z wykorzystaniem robotyki przyćmiewa szereg napięć lub zagrożeń, które należy szczegółowo ocenić z punktu widzenia bezpieczeństwa, zdrowia i ochrony ludzi, wolności, prywatności, uczciwości i godności, samostanowienia i niedyskryminacji oraz ochrony danych osobowych;

11.  uważa, że należy w odpowiednich przypadkach zaktualizować i uzupełnić obecne unijne ramy prawne o główne zasady etyczne, które odzwierciedlałyby złożoność robotyki i jej liczne implikacje społeczne, medyczne i bioetyczne; uważa, że jasne, ściśle określone i skuteczne ramy etyczne mające zastosowanie do rozwoju, projektowania, produkcji, wykorzystania i modyfikacji robotów są niezbędne w celu uzupełnienia zaleceń prawnych zawartych w niniejszym sprawozdaniu oraz dotychczasowego krajowego i unijnego dorobku prawnego; w załączniku do rezolucji proponuje ramy prawne w formie karty zawierającej kodeks postępowania dla inżynierów w dziedzinie robotyki, kodeks dla etycznych komisji badawczych dokonujących przeglądów protokołów dotyczących robotyki oraz model licencji dla projektantów i użytkowników;

12.  podkreśla zasadę przejrzystości, a w szczególności to, że w każdym przypadku powinno być możliwe uzasadnienie wszelkich decyzji podjętych za pomocą sztucznej inteligencji, które mogą mieć istotny wpływ na życie przynajmniej jednej osoby; uważa, że musi być zawsze możliwe przedstawienie obliczeń dokonanych za pomocą systemu sztucznej inteligencji w formie zrozumiałej dla ludzi; jest zdania, że zaawansowane roboty powinny być wyposażone w swego rodzaju czarna skrzynkę zawierającą dane dotyczące wszystkich operacji wykonywanych przez maszynę, w tym kroków logicznych, które przyczyniły się do podjęcia przez nią decyzji;

13.  wskazuje, że pełniące rolę wytycznych ramy etyczne powinny opierać się na zasadzie przynoszenia korzyści, nieszkodliwości, autonomii i sprawiedliwości oraz na zasadach i wartościach zapisanych w art. 2 Traktatu o Unii Europejskiej oraz w Karcie praw podstawowych Unii Europejskiej, takich jak godność ludzka, równość, sprawiedliwość i równouprawnienie, brak dyskryminacji, świadoma zgoda, ochrona życia prywatnego i rodzinnego oraz ochrona danych, a także na innych zasadach i wartościach stanowiących podstawę prawa UE, takich jak brak stygmatyzacji, przejrzystość, autonomia, odpowiedzialność jednostki, jak również na obowiązujących kodeksach etycznych i praktykach stosowanych w tej dziedzinie;

14.  uważa, że szczególną uwagę należy poświęcić robotom, które stanowią istotne zagrożenie dla poufności ze względu na ich lokalizację w miejscach tradycyjnie chronionych i niejawnych, a także w związku z ich zdolnością do wyodrębniania i przesyłania informacji dotyczących danych osobowych i danych podlegających szczególnej ochronie;

Agencja europejska

15.  uważa, że konieczna jest aktywniejsza współpraca między państwami członkowskimi a Komisją, aby zagwarantować w Unii spójne zasady transgraniczne zachęcające europejskie gałęzie przemysłu do współpracy, a także umożliwiające rozmieszczanie w całej Unii robotów, które byłyby spójne, jeżeli chodzi o wymagany poziom bezpieczeństwa i ochrony, a także zasady etyczne zapisane w prawie UE;

16.  zwraca się do Komisji, by rozważyła utworzenie europejskiej agencji ds. robotyki i sztucznej inteligencji w celu zagwarantowania fachowej wiedzy technicznej, etycznej i z zakresu stanowienia prawa niezbędnej do wsparcia odnośnych podmiotów publicznych, zarówno na szczeblu UE, jak i w państwach członkowskich, w działaniach na rzecz zapewnienia odpowiednio szybkiej, zgodnej z zasadami etyki i przemyślanej reakcji na nowe możliwości i wyzwania, szczególnie te o charakterze transgranicznym, związane z rozwojem technologicznym robotyki, np. w sektorze transportu;

17.  uważa, że potencjał robotyki oraz problemy związane ze stosowaniem jej, a także obecna dynamika inwestycyjna uzasadniają przeznaczenie dla tej agencji europejskiej odpowiedniego budżetu i zatrudnienie w niej ekspertów ds. uregulowań prawnych oraz zewnętrznych ekspertów w dziedzinie techniki i etyki, którzy w sposób międzysektorowy i multidyscyplinarny monitorowaliby zastosowania oparte na robotyce, identyfikowali standardy na potrzeby opracowywania wzorcowych praktyk, a w stosownych przypadkach zalecali środki regulacyjne, które określałyby nowe zasady i odnosiły się do ewentualnych problemów z zakresu ochrony konsumenta i wyzwań systemowych; zwraca się do Komisji (i agencji europejskiej, jeżeli takowa zostanie utworzona) o coroczne zdawanie Parlamentowi Europejskiemu sprawozdania z najnowszych osiągnięć w dziedzinie robotyki i ze wszelkich działań, które należy w tym zakresie podjąć;

Prawa własności intelektualnej a przepływ danych

18.  zauważa, że chociaż nie ma przepisów prawnych mających zastosowanie konkretnie do robotyki, istniejące systemy i doktryny prawne mogą zostać z łatwością zastosowane do robotyki, choć niektórym aspektom należy poświęcić szczególną uwagę; wzywa Komisję, aby wspierała przekrojowe i neutralne pod względem technicznym podejście do własności intelektualnej mające zastosowanie do różnych sektorów, w których możliwe jest zastosowanie robotyki;

19.  wzywa Komisję i państwa członkowskie do zadbania o to, by uregulowania cywilnoprawne w zakresie robotyki były zgodne z ogólnym rozporządzeniem o ochronie danych oraz z zasadami konieczności i proporcjonalności; wzywa Komisję i państwa członkowskie do uwzględnienia szybkiego rozwoju technicznego w dziedzinie robotyki, w tym rozwoju systemów cyberfizycznych, a także do dołożenia starań, by prawo Unii Europejskiej nie pozostawało w tyle za tempem rozwoju technicznego i nowych zastosowań;

20.  podkreśla, że prawo do poszanowania życia prywatnego i ochrony danych osobowych zapisane w art. 7 i 8 karty praw podstawowych oraz w art. 16 Traktatu o funkcjonowaniu Unii Europejskiej (TFUE) ma zastosowanie do wszystkich dziedzin robotyki i że należy w pełni przestrzegać unijnych ram prawnych w zakresie ochrony danych; zwraca się w związku z tym o wyjaśnienie w ramach wdrażania ogólnego rozporządzenia o ochronie danych zasad i kryteriów dotyczących stosowania kamer i czujników w robotach; wzywa Komisję do dopilnowania, by zasady ochrony danych, takie jak uwzględnianie ochrony prywatności na etapie projektu oraz domyślna ochrona prywatności, minimalizacja danych, celowość, a także przejrzyste mechanizmy kontroli podmiotów danych i odpowiednie środki ochrony prawnej były zgodne z unijnym prawem ochrony danych oraz by ich przestrzegano, a także by opracowano odpowiednie zalecenia i normy oraz włączano je do unijnych strategii politycznych;

21.  zaznacza, że swobodny przepływ danych jest podstawą gospodarki cyfrowej oraz rozwoju w dziedzinie robotyki i sztucznej inteligencji; podkreśla, że wysoki poziom bezpieczeństwa systemów robotycznych, w tym ich wewnętrznych systemów i przepływów danych, ma kluczowe znaczenie dla odpowiedniego stosowania robotów i sztucznej inteligencji; zwraca uwagę, że należy zapewnić ochronę sieci połączonych wzajemnie robotów i sztucznej inteligencji, aby zapobiec potencjalnym naruszeniom bezpieczeństwa; podkreśla również, że wysoki poziom bezpieczeństwa, ochrona danych osobowych i poszanowanie prywatności mają zasadnicze znaczenie dla komunikacji między ludźmi a robotami i sztuczną inteligencją; podkreśla odpowiedzialność projektantów robotów i sztucznej inteligencji za takie opracowywanie produktów, aby były one bezpieczne, pewne i dostosowane do spełnianego przez nie celu; wzywa Komisję i państwa członkowskie do wspierania i tworzenia zachęt do rozwoju niezbędnej technologii, w tym do uwzględniania bezpieczeństwa już w fazie projektowania;

Standaryzacja, bezpieczeństwo i ochrona

22.  podkreśla, że kwestia określenia standardów i zapewnienia interoperacyjności ma zasadnicze znaczenie, jeśli chodzi o zapewnienie konkurencji w obszarze sztucznej inteligencji i technologii robotycznych w przyszłości; wzywa Komisję do kontynuowania prac nad harmonizacją standardów technicznych na szczeblu międzynarodowym, w szczególności we współpracy z europejską organizacją normalizacyjną oraz Międzynarodową Organizacją Normalizacyjną, aby wspierać innowacje, unikać rozdrobnienia rynku wewnętrznego, a także zagwarantować wysoki poziom bezpieczeństwa produktów i ochrony konsumenta, a w stosownych przypadkach – odpowiednie minimalne normy bezpieczeństwa w środowisku pracy; podkreśla, jak ważne jest stosowanie zgodnej z prawem inżynierii wstecznej i legalnych otwartych standardów dla zmaksymalizowania wartości innowacji i zagwarantowania wzajemnego porozumiewania się przez roboty; z zadowoleniem przyjmuje w tym kontekście utworzenie specjalnych komitetów technicznych, takich jak ISO/TC 299 ds. robotyki, które zajmują się wyłącznie opracowywaniem norm w dziedzinie robotyki;

23.  podkreśla, że testowanie robotów w warunkach rzeczywistych jest niezbędne do ustalenia i oceny ryzyka, jakie się z nimi wiąże, a także do określenia i oceny ich rozwoju technicznego poza warunkami czysto eksperymentalnymi w warunkach laboratoryjnych; podkreśla w tym względzie, że testowanie robotów w warunkach rzeczywistych, zwłaszcza w miastach i na drogach, wiąże się z licznymi trudnościami, np. napotyka bariery spowalniające przebieg etapu testów i wymaga skutecznej strategii i mechanizmu monitorowania; wzywa Komisję do opracowania jednolitych dla wszystkich państw członkowskich kryteriów stanowiących podstawę do określania przez nie obszarów, w których eksperymenty z robotami są dozwolone, zgodnie z zasadą ostrożności;

Autonomiczne środki transportu

a)Pojazdy autonomiczne

24.  podkreśla, że transport autonomiczny obejmuje wszystkie formy zdalnie kierowanych, zautomatyzowanych i zintegrowanych z siecią i autonomicznych środków transportu drogowego, kolejowego, wodnego i lotniczego, w tym pojazdy, pociągi, statki, promy, statki powietrzne i drony, a także wszystkie przyszłe formy rozwoju i innowacji w tym sektorze;

25.  uważa, że przemysł motoryzacyjny najpilniej potrzebuje skutecznej Unii i określonych na poziomie światowym zasad, które pozwoliłyby zapewnić transgraniczny rozwój pojazdów automatycznych i autonomicznych, aby można było w pełni wykorzystać ich potencjał gospodarczy i czerpać korzyści z pozytywnych efektów trendów technologicznych; podkreśla, że fragmentaryczne podejście regulacyjne utrudni wdrażanie autonomicznych systemów transportowych oraz zagrozi konkurencyjności europejskiej;

26.  zwraca uwagę, że w przypadku nieplanowanego przejęcia kontroli nad pojazdem ogromne znaczenie ma czas reakcji kierowcy, dlatego wzywa zainteresowane strony do przedstawienia realistycznych wartości dla określenia kwestii bezpieczeństwa i odpowiedzialności;

27.  jest zdania, że przejście do pojazdów autonomicznych wywrze wpływ na następujące zagadnienia: odpowiedzialność cywilna (odpowiedzialność i ubezpieczenie), bezpieczeństwo na drogach, wszystkie kwestie związane ze środowiskiem (np. efektywność energetyczna, wykorzystanie odnawialnych źródeł energii i powiązanych technologii), dane (np. dostęp do danych, ich ochrona, prywatność i wymiana danych), infrastruktura informatyczna (np. wysokie zagęszczenie skutecznej i niezawodnej łączności) oraz zatrudnienie (np. tworzenie i utrata miejsc pracy, szkolenie kierowców pojazdów ciężarowych w zakresie wykorzystywania pojazdów zautomatyzowanych); zwraca uwagę, że niezbędne będą duże inwestycje w infrastrukturę drogową, energetyczną i informacyjno-komunikacyjną; wzywa Komisję, by uwzględniła wyżej wymienione kwestie w swych pracach dotyczących pojazdów autonomicznych;

28.  podkreśla istotne znaczenie wiarygodnych informacji o położeniu oraz czasu ich dostarczania przez europejskie programy nawigacji satelitarnej Galileo i EGNOS dla wprowadzania pojazdów autonomicznych, nalega w związku z tym na zakończenie konstrukcji i umieszczenie na orbicie satelitów, które są potrzebne w celu zakończenia budowy europejskiego systemu pozycjonowania Galileo;

29.  zwraca uwagę na dużą wartość dodaną pojazdów autonomicznych dla osób o ograniczonej możliwości poruszania się, ponieważ umożliwiają one tym osobom skuteczniejsze samodzielne uczestnictwo w transporcie drogowym, a tym samym ułatwiają ich życie codzienne;

b) Drony (zdalnie kierowane bezzałogowe systemy powietrzne – BSP)

30.  odnotowuje godne uwagi postępy w rozwoju technologii dronów, zwłaszcza w dziedzinie poszukiwań i ratownictwa; podkreśla znaczenie europejskich ram prawnych dotyczących stosowania dronów dla ochrony bezpieczeństwa i prywatności obywateli UE oraz wzywa Komisję do podjęcia działań w związku z zaleceniami wysuniętymi w rezolucji Parlamentu Europejskiego z dnia 29 października 2015 r. w sprawie bezpiecznego korzystania ze zdalnie kierowanych bezzałogowych systemów powietrznych (RPAS), powszechnie znanych jako bezzałogowe statki powietrzne (UAV) w dziedzinie lotnictwa cywilnego(5) ; wzywa Komisję do dokonania oceny masowego wykorzystywania dronów z perspektywy bezpieczeństwa; wzywa Komisję do zbadania konieczności wprowadzenia obowiązkowego systemu identyfikacji i śledzenia BSP, który pozwala ustalić pozycję statku powietrznego w czasie rzeczywistym podczas używania go; przypomina, że należy zapewnić jednorodność i bezpieczeństwo bezzałogowych statków powietrznych za pomocą środków przewidzianych w rozporządzeniu Parlamentu Europejskiego i Rady (WE) nr 216/2008(6) ;

Roboty do opieki

31.  podkreśla, że badania i rozwój w sektorze robotów do opieki nad osobami starszymi stały się z czasem powszechniejsze i tańsze, dzięki czemu możliwe jest opracowywanie bardziej funkcjonalnych produktów, w większym stopniu akceptowanych przez konsumentów; zwraca uwagę na szeroki wachlarz zastosowań takich technologii w profilaktyce chorób osób starszych, osób niepełnosprawnych oraz osób cierpiących na demencję, zaburzenia poznawcze i utratę pamięci, zapewnianiu im pomocy, monitorowaniu ich, stymulowaniu aktywności, a także zapewnianiu im towarzystwa;

32.  zwraca uwagę, że kontakt z drugim człowiekiem jest jednym z podstawowych aspektów opieki nad ludźmi; uważa, że zastąpienie człowieka robotem może odczłowieczyć czynności opiekuńcze, z drugiej strony przyznaje, że roboty mogą wykonywać automatyczne zadania opiekuńcze i ułatwić pracę opiekunów, a jednocześnie przyczynić się do rozszerzenia opieki przez człowieka i większego ukierunkowania procesu rehabilitacji, dzięki czemu personel medyczny i osoby sprawujące opiekę będą mogli poświęcić więcej czasu na diagnostykę i lepsze planowanie możliwości leczenia; podkreśla, że pomimo potencjału robotyki w dziedzinie poprawy mobilności i integracji osób niepełnosprawnych i starszych, opieka ludzka wciąż będzie niezbędna i będzie nadal ważnym źródłem interakcji społecznych, których nie można w pełni zastąpić;

Roboty medyczne

33.  podkreśla znaczenie odpowiedniego kształcenia, szkolenia i przygotowywania pracowników służby zdrowia, takich jak lekarze i osoby świadczące usługi opiekuńcze, dla zapewniania możliwie najwyższego poziomu kompetencji zawodowych, a także dla ochrony zdrowia pacjentów; zwraca uwagę na potrzebę zdefiniowania minimalnych wymogów zawodowych, jakie musi posiadać chirurg, aby móc posługiwać się robotami chirurgicznymi i obsługiwać je; uważa, że zasadnicze znaczenie ma przestrzeganie zasady kontrolowanej autonomii robotów, zgodnie z którą o wstępnym planie leczenia i ostatecznym wyborze sposobu jego realizacji decyduje zawsze chirurg; podkreśla szczególne znaczenie szkolenia użytkowników, aby mogli oni zapoznać się z wymogami technicznymi w tej dziedzinie; zwraca uwagę na coraz częściej obserwowaną tendencję do samodzielnego diagnozowania się za pomocą ruchomego robota, a co za tym idzie, na potrzebę szkolenia lekarzy w zakresie radzenia sobie z samodzielnie zdiagnozowanymi przypadkami; uważa, że wykorzystywanie takich technologii nie powinno umniejszać relacji pacjent–lekarz ani jej szkodzić, ale powinno zapewniać lekarzom pomoc w stawianiu diagnozy lub leczeniu pacjentów z myślą o ograniczeniu ryzyka wystąpienia błędu ludzkiego oraz poprawie jakości życia i jego oczekiwanej długości;

34.  jest przekonany, że roboty medyczne będą coraz częściej stosowane do przeprowadzania wysoce precyzyjnych zabiegów chirurgicznych i wykonywania powtarzalnych procedur oraz że niosą one ze sobą potencjał poprawy wyników rehabilitacji i są źródłem wysoce skutecznego wsparcia logistycznego w szpitalach; zwraca uwagę, że roboty medyczne mogą przyczynić się także do obniżenia kosztów opieki zdrowotnej przez umożliwienie pracownikom służby zdrowia przeniesienia uwagi z leczenia chorób na profilaktykę oraz przez zapewnienie większej ilości środków budżetowych na rzecz lepszego dostosowania do różnorodnych potrzeb pacjentów, ustawicznego kształcenia pracowników służby zdrowia i prowadzenia badań naukowych;

35.  wzywa Komisję, aby przed wejściem w życie rozporządzenia (EU) 2017/745 w sprawie urządzeń medycznych dopilnowała, aby procedury testowania nowych zrobotyzowanych urządzeń medycznych były bezpieczne, zwłaszcza w przypadku, gdy urządzenia są wszczepiane do ciała ludzkiego;

Naprawianie i usprawnianie organizmu ludzkiego

36.  odnotowuje ogromny postęp i dalszy potencjał robotyki w dziedzinie naprawiania uszkodzonych organów lub funkcji ciała ludzkiego i kompensowania ich pracy, ale również złożone kwestie związane w szczególności z możliwością usprawnienia organizmu ludzkiego, ponieważ roboty medyczne, a w szczególności systemy cyberfizyczne (CPS), mogą zmienić rozumienie przez nas pojęcia zdrowego organizmu ludzkiego, ponieważ mogą być użytkowane bezpośrednio na organizmie ludzkim lub mogą być do niego wszczepiane; podkreśla znaczenie pilnego stworzenia posiadających odpowiednie zasoby kadrowe komisji etycznych ds. zastosowania robotów w szpitalach oraz innych placówkach opieki zdrowotnej, których zadaniem byłoby rozważenie niecodziennych i złożonych problemów etycznych dotyczących kwestii wpływających na leczenie pacjentów i opiekę nad nimi, a także znalezienie rozwiązań tych problemów; wzywa Komisję i państwa członkowskie, aby opracowały wytyczne mające pomóc w stworzeniu oraz funkcjonowaniu takich komisji;

37.  wskazuje na fakt, że w przypadku zastosowań medycznych o żywotnym znaczeniu, jak zrobotyzowane protezy, należy zapewnić stały i zrównoważony dostęp do konserwacji, ulepszeń, a w szczególności do aktualizacji oprogramowania, które eliminują wady działania i niedociągnięcia;

38.  zaleca utworzenie niezależnych, godnych zaufania podmiotów w celu dysponowania środkami koniecznymi do zapewnienia usług osobom noszącym niezbędne zaawansowane urządzenia medyczne, m.in. przez ich konserwację, naprawę i ulepszanie, w tym aktualizacje oprogramowania, w szczególności w przypadku, gdy pierwotny dostawca nie świadczy już tego rodzaju usług; sugeruje nałożenie na producentów obowiązku zapewniania tym niezależnym i godnym zaufania podmiotom wyczerpujących instrukcji dotyczących konstrukcji, w tym kodu źródłowego oprogramowania, na wzór ustanowionego prawnie przekazywania publikacji do biblioteki narodowej;

39.  wskazuje na zagrożenia związane z możliwością złamania zabezpieczeń, wyłączenia lub wykasowania pamięci systemów cyberfizycznych zintegrowanych z ciałem ludzkim, ponieważ może to zagrażać zdrowiu człowieka, a w skrajnych przypadkach nawet jego życiu, dlatego podkreśla priorytetowy charakter ochrony tych systemów;

40.  podkreśla wagę zagwarantowania równego dostępu wszystkich obywateli do takich innowacji , narzędzi i interwencji technologicznych; wzywa Komisję i państwa członkowskie do promowania rozwoju technologii wspomagających, aby wspierać rozwój tych technologii i ich przyjmowanie przez tych, którym są one potrzebne, zgodnie z art. 4 Konwencji ONZ o prawach osób niepełnosprawnych, której Unia jest stroną;

Edukacja i zatrudnienie;

41.  zwraca uwagę na prognozę Komisji, zgodnie z którą do 2020 r. w Europie może wystąpić niedobór ok. 825 000 specjalistów w dziedzinie technologii informacyjno-komunikacyjnych oraz że 90 % miejsc pracy będzie wymagało przynajmniej podstawowych umiejętności w tej dziedzinie; z zadowoleniem odnosi się do inicjatywy Komisji, która zaproponowała stworzenie planu działania dotyczącego ewentualnego stosowania i przeglądu ram kompetencji cyfrowych, opisu kompetencji cyfrowych dla wszystkich poziomów nauczania oraz wzywa Komisję do udzielenia znaczącego wsparcia dla rozwijania zdolności cyfrowych we wszystkich grupach wiekowych i niezależnie do statusu zatrudnienia, co ma być pierwszym krokiem w kierunku lepszego zestrojenia niedoborów i zapotrzebowania na rynku pracy; podkreśla, że rozwój robotyki wymaga, aby państwa członkowskie stworzyły bardziej elastyczne systemy szkolenia i kształcenia, tak by zagwarantować, że strategie w zakresie budowania umiejętności będą odpowiadać potrzebom gospodarki robotycznej;

42.  jest zdania, że zainteresowanie większej liczby kobiet karierą w tej dziedzinie oraz zatrudnianie większej liczby kobiet na stanowiskach w sektorze cyfrowym przyniosłoby korzyści temu sektorowi, samym kobietom oraz gospodarce Europy; wzywa Komisję i państwa członkowskie do podjęcia inicjatyw mających na celu wspieranie kobiet w dziedzinie technologii informacyjno-komunikacyjnych oraz poprawę ich umiejętności cyfrowych;

43.  wzywa Komisję, aby zaczęła analizować średnioterminowe i długoterminowe tendencje na rynku pracy i bliżej się im przyglądać, zwracając szczególną uwagę na tworzenie, przenoszenie i likwidowanie miejsc pracy w różnych dziedzinach/obszarach kwalifikacji, aby zorientować się, w jakich dziedzinach tworzy się miejsca pracy, a w jakich się je likwiduje wskutek coraz powszechniejszego wykorzystywania robotów;

44.  podkreśla znaczenie przewidywania zmian w społeczeństwie, z uwzględnieniem wpływu rozwoju i stosowania robotyki i sztucznej inteligencji na zatrudnienie; zwraca się do Komisji o przeanalizowanie różnych możliwych scenariuszy i ich wpływu na rentowność systemów zabezpieczeń społecznych państw członkowskich

45.  podkreśla ważność elastycznych umiejętności i kładzie nacisk na znaczenie umiejętności społecznych, cyfrowych i twórczego myślenia w edukacji; wyraża przekonanie, że poza wiedzą czysto akademicką zdobywaną w szkole ważne jest uczenie się przez całe życie poprzez działanie na późniejszych etapach życia;

46.  zauważa ogromny potencjał robotyki dla poprawy bezpieczeństwa w miejscu pracy przez przekazanie pewnej liczby niebezpiecznych zadań robotom zamiast ludziom, ale jednocześnie dostrzega też potencjał stworzenia szeregu nowych zagrożeń z uwagi na rosnącą liczbę interakcji między człowiekiem a robotem w miejscu pracy; podkreśla w związku z tym znaczenie stosowania rygorystycznych i przyszłościowych zasad w odniesieniu do interakcji między człowiekiem a robotem w celu zagwarantowania zdrowia, bezpieczeństwa i przestrzegania praw podstawowych w miejscu pracy;

Wpływ na środowisko

47.  zwraca uwagę, że rozwój robotyki i sztucznej inteligencji powinien odbywać się w sposób zapewniający, że wpływ na środowisko będzie ograniczony dzięki efektywnemu zużywaniu energii, efektywności energetycznej osiąganej poprzez promowanie wykorzystywania energii ze źródeł odnawialnych i rzadkich materiałów, wytwarzaniu minimalnej ilości odpadów, takich jak odpady elektryczne i elektroniczne oraz zapewnieniu możliwości napraw; w związku z tym zachęca Komisję do włączania zasad gospodarki o obiegu zamkniętym do każdej unijnej polityki w dziedzinie robotyki; zauważa, że stosowanie robotyki będzie miało również pozytywny wpływ na środowisko, zwłaszcza w dziedzinie rolnictwa, zaopatrzenia w żywność i transportu, głównie dzięki mniejszym rozmiarom maszyn i mniejszemu użyciu nawozów, zużyciu energii i wody, a także dzięki rolnictwu precyzyjnemu i optymalizacji tras przejazdu;

48.  podkreśla, że stosowanie systemów cyberfizycznych będzie prowadzić do stworzenia systemów energetycznych i infrastrukturalnych, które będą w stanie kontrolować przepływ energii elektrycznej od producenta do konsumenta, a także wpłynie na powstanie tzw. prosumentów energii, którzy jednocześnie wytwarzają i zużywają energię, co przyniesie istotne korzyści dla środowiska;

Odpowiedzialność

49.  uważa, że odpowiedzialność cywilna za szkody spowodowane przez robota jest kluczową kwestią, którą również należy przeanalizować i zająć się nią na szczeblu UE, aby zapewnić konsumentom i przedsiębiorstwom ten sam poziom efektywności, przejrzystości i spójności przy zapewnianiu pewności prawnej w całej Unii Europejskiej, z korzyścią dla obywateli, konsumentów i przedsiębiorstw;

50.  zauważa, że rozwój technologii w zakresie robotyki będzie wymagał większego zrozumienia potrzeby wspólnych podstaw koniecznych w związku z połączoną działalnością człowieka i robota, które powinny być oparte na dwóch stosunkach wzajemnej zależności, mianowicie przewidywalności i sterowalności; zwraca uwagę, że te dwa stosunki wzajemnej zależności mają kluczowe znaczenie dla określenia, jakimi informacjami mają się dzielić ludzie i roboty oraz jak można uzyskać wspólne podstawy dla ludzi i robotów, aby umożliwić ich sprawne połączone działanie;

51.  zwraca się do Komisji o przedłożenie, na podstawie art. 114 TFUE, wniosku dotyczącego instrumentu prawnego w sprawie kwestii prawnych związanych z możliwym do przewidzenia rozwojem i wykorzystaniem robotyki i sztucznej inteligencji w ciągu najbliższych 10–15 lat, w połączeniu z instrumentami o charakterze nieustawodawczym, takimi jak kodeksy postępowania, o których mowa w zaleceniach przedstawionych w załączniku;

52.  jest zdania, że jakiekolwiek rozwiązanie prawne Komisja zastosuje do kwestii odpowiedzialności cywilnej za szkody spowodowane przez robota w przypadkach innych niż szkody materialne, rozwiązanie to nie może pod żadnym względem ograniczać rodzaju lub zakresu szkód, za jakie można uzyskać odszkodowanie, nie powinno ono również ograniczać form odszkodowania oferowanego osobie poszkodowanej wyłącznie dlatego, że przyczyną szkody był czynnik pozaludzki;

53.  uważa, że przyszły instrument prawny powinien być oparty na szczegółowej ocenie przeprowadzonej przez Komisję w celu określenia, czy należy zastosować odpowiedzialność na zasadzie ryzyka czy też podejście zakładające zarządzanie ryzykiem;

54.  odnotowuje jednocześnie, że odpowiedzialność na zasadzie ryzyka wymaga jedynie dowodu powstania szkody oraz ustalenia związku przyczynowo-skutkowego pomiędzy szkodliwym funkcjonowaniem robota a szkodą, jaką poniosła dana osoba;

55.  odnotowuje, że podejście zakładające zarządzanie ryzykiem nie skupia się na osobie, „która działała w sposób niedbały” jako ponoszącej odpowiedzialność indywidualną, ale na osobie, która może, w określonych okolicznościach, zminimalizować ryzyko i podjąć działania w odniesieniu do negatywnych skutków;

56.  jest zdania, że po wskazaniu ostatecznie odpowiedzialnych stron ich odpowiedzialność powinna zasadniczo być proporcjonalna do poziomu instrukcji, jakie wydano robotowi, i stopnia jego autonomii, a zatem im dany robot ma większą zdolność uczenia się lub większą autonomię i im dłużej trwało „szkolenie” robota, tym większa odpowiedzialność powinna spoczywać na osobie prowadzącej szkolenie; zauważa w szczególności, że, poszukując osoby, która jest rzeczywiście odpowiedzialna za szkodliwe zachowanie robota, nie należy mylić umiejętności wynikających ze „szkolenia” robota z umiejętnościami zależącymi ściśle od zdolności robota do samodzielnego uczenia się; zauważa, że przynajmniej na obecnym etapie odpowiedzialność musi spoczywać na człowieku, a nie na robocie;

57.  zwraca uwagę, że ewentualnym rozwiązaniem złożonego problemu ustalania odpowiedzialności za szkody spowodowane przez coraz bardziej autonomiczne roboty może być ubezpieczenie obowiązkowe, na wzór ubezpieczeń samochodowych; niemniej jednak podkreśla, że w przeciwieństwie do ubezpieczeń od wypadków drogowych, gdzie ubezpieczeniem obejmuje się działania i błędy człowieka, w systemie ubezpieczeń w dziedzinie robotyki należy wziąć pod uwagę wszelką możliwą odpowiedzialność w łańcuchu;

58.  jest zdania, że – podobnie jak w przypadku ubezpieczeń samochodowych – taki system ubezpieczeń mógłby zostać uzupełniony funduszem, aby można było naprawiać szkody w przypadkach, które nie są objęte ubezpieczeniem; wzywa sektor ubezpieczeń do opracowywania nowych produktów i rodzajów ofert, które będą odpowiadały poziomowi postępu w dziedzinie robotyki;

59.  wzywa Komisję, by – przeprowadzając oceny skutków swych przyszłych instrumentów prawnych – zbadała, przeanalizowała i rozważyła konsekwencje wszystkich możliwych rozwiązań prawnych, takich jak:

   a) stworzenie w odpowiednich wypadkach i w razie potrzeby w odniesieniu do określonych kategorii robotów systemu ubezpieczeń obowiązkowych, w którym – podobnie jak w przypadku samochodów – producenci lub właściciele robotów zobowiązani byliby wykupić ubezpieczenie od szkód wyrządzonych potencjalnie przez ich roboty;
   b) zagwarantowanie, że fundusz odszkodowawczy będzie służył nie tylko gwarantowaniu odszkodowania w przypadku, gdy szkoda wyrządzona przez robota nie jest objęta ubezpieczeniem;
   c) umożliwienie producentowi, programiście, właścicielowi lub użytkownikowi robota korzystania z ograniczeń odpowiedzialności, jeżeli płacą oni składki na fundusz odszkodowawczy, a także wykupienia wspólnego ubezpieczenia gwarantującego odszkodowanie w przypadku, gdy szkoda została spowodowana przez robota;
   d) stworzenie ogólnego funduszu dla wszystkich małych robotów autonomicznych lub stworzenie indywidualnego funduszu dla wszystkich kategorii robotów oraz decyzja o tym, czy składka płacona byłaby jednorazowo w chwili wprowadzania robota do obrotu, czy też opłacana byłaby okresowo, przez cały czas funkcjonowania robota;
   e) zapewnienie widoczności powiązania pomiędzy robotem a jego funduszem za pomocą indywidualnego numeru rejestracyjnego wpisywanego do specjalnego rejestru unijnego, który umożliwiłby wszystkim osobom mającym kontakt z robotem uzyskanie informacji na temat charakteru tego funduszu, ograniczeń odpowiedzialności w przypadku zniszczenia mienia, nazwisk i funkcji osób, które przyczyniły się do powstania robota, oraz wszelkich innych odnośnych informacji;
   f) nadanie robotom specjalnego statusu prawnego w perspektywie długoterminowej, aby przynajmniej najbardziej rozwiniętym robotom autonomicznym można było nadać status osób elektronicznych odpowiedzialnych za naprawianie wszelkich szkód, jakie mogłyby wyrządzić, oraz ewentualne stosowanie osobowości elektronicznej w przypadkach podejmowania przez roboty autonomicznych decyzji lub ich niezależnych interakcji z osobami trzecimi;

Aspekty międzynarodowe

60.  zauważa, że obowiązujące ogólne przepisy prawa prywatnego międzynarodowego dotyczące wypadków drogowych mające zastosowanie w Unii nie wymagają pilnie znacznej modyfikacji, aby dostosować je do rozwoju pojazdów autonomicznych, jednak uproszczenie aktualnego podwójnego systemu określania obowiązujących przepisów (w oparciu o rozporządzenie (WE) nr 864/2007 Parlamentu Europejskiego i Rady(7) oraz konwencję haską z dnia 4 maja 1971 r. o prawie właściwym dla wypadków drogowych) poprawiłoby pewność prawną oraz ograniczyłoby tzw. turystykę sądową;

61.  zwraca uwagę na konieczność rozważenia wprowadzenia zmian do umów międzynarodowych, takich jak konwencja wiedeńska o ruchu drogowym z dnia 8 listopada 1968 r. oraz konwencja haska o prawie właściwym dla wypadków drogowych;

62.  oczekuje, że Komisja dopilnuje, by państwa członkowskie jednolicie stosowały obowiązujące prawo międzynarodowe, na przykład konwencję wiedeńską o ruchu drogowym, która wymaga jednolitej zmiany, aby umożliwić wprowadzenie jazdy bez kierowcy, a także wzywa Komisję, państwa członkowskie i cały sektor do niezwłocznego wdrożenia celów deklaracji amsterdamskiej;

63.  z całą mocą zachęca do współpracy międzynarodowej w zakresie analizy wyzwań społecznych, etycznych i prawnych, a następnie zdefiniowania norm regulacyjnych pod auspicjami Organizacji Narodów Zjednoczonych;

64.  zwraca uwagę, że ograniczenia oraz warunki określone w rozporządzeniu (WE) nr 428/2009 Parlamentu Europejskiego i Rady(8) dotyczącym produktów podwójnego zastosowania odnoszące się do handlu takimi produktami – towarami, oprogramowaniem oraz technologią, która może mieć zastosowanie zarówno cywilne, jak i wojskowe lub może przyczynić się do rozprzestrzeniania broni masowego rażenia – powinny mieć również zastosowanie do robotyki;

Kwestie końcowe

65.  zwraca się do Komisji, na podstawie art. 225 TFUE, o przedłożenie, na podstawie art. 114 TFUE, wniosku dotyczącego dyrektywy w sprawie przepisów prawa cywilnego odnoszących się do robotyki w oparciu o szczegółowe zalecenia zawarte w załączniku do niniejszej rezolucji;

66.  potwierdza, że zalecenia te są zgodne z prawami podstawowymi i zasadą pomocniczości;

67.  uznaje, że wymagany wniosek będzie miał skutki finansowe wyłącznie w razie utworzenia nowej agencji europejskiej;

o
o   o

68.  zobowiązuje swojego przewodniczącego do przekazania niniejszej rezolucji oraz zaleceń zawartych w załączniku Komisji i Radzie.

(1) Dyrektywa Rady 85/374/EWG z dnia 25 lipca 1985 r. w sprawie zbliżenia przepisów ustawowych, wykonawczych i administracyjnych Państw Członkowskich dotyczących odpowiedzialności za produkty wadliwe (Dz.U. L 210 z 7.8.1985, s. 29).
(2) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.U. L 119 z 4.5.2016, s. 1).
(3) Robot nie może skrzywdzić człowieka ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy. (2) Robot musi być posłuszny rozkazom człowieka, chyba że stoją one w sprzeczności z Pierwszym Prawem. (3) Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem (zob. „Zabawa w berka” (ang. Runaround), I. Asimov, 1943 r.) oraz (0) Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
(4) Zob. deklaracja Schumana (1950): „Europa nie powstanie od razu, czy też w oparciu o jeden plan. Będzie powstawała przez konkretne realizacje, tworząc najpierw rzeczywistą solidarność.”
(5) Teksty przyjęte, P8_TA(2015)0390.
(6) Rozporządzenie Parlamentu Europejskiego i Rady (WE) nr 216/2008 z dnia 20 lutego 2008 r. w sprawie wspólnych zasad w zakresie lotnictwa cywilnego i utworzenia Europejskiej Agencji Bezpieczeństwa Lotniczego oraz uchylające dyrektywę Rady 91/670/EWG, rozporządzenie (WE) nr 1592/2002 i dyrektywę 2004/36/WE (Dz.U. L 79 z 19.3.2008, s. 1).
(7) Rozporządzenie (WE) nr 864/2007 Parlamentu Europejskiego i Rady z dnia 11 lipca 2007 r. dotyczące prawa właściwego dla zobowiązań pozaumownych (Rzym II) (Dz.U. L 199 z 31.7.2007, s. 40).
(8) Rozporządzenie Rady (WE) nr 428/2009 z dnia 5 maja 2009 r. ustanawiające wspólnotowy system kontroli wywozu, transferu, pośrednictwa i tranzytu w odniesieniu do produktów podwójnego zastosowania (Dz.U. L 134 z 29.5.2009, s. 1).


ZAŁĄCZNIK DO REZOLUCJI:

ZALECENIA DOTYCZĄCE TREŚCI POSTULOWANEGO WNIOSKU

Definicja i klasyfikacja „inteligentnych robotów”

Należy opracować wspólną europejską definicję inteligentnych autonomicznych robotów, wprowadzając w stosownych przypadkach definicje podkategorii takich robotów z uwzględnieniem następujących cech:

–  zdolność zdobycia autonomii za pomocą czujników lub wymiany danych z otoczeniem (wzajemna łączność) i analizy tych danych;

–  zdolność uczenia się w oparciu o doświadczenie i interakcję;

–  forma wsparcia fizycznego robota;

–  zdolność dostosowania zachowania i działań do otoczenia.

Rejestracja inteligentnych robotów

Do celów identyfikowalności, a także aby ułatwić wdrażanie dalszych zaleceń, należy wprowadzić system rejestracji zaawansowanych robotów oparty na uzgodnionych kryteriach klasyfikacji robotów. Ten system rejestracji oraz rejestr powinny mieć charakter ogólnounijny i obejmować rynek wewnętrzny, a za jego prowadzenie mogłaby być odpowiedzialna unijna agencja ds. robotyki i sztucznej inteligencji, o ile takowa zostanie utworzona.

Odpowiedzialność cywilna

Rozwiązanie prawne zastosowane do kwestii odpowiedzialności robotów i sztucznej inteligencji w przypadkach innych niż szkody materialne nie może w jakikolwiek sposób ograniczać rodzaju lub zakresu szkód, za które można uzyskać odszkodowanie, nie powinno ono również ograniczać form odszkodowania oferowanego osobie poszkodowanej wyłącznie dlatego, że przyczyną szkody był czynnik pozaludzki.

Przyszły instrument prawny powinien być oparty na szczegółowej ocenie przeprowadzonej przez Komisję w celu określenia, czy należy zastosować odpowiedzialność na zasadzie ryzyka czy też podejście zakładające zarządzanie ryzykiem.

Należy utworzyć obowiązkowy system ubezpieczeń, który mógłby opierać się na zobowiązaniu producenta do wykupienia ubezpieczenia w związku z wytwarzanymi przez siebie automatycznymi robotami.

Taki system ubezpieczeń mógłby zostać uzupełniony funduszem, aby możliwe było dokonywanie napraw szkód w przypadkach, które nie są objęte ubezpieczeniem.

Wszelkie decyzje polityczne dotyczące zasad odpowiedzialności cywilnej mających zastosowanie do robotów i sztucznej inteligencji należy podejmować po konsultacjach z podmiotami realizującymi ogólnoeuropejski projekt badawczo-rozwojowy w zakresie robotyki i neuronauki, jako że naukowcy i eksperci są w stanie ocenić wszystkie powiązane rodzaje ryzyka i konsekwencje.

Interoperacyjność, dostęp do kodu oraz prawo własności intelektualnej

Należy zapewnić interoperacyjność autonomicznych robotów podłączonych do sieci, które wchodzą we wzajemne interakcje. W przypadkach gdy zachodzi taka potrzeba, powinno się umożliwić dostęp do kodu źródłowego, danych wejściowych i szczegółów konstrukcyjnych, w celu zbadania wypadków oraz szkód spowodowanych przez inteligentne roboty, jak również w celu zapewnienia ich nieprzerwanego działania, dostępności, niezawodności i bezpieczeństwa.

Karta dotycząca robotyki

Przedstawiając propozycje aktów prawnych dotyczących robotyki, Komisja powinna uwzględnić zasady zapisane w poniższej Karcie dotyczącej robotyki.

KARTA DOTYCZĄCA ROBOTYKI

Proponowany kodeks postępowania etycznego w dziedzinie robotyki będzie stanowić podstawę identyfikacji, kontroli oraz przestrzegania podstawowych zasad etycznych, począwszy od fazy projektu, a skończywszy na fazie rozwoju.

Ramy te, przygotowane w porozumieniu z podmiotami realizującymi ogólnoeuropejski projekt badawczo-rozwojowy w zakresie robotyki i neuronauki, muszą zostać opracowane w sposób przemyślany, aby w poszczególnych przypadkach możliwe było dokonywanie pojedynczych zmian w celu stwierdzenia, czy dane zachowanie jest prawidłowe czy nieprawidłowe w danej sytuacji, a także w celu podjęcia decyzji zgodnie z wcześniej określoną hierarchią wartości.

Kodeks nie powinien zastępować potrzeby znalezienia rozwiązań dla wszystkich większych wyzwań prawnych w tej dziedzinie, powinien jedynie pełnić funkcję uzupełniającą. Ułatwi on raczej etyczną kategoryzację robotów, wzmocni działania na rzecz odpowiedzialnej innowacji w tej dziedzinie, a także będzie odpowiedzią na obawy społeczeństwa.

Należy położyć szczególny nacisk na etap badań i rozwoju odnośnej ścieżki technologicznej (proces konstrukcji, przegląd etyczny, kontrole itp.). Celem karty powinno być rozwiązanie potrzeby stosowania norm etycznych przez naukowców, praktyków, użytkowników i projektantów, a także wprowadzenie procedury umożliwiającej znajdowanie rozwiązań odnośnych dylematów etycznych oraz sprawienie, by systemy te funkcjonowały w sposób odpowiedzialny pod względem etycznym.

KODEKS POSTĘPOWANIA ETYCZNEGO DLA INŻYNIERÓW ROBOTYKI

PREAMBUŁA

Kodeks postępowania zachęca wszystkich naukowców i projektantów do odpowiedzialnego postępowania i bezwzględnego uwzględniania potrzeby poszanowania godności, prywatności i bezpieczeństwa ludzi.

Kodeks wymaga bliskiej współpracy pomiędzy wszystkimi dyscyplinami, aby sprawić, by badania naukowe w dziedzinie robotyki prowadzone na szczeblu unijnym były bezpieczne, skuteczne i zgodne z normami etycznymi.

Kodeks postępowania obejmuje ogół działalności w dziedzinie badań naukowych i rozwoju w obszarze robotyki.

Kodeks postępowania jest dobrowolny i zawiera szereg zasad ogólnych oraz wytycznych odnoszących się do działań, jakie mają być podejmowane przez wszystkie zainteresowane strony.

Zachęca się organy finansujące badania naukowe w dziedzinie robotyki, organizacje prowadzące badania naukowe oraz komisje etyczne, by rozważały na możliwie jak najwcześniejszym etapie przyszły wpływ technologii lub przedmiotów podlegających badaniom oraz by wypracowały kulturę odpowiedzialności z myślą o wyzwaniach i możliwościach, jakie mogą pojawić się w przyszłości.

Publiczne i prywatne organy finansujące badania naukowe w dziedzinie robotyki powinny domagać się, by w związku z każdym wnioskiem o sfinansowanie działań w dziedzinie robotyki przeprowadzano i przedstawiano ocenę ryzyka. Taki kodeks powinien zakładać, że to ludzie, a nie roboty, są podmiotami ponoszącymi odpowiedzialność.

Naukowcy prowadzący badania w dziedzinie robotyki powinni postępować zgodnie z najwyższymi standardami etyki i profesjonalizmu oraz przestrzegać następujących zasad:

przynoszenia korzyści – roboty powinny służyć najlepszemu interesowi człowieka;

nieszkodliwości – zasada „po pierwsze nie szkodzić”, zgodnie z którą roboty nie powinny krzywdzić ludzi;

autonomii – zdolność do podjęcia świadomej, niewymuszonej decyzji na temat zasad interakcji z robotami;

sprawiedliwości – sprawiedliwe rozłożenie korzyści związanych z robotyką, a w szczególności przystępność cenowa robotów do opieki domowej i opieki zdrowotnej,

Prawa podstawowe

Badania w dziedzinie robotyki powinny być zgodne z prawami podstawowymi, zaś ich projektowanie, realizacja, rozpowszechnianie i wykorzystanie powinno być prowadzone w interesie jednostki i społeczeństwa jako całości i z poszanowaniem prawa do samostanowienia. Należy zawsze bezwzględnie przestrzegać godności i autonomii ludzkiej – zarówno fizycznej, jak i psychologicznej.

Środki ostrożności

Badania w dziedzinie robotyki należy prowadzić zgodnie z zasadą ostrożności, przewidując ich potencjalne skutki dla bezpieczeństwa oraz podejmując należyte środki ostrożności, proporcjonalne do wymaganego poziomu ochrony, jednocześnie wspierając postęp przynoszący korzyści dla społeczeństwa i środowiska.

Integracja

Inżynierowie zajmujący się robotyką gwarantują przejrzystość i przestrzeganie uzasadnionego prawa do dostępu do informacji przez wszystkie zainteresowane podmioty. Integracja umożliwia udział w procesie decyzyjnym wszystkim podmiotom zaangażowanym w badania nad robotyką lub nimi zainteresowanym.

Odpowiedzialność

Inżynierowie zajmujący się robotyką powinni być odpowiedzialni za wpływ na społeczeństwo, środowisko i zdrowie ludzkie, jaki robotyka może wywrzeć obecnie i w przyszłości.

Bezpieczeństwo

Projektanci robotów powinni brać pod uwagę i szanować dobrostan fizyczny, bezpieczeństwo, zdrowie i prawa ludzi. Inżynierowie zajmujący się robotyką muszą dbać o dobrobyt ludzki, przestrzegając jednocześnie praw człowieka i szybko ujawniając czynniki, które mogłyby zagrażać społeczeństwu lub środowisku.

Odwracalność

Odwracalność, jako nieodzowny warunek zdolności do kontroli, jest podstawowym założeniem przy programowaniu robotów, by zachowywały się w bezpieczny i niezawodny sposób. Model odwracalności pozwala robotowi stwierdzić, które działania są odwracalne i jak je odwrócić, jeżeli to możliwe. Zdolność do cofnięcia ostatniego działania lub sekwencji działań umożliwia użytkownikom cofnięcie niepożądanych działań i powrót do „poprawnego” etapu pracy robota.

Ochrona prywatności

Prawo do prywatności musi być bezwzględnie przestrzegane. Inżynier zajmujący się robotyką musi zagwarantować, że prywatne informacje są bezpiecznie przechowywane i wykorzystywane jedynie w odpowiedni sposób. Ponadto inżynier zajmujący się robotyką powinien zagwarantować, że poszczególne osoby nie są rozpoznawalne jako takie, chyba że zajdą wyjątkowe okoliczności i nawet wtedy wyłącznie za wyraźnym, jednoznacznym i świadomym przyzwoleniem. Należy ubiegać się o świadome ludzkie przyzwolenie i uzyskać je zanim dojdzie do jakiejkolwiek interakcji między człowiekiem a maszyną. Jako tacy projektanci zajmujący się robotyką są odpowiedzialni za rozwijanie i przestrzeganie procedur w zakresie ważnej zgody, poufności, anonimowości, sprawiedliwego traktowania i należytego postępowania. Projektanci stosują się do każdego wniosku o zniszczenie lub usunięcie jakichkolwiek powiązanych danych z wszelkich zestawów danych.

Maksymalizacja korzyści i minimalizacja szkód

Badacze powinni dążyć do maksymalizowania korzyści swojej pracy na wszystkich etapach, od powstania po upowszechnianie. Należy unikać wyrządzania szkody uczestnikom badania / ludzkiemu podmiotowi badań / uczestnikom lub podmiotom eksperymentu, próby lub badania. W przypadku gdy ryzyko jawi się jako nieunikniony i integralny element badania, należy przeprowadzić solidną ocenę ryzyka i opracować oraz stosować protokoły zarządzania nim. Zazwyczaj ryzyko szkody nie powinno być większe niż ryzyko występujące w normalnym życiu, tj. ludzie nie powinni być narażani na większe lub dodatkowe ryzyko w stosunku do ryzyka, na jakie są narażeni, prowadząc zwyczajowy styl życia. Eksploatacja systemów robotyki powinna zawsze opierać się na solidnym procesie oceny ryzyka, który powinien czerpać z zasad ostrożności i proporcjonalności.

KODEKS KOMITETÓW ETYCZNYCH DS. BADAŃ (KEB)

Zasady

Niezależność

Proces oceny etycznej powinien być niezależny od samych badań. Zasada ta uwypukla konieczność uniknięcia konfliktu interesów między badaczami a oceniającymi protokół etyczny oraz między oceniającymi a organizacyjnymi strukturami zarządzania.

Właściwość

Proces oceny etycznej powinien być prowadzony przez oceniających posiadających odpowiednią wiedzę fachową, z uwzględnieniem potrzeby rozważnego rozpatrzenia – w przypadku komitetów etycznych ds. badań – różnorodności składu i specjalnego przeszkolenia członków komitetów pod kątem kwestii etyki.

Przejrzystość i odpowiedzialność

Proces oceny powinien być rozliczalny i poddawany kontroli. KEB muszą uznać swój zakres odpowiedzialności i być odpowiednio rozmieszczone w strukturach organizacyjnych, które umożliwiają im przejrzyste działanie i procedury w celu utrzymywania i ulepszania standardów.

Rola komitetu etycznego ds. badań

KEB jest odpowiedzialny za ocenę wszystkich badań obejmujących uczestników-ludzi przeprowadzanych przez osoby zatrudnione w danej instytucji lub przez nią, zapewnianie niezależnej, kompetentnej i sporządzanej w odpowiednim czasie oceny etycznej, ochronę godności, praw i dobrobytu uczestników badań; sprawdzanie bezpieczeństwa badacza lub badaczy, uwzględnianie uzasadnionych interesów innych podmiotów, dokonywanie przemyślanych osądów wartości naukowej propozycji oraz wydawanie przemyślanych zaleceń dla badaczy, jeżeli okaże się, że wniosek wykazuje braki w jakimś względzie.

Skład komitetu etycznego ds. badań

KEB powinien być interdyscyplinarny, mieć w swoim składzie zarówno mężczyzn, jak i kobiety, składać się z członków posiadających bogate doświadczenie i wiedzę fachową w dziedzinie badań nad robotyką. Mechanizm powoływania powinien gwarantować odpowiednią równowagę między wiedzą naukową, podstawami filozoficznymi, prawnymi lub etycznymi oraz poglądami członków komitetu, a także że w jego skład wejdzie co najmniej jeden członek posiadający specjalistyczną wiedzę w dziedzinie etyki, użytkownicy specjalistycznych usług zdrowotnych, edukacyjnych lub socjalnych, gdy są one przedmiotem działalności badawczej, a także osoby o szczególnej wiedzy metodologicznej odpowiadającej badaniu, które oceniają. Skład komitetu musi zostać ustalony w sposób pozwalający na uniknięcie konfliktu interesów.

Monitorowanie

Wszystkie organizacje badawcze powinny ustanowić odpowiednie procedury w celu monitorowania przebiegu badań, które uzyskały zatwierdzenie w zakresie zgodności z zasadami etyki, do czasu ich zakończenia, a także w celu zapewnienia nieprzerwanej oceny tego, czy projekt badań przewiduje ewentualne zmiany, jakie mogą nastąpić, i które mogą wymagać reakcji. Monitorowanie powinno być proporcjonalne do charakteru i stopnia ryzyka związanego z badaniem. Jeśli KEB uzna, że raport z monitorowania wzbudza poważne obawy co do aspektów etycznych prowadzonego badania, powinien zażądać pełnego i szczegółowego opisu badania wraz z pełną oceną etyczną. Jeśli sposób prowadzenia badania zostanie uznany za nieetyczny, należy rozważyć cofnięcie zezwolenia i wystąpić o zawieszenie lub przerwanie badania.

LICENCJA DLA PROJEKTANTÓW

–  Przed rozpoczęciem procesu projektowania, rozwoju i oddania do użytku takich technologii, a także w jego trakcie i po jego zakończeniu projektanci muszą wziąć pod uwagę wartości europejskie, takie jak godność, autonomia i prawo do samostanowienia, wolność i sprawiedliwość, w tym obowiązek niewyrządzania szkody, niepowodowania obrażeń, nieoszukiwania lub nieeksploatowania (narażonych) użytkowników.

–  Projektanci muszą stosować godne zaufania zasady systemu projektowania we wszystkich aspektach działania robota, zarówno w odniesieniu do konstrukcji sprzętu, jak i projektu oprogramowania, a także w przypadku wszelkiego przetwarzania danych na platformie i poza nią do celów bezpieczeństwa.

–  Projektanci muszą uwzględnić prywatność na etapie projektowania, by zagwarantować, że prywatne informacje będą bezpiecznie przechowywane i wykorzystywane jedynie we właściwy sposób.

–  Projektanci muszą zastosować oczywiste mechanizmy wycofywania (wyłączniki awaryjne), które powinny być spójne z rozsądnymi celami projektu.

–  Projektanci muszą dopilnować, by robot działał w sposób zgodny z lokalnymi, krajowymi i międzynarodowymi zasadami etycznymi i prawnymi.

–  Projektanci muszą dopilnować, by etapy podejmowania decyzji przez robota były możliwe do prześledzenia i odtworzenia.

–  Projektanci muszą zagwarantować wymóg maksymalnej przejrzystości przy programowaniu systemów robotycznych, a także przewidywalność zachowań robotów.

–  Projektanci muszą przeanalizować przewidywalność systemu człowiek-maszyna przez uwzględnienie niepewności w interpretacji i działaniu oraz ewentualnych niewydolności po stronie robotów bądź ludzi.

–  Projektanci muszą opracować narzędzia śledzenia na etapie projektowania robota. Narzędzia te będą ułatwiały opis i wyjaśnienie zachowania robota, nawet w ograniczonym zakresie, na różnych poziomach – przeznaczonych dla ekspertów, operatorów i użytkowników.

–  Projektanci muszą sporządzić protokoły projektowania i oceny oraz współpracować z potencjalnymi użytkownikami i zainteresowanymi podmiotami przy ocenie korzyści i zagrożeń związanych z robotyką, w tym kognitywnych, psychologicznych i środowiskowych.

–  Projektanci muszą dopilnować, by roboty były identyfikowalne jako roboty podczas interakcji z istotami ludzkimi.

–  Projektanci muszą zapewniać bezpieczeństwo i zdrowie osób wchodzących w interakcje z robotami i będących z nimi w kontakcie, ponieważ roboty jako produkty powinny zostać zaprojektowane z użyciem procesów gwarantujących ich bezpieczeństwo i ochronę. Inżynierowie zajmujący się robotyką muszą chronić dobro ludzkie, jednocześnie przestrzegając praw człowieka i nie mogą stosować robotów bez zagwarantowania bezpieczeństwa, skuteczności i odwracalności systemu operacyjnego.

–  Projektanci muszą uzyskać pozytywną opinię komitetu etycznego ds. badań przed testowaniem robota w rzeczywistym środowisku lub włączaniem ludzi do procedur projektowania i rozwoju.

LICENCJA DLA UŻYTKOWNIKÓW

–  Użytkownik może wykorzystywać robota bez ryzyka lub obawy przed uszczerbkiem fizycznym lub psychologicznym.

–  Użytkownik ma prawo oczekiwać, że robot wykona każde zadanie, do którego został specjalnie zaprojektowany.

–  Użytkownik powinien mieć świadomość, że robot może mieć ograniczenia percepcyjne, kognitywne lub operacyjne.

–  Użytkownik powinien szanować słabość ludzką, zarówno fizyczną, jak i psychiczną, a także potrzeby emocjonalne istot ludzkich.

–  Użytkownik powinien uwzględnić prawo jednostki do prywatności, w tym dezaktywując monitory wideo podczas czynności intymnych.

–  Użytkownik nie ma prawa zbierać, wykorzystywać ani ujawniać danych osobowych bez wyraźniej zgody osoby, której dane dotyczą.

–  Użytkownik nie ma prawa do wykorzystywania robota w sposób sprzeczny z zasadami i standardami etycznymi lub prawnymi.

–  Użytkownikowi nie wolno modyfikować robota w sposób umożliwiający jego wykorzystanie jako broni.

Ostatnia aktualizacja: 5 kwiecień 2018Informacja prawna