ZPRÁVA obsahující doporučení Komisi k rámci pro etické aspekty umělé inteligence, robotiky a souvisejících technologií
8.10.2020 - (2020/2012(INL))
Výbor pro právní záležitosti
Zpravodaj: Ibán García del Blanco
Zpravodajové (*):
Urmas Paet, Výbor pro zahraniční věci
Alexandra Geese, Výbor pro vnitřní trh a ochranu spotřebitelů
Valter Flego, Výbor pro dopravu a cestovní ruch
Assita Kanko, Výbor pro občanské svobody, spravedlnost a vnitřní věci
(*) Přidružené výbory – článek 57 jednacího řádu
(Podnět – článek 47 jednacího řádu)
- NÁVRH USNESENÍ EVROPSKÉHO PARLAMENTU
- PŘÍLOHA K NÁVRHU USNESENÍ: DOPORUČENÍ TÝKAJÍCÍ SE OBSAHU POŽADOVANÉHO NÁVRHU
- A. ZÁSADY A CÍLE POŽADOVANÉHO NÁVRHU
- B. ZNĚNÍ POŽADOVANÉHO LEGISLATIVNÍHO NÁVRHU
- VYSVĚTLUJÍCÍ PROHLÁŠENÍ
- STANOVISKO VÝBORU PRO ZAHRANIČNÍ VĚCI
- STANOVISKO VÝBORU PRO VNITŘNÍ TRH A OCHRANU SPOTŘEBITELŮ
- STANOVISKO VÝBORU PRO DOPRAVU A CESTOVNÍ RUCH
- STANOVISKO VÝBORU PRO OBČANSKÉ SVOBODY, SPRAVEDLNOST A VNITŘNÍ VĚCI
- STANOVISKO VÝBORU PRO ZAMĚSTNANOST A SOCIÁLNÍ VĚCI
- STANOVISKO VÝBORU PRO ŽIVOTNÍ PROSTŘEDÍ, VEŘEJNÉ ZDRAVÍ A BEZPEČNOST POTRAVIN
- STANOVISKO VÝBORU PRO KULTURU A VZDĚLÁVÁNÍ
- INFORMACE O PŘIJETÍ V PŘÍSLUŠNÉM VÝBORU
- JMENOVITÉ KONEČNÉ HLASOVÁNÍ V PŘÍSLUŠNÉM VÝBORU
NÁVRH USNESENÍ EVROPSKÉHO PARLAMENTU
obsahující doporučení Komisi k rámci pro etické aspekty umělé inteligence, robotiky a souvisejících technologií
Evropský parlament,
– s ohledem na článek 225 Smlouvy o fungování Evropské unie,
– s ohledem na článek 114 Smlouvy o fungování Evropské unie,
– s ohledem na Listinu základních práv Evropské unie,
– s ohledem na nařízení Rady (EU) 2018/1488 ze dne 28. září 2018, kterým se zřizuje evropský společný podnik pro vysoce výkonnou výpočetní techniku[1],
– s ohledem na směrnici Rady 2000/43/ES ze dne 29. června 2000, kterou se zavádí zásada rovného zacházení s osobami bez ohledu na jejich rasu nebo etnický původ[2] (směrnice o rasové rovnosti),
– s ohledem na směrnici Rady 2000/78/ES ze dne 27. listopadu 2000, kterou se stanoví obecný rámec pro rovné zacházení v zaměstnání a povolání[3] (směrnice o rovném zacházení v zaměstnání);
– s ohledem na nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně údajů) (GDPR)[4] a na směrnici Evropského parlamentu a Rady (EU) 2016/680 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů příslušnými orgány za účelem prevence, vyšetřování, odhalování či stíhání trestných činů nebo výkonu trestů, o volném pohybu těchto údajů a o zrušení rámcového rozhodnutí Rady 2008/977/SVV[5],
– s ohledem na interinstitucionální dohodu ze dne 13. dubna 2016 o zlepšení tvorby právních předpisů[6],
– s ohledem na návrh nařízení Evropského parlamentu a Rady ze dne 6. června 2018, kterým se zavádí program Digitální Evropa na období 2021–2027 (COM(2018)0434),
– s ohledem na sdělení Komise Evropskému parlamentu, Radě, Evropskému hospodářskému a sociálnímu výboru a Výboru regionů ze dne 11. prosince 2019 s názvem Zelená dohoda pro Evropu (COM(2019)0640),
– s ohledem na sdělení Komise Evropskému parlamentu, Radě, Evropskému hospodářskému a sociálnímu výboru a Výboru regionů ze dne 19. února 2020 o umělé inteligenci – evropský přístup k excelenci a důvěře (COM(2020)0065),
– s ohledem na sdělení Komise Evropskému parlamentu, Radě, Evropskému hospodářskému a sociálnímu výboru a Výboru regionů ze dne 19. února 2020 o evropské strategii pro data (COM(2020)0066),
– s ohledem na sdělení Komise Evropskému parlamentu, Radě, Evropskému hospodářskému a sociálnímu výboru a Výboru regionů ze dne 19. února 2020 o formování digitální budoucnosti Evropy (COM(2020)0067),
– s ohledem na závěry Rady Evropské unie z června 2020 o utváření digitální budoucnosti Evropy,
– s ohledem na své usnesení ze dne 16. února 2017 obsahující doporučení Komisi o občanskoprávních pravidlech pro robotiku[7],
– s ohledem na své usnesení ze dne 1. června 2017 o digitalizaci evropského průmyslu[8],
– s ohledem na své usnesení ze dne 12. září 2018 o autonomních zbraňových systémech[9],
– s ohledem na své usnesení ze dne 11. září 2018 o rovnosti jazyků v digitálním věku[10],
– s ohledem na své usnesení ze dne 12. února 2019 o komplexní evropské průmyslové politice v oblasti umělé inteligence a robotiky[11],
– s ohledem na zprávu odborné skupiny na vysoké úrovni pro umělou inteligenci zřízené Komisí, která byla zveřejněna dne 8. dubna 2019 pod názvem „Etické pokyny pro důvěryhodnou umělou inteligenci“,
– s ohledem na brífinky a studie vypracované na žádost Panelu pro budoucnost vědy a technologie (STOA) a pod vedením oddělení vědeckých prognóz výzkumné služby Evropského parlamentu a nazvané „What if algorithms could abide by ethical principles?“(„Co kdyby se algoritmy mohly řídit etickými zásadami?“), „Artificial Intelligence ante portas: Legal & ethical reflections“ („Umělá inteligence přede dveřmi: právní a etické úvahy“), „A governance framework for algorithmic accountability and transparency“ („Rámec pro správu algoritmické odpovědnosti a transparentnosti“), „Should we fear artificial intelligence?“ („Měli bychom se obávat umělé inteligence?“) a „The ethics of artificial intelligence: Issues and initiatives“ („Etika umělé inteligence: témata a iniciativy“),
– s ohledem na Rámcovou úmluvu Rady Evropy o ochraně národnostních menšin, na protokol č. 12 k Úmluvě o ochraně lidských práv a základních svobod a na Evropskou chartu regionálních či menšinových jazyků,
– s ohledem na doporučení Rady OECD k umělé inteligenci přijaté dne 22. května 2019,
– s ohledem na články 47 a 54 jednacího řádu,
– s ohledem na stanoviska Výboru pro zahraniční věci, Výboru pro vnitřní trh a ochranu spotřebitelů, Výboru pro dopravu a cestovní ruch, Výboru pro občanské svobody, spravedlnost a vnitřní věci, Výboru pro zaměstnanost a sociální věci, Výboru pro životní prostředí, veřejné zdraví a bezpečnost potravin a Výboru pro kulturu a vzdělávání,
– s ohledem na zprávu Výboru pro právní záležitosti (A9-0186/2020),
Úvod
A. vzhledem k tomu, že vývoj, zavádění a používání umělé inteligence (dále též „UI“), robotiky a souvisejících technologií provádějí lidé a jejich rozhodnutí určují potenciál těchto technologií být ku prospěchu společnosti;
B. vzhledem k rychlému prosazování a vývoji umělé inteligence, robotiky a souvisejících technologií, které mají potenciál vytvářet příležitosti pro podniky a být prospěšné pro občany a mohou přímo ovlivňovat všechny aspekty našich společenství, včetně základních práv a sociálních a hospodářských zásad a hodnot, a mít dlouhodobý vliv na všechny oblasti činnosti;
C. vzhledem k tomu, že umělá inteligence, robotika a související technologie budou mít za následek výrazné změny na trhu práce i na pracovišti; vzhledem k tomu, že mohou potenciálně nahradit pracovníky, kteří provádějí opakující se činnosti, usnadnit pracovní systémy pro spolupráci mezi lidmi a stroji, zvýšit konkurenceschopnost a prosperitu a vytvářet nové pracovní příležitosti pro kvalifikované pracovníky, a zároveň představovat zásadní výzvu z hlediska reorganizace pracovní síly;
D. vzhledem k tomu, že rozvoj umělé inteligence, robotiky a souvisejících technologií může také přispět k dosažení cílů v oblasti udržitelnosti Zelené dohody pro Evropu v mnoha různých odvětvích; vzhledem k tomu, že digitální technologie mohou zvýšit dopad politik při zajišťování ochrany životního prostředí; vzhledem k tomu, že mohou také přispívat k omezení dopravních zácp a emisí skleníkových plynů a látek znečišťujících ovzduší;
E. vzhledem k tomu, že v odvětvích, jako je veřejná doprava, mohou být inteligentní dopravní systémy podporované UI používány k minimalizaci čekání, optimalizaci tras, posílení nezávislosti osob se zdravotním postižením a ke zvýšení energetické účinnosti, čímž urychlují dekarbonizaci a snižují environmentální stopu;
F. vzhledem k tomu, že tyto technologie přinášejí nové podnikatelské příležitosti, které mohou přispět k oživení unijního průmyslu po skončení současné zdravotní a hospodářské krize, pokud budou více využívány, například v odvětví dopravy; vzhledem k tomu, že tyto příležitosti mohou vést k vytváření nových pracovních míst, protože zavádění těchto technologií má potenciál zvýšit úroveň produktivity podniků a přispět ke zvýšení efektivity; vzhledem k tomu, že inovativní programy v této oblasti mohou umožnit rozmach regionálních podnikatelských klastrů;
G. vzhledem k tomu, že Unie a její členské státy nesou zvláštní odpovědnost za využívání, podporu a zvyšování přidané hodnoty umělé inteligence a za zajišťování toho, aby technologie UI byly bezpečné a přispívaly k dobrým životním podmínkám a obecnému zájmu jejich občanů, jelikož mohou významně přispět k dosažení společného cíle, tj. ke zlepšení života občanů a ke zvýšení prosperity v rámci Unie, čímž přispějí k rozvoji lepších strategií a inovací v řadě oblasti a odvětví; vzhledem k tomu, že aby bylo možné plně využít potenciál umělé inteligence a informovat uživatele o přínosech a výzvách, které technologie UI přinášejí, je nezbytné začlenit UI nebo digitální gramotnost do vzdělávání a odborné přípravy, a to i z hlediska podpory digitální inkluze, a vést na unijní úrovni informační kampaně, které by přesně zachycovaly všechny aspekty rozvoje UI;
H. vzhledem k tomu, že společný regulační rámec Unie pro vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií v rámci Unie (dále jen „regulační rámec pro UI“) by měl občanům umožnit sdílet přínosy vyplývající z jejich potenciálu a zároveň je chránit před potenciálními riziky těchto technologií a podporovat důvěryhodnost těchto technologií v Unii i jinde; vzhledem k tomu, že tento rámec by měl být založen na právních předpisech a hodnotách Unie a měl by být veden zásadami transparentnosti a vysvětlitelnosti, spravedlnosti a odpovědnosti;
I. vzhledem k tomu, že tento regulační rámec má klíčový význam pro to, aby se zabránilo roztříštěnosti vnitřního trhu v důsledku odlišných vnitrostátních právních předpisů, a pomůže získat velmi potřebné investice, rozvíjet datovou infrastrukturu a podpořit výzkum; vzhledem k tomu, že by měl zahrnovat společné právní povinnosti a etické zásady, které jsou stanoveny v návrhu nařízení požadovaném v příloze k tomuto usnesení; vzhledem k tomu, že by tento rámec měl být zaveden v souladu s pokyny pro zlepšování právní úpravy;
J. vzhledem k tomu, že Unie zavedla přísný právní rámec, aby mimo jiné zajistila ochranu osobních údajů a soukromí a nediskriminaci, podpořila rovnost žen a mužů, ochranu životního prostředí a práv spotřebitelů; vzhledem k tomu, že takovýto právní rámec, který zahrnuje rozsáhlý soubor horizontálních a odvětvových právních předpisů, včetně předpisů v oblasti bezpečnosti výrobků a odpovědnosti, bude i nadále platit také pro umělou inteligenci, robotiku i související technologie, přestože mohou být zapotřebí určité úpravy specifických právních nástrojů, aby odrážely digitální transformaci a řešily nové výzvy, které z používání umělé inteligence vyplývají;
K. vzhledem k tomu, že existují obavy, že stávající unijní právní rámec, včetně právních předpisů v oblasti spotřebitelského práva, acquis v oblasti zaměstnanosti a sociálního acquis, právních předpisů v oblasti ochrany údajů, bezpečnosti výrobků a dozoru nad trhem i antidiskriminačních právních předpisů, nemusí být nadále vhodný k účinnému řešení rizik vyplývajících z umělé inteligence, robotiky a souvisejících technologií;
L. vzhledem k tomu, že vedle úprav stávajících právních předpisů je třeba řešit právní a etické otázky týkající se technologií UI, a to prostřednictvím účinného, komplexního rámce unijních právních předpisů, který obstojí i v budoucnu a bude odrážet zásady a hodnoty Unie zakotvené ve Smlouvách a v Listině základních práv a jenž by se měl vyhnout nadměrné regulaci tím, že pouze vyplní stávající právní mezery, a zvýší právní jistotu pro podniky i občany zejména díky tomu, že bude obsahovat povinná opatření pro předcházení praktikám, které by nepochybně oslabily základní práva;
M. vzhledem k tomu, že každý nový regulační rámec musí zohlednit všechny relevantní zájmy; vzhledem k tomu, že základní podmínkou pro další legislativní kroky by mělo být pečlivé zkoumání všech dopadů případného nového regulačního rámce na všechny aktéry prostřednictvím hodnocení dopadu; vzhledem, k tomu, že klíčová úloha malých a středních podniků a startupů, zejména v unijním hospodářství, odůvodňuje striktně přiměřený postup, který jim umožní se rozvíjet a inovovat;
N. vzhledem k tomu, že umělá inteligence, robotika a související technologie mohou mít závažné důsledky pro materiální i nemateriální integritu jednotlivců, skupin a společnosti jako celku, a že potenciální individuální i kolektivní škody musí být řešeny prostřednictvím legislativní odezvy;
O. vzhledem k tomu, že aby bylo možné dodržovat unijní regulační rámec pro UI, může být zapotřebí přijmout zvláštní pravidla pro unijní odvětví dopravy;
P. vzhledem k tomu, že technologie UI mají strategický význam pro odvětví dopravy, včetně toho, že díky nim dojde ke zvýšení bezpečnosti a přístupnosti všech druhů dopravy a k vytváření nových pracovních míst a udržitelnějších podnikatelských modelů; vzhledem k tomu, že unijní přístup k rozvoji umělé inteligence, robotiky a souvisejících technologií v oblasti dopravy má potenciál zvýšit globální konkurenceschopnost a strategickou autonomii unijního hospodářství;
Q. vzhledem k tomu, že přibližně 95 % všech silničních dopravních nehod v EU stále zahrnuje lidský faktor; vzhledem k tomu, že cílem Unie je omezit do roku 2020 roční počet úmrtí na silnicích ve srovnání s rokem 2010 o 50 %, že však vzhledem ke stagnaci v této oblasti obnovila EU své úsilí v rámci politiky pro bezpečnost silničního provozu na období 2021–2030: Další kroky směrem k „vizi nulových obětí na cestách“; vzhledem k tomu, že umělá inteligence, automatizace a další nové technologie mají v tomto ohledu značný potenciál zvýšit bezpečnost silničního provozu tím, že omezí prostor pro lidské chyby, a že jsou v tomto ohledu nesmírně důležité;
R. vzhledem k tomu, že by unijní regulační rámec pro UI měl také odrážet skutečnost, že je třeba zajistit dodržování práv pracovníků; vzhledem k tomu, že je třeba brát ohled na rámcovou dohodu evropských sociálních partnerů o digitalizaci z června 2020;
S. vzhledem k tomu, že oblast působnosti unijního regulačního rámce pro UI by měla být přiměřená, úměrná a pečlivě posouzená; vzhledem k tomu, že by měla zahrnovat širokou škálu technologií a jejich složek, včetně algoritmů, softwaru a dat, které používají nebo produkují, je nezbytné zaujmout cílený přístup založený na rizicích, aby se nebránilo budoucím inovacím a nedocházelo k vytváření zbytečných překážek, zejména pro malé a střední podniky; vzhledem k tomu, že různorodost aplikací řízených umělou inteligencí, robotikou a souvisejícími technologiemi komplikuje nalezení jediného řešení vhodného pro celé spektrum rizik;
T. vzhledem k tomu, že analýzy údajů a umělá inteligence mají stále větší dopad na informace zpřístupňované občanům; vzhledem k tomu, že takovéto technologie mohou v případě zneužití ohrozit základní právo na svobodu projevu a na informace, jakož i svobodu a pluralitu sdělovacích prostředků;
U. vzhledem k tomu, že zeměpisná působnost pro uplatňování unijního regulačního rámce pro UI by měla zahrnovat všechny složky umělé inteligence, robotiky a souvisejících technologií vyvíjených, zaváděných nebo používaných v Unii, včetně případů, kdy může být část technologií umístěna mimo Unii nebo nemá konkrétní umístění;
V. vzhledem k tomu, že unijní regulační rámec pro UI by měl zahrnovat všechny příslušné fáze, tj. vývoj, zavádění a používání příslušných technologií a jejich složek, což vyžaduje řádné zvážení příslušných právních povinností a etických zásad, a měl by stanovit podmínky, které zajistí, aby vývojáři, provozovatelé a uživatelé tyto povinnosti a zásady plně dodržovali;
W. vzhledem k tomu, že zavedení harmonizovaného přístupu k etickým zásadám týkajícím se umělé inteligence, robotiky a souvisejících technologií vyžaduje, aby byly na úrovni Unie jednotným způsobem chápány koncepty, které tvoří základ těchto technologií, jako jsou algoritmy, software, data nebo biometrické rozpoznávání;
X. vzhledem k tomu, že opatření na úrovni Unie jsou odůvodněná tím, že je zapotřebí zabránit regulační roztříštěnosti nebo souboru vnitrostátních regulačních ustanovení bez společného jmenovatele a zajistit jednotné uplatňování právně zakotvených společných etických zásad při vývoji, zavádění a používání rizikové umělé inteligence, robotiky a souvisejících technologií; vzhledem k tomu, že jsou zapotřebí jasná pravidla tam, kde hrozí vážná rizika;
Y. vzhledem k tomu, že společné etické zásady jsou účinné pouze tehdy, jsou-li také zakotveny v právních předpisech, a jsou-li určeny osoby odpovědné za zajištění, posuzování a sledování souladu technologií s těmito zásadami;
Z. vzhledem k tomu, že etické pokyny, jako jsou zásady přijaté odbornou skupinou na vysoké úrovni pro umělou inteligenci, představují užitečný výchozí bod, ale nemohou zajistit, aby vývojáři, provozovatelé a uživatelé jednali spravedlivě, a zaručit účinnou ochranu jednotlivců; vzhledem k tomu, že tyto pokyny jsou ještě relevantnější v případě rizikové umělé inteligence, robotiky a souvisejících technologií;
AA. vzhledem k tomu, že každý členský stát by měl určit vnitrostátní orgán dohledu pověřený zajišťováním, posuzováním a sledováním souladu vývoje, zavádění a používání rizikové umělé inteligence, robotiky a souvisejících technologií s unijním regulačním rámcem pro UI a usnadňováním diskuse a výměny názorů v úzké spolupráci s příslušnými zúčastněnými stranami a občanskou společností; vzhledem k tomu, že by vnitrostátní orgány dohledu měly vzájemně spolupracovat;
AB. vzhledem k tomu, že s cílem zajistit harmonizovaný přístup napříč Unie a optimální fungování jednotného digitálního trhu musí Komise nebo příslušné, k tomu určené instituce, orgány, úřady nebo agentury Unie posoudit koordinaci na úrovni Unie z hlediska nových příležitostí a výzev, zejména pokud jsou přeshraniční povahy a vyplývají z probíhajícího technologického vývoje; vzhledem k tomu, že by Komise měla být za tímto účelem pověřena hledáním vhodného řešení umožňujícího strukturovat takovouto koordinaci na úrovni Unie;
Umělá inteligence zaměřená na člověka a vytvářená člověkem
1. domnívá se, že aniž by byly dotčeny odvětvové právní předpisy, je nezbytné, zejména v případě rizikových technologií, mít účinný a harmonizovaný regulační rámec založený na právních předpisech Unie, Listině základních práv („dále jen Listina“) a mezinárodních právních předpisech v oblasti lidských práv, který by zavedl rovnocenné normy v celé Unii a účinně chránil unijní hodnoty;
2. domnívá se, že každý nový regulační rámec pro UI sestávající z právních povinností a etických zásad pro vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií by měl plně dodržovat Listinu, a tím také lidskou důstojnost, autonomii a sebeurčení jednotlivce, předcházet škodám, prosazovat spravedlnost, začleňování a transparentnost, odstraňovat předsudky a diskriminaci, také v souvislosti s menšinovými skupinami, a respektovat a dodržovat zásady spočívající v omezování negativních externalit používaných technologií, zajišťování vysvětlitelnosti technologií a zaručování toho, aby tyto technologie sloužily lidem, aby je nenahrazovaly nebo za ně nerozhodovaly, s tím, že jejich konečným cílem je zlepšovat životní podmínky všech lidí;
3. zdůrazňuje asymetrii mezi těmi, kteří využívají technologie UI, a těmi, kteří s nimi pracují a jsou jim vystaveni; v této souvislosti zdůrazňuje, že důvěru občanů v UI lze vybudovat pouze na základě regulačního rámce, který bude již od návrhu a standardně dodržovat etické postupy a který zajistí, že jakákoli používaná umělá inteligence bude plně respektovat Smlouvy, Listinu a sekundární právo Unie; domnívá se, že rozvíjení tohoto přístupu by mělo být v souladu se zásadou předběžné opatrnosti, kterou se řídí právní předpisy Unie a jež by měla být jádrem každého regulačního rámce pro UI; vyzývá v této souvislosti k vytvoření jasného a soudržného modelu správy, který společnostem a inovátorům umožní dále vyvíjet umělou inteligenci, robotiku a související technologie;
4. domnívá se, že veškerá legislativní opatření týkající se umělé inteligence, robotiky a souvisejících technologií by měla být v souladu se zásadami nezbytnosti a přiměřenosti;
5. domnívá se, že takovýto přístup podnikům umožní zavádět na trh inovativní produkty a vytvářet nové příležitosti a zároveň zajišťovat ochranu unijních hodnot vývojem takových systémů UI, které budou již od návrhu zahrnovat etické zásady Unie; domnívá se, že takovýto regulační rámec založený na hodnotách by představoval přidanou hodnotu tím, že by Unii poskytl jedinečnou konkurenční výhodu a významně by přispěl k blahobytu a prosperitě občanů a podniků Unie tím, že by posílil vnitřní trh; zdůrazňuje, že takovýto regulační rámec pro UI bude rovněž přidanou hodnotou z hlediska podpory inovací na vnitřním trhu; domnívá se, že například v odvětví dopravy poskytuje tento přístup podnikům v Unii příležitost stát se globálními leadery v této oblasti;
6. konstatuje, že unijní právní rámec by se měl vztahovat na umělou inteligenci, robotiku a související technologie, včetně softwaru, algoritmů nebo dat, které tyto technologie používají či produkují.
7. konstatuje, že příležitosti založené na umělé inteligenci, robotice a souvisejících technologiích závisejí na datech velkého objemu, přičemž pro nastavení algoritmů a vyladění výsledků je zapotřebí kritické množství dat; vítá v tomto ohledu návrh Komise na vytvoření společného datového prostoru v Unii s cílem posílit výměnu údajů a podpořit výzkum a zároveň plně dodržovat evropská pravidla pro ochranu údajů;
8. domnívá se, že stávající právní rámec Unie, zejména v oblasti ochrany soukromí a osobních údajů, se bude muset plně vztahovat na umělou inteligenci, robotiku a související technologie a bude muset být pravidelně přezkoumáván, kontrolován a v případě potřeby aktualizován, aby bylo možné účinně čelit rizikům vznikajícím v souvislosti s těmito technologiemi, a v tomto ohledu by pro něj mohlo být prospěšné, aby byl doplněn o pevné etické zásady; poukazuje na to, že v případech, kde je předčasné přijímat právní akty, by měl být použit rámec právně nevynutitelných pravidel („soft law“);
9. očekává, že Komise v návaznosti na Bílou knihu o umělé inteligenci do nadcházejícího legislativního návrhu požadovaného v příloze k tomuto usnesení začlení silný etický rámec zahrnující mimo jiné otázky týkající se bezpečnosti, odpovědnosti a základních práv, který maximalizuje příležitosti a minimalizuje rizika technologií UI; očekává, že požadovaný legislativní návrh bude zahrnovat politická řešení hlavních uznávaných rizik umělé inteligence, včetně mj. etického shromažďování a využívání dat velkého objemu, otázky diskriminace a nerovných podmínek, k nimž dochází prostřednictvím algoritmů; vyzývá Komisi, aby vypracovala kritéria a ukazatele pro označování technologií UI s cílem podpořit transparentnost, vysvětlitelnost a odpovědnost a podnítit vývojáře k tomu, aby přijímali další preventivní opatření; zdůrazňuje, že je třeba investovat do integrace netechnických oborů do studia a výzkumu umělé inteligence s cílem zohlednit sociální souvislosti;
10. domnívá se, že umělá inteligence, robotika a související technologie musí být přizpůsobeny potřebám lidí v souladu se zásadou, že jejich vývoj, zavádění a používání by měly být vždy ve službách lidí a nikdy naopak, a měly by usilovat o zvyšování blahobytu a svobody jednotlivců, o zachování míru, předcházení konfliktům a zvyšování mezinárodní bezpečnosti a zároveň maximalizovat poskytované přínosy, předcházet souvisejícím rizikům a snižovat je;
11. prohlašuje, že rozvoj, zavádění a používání rizikové umělé inteligence, robotiky a souvisejících technologií, mj. i člověkem, by měly být vždy založeny na etických zásadách a měly by umožňovat zapojení lidského faktoru, demokratický dohled i převzetí kontroly člověkem, bude-li to zapotřebí, a to prostřednictvím vhodných kontrolních opatření;
Posouzení rizik
12. zdůrazňuje, že každé budoucí nařízení by mělo být založeno na takovém přístupu k regulaci umělé inteligence, robotiky a souvisejících technologií, který bude diferencovaný, založený na rizicích a zaměřený na budoucnost a bude zahrnovat technologicky neutrální normy napříč odvětvími a případně také odvětvové normy; konstatuje, že aby se zajistilo jednotné uplatňování systému posuzování rizik a bylo dosaženo souladu se souvisejícími právními povinnostmi s cílem zajistit rovné podmínky pro členské státy a předejít roztříštěnosti vnitřního trhu, je zapotřebí vyčerpávající a kumulativní seznam rizikových odvětví a rizikových způsobů použití a účelů; zdůrazňuje, že takovýto seznam musí podléhat pravidelnému přehodnocování, a konstatuje, že vzhledem k vyvíjející se povaze těchto technologií může být zapotřebí způsob posuzování rizik v budoucnu přezkoumat;
13. domnívá se, že rozhodnutí o tom, zda je třeba umělou inteligenci, robotiku a související technologie považovat za rizikové a vyžadovat, aby povinně splňovaly právní požadavky a etické zásady stanovené v regulačním rámci pro UI, by mělo vždy vycházet z nestranného, regulovaného a externího posouzení ex-ante založeného na konkrétních a definovaných kritériích;
14. v této souvislosti se domnívá, že umělá inteligence, robotika a související technologie by měly být považovány za rizikové, pokud jejich vývoj, zavádění a používání zahrnují významné riziko, že jednotlivcům nebo společnosti způsobí zranění nebo škody v rozporu se základními právy a bezpečnostními pravidly stanovenými v právních předpisech Unie; domnívá se, že za účelem posouzení toho, zda technologie UI takovéto riziko zahrnují, je třeba zvážit, v jakém odvětví jsou vyvíjeny, zaváděny nebo používány, jejich zvláštní použití či účel a závažnost zranění nebo škody, které by mohly způsobit; první a druhé kritérium, tj. odvětví a zvláštní použití či účel, je třeba posuzovat kumulativně;
15. zdůrazňuje, že posouzení rizik těchto technologií je třeba provádět na základě vyčerpávajícího a kumulativního seznamu rizikových odvětví a rizikových způsobů použití a účelů; je rozhodně přesvědčen, že posuzování rizik těchto technologií by v Unii mělo probíhat koherentním způsobem, zejména v případě, že jsou posuzována jak s ohledem na soulad s regulačním rámcem pro UI, tak podle jakýchkoli dalších odvětvových právních předpisů;
16. domnívá se, že tento přístup založený na rizicích by měl být prováděn tak, aby se co nejvíce omezila administrativní zátěž pro podniky, a zejména pro malé a střední podniky, tím, že budou v co nejvyšší míře používány stávající nástroje; tyto nástroje zahrnují mimo jiné seznam pro posouzení vlivu na ochranu osobních údajů uvedený v nařízení (EU) 2016/679;
Bezpečnostní prvky, transparentnost a odpovědnost
17. připomíná, že právo na informování spotřebitele je klíčovou zásadou právních předpisů Unie, a zdůrazňuje, že by tudíž mělo být plně prováděno i v souvislosti s umělou inteligencí, robotikou a souvisejícími technologiemi; domnívá se, že by mělo zejména zahrnovat transparentnost ohledně interakce se systémy umělé inteligence, včetně automatizovaných procesů, a ohledně způsobu jejich fungování a dovedností, jako je způsob filtrování a prezentování informací, jejich přesnost a omezení; domnívá se, že by tyto informace měly být poskytovány vnitrostátním orgánům dohledu a vnitrostátním orgánům pro ochranu spotřebitele;
18. zdůrazňuje, že důvěra spotřebitelů má zásadní význam pro rozvoj a uplatňování těchto technologií, které s sebou mohou nést rizika, pokud jsou založeny na neprůhledných algoritmech a neobjektivních datových souborech; domnívá se, že spotřebitelé by měli mít právo být náležitě informováni, a to srozumitelným, včasným, standardizovaným, přesným a přístupným způsobem, o existenci, odůvodnění, možných výsledcích a dopadech algoritmických systémů, o tom, jak se obrátit na člověka s rozhodovacími pravomocemi a jak rozhodnutí systému zkontrolovat, smysluplně zpochybnit a opravit; zdůrazňuje v této souvislosti, že je třeba zohledňovat a dodržovat zásady informování a zveřejňování, na nichž je založeno spotřebitelské acquis; považuje za nezbytné poskytnout koncovým uživatelům podrobné informace o provozu dopravních systémů a vozidlech podporovaných umělou inteligencí;
19. konstatuje, že je zásadní, aby algoritmy a datové soubory používané nebo vytvořené umělou inteligencí, robotikou a souvisejícími technologiemi byly vysvětlitelné a, je-li to nezbytně nutné a v plném souladu s právními předpisy Unie v oblasti ochrany údajů, soukromí a práv duševního vlastnictví a obchodních tajemství, přístupné veřejným orgánům, jako jsou vnitrostátní orgány dohledu a vnitrostátní orgány dozoru nad trhem; dále připomíná, že podle nejvyšších možných a platných odvětvových norem by tuto dokumentaci měly uchovávat osoby, které jsou zapojeny do různých fází vývoje rizikových technologií; připomíná, že orgány dozoru nad trhem mohou mít v tomto ohledu další pravomoci; v této souvislosti zdůrazňuje úlohu zákonného reverzního inženýrství; domnívá se, že přezkum stávajících právních předpisů v oblasti dozoru nad trhem může být nezbytný k zajištění toho, že bude eticky reagovat na vznik umělé inteligence, robotiky a souvisejících technologií;
20. vyzývá k tomu, aby, pokud to vyplyne z posouzení rizik, byli vývojáři a provozovatelé rizikových technologií povinni poskytovat veřejným orgánům příslušnou dokumentaci o používání a designu i bezpečnostní pokyny a, je-li to nezbytně nutné a v plném souladu s právními předpisy Unie v oblasti ochrany údajů, soukromí a práv duševního vlastnictví a obchodních tajemství, také zdrojový kód, vývojové nástroje a data, která systém používá; konstatuje, že takováto povinnost by umožnila posoudit jejich soulad s právními předpisy a etickými zásadami Unie, a připomíná v této souvislosti například poskytování povinného výtisku národním knihovnám; konstatuje, že je důležité rozlišovat mezi transparentností algoritmů a transparentností používání algoritmů;
21. dále konstatuje, že aby bylo možné respektovat lidskou důstojnost, autonomii a bezpečnost, je třeba se náležitě zaměřit na klíčová a pokročilá lékařská zařízení, a dále že je třeba, aby si nezávislé, důvěryhodné orgány ponechaly prostředky nezbytné k poskytování služeb osobám používajícím tato zařízení, pokud je původní vývojář nebo provozovatel již neposkytuje; takovéto služby by zahrnovaly například údržbu, opravy a vylepšení, včetně softwarových aktualizací, které opraví závady a slabá místa;
22. trvá na tom, že rizikovou umělou inteligenci, robotiku a související technologie, včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, bez ohledu na oblast, v níž jsou vyvíjeny, zaváděny a používány, je třeba již od návrhu vyvíjet bezpečným, sledovatelným, technicky propracovaným, spolehlivým a právně závazným způsobem a musí podléhat nezávislé kontrole a dohledu; zejména se domnívá, že všichni aktéři v celém vývojovém i dodavatelském řetězci produktů a služeb umělé inteligence by měli nést právní zodpovědnost, a zdůrazňuje, že jsou zapotřebí mechanismy, které tuto odpovědnost zajistí;
23. zdůrazňuje, že regulační předpisy a pokyny týkající se vysvětlitelnosti, auditovatelnosti, sledovatelnosti a transparentnosti, a, pokud to posouzení rizik vyžaduje a je-li to nezbytně nutné a v plném souladu s právními předpisy Unie v oblasti ochrany údajů, soukromí, práv duševního vlastnictví a obchodních tajemství, také přístup veřejných orgánů k technologiím, datům a počítačovým systémům, na nichž jsou tyto technologie založeny, jsou zásadní pro zajištění důvěry občanů v tyto technologie, přestože míra vysvětlitelnosti závisí na složitosti těchto technologií; zdůrazňuje, že není vždy možné vysvětlit, proč určitý model vedl ke konkrétnímu výsledku nebo rozhodnutí, jako třeba v případě algoritmů „černé schránky“; domnívá se proto, že dodržování těchto zásad je základní podmínkou pro zajištění odpovědnosti;
24. domnívá se, že občané, včetně spotřebitelů, by měli být informováni o tom, zda při interakci se systémem používajícím umělou inteligenci zejména k personalizaci produktů nebo služeb pro své uživatele mohou tuto personalizaci vypnout nebo ji omezit;
25. v tomto ohledu upozorňuje na skutečnost, že k tomu, aby byly umělá inteligence, robotika a s nimi související technologie spolehlivé, musí být technicky propracované a přesné;
26. zdůrazňuje, že je důležitá ochrana sítí propojené umělé inteligence a robotiky a že je třeba přijmout přísná opatření s cílem předejít případům narušení bezpečnosti, úniku dat, „otrávení dat“ (data poisoning), kybernetickým útokům a zneužívání osobních údajů, což bude vyžadovat, aby příslušné agentury, orgány a instituce na evropské i vnitrostátní úrovni spolupracovaly mezi sebou i s koncovými uživateli těchto technologií; vyzývá Komisi a členské státy, aby při vývoji a zavádění technologie UI vždy zajistily dodržování unijních hodnot a respektování základních práv s cílem zajistit bezpečnost a odolnost digitální infrastruktury Unie;
Nepřítomnost stereotypů a nediskriminace
27. připomíná, že umělá inteligence má v závislosti na tom, jak je vyvíjena a používána, potenciál vytvářet a posilovat předsudky, a to i prostřednictvím inherentních předsudků v základních datových souborech, a tudíž vytvářet různé formy automatizované diskriminace včetně nepřímé diskriminace, které se týkají zejména skupin lidí s podobnými charakteristikami; vyzývá Komisi a členské státy, aby přijaly veškerá možná opatření s cílem zabránit takovýmto předsudkům a zajistit plnou ochranu základních práv;
28. je znepokojen riziky předpojatosti a diskriminace při vývoji, zavádění a používání rizikové umělé inteligence, robotiky a souvisejících technologií včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují; připomíná, že by za všech okolností měly dodržovat právní předpisy Unie, lidská práva a důstojnost, autonomii i sebeurčení jednotlivce a že mělo by být zajištěno rovné zacházení i nediskriminace pro všechny;
29. zdůrazňuje, že technologie UI by měly být navrhovány tak, aby dodržovaly a chránily unijní hodnoty a fyzickou a mentální integritu a sloužily jim, podporovaly kulturní a jazykovou rozmanitost v Unii a pomáhaly uspokojovat základní potřeby; zdůrazňuje, že je třeba zabránit tomu, aby byly používány způsobem, který by mohl vést k nepřípustnému, přímému či nepřímému nátlaku, oslabení psychologické autonomie nebo duševního zdraví nebo k neodůvodněnému sledování, klamání či nepřípustné manipulaci;
30. je rozhodně přesvědčen, že by měla být striktně dodržována základní práva zakotvená v Listině, aby se zajistilo, že tyto vznikající technologie nevytvoří mezery v ochraně základních práv;
31. potvrzuje, že případné stereotypy a diskriminace prostřednictvím softwaru, algoritmů a dat mohou jednotlivcům i společnosti způsobit zjevnou újmu, a je tedy třeba je řešit podporou vývoje a sdílení strategií, které proti těmto jevům bojují, jako je zajištění objektivnosti datových souborů ve výzkumu a vývoji, a vytvořením pravidel pro zpracovávání údajů; domnívá se, že tento přístup má potenciál využít software, algoritmy a data v boji proti stereotypům a diskriminaci v některých situacích a dosáhnout rovných práv a pozitivní sociální změny;
32. trvá na tom, že základem těchto technologií by měly být etické hodnoty jako spravedlnost, přesnost, důvěrnost a transparentnost, což v této souvislosti znamená, že by měly fungovat tak, aby negenerovaly neobjektivní výstupy;
33. poukazuje na význam kvality datových souborů používaných pro umělou inteligenci, robotiku a související technologie v závislosti na jejich kontextu, zejména pokud jde o reprezentativnost tréninkových dat, ustanovení týkající se zajištění objektivnosti datových souborů, používaných algoritmů a dat a norem pro jejich agregaci; zdůrazňuje, že tyto datové soubory by měly být na základě výzvy kdykoli kontrolovatelné orgány dohledu, aby byl zajištěn jejich soulad s výše uvedenými zásadami;
34. zdůrazňuje, že v souvislosti s rozsáhlou dezinformační válkou, kterou vedou zejména neevropské subjekty, by technologie UI mohly mít eticky nepříznivé dopady, pokud by umožnily třetím zemím využívat zkreslení v údajích a algoritmech nebo záměrně měnit data pro učení, a mohly by být také vystaveny dalším formám nebezpečné škodlivé manipulace nepředvídatelnými způsoby a s nedozírnými následky; proto je stále více zapotřebí, aby Unie pokračovala v investicích do výzkumu, analýzy, inovací a přeshraničního a meziodvětvového předávání znalostí s cílem rozvíjet technologie UI, které by byly jednoznačně prosté jakéhokoli profilování, zaujatosti a diskriminace a mohly by účinně přispívat k boji proti falešným zprávám a dezinformacím a současně respektovat ochranu údajů a unijní právní rámec;
35. připomíná, že je důležité zajistit účinné nápravné prostředky pro jednotlivce, a vyzývá členské státy, aby zajistily přístupné, cenově dostupné, nezávislé a účinné postupy a mechanismy přezkumu, které by zaručovaly nestranné lidské posouzení všech případů údajného porušení práv, jako jsou práva spotřebitelů nebo občanská práva, prostřednictvím používání algoritmických systémů, ať už pocházejí od subjektů veřejného nebo soukromého sektoru; zdůrazňuje význam návrhu směrnice Evropského parlamentu a Rady o zástupných žalobách na ochranu kolektivních zájmů spotřebitelů a o zrušení směrnice 2009/22/ES, ohledně kterého bylo dne 22. června 2020 dosaženo politické dohody a jenž v budoucnu umožní napadnout zavedení nebo probíhající používání systému UI, který by mohl vést k porušení práv spotřebitelů, nebo dosáhnout nápravy porušení práv; žádá Komisi a členské státy, aby zajistily, že vnitrostátní a unijní spotřebitelské organizace budou mít dostatečné finanční prostředky na to, aby mohly spotřebitelům poskytovat pomoc při uplatňování jejich práva na nápravu v případech, kdy došlo k porušení jejich práv;
36. domnívá se tedy, že každá fyzická i právnická osoba by měla mít možnost domáhat se nápravy rozhodnutí, které vydala technologie umělé inteligence, robotika nebo související technologie v její neprospěch nebo v rozporu s unijními či vnitrostátními právními předpisy;
37. domnívá se, že v případě podezření na porušení unijního regulačního rámce by prvním kontaktním místem pro spotřebitele žádající nápravu mohly být vnitrostátní orgány dohledu, s cílem zajistit účinné uplatňování tohoto rámce;
Sociální odpovědnost a genderová vyváženost
38. zdůrazňuje, že sociálně odpovědná umělá inteligence, robotika a související technologie musí přispívat k hledání řešení, která chrání a podporují základní práva a hodnoty naší společnosti, jako jsou demokracie, právní stát, pluralitní a nezávislé sdělovací prostředky a objektivní a volně dostupné informace, zdraví a hospodářská prosperita, rovnost příležitostí, práva pracujících a sociální práva, kvalitní vzdělávání, ochrana dětí, kulturní a jazyková rozmanitost, rovnost žen a mužů, digitální gramotnost, inovace a kreativita; zdůrazňuje, že je důležité zajistit řádné zohledňování a zastupování zájmů všech občanů, a to i těch, kteří patří k marginalizovaným skupinám nebo jsou ve zranitelném postavení, jako jsou osoby se zdravotním postižením;
39. poukazuje na to, že je důležité dosáhnout vysoké úrovně obecné digitální gramotnosti a zajistit odborné vzdělávání vysoce kvalifikovaných pracovníků v této oblasti a vzájemné uznávání jejich kvalifikace v celé Unii; zdůrazňuje, že je třeba mít rozmanité týmy vývojářů a inženýrů společně s klíčovými společenskými aktéry, aby se předešlo nechtěnému zahrnutí genderové a kulturní předpojatosti do algoritmů, systémů a aplikací UI; podporuje vytvoření vzdělávacích osnov a činností zaměřených na zvyšování povědomí veřejnosti o společenském, právním a etickém dopadu umělé inteligence;
40. zdůrazňuje, že je zásadně důležité zaručit svobodu myšlení a projevu, čímž se zajistí, že tyto technologie nebudou propagovat nenávistné projevy nebo násilí; domnívá se proto, že ztěžování nebo omezování digitálně uplatňované svobody projevu je podle základních zásad Unie nelegální, s výjimkou případů, kdy uplatňování tohoto základního práva zahrnuje protiprávní jednání;
41. zdůrazňuje, že umělá inteligence, robotika a související technologie mohou přispět k omezení sociálních nerovností, a je přesvědčen, že evropský model pro jejich vývoj musí být založen na důvěře občanů a větší sociální soudržnosti;
42. zdůrazňuje, že zavedení jakéhokoli systému umělé inteligence by nemělo nepřiměřeně omezovat přístup uživatelů k veřejným službám, jako je sociální zabezpečení; vyzývá proto Komisi, aby posoudila, jak je tohoto cíle možné dosáhnout;
43. zdůrazňuje význam odpovědného výzkumu a vývoje usilujícího o maximalizaci potenciálu umělé inteligence, robotiky a souvisejících technologií pro občany a veřejné blaho; vyzývá k tomu, aby Unie a její členské státy uvolnily prostředky na rozvoj a podporu odpovědné inovace;
44. zdůrazňuje, že technologické odborné znalosti budou stále důležitější, a bude tudíž nezbytné průběžně aktualizovat příslušná školení, zejména pro budoucí generace, a podporovat odbornou rekvalifikaci osob, které již jsou na trhu práce; v tomto ohledu trvá na tom, že inovace a školení je třeba podporovat nejen v soukromém, ale i ve veřejném sektoru;
45. trvá na tom, že vývoj, zavádění a používání těchto technologií by neměly způsobovat žádnou újmu jednotlivcům, společnosti ani životnímu prostředí, a že by tedy vývojáři, provozovatelé a uživatelé těchto technologií měli v souladu s příslušnými unijními a vnitrostátními předpisy v oblasti odpovědnosti nést odpovědnost za případné zranění nebo újmu;
46. vyzývá členské státy, aby posoudily, zda by úbytek pracovních míst vyplývající ze zavádění těchto technologií měl vést k příslušným veřejným politikám, jako je omezení pracovní doby;
47. trvá na tom, že designový přístup založený na unijních hodnotách a etických zásadách je zásadní k tomu, aby byly vytvořeny podmínky pro široké společenské přijetí umělé inteligence, robotiky a souvisejících technologií; domnívá se, že tento přístup zaměřený na vývoj důvěryhodné, eticky odpovědné a technicky propracované umělé inteligence je důležitým prvkem, který umožní rozvoj udržitelné, bezpečné a přístupné inteligentní mobility;
48. upozorňuje na to, že autonomní vozidla mají velký přínos pro osoby se sníženou pohyblivostí, protože těmto osobám umožňují lépe se podílet na individuální silniční dopravě, a usnadňují tak jejich každodenní život; zdůrazňuje význam dostupnosti, zejména při navrhování systémů řešení pro mobilitu (mobilita jako služba);
49. vyzývá Komisi, aby nadále podporovala vývoj důvěryhodných systémů UI, které by zajistily bezpečnější, účinnější, finančně i jinak přístupnější a inkluzivnější dopravu, mj. pokud jde o osoby s omezenou schopností pohybu, a zejména osoby se zdravotním postižením, a to s ohledem na směrnici Evropského parlamentu a Rady (EU) 2019/882 a na evropské právní předpisy o právech cestujících;
50. domnívá se, že umělá inteligence může pomoci lépe využívat dovedností a schopností osob se zdravotním postižením a že využívání umělé inteligence na pracovišti může přispívat k inkluzivním trhům práce a k vyšší míře zaměstnanosti osob se zdravotním postižením;
Životní prostředí a udržitelnost
51. uvádí, že státní správa a podniky by měly používat umělou inteligenci, robotiku a související technologie tak, aby byly přínosné pro lidi i pro planetu, přispívaly k plnění cílů v oblasti udržitelného rozvoje, zachování životního prostředí, klimatické neutrality a oběhového hospodářství; vývoj, zavádění a používání těchto technologií by v souladu s právními předpisy Unie měly přispívat k ekologické transformaci, zachování životního prostředí a k minimalizaci a nápravě případného poškození životního prostředí, k němuž došlo během jejich životního cyklu a v celém dodavatelském řetězci;
52. vzhledem k výraznému dopadu na životní prostředí a pro účely předchozího bodu by dopad vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií na životní prostředí mohl být tam, kde je to relevantní a vhodné, vyhodnocován po celý jejich životní cyklus, a to příslušnými odvětvovými orgány; takovéto hodnocení by mohlo zahrnovat odhad dopadu těžby nezbytných surovin, spotřeby energie a emisí skleníkových plynů způsobených jejich vývojem, zaváděním a používáním;
53. navrhuje, aby byl pro účely vývoje odpovědných špičkových řešení v oblasti umělé inteligence prozkoumán, podporován a maximalizován potenciál umělé inteligence, robotiky a souvisejících technologií prostřednictvím odpovědného výzkumu a vývoje, na které budou muset Unie a její členské státy uvolnit prostředky;
54. zdůrazňuje skutečnost, že vývoj, zavádění a používání těchto technologií skýtají řadu příležitostí k podpoře cílů udržitelného rozvoje stanovených Organizací spojených národů i k podpoře globální transformace energetiky a dekarbonizace;
55. domnívá se, že cíli sociální odpovědnosti, genderové vyváženosti, ochrany životního prostředí a udržitelnosti by neměly být dotčeny stávající obecné a odvětvové povinnosti v těchto oblastech; domnívá se, že by měly být vydány nezávazné prováděcí pokyny pro vývojáře, provozovatele a uživatele zejména rizikových technologií, pokud jde o metodiku pro posuzování jejich souladu s tímto nařízením a dosahování jeho cílů;
56. vyzývá Unii, aby podporovala a financovala rozvoj umělé inteligence, robotiky a souvisejících technologií zaměřených na člověka, které budou řešit environmentální a klimatické výzvy a zajistí dodržování základních práv prostřednictvím daňových pobídek, pobídek začleněných do zadávání veřejných zakázek a dalších pobídek;
57. zdůrazňuje, že bez ohledu na současnou vysokou uhlíkovou stopu vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií, včetně automatizovaných rozhodnutí a strojového učení, mohou tyto technologie přispět k omezení stávající environmentální stopy odvětví IKT; poukazuje na to, že tyto i jiné řádně regulované související technologie by měly být zásadně důležité pro dosažení cílů Zelené dohody, cílů OSN v oblasti udržitelného rozvoje a cílů Pařížské dohody v mnoha různých odvětvích a měly by zajistit větší dopad politik zajišťujících ochranu životního prostředí, např. politik týkajících se snižování odpadu a zhoršování životního prostředí;
58. vyzývá Komisi, aby vypracovala studii o dopadu uhlíkové stopy technologií umělé inteligence a o pozitivních a negativních dopadech přechodu na používání těchto technologií spotřebiteli;
59. konstatuje, že vzhledem k rychlejšímu rozvoji aplikací umělé inteligence, které vyžadují výpočetní, skladovací a energetické zdroje, by měl být v průběhu celého jejich životního cyklu zohledněn dopad systémů umělé inteligence na životní prostředí;
60. domnívá se, že v oblastech, jako je zdravotnictví, musí odpovědnost nést v konečném důsledku fyzická nebo právnická osoba; zdůrazňuje, že je nutné zajistit sledovatelné a veřejně dostupné tréninkové údaje pro algoritmy;
61. důrazně podporuje vytvoření evropského zdravotního datového prostoru[12] navrženého Komisí, jehož cílem je podpora výměny údajů o zdraví a výzkumu při plném respektování ochrany údajů, včetně zpracování údajů pomocí technologií umělé inteligence, a který zajišťuje intenzivnější a širší využívání a opětovné používání údajů o zdravotním stavu; vybízí k rozšíření přeshraniční výměny údajů o zdravotním stavu, propojení a používání těchto údajů prostřednictvím bezpečných a sjednocených úložišť, specifických druhů zdravotních informací, jako jsou evropské zdravotní záznamy, genomické informace a digitální zdravotní snímky s cílem usnadnit celounijní interoperabilní rejstříky nebo databáze v oblastech, jako je výzkum, věda a zdravotnictví;
62. poukazuje na výhody umělé inteligence při prevenci, léčbě a omezování nemocí, což dobře ilustruje příklad, kdy umělá inteligence předpověděla epidemii onemocnění COVID-19 dříve než WHO; naléhavě vyzývá Komisi, aby ve spolupráci s členskými státy středisku ECDC náležitým způsobem poskytla regulační rámec a zdroje pro nezávislé shromažďování nezbytných anonymizovaných celkových zdravotních údajů v reálném čase, aby bylo mj. možné řešit problémy, které odhalila krize COVID-19;
Ochrana soukromí a biometrické rozpoznávání
63. poznamenává, že v důsledku vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií se rychle zvyšuje produkce a používání dat včetně osobních údajů, jako jsou biometrické údaje, z čehož plyne, že je nezbytné dodržovat a prosazovat práva občanů na soukromí a ochranu osobních údajů v souladu s právem Unie;
64. poukazuje na to, že možnost, kterou skýtají tyto technologie, používat osobní a neosobní údaje ke kategorizaci osob, k mikrocílení na tyto osoby, k odhalení zranitelných míst jednotlivců či k využití přesné prediktivní znalosti je třeba vyvážit účinně prosazovanými zásadami ochrany údajů a soukromí, jako jsou např. minimalizace údajů, právo odmítnout profilování a kontrolovat použití svých údajů, právo získat vysvětlení rozhodnutí založeného na automatizovaném zpracování a ochrana soukromí již od návrhu, jakož i zásady proporcionality, nezbytnosti a omezení na základě přesně vymezeného účelu v souladu s obecným nařízením o ochraně osobních údajů;
65. zdůrazňuje, že když veřejné orgány používají z důvodu významného veřejného zájmu technologie dálkového rozpoznávání, jako je rozpoznávání biometrických charakteristik, zejména rozpoznávání obličeje, jejich použití by mělo být vždy oznámeno a mělo by být přiměřené, cílené, omezené na konkrétní cíle a dobu a prováděné v souladu s unijními právními předpisy s řádným přihlédnutím k lidské důstojnosti a autonomii a k základním právům zakotveným v Listině. Kritéria pro tato užití a jejich omezení by měla podléhat soudnímu přezkumu a demokratické kontrole a měla by zohledňovat jejich psychologický a společensko-kulturní dopad na občanskou společnost;
66. upozorňuje na skutečnost, že ačkoli má zavádění umělé inteligence, robotiky a souvisejících technologií v rámci rozhodnutí orgánů veřejné moci své výhody, může vést k případům závažného zneužívání, jako jsou hromadné sledování, prediktivní policejní dohled a porušování řádných procesních práv;
67. má za to, že k technologiím, které mohou činit automatizovaná rozhodnutí, a nahradit tak rozhodnutí veřejných orgánů, je třeba přistupovat s nejvyšší obezřetností, a to zejména v oblastech spravedlnosti a prosazování práva;
68. je přesvědčen, že členské státy by měly takovéto technologie využívat pouze tehdy, je-li jednoznačně prokázáno, že jsou důvěryhodné, a – v případech, kdy jsou v sázce základní svobody – je-li možný přiměřený lidský zásah a přezkum nebo je-li takový zásah a přezkum systematicky uplatňován; zdůrazňuje, že je důležité, aby vnitrostátní orgány vypracovaly důkladné posouzení dopadů systémů umělé inteligence, které jsou v těchto případech využívány, na základní práva, zejména jsou-li tyto technologie vyhodnoceny jako vysoce rizikové;
69. má za to, že veškerá rozhodnutí učiněná systémem umělé inteligence, robotiky nebo souvisejících technologií v rámci výsad orgánů veřejné moci by měla podléhat přiměřenému lidskému zásahu a standardům spravedlivého řízení, zejména jsou-li tyto technologie vyhodnoceny jako vysoce rizikové;
70. je přesvědčen, že technologický pokrok by neměl vést k tomu, aby byly umělá inteligence, robotika a související technologie využívány k autonomnímu přijímání rozhodnutí veřejného sektoru, která mají přímý a významný dopad na práva a povinnosti občanů;
71. konstatuje, že umělá inteligence, robotika a související technologie v oblasti prosazování práva a ochrany hranic by mohly posílit veřejnou bezpečnost, ale rovněž potřebují rozsáhlou a přísnou veřejnou kontrolu a nejvyšší možnou úroveň transparentnosti, a to jak pokud jde o posuzování rizik jednotlivých aplikací, tak i o obecný přehled využívání umělé inteligence, robotiky a souvisejících technologií v oblasti prosazování práva a ochrany hranic; domnívá se, že tyto technologie s sebou nesou významná etická rizika, na která je třeba odpovídajícím způsobem reagovat s ohledem na možné nepříznivé dopady na jednotlivce, zejména pokud jde o jejich právo na soukromí, ochranu údajů a nediskriminaci; zdůrazňuje, že jejich zneužívání se může stát přímou hrozbou pro demokracii a že jejich zavádění a využívání musí být v souladu se zásadami proporcionality a nezbytnosti, Listinou základních práv a příslušnými sekundárními právními předpisy Unie, jako jsou pravidla pro ochranu údajů; zdůrazňuje, že umělá inteligence by při vydávání soudních rozhodnutí nikdy neměla nahradit lidi; domnívá se, že rozhodnutí, která se týkají například kauce nebo probace a která jsou přijímána při soudních jednáních, nebo rozhodnutí založená výhradně na automatizovaném zpracování, která mají právní účinek na fyzické osoby nebo která se jich významně dotýkají, musí vždy zahrnovat smysluplné posouzení a úsudek člověka;
Řádná správa
72. zdůrazňuje, že řádné řízení vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií, zejména vysoce rizikových technologií, zavedením opatření zaměřených na odpovědnost a řešení potenciálních rizik stereotypů a diskriminace, může zvýšit bezpečnost občanů a jejich důvěru v tyto technologie;
73. má za to, že společný evropský rámec pro správu těchto technologií, který by koordinovala Komise nebo jiný příslušný orgán, instituce či subjekt Unie, jemuž bude tento úkol svěřen, a který by prováděly vnitrostátní orgány dohledu v jednotlivých členských státech, by zajistil soudržný evropský přístup a zabránil fragmentaci jednotného trhu;
74. poznamenává, že se při vývoji umělé inteligence, robotiky a souvisejících technologií používá velké množství dat a že zpracování a sdílení těchto dat, přístup k nim a jejich využívání se musí řídit právními předpisy a požadavky na kvalitu, integritu, interoperabilitu, transparentnost, bezpečnost, soukromí a kontrolu, které jsou v nich stanoveny;
75. připomíná, že přístup k datům je významným faktorem pro růst digitálního hospodářství; v této souvislosti zdůrazňuje, že interoperabilita údajů hraje díky omezení efektu závislosti na jednom poskytovateli (tzv. „lock-in“) klíčovou úlohu při zajišťování spravedlivých tržních podmínek a prosazování rovných podmínek na jednotném digitálním trhu;
76. zdůrazňuje, že je třeba zajistit, aby osobní údaje, zejména údaje týkající se nebo pocházející od zranitelných skupin, jako jsou osoby se zdravotním postižením, pacienti, děti, starší osoby, menšiny, migranti a další skupiny ohrožené vyloučením, byly náležitě chráněny;
77. konstatuje, že vývoj, zavádění a využívání umělé inteligence, robotiky a souvisejících technologií ze strany veřejných orgánů jsou často zadávány soukromým subjektům; je přesvědčen, že by tím neměla být ohrožena ochrana společenských hodnot a základních práv; domnívá se, že smluvní podmínky u veřejných zakázek by měly případně odrážet etické standardy, kterým podléhají veřejné orgány;
Spotřebitelé a vnitřní trh
78. poukazuje na význam regulačního rámce pro umělou inteligenci, který by se používal v případě, že jsou spotřebitelé v rámci Unie uživateli algoritmického systému, že takovému systému podléhají, že se na ně takový systém zaměřuje nebo jsou k němu směrováni, a to nehledě na to, kde jsou subjekty, které daný systém vyvíjejí, prodávají nebo využívají, usazeny; dále je přesvědčen, že v zájmu právní jistoty by stanovená pravidla tohoto rámce měla platit pro všechny vývojáře a v celém hodnotovém řetězci, konkrétně pro vývoj, zavádění a používání příslušných technologií a jejich součástí, a měla by zaručit vysokou úroveň ochrany spotřebitele;
79. poznamenává, že umělá inteligence, robotika a související technologie včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, a oblasti jako internet věcí, strojové učení, systémy založené na pravidlech nebo automatické a asistované procesy rozhodování jsou spolu neodmyslitelně spjaty; dále konstatuje, že by mohly být vytvořeny standardizované ikony, které by pomáhaly vysvětlovat tyto systémy spotřebitelům, pokud by systémy byly složité nebo mohly činit rozhodnutí, která mají významný dopad na život spotřebitelů;
80. připomíná, že za účelem odhalení mezer v právních předpisech by Komise měla přezkoumat stávající právní rámec a jeho uplatňování, včetně acquis týkajícího se spotřebitelského práva, právních předpisů o odpovědnosti za vadné výrobky, o bezpečnosti výrobků a o dozoru nad trhem, a rovněž by měla přezkoumat stávající regulační povinnosti; považuje to za nezbytné, aby bylo možné ověřit, zda stávající právní rámec je schopen reagovat na nové výzvy spojené s nástupem umělé inteligence, robotiky a souvisejících technologií a zajistit vysokou úroveň ochrany spotřebitele;
81. zdůrazňuje, že výzvy spojené s umělou inteligencí, robotikou a souvisejícími technologiemi je třeba účinně řešit a zajistit, aby spotřebitelé měli silné postavení a byli řádně chráněni; zdůrazňuje, že je třeba hledět nad rámec tradičních zásad informování a zveřejňování, na nichž bylo založeno spotřebitelské acquis, neboť k zajištění toho, aby tyto technologie přispívaly ke zlepšení života spotřebitelů a rozvíjely se způsobem, který respektuje základní práva a práva spotřebitelů a hodnoty Unie, budou zapotřebí silnější práva spotřebitelů a jasná omezení týkající se vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií;
82. poukazuje na to, že legislativní rámec zavedený rozhodnutím č. 768/2008/ES stanoví harmonizovaný seznam povinností výrobců, dovozců a distributorů, prosazuje používání norem a stanoví několik úrovní kontroly v závislosti na nebezpečnosti výrobku; domnívá se, že rámec by se měl vztahovat i na produkty se zabudovanou umělou inteligencí;
83. konstatuje, že pro účely analýzy dopadů umělé inteligence, robotiky a souvisejících technologií na spotřebitele by přístup k údajům měl být umožněn i příslušným vnitrostátním orgánům, a to za předpokladu, že bude plně v souladu s právem Unie, mj. v oblasti ochrany údajů a soukromí a obchodního tajemství; připomíná, že je důležité, aby měli spotřebitelé vzdělání, které by jim umožnilo být informovanější a mít potřebné dovednosti pro práci s umělou inteligencí, robotikou a souvisejícími technologiemi, chránilo je před potenciálními riziky a umožnilo jim prosazovat jejich práva;
84. vyzývá Komisi, aby navrhla opatření, která by zajistila dohledatelnost údajů, a aby při tom brala v potaz zákonnost získávání těchto údajů a ochranu práv spotřebitelů a základních práv a postupovala plně v souladu s právními předpisy Unie v oblasti ochrany údajů, soukromí, práv duševního vlastnictví a obchodního tajemství;
85. konstatuje, že by tyto technologie měly být zaměřeny na uživatele a navrženy způsobem, který umožní využívat produkty nebo služby umělé inteligence každému, bez ohledu na věk, pohlaví, schopnosti nebo vlastnosti; poznamenává, že obzvláště důležitá je dostupnost těchto technologií pro osoby se zdravotním postižením; poznamenává, že by neměl být uplatňován žádný unifikovaný přístup a že by se mělo zvážit zavedení zásady univerzálního designu, který odpovídá potřebám co nejširší škály uživatelů a je v souladu s příslušnými standardy v oblasti přístupnosti; zdůrazňuje, že jednotlivcům se tím zajistí rovný přístup a možnost aktivní účasti na stávajících i nově vznikajících počítačově podporovaných lidských činnostech a asistenčních technologiích;
86. zdůrazňuje, že v případě, že k vývoji, zavedení nebo používání umělé inteligence, robotiky a souvisejících technologií jsou vedle otevřeného zadávání zakázek a otevřených smluvních norem použity ve značné míře i prostředky z veřejných zdrojů, měla by být zvážena možnost, že kód, vygenerovaná data – pokud nejde o osobní údaje – a model vytvořený na základě trénování po dohodě s vývojáři budou standardně veřejné, aby byla zajištěna jejich transparentnost a zvýšena kybernetická bezpečnost a aby bylo umožněno jejich opětovné použití v zájmu podpory inovací; zdůrazňuje, že tímto způsobem lze uvolnit plný potenciál jednotného trhu, a zabránit tak jeho fragmentaci;
87. domnívá se, že umělá inteligence, robotika a související technologie mají obrovský potenciál zajistit, aby spotřebitelé měli v mnoha aspektech svého života vedle lepších produktů a služeb příležitost získat přístup k některým vymoženostem a aby mohli těžit z lepšího dozoru nad trhem, pokud se budou nadále uplatňovat všechny platné zásady, podmínky (včetně transparentnosti a kontrolovatelnosti) a právní předpisy;
Bezpečnost a obrana
88. zdůrazňuje, že se bezpečnostní a obranná politika Evropské unie a jejích členských států řídí zásadami zakotvenými v Listině základních práv Evropské unie a zásadami Charty Organizace spojených národů a obecnou shodou na univerzálních hodnotách dodržování nedotknutelných a nezadatelných práv každého člověka, respektování lidské důstojnosti, svobody, demokracie, rovnosti a právního státu; zdůrazňuje, že veškeré obranné úsilí v rámci Unie musí respektovat tyto univerzální hodnoty a zároveň podporovat mír, bezpečnost a pokrok v Evropě a ve světě;
89. vítá skutečnost, že zasedání vysokých smluvních stran Úmluvy OSN o některých konvenčních zbraních (CCW) v roce 2019 schválilo 11 obecných zásad pro vývoj a používání autonomních zbraňových systémů; vyjadřuje však politování nad tím, že se nepodařilo dosáhnout dohody o právně závazném nástroji, který by upravoval smrtící autonomní zbraňové systémy, s účinným mechanismem vymáhání; vítá a podporuje „Etické zásady pro důvěryhodnou umělou inteligenci“ odborné skupiny Komise na vysoké úrovni pro umělou inteligenci, které byly zveřejněny dne 9. dubna 2019, a postoj této skupiny ke smrtícím autonomním zbraňovým systémům; naléhavě vyzývá členské státy, aby vypracovaly vnitrostátní strategie k vymezení definice a určení statusu smrtících autonomních zbraní s cílem vytvořit komplexní strategii na úrovni Unie a aby spolu s místopředsedou Komise, vysokým představitelem Unie a Radou podporovaly diskusi o smrtících autonomních zbraních v rámci CCW OSN a dalších příslušných fór a zavedení mezinárodních norem týkajících se etických a právních parametrů pro vývoj a používání plně autonomních, poloautonomních a dálkově ovládaných smrtících zbraňových systémů; v této souvislosti připomíná své usnesení o smrtících autonomních zbraňových systémech ze dne 12. září 2018 a znovu vyzývá k urychlenému vypracování a přijetí společného postoje k smrtícím autonomním zbraňovým systémům, k mezinárodnímu zákazu vývoje, výroby a používání smrtících autonomních zbraňových systémů, které umožňují útočit bez smysluplné lidské kontroly a bez dodržování zásady zapojení lidského faktoru, v souladu s prohlášením nejvýznamnějších světových výzkumných pracovníků v oblasti umělé inteligence v jejich otevřeném dopise z roku 2015; vítá dohodu Rady a Parlamentu o vyloučení smrtících autonomních zbraní „bez možnosti smysluplné lidské kontroly nad rozhodnutími o výběru a použití při provádění útoků na člověka“ z opatření financovaných z Evropského obranného fondu; je přesvědčen, že etické aspekty jiných oblastí uplatnění umělé inteligence v odvětví obrany, jako jsou zpravodajská činnost, sledování a průzkum (ISR) nebo kybernetické operace, nesmí být přehlíženy a zvláštní pozornost je třeba věnovat vývoji bezpilotních letounů a jejich používání ve vojenských operacích;
90. zdůrazňuje, že nové technologie v oblasti obrany a bezpečnosti, na něž se nevztahuje mezinárodní právo, by se měly posuzovat s ohledem na zásadu respektování lidskosti a obecně platných etických norem;
91. doporučuje, aby jakýkoli unijní rámec upravující používání systémů na bázi umělé inteligence v oblasti obrany v bojových i nebojových situacích dodržoval veškeré příslušné právní režimy, zejména mezinárodní humanitární právo a mezinárodní právo v oblasti lidských práv, a aby byl v souladu s právem Unie a s jejími zásadami a hodnotami, přičemž by měl brát v potaz rozdíly v technické a bezpečnostní infrastruktuře v celé Unii;
92. uznává, že na rozdíl od základen obranného průmyslu by kritické inovace v oblasti umělé inteligence mohly pocházet z malých členských států, a proto by standardizovaný přístup SBOP měl zajistit, aby nebyly menší členské státy a malé a střední podniky vytlačovány; zdůrazňuje, že soubor společných kapacit EU v oblasti umělé inteligence spolu s operačními koncepcemi členských států může překlenout technické mezery, kvůli nimž by mohly být vynechány státy, jež příslušnou technologií, odvětvím nebo odbornými znalostmi pro zavádění systémů umělé inteligence v rámci ministerstev obrany nedisponují;
93. domnívá se, že současné a budoucí činnosti související s bezpečností a obranou v rámci Unie budou vycházet z umělé inteligence, robotiky a autonomie a ze souvisejících technologií a že spolehlivá, stabilní a důvěryhodná umělá inteligence by mohla přispět k moderním a účinným ozbrojeným silám Unie; Unie proto musí převzít vedoucí úlohu ve výzkumu a vývoji systémů umělé inteligence v oblasti bezpečnosti a obrany; domnívá se, že využívání aplikací s podporou umělé inteligence v bezpečnosti a obraně by mohlo veliteli operace poskytnout řadu přímých výhod, jako jsou kvalitnější shromažďované údaje, lepší znalost situace, rychlejší rozhodování, nižší riziko vedlejších škod díky lepším kabelovým systémům, ochrana pozemních sil a také větší spolehlivost vojenského vybavení, a tím i snížené riziko pro lidi a méně lidských obětí; zdůrazňuje, že pro zaručení evropské strategické autonomie v kapacitní a operační oblasti je nezbytný rozvoj důvěryhodné umělé inteligence v oblasti obrany; připomíná, že systémy umělé inteligence se také stávají klíčovými prvky v boji proti novým bezpečnostním hrozbám, jako jsou kybernetické a hybridní války, a to jak v online, tak v offline prostoru; zároveň upozorňuje na všechna rizika a výzvy spojené s neregulovaným využíváním umělé inteligence; konstatuje, že umělá inteligence by mohla být vystavena manipulaci, chybám a nepřesnostem;
94. zdůrazňuje, že technologie umělé inteligence mají v podstatě dvojí využití a že rozvoj umělé inteligence používané při činnostech souvisejících s obranou těží z výměn mezi vojenskými a civilními technologiemi; zdůrazňuje, že umělá inteligence používaná při činnostech souvisejících s obranou je průlomovou technologií s průřezovým dosahem, jejíž rozvoj může poskytnout příležitosti pro konkurenceschopnost a strategickou autonomii Unie;
95. uznává, že v dnešním kontextu hybridního a vyspělého vedení válek mohou být objem a rychlost informací v počátečních fázích krize příliš velké pro lidské analytiky a že systém umělé inteligence by mohl tyto informace zpracovat a zajistit tak, aby lidé s rozhodovací pravomocí mohli sledovat celou škálu informací v přiměřeném časovém rámci umožňujícím rychlou reakci;
96. zdůrazňuje, že je důležité investovat do rozvoje lidského kapitálu pro umělou inteligenci a podporovat potřebné dovednosti a vzdělávání v oblasti bezpečnostních a obranných technologií na bázi umělé inteligence, přičemž je třeba se zaměřit zvláště na etiku poloautonomních a autonomních operačních systémů na základě lidské odpovědnosti ve světě využívajícím umělou inteligenci; zdůrazňuje zejména, že je důležité zajistit, aby etikové v této oblasti disponovali odpovídajícími dovednostmi a absolvovali náležitou odbornou přípravu; vyzývá Komisi, aby co nejdříve předložila svou „rozšířenou agendu dovedností“, která byla oznámena v bílé knize o umělé inteligenci ze dne 19. února 2020;
97. zdůrazňuje, že kvantová výpočetní technika by mohla představovat nejrevolučnější změnu v konfliktech od vzniku jaderných zbraní, a proto naléhavě vyzývá Unii a členské státy, aby vývoj kvantových výpočetních technologií přijaly za svou prioritu; uznává, že akty agrese, včetně útoků na kritickou infrastrukturu, s pomocí kvantové výpočetní techniky vytvoří konfliktní prostředí, v němž bude čas přijímat rozhodnutí dramaticky omezen ze dnů a hodin na minuty a vteřiny, a členské státy tak budou nuceny rozvíjet kapacity na svoji ochranu a školit své činitele s rozhodovací pravomocí i vojenský personál k tomu, aby dokázali v těchto časových lhůtách účinně reagovat;
98. vyzývá ke zvýšení investic do evropské umělé inteligence pro obranu a do kritické infrastruktury, která ji podporuje;
99. připomíná, že většina současných vojenských velmocí na celém světě se již zapojila do značného úsilí v oblasti výzkumu a vývoje v souvislosti s vojenským rozměrem umělé inteligence; má za to, že Unie musí zajistit, aby v tomto směru nezaostávala;
100. vyzývá Komisi, aby do své průmyslové politiky začlenila budování kapacit v oblasti kybernetické bezpečnosti s cílem zajistit rozvoj a zavádění bezpečných, odolných a robustních systémů na bázi umělé inteligence; vyzývá Komisi, aby prozkoumala využívání aplikací a protokolů kybernetické bezpečnosti založených na technologii blockchain s cílem zvýšit odolnost, důvěryhodnost a spolehlivost infrastruktur umělé inteligence prostřednictvím modelů šifrování údajů bez zprostředkovatelů; vybízí evropské zúčastněné strany, aby prozkoumaly a navrhly vyspělejší prvky, které by usnadnily odhalování poruchových a škodlivých systémů na bázi umělé inteligence a robotických systémů, které by mohly ohrozit bezpečnost Unie a občanů;
101. zdůrazňuje, že u všech systémů umělé inteligence v obraně musí být konkrétní a řádně vymezený rámec mise, který ponechá lidem schopnost odhalit a vypnout nebo deaktivovat nasazené systémy, pokud by překročily rámec mise vymezený a zadaný lidským velitelem nebo pokud by podnikly jakékoli eskalační nebo nezamýšlené kroky; domnívá se, že systémy, výrobky a technologie na bázi umělé inteligence pro vojenské využití by měly být vybaveny „černou skříňkou“ pro zaznamenávání každé datové transakce provedené strojem;
102. zdůrazňuje, že veškerou odpovědnost za rozhodování o koncepci, vývoji, nasazení a využívání systémů umělé inteligence musí nadále nést lidští provozovatelé, neboť při výkonu jakéhokoli rozhodnutí zbraňových systémů na bázi umělé inteligence, které by mohlo mít smrtící důsledky, musí být zajištěno smysluplné lidské monitorování a kontrola nad každým zbraňovým systémem a v rozhodování o použití síly musí být lidský záměr; zdůrazňuje, že by se měla zachovat lidská kontrola nad velením a kontrolou systémů na bázi umělé inteligence v souladu se zásadou aktivního zapojení člověka, sledování ze strany člověka a člověka ve velení na úrovni vojenského velení; zdůrazňuje, že systémy na bázi umělé inteligence musí umožňovat, aby vojenské vedení ozbrojených sil převzalo plnou odpovědnost za použití smrtící síly a uplatňovalo potřebnou úroveň úsudku, kterým stroje nemohou disponovat, protože takový úsudek musí být založen na rozlišování, přiměřenosti a obezřetnosti, při uskutečňování smrtících nebo rozsáhlých ničivých akcí prostřednictvím podobných systémů; zdůrazňuje, že je třeba vytvořit jasné a dohledatelné rámce pro povolování a odpovědnost za zavádění inteligentních zbraní a jiných systémů na bázi umělé inteligence, a to za použití jedinečných rysů uživatele, jako jsou biometrické specifikace, které umožní nasazení výlučně oprávněným personálem;
Doprava
103. poukazuje na potenciál využívání umělé inteligence, robotiky a souvisejících technologií u všech autonomních druhů dopravy na silnici, železnici, vodních cestách i v letecké dopravě a při urychlení přechodu na jiné druhy dopravy a intermodální dopravu, protože tyto technologie mohou přispět k nalezení optimální kombinace jednotlivých způsobů dopravy zboží a cestujících; zdůrazňuje dále, že umělá inteligence, robotika a související technologie mohou zvýšit účinnost dopravy, logistiky a dopravních toků a zajistit, aby byly všechny způsoby dopravy bezpečnější, inteligentnější a šetrnější k životnímu prostředí; poukazuje na to, že etický přístup k umělé inteligenci může být pokládán za systém včasného varování, zejména pokud jde o bezpečnost a účinnost dopravy;
104. poukazuje na to, že globální soutěž mezi společnostmi a hospodářskými regiony vyžaduje, aby EU podporovala investice a zvýšila mezinárodní konkurenceschopnost společností v odvětví dopravy tím, že vytvoří prostředí, které by bylo příznivé pro rozvoj a používání řešení založených na umělé inteligenci a dalších inovacích a v němž by se podniky se sídlem v Unii mohly stát světovými lídry v oblasti rozvoje technologií umělé inteligence;
105. zdůrazňuje, že dopravní odvětví Unie potřebuje aktualizovaný regulační rámec týkající se těchto nově vznikajících technologií a jejich používání v odvětví dopravy a jasný etický rámec, aby bylo možné vyvinout důvěryhodnou umělou inteligenci, mj. pokud jde o její bezpečnost, zabezpečení, dodržování autonomie lidského rozhodování, dohled a otázky odpovědnosti za způsobenou škodu, který by zajistil rozsáhlejší společné výhody pro všechny a byl by klíčovým prvkem při navyšování investic do výzkumu a inovací, rozvoje dovedností a zavádění umělé inteligence v oblasti veřejných služeb a v malých, středních a začínajících podnicích a který by zároveň zajistil ochranu údajů a interoperabilitu, aniž by docházelo k vytváření zbytečné administrativní zátěže podniků a spotřebitelů;
106. konstatuje, že rozvoj a zavádění umělé inteligence v odvětví dopravy nebude možné bez moderní infrastruktury, která je zásadní součástí inteligentních dopravních systémů; zdůrazňuje, že přetrvávající rozdíly v úrovni rozvoje mezi členskými státy vytvářejí riziko, že nejméně rozvinuté regiony a jejich obyvatelé nebudou mít prospěch z rozvoje autonomní mobility; požaduje, aby modernizace dopravní infrastruktury v Unii, včetně její integrace do sítě 5G, byla odpovídajícím způsobem financována;
107. doporučuje, aby byly na úrovni Unie vypracovány důvěryhodné normy v oblasti umělé inteligence pro veškeré druhy dopravy včetně automobilového průmyslu a pro testování vozidel využívajících umělou inteligenci a souvisejících produktů a služeb;
108. konstatuje, že systémy umělé inteligence by mohly přispět ke značnému snížení počtu úmrtí na silnicích, například prostřednictvím kratší reakční doby a lepšího dodržování silničních pravidel; domnívá se však, že není možné, aby používání autonomních vozidel vedlo k odstranění veškerých nehod, a zdůrazňuje, že je proto stále důležitější, aby bylo možné rozhodnutí umělé inteligence vysvětlit, a odůvodnit tak nedostatky a nechtěné důsledky těchto rozhodnutí;
Zaměstnanost, práva pracovníků, digitální dovednosti a pracoviště
109. poznamenává, že používání umělé inteligence, robotiky a souvisejících technologií na pracovišti může přispět k inkluzivním trhům práce a mít dopad na zlepšení bezpečnosti a ochrany zdraví při práci, přičemž může být rovněž využito k monitorování, hodnocení, předvídání a řízení výkonnosti pracovníků s přímými a nepřímými důsledky pro jejich profesní dráhu; vzhledem k tomu, že by umělá inteligence měla mít pozitivní dopad na pracovní podmínky a měla by se řídit dodržováním lidských práv i základních práv a hodnot Unie; vzhledem k tomu, že by umělá inteligence měla být zaměřená na člověka, podporovat dobré podmínky lidí a společnosti a přispívat ke spravedlivé a řádné transformaci; tyto technologie by se proto měly pozitivně odrazit na pracovních podmínkách, které se řídí dodržováním lidských práv i základních práv a hodnot Unie;
110. zdůrazňuje, že je třeba prostřednictvím odborné přípravy a vzdělávání rozvíjet dovednosti pracovníků a jejich zástupců, pokud jde o umělou inteligenci na pracovišti, aby lépe chápali dopady řešení založených na umělé inteligenci; zdůrazňuje, že uchazeči a pracovníci by měli být řádně písemně informováni, pokud se umělá inteligence používá v průběhu přijímacích řízení a dalšího rozhodování o lidských zdrojích, a o také tom, jak lze v tomto případě požádat o lidský přezkum s cílem zvrátit automatizované rozhodnutí;
111. zdůrazňuje, že je třeba zajistit, aby zvyšování produktivity spojené s vývojem a využíváním umělé inteligence a robotiky nepřinášelo užitek pouze vlastníkům a akcionářům společností, ale aby také prospívalo společnostem a pracovníkům díky zlepšení pracovních podmínek a podmínek zaměstnávání, včetně mezd, hospodářského růstu a rozvoje, a aby také sloužilo společnosti jako celku, a to zejména v případech, kdy k němu dochází na úkor pracovních míst; vyzývá členské státy, aby pečlivě zkoumaly potenciální dopad umělé inteligence na trh práce a na systémy sociálního zabezpečení a aby vyvinuly strategie týkající se způsobu zajištění dlouhodobé stability pomocí reformy daní a příspěvků a také dalších opatření v případě nižších veřejných příjmů;
112. zdůrazňuje význam podnikových investic do formální a neformální odborné přípravy a celoživotního učení s cílem podpořit spravedlivou transformaci na digitální ekonomiku; zdůrazňuje v této souvislosti, že společnosti využívající umělou inteligenci odpovídají za poskytování přiměřeného zvyšování kvalifikací a rekvalifikací pro všechny příslušné zaměstnance tak, aby se mohli naučit, jak používat digitální nástroje a pracovat s coboty a dalšími novými technologiemi, a tím se přizpůsobit měnícím se potřebám trhu práce a udržet si zaměstnání;
113. domnívá se, že zvláštní pozornost by měla být věnována všem novým formám práce, jako je zakázková práce („gig work“) nebo práce prostřednictvím platforem, která je výsledkem uplatňování nových technologií v této oblasti; zdůrazňuje, že dopad umělé inteligence musí být rovněž zohledněn při regulaci podmínek práce na dálku v celé Unii a zajišťování důstojných pracovních podmínek a podmínek zaměstnávání v digitální ekonomice; vyzývá Komisi, aby v tomto ohledu vedla konzultace se sociálními partnery, vývojáři umělé inteligence, výzkumnými pracovníky a dalšími zúčastněnými stranami;
114. zdůrazňuje, že umělá inteligence, robotika a související technologie nesmí žádným způsobem ovlivňovat výkon základních práv uznávaných v členských státech a na úrovni Unie, včetně práva na stávku nebo svobody stávkovat nebo činit jiné kroky, na něž se vztahují konkrétní systémy vztahů mezi sociálními partnery v členských státech, v souladu s vnitrostátními právními předpisy nebo zvyklostmi, ani právo vyjednávat, uzavírat a vymáhat kolektivní smlouvy nebo podnikat kolektivní akce v souladu s vnitrostátními právními předpisy nebo zvyklostmi;
115. opětovně připomíná význam vzdělávání a soustavného učení pro rozvoj kvalifikací nezbytných v digitálním věku a pro boj proti digitálnímu vyloučení; vyzývá členské státy, aby investovaly do vysoce kvalitních reakceschopných a inkluzivních systémů vzdělávání, odborné přípravy a celoživotního učení a také do politiky rekvalifikace a zvyšování kvalifikace pro pracovníky v odvětvích, na něž může mít umělá inteligence značný dopad; zdůrazňuje, že je nezbytné vybavit současné i budoucí pracovníky nutnou gramotností, matematickou gramotností a digitálními dovednostmi a také kompetencemi v oblasti vědy, technologie, inženýrství a matematiky (STEM) a průřezovými měkkými dovednostmi, jako je kritické myšlení, kreativita a podnikavost; zdůrazňuje, že je třeba v této souvislosti věnovat zvláštní pozornost začlenění znevýhodněných skupin;
116. připomíná, že umělá inteligence, robotika a související technologie používané na pracovišti musí být přístupné všem, a to na základě zásady design pro všechny;
Vzdělávání a kultura
117. zdůrazňuje, že je třeba vypracovat kritéria pro vývoj, zavádění a používání umělé inteligence s ohledem na jejich dopad na oblast vzdělávání, sdělovacích prostředků, mládeže, výzkumu, sportu a kulturní a kreativní odvětví a vytvořit referenční standardy a vymezující principy pro eticky zodpovědné a přijatelné používání technologií umělé inteligence, které mohou být v uvedených oblastech náležitě uplatňovány, včetně jasného systému odpovědnosti za škodu způsobenou výrobky v důsledku používání umělé inteligence;
118. konstatuje, že každé dítě má právo na kvalitní vzdělávání na všech úrovních; vyzývá proto k vypracování, zavedení a používání kvalitních systémů umělé inteligence, které by umožnily vytvořit a zajistit kvalitní vzdělávací nástroje na všech úrovních pro všechny, a zdůrazňuje, že zavedení těchto nových systémů ve školách by nemělo vést k vytváření ještě větších rozdílů v digitalizaci společnosti; uznává obrovský potenciální přínos umělé inteligence a robotiky pro vzdělávání; konstatuje, že personalizované výukové systémy založené na umělé inteligenci by neměly nahrazovat vzdělávání s učitelem a že tradiční formy vzdělávání by neměly být opomíjeny, a zároveň poukazuje na to, že učitelům, kteří se snaží získat odpovídající dovednosti, musí být poskytnuta finanční, technologická a vzdělávací podpora, včetně specializovaných kurzů v oblasti informačních a komunikačních technologií, tak aby se mohli přizpůsobit technologickým změnám a aby potenciálu umělé inteligence dokázali nejen využívat, ale aby také porozuměli jejím omezením; požaduje, aby byla vypracována celounijní strategie s cílem napomoci transformaci a modernizaci našich vzdělávacích systémů, přípravě našich vzdělávacích zařízení na všech úrovních a vybavení učitelů a žáků nezbytnými dovednostmi a schopnostmi;
119. zdůrazňuje, že vzdělávací instituce by měly používat pro vzdělávací účely pouze systémy umělé inteligence, které získaly osvědčení o dodržování etických zásad;
120. zdůrazňuje, že příležitosti, které nabízí digitalizace a nové technologie, nesmí vést k celkové ztrátě pracovních míst v kulturních a kreativních odvětvích, k zanedbávání péče o originály ani k omezení tradičního přístupu ke kulturnímu dědictví, kam je třeba směřovat stejnou podporu; konstatuje, že systémy s umělou inteligencí vyvíjené, zaváděné a používané v Unii by měly odrážet její kulturní rozmanitost a mnohojazyčnost;
121. uznává rostoucí potenciál umělé inteligence v informační oblasti, ve sdělovacích prostředcích a na internetových platformách, mj. coby nástroje k boji proti dezinformacím v souladu s právem Unie; zdůrazňuje, že bez odpovídající regulace by mohla mít eticky nepříznivé dopady spočívající ve využívání neobjektivních údajů a algoritmů, které by mohly vést k šíření dezinformací a vytváření informačních bublin; upozorňuje na význam transparentnosti a odpovědnosti v souvislosti s algoritmy, které používají platformy pro sdílení videonahrávek a streamingové platformy, neboť je třeba zajistit přístup ke kulturně a jazykově různorodému obsahu;
Vnitrostátní orgány dohledu
122. poukazuje na přidanou hodnotu určení vnitrostátních orgánů dohledu v každém členském státě, které jsou odpovědné za zajištění toho, aby vývoj, zavádění a používání vysoce rizikové umělé inteligence, robotiky a souvisejících technologií probíhal v souladu s právními povinnostmi a etickými zásadami, a posuzují a monitorují, zda tak tomu skutečně je, čímž přispívají k tomu, aby tyto technologie uvedeným právním a etickým požadavkům vyhověly;
123. je přesvědčen o tom, že tyto orgány musí mít povinnost spolupracovat s orgány příslušnými pro provádění odvětvových právních předpisů, aniž by docházelo k překrývání jejich úkolů, s cílem vymezit technologie, které jsou z etického hlediska vysoce rizikové, a dohlédnout na provádění požadovaných a přiměřených opatření v případech, kdy jsou takové technologie zjištěny;
124. uvádí, že tyto orgány by měly spolupracovat nejen mezi sebou, ale rovněž s Evropskou komisí a dalšími příslušnými orgány, institucemi a jinými subjekty Unie, aby byla zaručena jednotná přeshraniční činnost;
125. navrhuje, aby byla v rámci této spolupráce vypracována společná kritéria a postup pro podávání žádostí o udělení evropského osvědčení o dodržování etických zásad, a to i po předložení žádosti jakýmkoli vývojářem, provozovatelem či uživatelem technologií, které nejsou považovány za vysoce rizikové, kteří chtějí získat pozitivní osvědčení o dodržování etických zásad na základě posouzení provedeného příslušným vnitrostátním orgánem dohledu;
126. vyzývá k tomu, aby byly tyto orgány pověřeny podporou pravidelné výměny názorů s občanskou společností a podporou inovací v rámci Unie, a to tak, že budou poskytovat pomoc výzkumným pracovníkům, vývojářům a dalším příslušným zúčastněným stranám a méně digitalizovaným podnikům, zejména malým a středním podnikům nebo začínajícím podnikům, a to zejména pokud jde o zvyšování povědomí a podporu rozvoje, zavádění, školení a získávání talentů s cílem zajistit účinný přenos technologií a přístup k technologiím, projektům, výsledkům a sítím;
127. vyzývá k tomu, aby všechny členské státy své určené vnitrostátní orgány dohledu dostatečně financovaly, a zdůrazňuje, že je třeba posílit vnitrostátní orgány pro dohled nad trhem, pokud jde o kapacitu, dovednosti a kompetence v oblasti umělé inteligence, robotiky a souvisejících technologií, jakož i znalosti o jejich specifických rizicích;
Koordinace na úrovni Unie
128. zdůrazňuje význam koordinace na úrovni Unie, kterou bude provádět Komise nebo jakékoli příslušné orgány, instituce a jiné subjekty Unie, které mohou být tímto úkolem pověřeny, aby se zabránilo roztříštěnosti, a dále zdůrazňuje, že je důležité zajistit harmonizovaný přístup v rámci celé Unie; domnívá se, že koordinace by se měla zaměřit na mandáty a činnosti vnitrostátních orgánů dohledu v každém členském státě, jak je uvedeno v předchozím pododdíle, a rovněž na sdílení osvědčených postupů mezi těmito orgány a upevňování spolupráce v oblasti souvisejícího výzkumu a vývoje v celé Unii; vyzývá |Komisi, aby posoudila situaci a našla nejvhodnější řešení pro strukturu takové spolupráce; příkladem již existujících příslušných orgánů, institucí a jiných subjektů Unie jsou ENISA, EIOÚ a evropský veřejný ochránce práv;
129. je přesvědčen o tom, že taková spolupráce a evropské osvědčení o dodržování etických zásad by v této souvislosti byly přínosné nejen pro rozvoj průmyslu a inovací v Unii, ale rovněž by zvýšily povědomí našich občanů o možnostech a rizicích spojených s těmito technologiemi;
130. navrhuje vytvořit odborné středisko, které bude sdružovat akademickou obec, výzkum, průmysl a jednotlivé odborníky na úrovni Unie, s cílem podpořit výměnu zkušeností a odborných znalostí a usnadnit spolupráci v celé EU i mimo ni; dále vyzývá k tomu, aby toto odborné středisko zapojilo i organizace zastupující zúčastněné strany, například organizace na ochranu spotřebitelů, a zajistilo se tak široké zastoupení spotřebitelů; domnívá se, že vzhledem k možnému nepřiměřenému dopadu algoritmických systémů na ženy a menšiny by měly být úrovně rozhodování takové struktury různorodé a zajišťovat rovnost žen a mužů; zdůrazňuje, že členské státy musí v rámci svých vnitrostátních strategií pro dohled nad trhem vytvořit strategie řízení rizik pro umělou inteligenci;
131. navrhuje, aby Komise nebo jakékoli příslušné orgány, instituce a jiné subjekty Unie, které mohou být tímto úkolem pověřeny, poskytovaly nezbytnou pomoc vnitrostátním orgánům dohledu, pokud jde o jejich úlohu sloužit jako primární kontaktní místo v případě podezření na porušení právních povinností a etických zásad, které byly stanoveny v regulačním rámci Unie pro umělou inteligenci, a to včetně zásady nediskriminace; pověřený subjekt by měl rovněž poskytnout vnitrostátním orgánům dohledu veškerou nezbytnou pomoc v případech, kdy tyto orgány provádějí posouzení souladu s cílem podpořit právo občanů vznést námitku a právo na nápravu, a to zejména tím, že podpoří případné konzultace s jinými příslušnými orgány v Unii, zejména se sítí pro spolupráci v oblasti ochrany spotřebitele a s vnitrostátními orgány na ochranu spotřebitele, organizacemi občanské společnosti a sociálními partnery se sídlem v jiných členských státech;
132. uznává cenné výsledky práce skupiny odborníků na vysoké úrovni pro umělou inteligenci, kterou tvoří zástupci akademické obce, občanské společnosti a průmyslu a Evropská aliance pro umělou inteligenci, zejména „Etické pokyny pro důvěryhodnou umělou inteligenci“, a navrhuje, že by tato skupina mohla poskytovat odborné poradenství Komisi nebo jakýmkoli příslušným orgánům, institucím a jiným subjektům Unie, které mohou být tímto úkolem pověřeny;
133. bere na vědomí začlenění projektů týkajících se umělé inteligence do Evropského programu rozvoje obranného průmyslu (EDIDP); je přesvědčen, že budoucí Evropský obranný fond (EDF) a stálá strukturovaná spolupráce (PESCO) mohou rovněž poskytovat rámce pro budoucí projekty související s umělou inteligencí, které by mohly pomoci zefektivnit úsilí Unie v této oblasti a zároveň podpořit cíl Unie, kterým je posílení lidských práv, mezinárodního práva a vícestranných řešení; zdůrazňuje, že projekty související s umělou inteligencí by měly být synchronizovány s širšími civilními programy Unie zaměřenými na umělou inteligenci; konstatuje, že v souladu s bílou knihou Evropské komise o umělé inteligenci ze dne 19. února 2020 by měla být zřízena střediska excelence a testovací střediska zaměřená na výzkum a vývoj umělé inteligence v oblasti bezpečnosti a obrany a měly by být stanoveny přísné specifikace podporující zapojení a investice soukromých zúčastněných stran;
134. bere na vědomí bílou knihu Komise o umělé inteligenci ze dne 19. února 2020 a vyjadřuje politování nad tím, že nebyly zohledněny vojenské aspekty; vyzývá Komisi a místopředsedu Komise, vysokého představitele, aby také v rámci celkového přístupu předložili odvětvovou strategii v oblasti umělé inteligence pro činnosti související s obranou v rámci Unie, která zajistí dodržování práv občanů i strategické zájmy Unie a bude založena na jednotném přístupu, který se bude týkat fází od vzniku systémů na bázi umělé inteligence až po jejich vojenské využití, a aby v rámci odborné skupiny na vysoké úrovni pro umělou inteligenci vytvořili pracovní skupinu pro bezpečnost a obranu, která by se měla věnovat konkrétně politickým a investičním otázkám, ale i etickým aspektům umělé inteligence v oblasti bezpečnosti a obrany; vyzývá Radu, Komisi a místopředsedu Komise, vysokého představitele, aby za tímto účelem zahájili strukturovaný dialog s Parlamentem;
Evropské osvědčení o dodržování etických zásad
135. navrhuje, aby byla v rámci koordinace na úrovni Unie vypracována společná kritéria a postup pro podávání žádostí o udělení evropského osvědčení o dodržování etických zásad, a to i po předložení žádosti jakýmkoli vývojářem, provozovatelem či uživatelem technologií, které nejsou považovány za vysoce rizikové, kteří chtějí získat pozitivní osvědčení o dodržování etických zásad na základě posouzení provedeného příslušným vnitrostátním orgánem dohledu;
136. je přesvědčen, že zavedení tohoto evropského osvědčení o dodržování etických zásad by podpořilo uplatňování zásady „etika již od návrhu“ v celém dodavatelském řetězci ekosystémů umělé inteligence; navrhuje proto, aby vydání tohoto osvědčení bylo v případě vysoce rizikových technologií závaznou podmínkou způsobilosti pro účast v postupech zadávání veřejných zakázek na umělou inteligenci, robotiku a související technologie;
Mezinárodní spolupráce
137. je toho názoru, že účinné přeshraniční spolupráce a etických norem lze dosáhnout pouze tehdy, pokud se všechny zúčastněné strany zavážou k zajištění lidského faktoru a dohledu, technické odolnosti a bezpečnosti, transparentnosti a odpovědnosti, rozmanitosti, nediskriminace a spravedlnosti, společenského a environmentálního blahobytu a dodržování zavedených zásad ochrany soukromí, správy dat a ochrany údajů, a to zejména zásad zakotvených v nařízení Evropského parlamentu a Rady (EU) 2016/679;
138. zdůrazňuje, že právní povinnosti a etické zásady Unie pro vývoj, zavádění a používání těchto technologií by z Evropy mohly učinit světového lídra v oblasti umělé inteligence, a proto je třeba je prosazovat po celém světě prostřednictvím spolupráce s mezinárodními partnery, přičemž je třeba pokračovat také v kritickém a na etických zásadách založeném dialogu se třetími zeměmi, které mají alternativní modely regulace umělé inteligence, jejího vývoje a zavádění;
139. připomíná, že příležitosti a rizika spojená s těmito technologiemi mají globální rozměr, neboť software a data, které používají, jsou často dováženy do Evropské unie a vyváženy z ní, a proto je třeba uplatňovat soudržný přístup v rámci mezinárodní spolupráce; vyzývá Komisi, aby z vlastního podnětu posoudila, které dvoustranné a mnohostranné smlouvy a dohody by měly být přizpůsobeny s cílem zajistit soudržný přístup a podpořit dodržování evropského modelu etických zásad na celosvětové úrovni;
140. v této souvislosti poukazuje také na přidanou hodnotu výše uvedené koordinace na úrovni Unie;
141. vyzývá k součinnosti a vytváření sítí mezi jednotlivými evropskými výzkumnými středisky v oblasti umělé inteligence a dalšími mnohostrannými fóry, mezi něž patří Rada Evropy, Organizace OSN pro výchovu, vědu a kulturu (UNESCO), Organizace pro hospodářskou spolupráci a rozvoj (OECD), Světová obchodní organizace a Mezinárodní telekomunikační unie (ITU) s cílem sladit jejich úsilí a lépe koordinovat vývoj umělé inteligence, robotiky a souvisejících technologií;
142. zdůrazňuje, že Unie musí hrát vedoucí úlohu v souvislosti s podporou mnohostranného úsilí v rámci skupiny vládních odborníků fóra Úmluvy OSN o některých konvenčních zbraních dalších relevantních fór, jednat o účinném mezinárodním regulačním rámci, který zajistí smysluplnou lidskou kontrolu nad autonomními systémy zbraní s cílem ovládat tyto technologie tím, že stanoví dobře definované postupy založené na referenčních hodnotách a přijme právní předpisy pro jejich etické používání po konzultaci se zúčastněnými stranami z řad armády, průmyslu, policie, akademické obce a občanské společnosti, pochopit související etické aspekty, zmírnit přirozená rizika těchto technologií a předcházet používání k nepřátelským účelům;
143. uznává úlohu NATO při podpoře euroatlantické bezpečnosti a vyzývá k tomu, aby se v rámci NATO spolupracovalo na zavedení společných norem a interoperability systémů umělé inteligence v oblasti obrany; zdůrazňuje, že transatlantický vztah je důležitý pro zachování sdílených hodnot a pro boj proti budoucím a novým hrozbám;
144. zdůrazňuje, že je důležité vytvořit etický kodex chování, který by byl základem pro zavádění zbraňových systémů na bázi umělé inteligence do vojenských operací a který by byl podobný stávajícímu regulačnímu rámci zakazujícímu nasazování chemických a biologických zbraní; je toho názoru, že Komise by měla iniciovat vytvoření norem pro používání zbraňových systémů založených na umělé inteligenci ve válce v souladu s mezinárodním humanitárním právem a že Unie by měla usilovat o mezinárodní přijetí takovýchto norem; domnívá se, že by se Unie měla zapojit do diplomacie v oblasti umělé inteligence na mezinárodních fórech s podobně smýšlejícími partnery, jako je skupina G7, G20 a OECD;
Závěrečné aspekty
145. na základě výše uvedených úvah o aspektech souvisejících s etickým rozměrem umělé inteligence, robotiky a souvisejících technologií dochází k názoru, že právní a etický rozměr by měly být zakotveny v účinném, na budoucnost zaměřeném a komplexním právním rámci na úrovni Unie, který budou podporovat příslušné vnitrostátní orgány dohledu, který bude koordinovat a podporovat Komise nebo jakékoli příslušné orgány, instituce a jiné subjekty Unie, které mohou být tímto úkolem pověřeny, který bude předmětem pravidelného přezkumu ze strany případného výše uvedeného odborného střediska a který bude v rámci vnitřního trhu řádně dodržován a certifikován;
146. v souladu s postupem uvedeným v článku 225 Smlouvy o fungování Evropské unie žádá, aby Komise předložila návrh nařízení o etických zásadách vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií na základě článku 114 Smlouvy o fungování Evropské unie a podrobných doporučení uvedených v příloze k tomuto návrhu usnesení; zdůrazňuje, že návrh by neměl podkopávat odvětvové právní předpisy, ale měl by pouze zaplnit zjištěné mezery;
147. doporučuje, aby Evropská komise po konzultaci se všemi relevantními zúčastněnými stranami v případě potřeby přezkoumala stávající právní předpisy Unie použitelné na umělou inteligenci, robotiku a související technologie s cílem reagovat na rychlost jejich vývoje v souladu s doporučeními uvedenými v příloze k tomuto návrhu usnesení, přičemž je nutné předejít nadměrné regulaci, zejména v případě malých a středních podniků;
148. je přesvědčen, že pro zajištění toho, aby byly platné právní předpisy stále aktuální a odpovídaly rychlému tempu technologického pokroku, bude klíčové pravidelně vyhodnocovat a případně přezkoumávat regulační rámec Unie pro umělou inteligenci, robotiku a související technologie;
149. domnívá se, že pokud by byl výše uvedenými koordinačními funkcemi pověřen některý evropský subjekt, požadovaný návrh by měl finanční dopady, neboť by bylo nutné zajistit nezbytné technické prostředky a lidské zdroje pro plnění úkolů, které byly tomuto subjektu nově svěřeny;
150. pověřuje svého předsedu, aby předal toto usnesení a připojená podrobná doporučení Komisi a Radě.
PŘÍLOHA K NÁVRHU USNESENÍ: DOPORUČENÍ TÝKAJÍCÍ SE OBSAHU POŽADOVANÉHO NÁVRHU
A. ZÁSADY A CÍLE POŽADOVANÉHO NÁVRHU
I. Hlavní zásady a cíle návrhu jsou:
˗ vytvořit důvěru na všech úrovních zúčastněných stran a společnosti v umělou inteligenci, robotiku a související technologie, zejména jsou-li považovány za vysoce rizikové;
˗ podporovat vývoj umělé inteligence, robotiky a souvisejících technologií v Unii, mj. poskytováním pomoci podnikům, start-upům a malým a středním podnikům při posuzování a řešení stávajících a budoucích regulačních požadavků a rizik v procesu inovačního a podnikového rozvoje s dostatečnou jistotou, a to i v průběhu pozdější fáze, tj. využívání příslušné technologie profesionály a řadovými občany, a to omezením zátěže a byrokracie na minimum;
˗ podporovat zavádění umělé inteligence, robotiky a souvisejících technologií v Unii poskytnutím vhodného a přiměřeného regulačního rámce, který by se měl uplatňovat tak, aby nebyly dotčeny stávající nebo budoucí odvětvové předpisy, s cílem podpořit regulační jistotu a inovace a současně zaručit základní práva a ochranu spotřebitele;
˗ podporovat používání umělé inteligence, robotiky a souvisejících technologií v Unii zajištěním toho, aby byly vyvíjeny, zaváděny a používány způsobem, který bude v souladu s etickými zásadami;
˗ požadovat transparentnost a lepší výměnu informací mezi občany a v rámci organizací, které vyvíjejí, zavádějí nebo používají umělou inteligenci, robotiku a související technologie, jako prostředek k zajištění toho, aby byly tyto technologie v souladu s právními předpisy Unie, základními právy a hodnotami a etickými zásadami požadovaného návrhu nařízení.
II. Návrh zahrnuje tyto prvky:
˗ „nařízení o etických zásadách vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií“; koordinační úloha na úrovni Unie, kterou bude hrát Komise a/nebo příslušné orgány, instituce a jiné subjekty Unie, které mohou být tímto úkolem pověřeny, a evropské osvědčení o dodržování etických zásad;
˗ podpůrná úloha Evropské komise;
˗ úloha „orgánu dohledu“ v každém členském státě s cílem zajistit, aby byly na umělou inteligenci, robotiku a související technologie uplatňovány etické zásady;
˗ zapojení zúčastněných stran, včetně start-upů, malých a středních podniků, podniků, sociálních partnerů a dalších zástupců občanské společnosti, vedení konzultací s nimi a poskytování podpory na příslušné projekty výzkumu a vývoje;
˗ příloha, která stanoví vyčerpávající a kumulativní seznam vysoce rizikových odvětví a vysoce rizikových použití a účelů.
III. „Nařízení o etických zásadách vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií“ vychází z těchto zásad:
˗ umělá inteligence, robotika a související technologie vytvářené a kontrolované člověkem a zaměřené na člověka;
˗ povinné posouzení souladu vysoce rizikové umělé inteligence, robotiky a souvisejících technologií;
˗ bezpečnost, transparentnost a odpovědnost;
˗ záruky a prostředky nápravy proti stereotypům a diskriminaci;
˗ právo na nápravu;
˗ sociální odpovědnost a rovnost žen a mužů v rámci umělé inteligence, robotiky a souvisejících technologií;
˗ udržitelnost umělé inteligence, robotiky a souvisejících technologií z hlediska životního prostředí;
˗ dodržování ochrany soukromí a omezené používání biometrického rozpoznávání;
˗ řádné řízení umělé inteligence, robotiky a souvisejících technologií, včetně dat, která tyto technologie používají či produkují.
IV. Pro účely koordinace na úrovni Unie vykonává Komise a/nebo příslušné orgány, instituce a jiné subjekty Unie, které mohou být tímto úkolem pověřeny, následující hlavní úkoly:
˗ spolupráce na monitorování uplatňování požadovaného návrhu nařízení a příslušných odvětvových právních předpisů Unie;
˗ spolupráce na vydávání pokynů k důslednému uplatňování požadovaného návrhu nařízení, konkrétně k uplatňování kritérií pro umělou inteligenci, robotiku a související technologie, které by měly být považovány za vysoce rizikové, a seznam vysoce rizikových odvětví a vysoce rizikových použití a účelů stanovených v příloze k tomuto nařízení;
˗ spolupráce s „orgánem dohledu“ v každém členském státě, pokud jde o vytvoření evropského osvědčení o dodržování etických zásad a právních povinností, jak je stanoveno v požadovaném návrhu nařízení a v příslušných právních předpisech Unie, jakož i vytvoření postupu pro podávání žádostí pro všechny vývojáře, provozovatele nebo uživatele technologií, jež nejsou považovány za vysoce rizikové, kteří chtějí osvědčit jejich soulad s požadovaným návrhem nařízení;
˗ spolupráce v souvislosti s podporou meziodvětvové a přeshraniční spolupráce prostřednictvím pravidelné výměny informací se zúčastněnými stranami a občanskou společností v EU i ve světě, zejména s podniky, sociálními partnery, výzkumnými pracovníky a příslušnými orgány, mj. v souvislosti s vývojem technických standardů na mezinárodní úrovni;
˗ spolupráce s „orgánem dohledu“ v každém členském státě, pokud jde o vytvoření závazných pokynů k metodice, podle níž má každý „orgán dohledu“ provádět posouzení souladu;
˗ spolupráce s „orgánem dohledu“ v každém členském státě a koordinace jejich mandátu a úkolů;
˗ spolupráce na zvyšování povědomí, poskytování informací a zapojení se do komunikace s vývojáři, provozovateli a uživateli v celé Unii;
˗ spolupráce na zvyšování povědomí, poskytování informací, prosazování digitální gramotnosti, odborné přípravy a dovedností a zapojení se do komunikace s návrháři, vývojáři, provozovateli, občany, uživateli a institucionálními orgány v celé Unii i na mezinárodní úrovni;
˗ spolupráce na koordinaci společného rámce pro správu rozvoje, zavádění a využívání umělé inteligence, robotiky a souvisejících technologií, kterou má provádět „orgán dohledu“ v každém členském státě;
˗ spolupráce v tom smyslu, že bude působit jako odborné centrum, a to prosazováním výměny informací a podporou rozvoje společného porozumění jednotnému trhu;
˗ spolupráce na uspořádání pracovní skupiny pro bezpečnost a obranu.
V. Komise by kromě toho měla vykonávat tyto úkoly:
˗ prostřednictvím aktů v přenesené pravomoci vypracovávat společný seznam vysoce rizikových technologií identifikovaných v Unii a provádět následnou aktualizaci ve spolupráci s „orgánem dohledu“ v každém členském státě;
˗ prostřednictvím aktů v přenesené pravomoci aktualizovat seznam uvedený v příloze tohoto nařízení.
VI. „Orgán dohledu“ v každém členském státě by měl provádět tyto hlavní úkoly:
˗ přispívat k důslednému uplatňování regulačního rámce stanoveného v požadovaném návrhu nařízení ve spolupráci s „orgánem dohledu“ v ostatních členských státech, jakož i s ostatními orgány odpovědnými za odvětvové právní předpisy, Komisí a/nebo příslušnými orgány, institucemi a jinými subjekty Unie, které mohou být tímto úkolem pověřeny, zejména pokud jde o uplatňování kritérií pro posuzování rizik stanovenými v požadovaném návrhu nařízení a seznamu vysoce rizikových odvětví a vysoce rizikových použití či účelů stanovených v jeho příloze, a následně dohlížet na provádění požadovaných a vhodných opatření, jsou-li vysoce rizikové technologie identifikovány v důsledku tohoto provádění;
˗ posuzovat, zda umělá inteligence, robotika a související technologie, včetně softwaru, algoritmů a dat používaných či produkovaných těmito technologiemi, které jsou vyvíjeny, zaváděny nebo používány v Unii, mají být považovány za vysoce rizikové technologie v souladu s kritérii pro posuzování rizik stanovenými v požadovaném návrhu nařízení a v seznamu stanoveném v jeho příloze;
˗ vydávat evropské osvědčení souladu s etickými zásadami a právními povinnostmi, jak je stanoveno v požadovaném návrhu nařízení a příslušných právních předpisech Unie, a to i v případě, že vyplývá z postupu podávání žádostí pro veškeré vývojáře, provozovatele nebo uživatele technologií, jež nejsou považovány za vysoce rizikové, kteří chtějí osvědčit jejich shodu s požadovaným návrhem nařízení vytvořeným Komisí a/nebo orgány, institucemi a jinými subjekty Unie, které mohou být tímto úkolem pověřeny;
˗ posuzovat a monitorovat jejich shodu s etickými zásadami a právními povinnostmi stanovenými v požadovaném návrhu nařízení a příslušných právních předpisech Unie;
˗ odpovídat za stanovení a provádění norem pro řízení umělé inteligence, robotiky a souvisejících technologií, a to i prostřednictvím spolupráce a udržování pravidelného dialogu se všemi příslušnými zúčastněnými stranami a zástupci občanské společnosti; spolupracovat za tímto účelem s Komisí a veškerými příslušnými orgány, institucemi a jinými subjekty Unie, které mohou být tímto úkolem pověřeny, pokud jde o koordinaci společného rámce na úrovni Unie;
˗ zvyšovat povědomí, poskytovat informace o umělé inteligenci, robotice a souvisejících technologiích veřejnosti a podporovat odbornou přípravu příslušných pracovníků, a to i v oblasti soudnictví, a vybavit tak občany a pracovníky digitální gramotností, dovednostmi a nástroji nezbytnými pro spravedlivou transformaci;
˗ působit jako první kontaktní místo v případech podezření na porušení právních povinností a etických zásad stanovených v požadovaném návrhu nařízení a provádět v těchto případech posuzování shody; v souvislosti s tímto posuzováním shody může vést konzultace s jinými příslušnými orgány v Unii, zejména se sítí pro spolupráci v oblasti ochrany spotřebitele, vnitrostátními orgány na ochranu spotřebitelů, organizacemi občanské společnosti a sociálními partnery, nebo je může informovat o svých zjištěních.
VII. Klíčovou úlohou příslušných stran by mělo být spolupracovat s Komisí a/nebo veškerými příslušnými orgány, institucemi a jinými subjekty Unie, které mohou být tímto úkolem pověřeny, a s „orgánem dohledu“ v každém členském státě.
B. ZNĚNÍ POŽADOVANÉHO LEGISLATIVNÍHO NÁVRHU
Návrh
NAŘÍZENÍ EVROPSKÉHO PARLAMENTU A RADY
o etických zásadách pro vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií
s ohledem na Smlouvu o fungování Evropské unie, a zejména na článek 114 této smlouvy,
s ohledem na návrh Evropské komise,
po postoupení návrhu legislativního aktu vnitrostátním parlamentům,
s ohledem na stanovisko Evropského hospodářského a sociálního výboru,
v souladu s řádným legislativním postupem,
vzhledem k těmto důvodům:
(1) Vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, by měly být založeny na přání sloužit společnosti. Tyto technologie mohou zahrnovat příležitosti a rizika, jež je třeba řešit a regulovat prostřednictvím souhrnného regulačního rámce na úrovni Unie odrážejícího etické zásady, jež je třeba dodržovat od okamžiku vývoje takových technologií a při jejich zavádění a používání.
(2) Soulad s takovým regulačním rámcem pro vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií v Unii, včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, by měl být na úrovni, která je rovnocenná ve všech členských státech, aby bylo možné účinně využít příležitostí, jež tyto technologie přinášejí, a jednotným způsobem řešit rizika s nimi spojená a zabránit roztříštěnosti předpisů. Mělo by být zajištěno homogenní používání pravidel stanovených v tomto nařízení v celé Unii.
(3) V této souvislosti platí, že stávající rozdílnost pravidel a postupů v Unii představuje pro ochranu životních podmínek a prosperity jednotlivce i celé společnosti značná rizika fragmentace jednotného trhu, jež ohrožují i soustavné využívání plného potenciálu umělé inteligence, robotiky a souvisejících technologií při prosazování inovací a ochraně těchto cílů. Rozdíly v tom, jakým způsobem vývojáři, provozovatelé a uživatelé zohledňují etickou dimenzi nerozlučně spjatou s těmito technologiemi, mohou bránit v jejich svobodném rozvoji, zavádění a používání v Unii a tyto rozdíly mohou být na překážku rovným podmínkám, technologickému pokroku a hospodářským činnostem na úrovni Unie, narušovat hospodářskou soutěž a bránit příslušným orgánům v plnění jejich povinností v souladu s právními předpisy Unie. Neexistence společného regulačního rámce zohledňujícího etické zásady pro vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií také způsobuje právní nejistotu pro všechny zúčastněné, zejména vývojáře, provozovatele a uživatele.
(4) Toto nařízení by mělo přispívat k soudržnému přístupu na úrovni Unie a v rámci omezení v něm stanovených, ale zároveň by mělo dávat členským státům manévrovací prostor, včetně toho, jakým způsobem mají příslušné vnitrostátní orgány dohledu vykonávat své pravomoci s ohledem na cíl, který sleduje, jak je v něm uvedeno.
(5) Tímto nařízením nejsou dotčeny stávající nebo budoucí odvětvové právní předpisy. Mělo by být přiměřené s ohledem na svůj cíl, aby zbytečně nebrzdilo inovace v Unii, a být v souladu s přístupem založeném na posouzení rizik.
(6) Zeměpisná působnost pro uplatňování takového rámce by měla zahrnovat všechny složky umělé inteligence, robotiky a souvisejících technologií během jejich celého vývoje, zavádění a používání v Unii, včetně případů, kdy může být část technologií umístěna mimo Unii nebo nemá zvláštní nebo jediné umístění, jako je tomu v případě cloudových počítačových služeb.
(7) Je nutné v Unii dospět ke společnému chápání pojmů, jako je umělá inteligence, robotika, související technologie a biometrické rozpoznávání, aby byl umožněn jednotný regulační přístup a tudíž právní jistota pro občany i podniky. Měly by být technologicky neutrální a v případě potřeby by měly být přezkoumány.
(8) Navíc je třeba zohlednit skutečnost, že existují technologie související s umělou inteligencí a robotikou, které softwaru umožňují kontrolovat fyzické nebo virtuální procesy, a to s různou mírou autonomie[13]. Např. u automatizovaného řízení vozidel bylo navrženo šest úrovní automatizace řízení v rámci mezinárodní normy Společnosti automobilových inženýrů (SAE) č. J3016.
(9) Vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, by měly doplňovat lidské schopnosti, neměly by je nahrazovat a jejich provádění by nemělo být v rozporu s nejlepším zájmem občanů, a měly by být v souladu s právními předpisy Unie, základními právy stanovenými v Listině základních práv Evropské unie (dále jen „Listina“), ustálené judikatuře Soudního dvora Evropské unie a v dalších evropských a mezinárodních nástrojích používaných v Unii.
(10) Rozhodnutí přijímaná nebo vyvolaná umělou inteligencí, robotikou a souvisejícími technologiemi by měla nadále podléhat přiměřenému lidskému přezkumu, posouzení, zásahům a kontrole. Technická a provozní složitost takových technologií by nikdy neměla bránit jejich provozovateli nebo uživateli, aby na poslední chvíli umožnili nouzové odstavení, aby je změnili nebo zastavili jejich provoz nebo se vrátili k předchozímu stavu tím, že by obnovili bezpečné funkce, pokud by hrozilo porušení právních předpisů Unie a etických zásad a právních povinností uvedených v tomto nařízení.
(11) Umělá inteligence, robotika a související technologie, jejichž vývoj, zavádění a používání obnášejí významné riziko způsobení újmy jednotlivcům nebo společnosti v rozporu se základními právy a bezpečnostními pravidly stanovenými v právních předpisech Unie, by měly být považovány za vysoce rizikové technologie. Aby mohly být takto posouzeny, je třeba zvážit, v jakém odvětví jsou vyvíjeny, zaváděny nebo používány, jejich zvláštní použití či účel a závažnost újmy, kterou by mohly způsobit. Míra závažnosti by se měla stanovovat na základě míry potenciální újmy, počtu postižených osob, celkové hodnoty případné škody a újmy způsobené společnosti jako celku. K závažným druhům újmy patří například porušení práv dětí, spotřebitelů nebo pracovníků, které kvůli svému rozsahu, počtu postižených dětí, spotřebitelů nebo pracovníků nebo jejich dopadu na společnost jako celek obnáší závažné riziko porušení základních práv a bezpečnostních pravidel stanovených v právních předpisech Unie. Nařízení by mělo poskytovat vyčerpávající a kumulativní seznam vysoce rizikových odvětví a vysoce rizikových použití a účelů.
(12) Povinnosti stanovené v toto nařízení, zejména ty, které se týkají vysoce rizikových technologií, by se měly vztahovat pouze na umělou inteligenci, robotiku a související technologie včetně softwaru, algoritmů a dat, které jsou používány nebo produkovány těmito technologiemi, jež jsou vyvíjeny, zaváděny nebo používány v Unii a nejsou na základě posouzení rizik stanoveného v tomto nařízení považovány za vysoce rizikové. Tyto povinnosti je třeba splnit, aniž by byla dotčena obecná povinnost, aby umělá inteligence, robotika a související technologie včetně softwaru, algoritmů a dat, které jsou používány nebo produkovány těmito technologiemi, byly vyvíjeny, zaváděny a používány v Unii způsobem zaměřeným na člověka a na základě zásad lidské autonomie a lidské bezpečnosti v souladu s právními předpisy Unie a za plného dodržení základních práv, jako je lidská důstojnost, právo na svobodu a bezpečnost a právo na nedotknutelnost lidské osobnosti.
(13) Vysoce rizikové technologie by měly být v souladu se zásadami bezpečnosti, transparentnosti, odpovědnosti, nezaujatosti nebo nediskriminace, sociální odpovědnosti a rovnosti žen a mužů, právem na nápravu, udržitelnosti životního prostředí, soukromí a řádné správy věcí veřejných, na základě nestranného, objektivního a externího posouzení rizik vnitrostátním orgánem dohledu v souladu s kritérii stanovenými v tomto nařízení a v seznamu stanoveném v jeho příloze. Toto posouzení by mělo zohlednit názory jakéhokoli sebehodnocení vypracovaného vývojářem nebo provozovatelem.
(14) Komise a/nebo příslušné orgány, instituce a jiné subjekty Unie, které mohou být tímto úkolem pověřeny, by měly připravit pro vývojáře, provozovatele a uživatele nezávazné pokyny k provádění, pokud jde o metodiku pro shodu s tímto nařízením. Měly by při tom vést konzultace s příslušnými zúčastněnými stranami.
(15) Při posuzování rizik těchto technologií by v Unii měla existovat soudržnost, zejména v případě, že jsou posuzovány jak s ohledem na toto nařízení, tak v souladu s jakýmikoli platnými odvětvovými právními předpisy. Vnitrostátní orgány dohledu by proto měly informovat ostatní orgány provádějící posuzování rizik v souladu s odvětvovými právními předpisy, pokud jsou tyto technologie podle posouzení rizik uvedeného v tomto nařízení posuzovány jako vysoce rizikové.
(16) Aby byly vysoce riziková umělá inteligence, robotika a související technologie včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, důvěryhodné, měly by být vyvíjeny, zaváděny a používány bezpečně, transparentně a zodpovědně v souladu s bezpečnostními prvky týkajícími se robustnosti, odolnosti, bezpečnosti, přesnosti a identifikaci chyb, vysvětlitelnosti, interoperability, kontrolovatelnosti, transparentnosti a identifikovatelnosti tak, aby bylo možné vypnout jejich funkce nebo se vrátit k předchozímu stavu obnovou bezpečných funkcí v případě, že nejsou v souladu s těmito prvky. Měla by být zajištěna transparentnost tím, že veřejným orgánům bude v nezbytně nutných případech umožněn přístup k technologiím, datům, a počítačovým systémům, na nichž jsou tyto technologie založeny.
(17) Vývojáři, provozovatelé a uživatelé umělé inteligence, robotiky a souvisejících technologií, zejména vysoce rizikových technologií, odpovídají různou měrou za dodržování zásad bezpečnosti, transparentnosti a odpovědnosti v míře, v níž pracují s dotyčnými technologiemi včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují. Vývojáři by měli zajistit, aby byly dotčené technologie koncipovány a vytvářeny v souladu s bezpečnostními prvky stanovenými v tomto nařízení, zatímco technici zavádějící dotyčné technologie a jejich uživatelé by měli při jejich zavádění a používání tyto prvky plně dodržovat. Za tímto účelem by měli vývojáři vysoce rizikových technologií hodnotit a předvídat rizika zneužití, které lze důvodně očekávat, pokud jde o technologie, které vyvíjí. Musí rovněž zajistit, aby systémy, které vyvíjí, uváděly v co největší možné míře a prostřednictvím vhodných prostředků, jako jsou prohlášení o vyloučení odpovědnosti, pravděpodobnost chyb nebo nepřesností.
(18) Vývojáři a provozovatelé by měli všem uživatelům zpřístupnit veškeré pozdější aktualizace dotyčných technologií, zejména pokud jde o software, jak je stanoveno ve smlouvě nebo v unijních či vnitrostátních právních předpisech. Pokud to vyplývá z posouzení rizik, měli by vývojáři a provozovatelé navíc poskytnout veřejným orgánům příslušnou dokumentaci o používání dotyčných technologií a bezpečnostní pokyny pro jejich používání, včetně, je-li to nezbytné nutné a v plném souladu s právními předpisy Unie týkajícími se ochrany údajů, soukromí a práv duševního vlastnictví a obchodních tajemství, zdrojový kód, vývojové nástroje a data, která systém používá.
(19) Jednotlivci mají právo očekávat, že technologie, již používají, funguje v rozumné míře a respektuje jejich důvěru. Důvěra občanů v umělou inteligenci, robotiku a související technologie včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, závisí na porozumění technickým procesům. Míra vysvětlitelnosti takových procesů by měla záviset na kontextu těchto technických procesů a na závažnosti důsledků chybného nebo nepřesného výstupu a musí být dostatečná pro řešení problémů a případnou nápravu. Pomocí kontrolovatelnosti, sledovatelnosti a transparentnosti by měla být řešena případná nečitelnost těchto technologií.
(20) Důvěra společnosti v umělou inteligenci, robotiku a související technologie včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, závisí na míře, v níž dotyčné technologie umožňují provést posouzení a kontrolu a v níž jsou sledovatelné. Pokud to vyžaduje míra jejich zapojení, měli by vývojáři zajistit, aby byly takové technologie koncipovány a vytvořeny způsobem umožňujícím jejich posouzení, kontrolu a sledovatelnost. V limitech technických možností by vývojáři, provozovatelé a uživatelé měli zajistit, aby byly při zavádění a používání umělé inteligence, robotiky a souvisejících technologií plně dodržovány požadavky na transparentnost a byla umožněna jejich kontrola a sledovatelnost.
(21) Aby se zajistila transparentnost a odpovědnost, měli by být občané informováni, pokud systém používá umělou inteligenci, pokud systémy umělé inteligence personalizují výrobek nebo službu podle svých uživatelů, zda mohou personalizaci vypnout nebo omezit a kdy s nimi komunikuje technologie automatizovaného rozhodování. Mimoto, pokud je to technicky možné, měla by být opatření v oblasti transparentnosti doprovázena jasnými a pochopitelnými vysvětleními používaných dat a algoritmu, jeho záměru, jeho výsledku i potenciálních nebezpečí.
(22) Stereotypy a diskriminace prostřednictvím softwaru, algoritmů a dat jsou nezákonné a měly by být řešeny prostřednictvím regulace procesů sloužících k jejich vytváření a zavádění. Stereotypy mohou pocházet z rozhodnutí na základě informací od automatizovaných systémů nebo přijatých těmito systémy a také z datových souborů, na nichž je takové rozhodování založeno nebo na nichž se systém trénuje.
(23) Software, algoritmy a data, které umělá inteligence, robotika a související technologie používají či produkují, by měly být považovány za stereotypní například tehdy, zobrazují-li suboptimální výsledky ve vztahu k určité osobě nebo skupině osob na základě předpojatého osobního nebo sociálního vnímání a následného zpracování dat týkajících se jejich rysů.
(24) V souladu s právem Unie by měly být software, algoritmy a data, které umělá inteligence, robotika a související technologie používají či produkují, považovány za diskriminační, vytvářejí-li výstupy, které mají nepřiměřený negativní dopad a vedou k rozdílnému zacházení s jednotlivými osobami nebo skupinami osob, včetně jejich znevýhodňování vůči druhým, na základě důvodů, jako jsou jejich osobní rysy, bez objektivního nebo rozumného zdůvodnění a bez ohledu na to, že jsou tyto technologie označovány za neutrální.
(25) V souladu s právem Unie mohou být za oprávněné důvody podle tohoto nařízení, které objektivně odůvodňují odlišné zacházení s jednotlivými osobami nebo skupinami osob, považovány ochrana veřejného pořádku, bezpečnosti a zdraví, předcházení trestné činnosti, ochrana základních práv a svobod, spravedlivé zastoupení a objektivní požadavky pro výkon profesní činnosti.
(26) Umělá inteligence, robotika a související technologie včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, by měly přispívat k udržitelnému pokroku. Tyto technologie by neměly být v rozporu s cílem zachování životního prostředí a s ekologickou transformací. Mohly by hrát významnou úlohu při dosahování cílů udržitelného rozvoje OSN v zájmu budoucích generací. Mohou napomoci monitorování přiměřeného pokroku na základě ukazatelů udržitelnosti a sociální soudržnosti a měly by využívat nástroje odpovědného výzkumu a inovací vyžadující, aby Unie a její členské státy mobilizovaly zdroje na podporu projektů zabývajících se těmito cíli a na investování do nich.
(27) Vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, by nikterak neměl záměrně působit nebo již od návrhu vědomě přijímat újmu jednotlivcům nebo společnosti. Zejména vysoce rizikové technologie by proto měly být vyvíjeny, zaváděny a používány sociálně odpovědným způsobem.
(28) Vývojáři, provozovatelé a uživatelé by proto měli být v míře, v níž pracují s umělou inteligencí, robotikou a souvisejícími technologiemi, a v souladu s unijními a vnitrostátními pravidly týkajícími se odpovědnosti odpovídat za veškerou újmu způsobenou jednotlivcům nebo společnosti.
(29) Zejména vývojáři, kteří přijímají rozhodnutí, jež stanoví a kontrolují průběh nebo způsob vývoje umělé inteligence, robotiky a souvisejících technologií, a provozovatelé s kontrolní nebo řídící funkcí podílející se na jejich zavádění tím, že přijímají rozhodnutí týkající se jejich zavádění a provádějí kontrolu souvisejících rizik nebo z tohoto zavádění mají prospěch, by měli odpovídat za to, že během procesu vývoje budou přijata odpovídající opatření k zamezení takovéto újmy a že tato opatření budou důsledně dodržována v průběhu fáze zavádění.
(30) Sociálně odpovědnou umělou inteligenci, robotiku a související technologie včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, lze definovat jako technologie, jež pomáhají nalézt řešení, která mohou zachovat a podpořit různé cíle týkající se společnosti, zejména demokracii, zdraví a hospodářskou prosperitu, rovnost příležitostí, pracovní a sociální práva, pluralitní a nezávislé sdělovací prostředky a objektivní a volně dostupné informace, umožnit veřejnou diskusi, kvalitní vzdělávání, kulturní a jazykovou rozmanitost, genderovou vyváženost, digitální gramotnost, inovace a kreativitu. Rovněž jsou vyvíjeny, zaváděny a používány s řádným zohledněním jejich konečného dopadu na fyzickou a duševní pohodu občanů a tak, aby nepodporovaly nenávistné verbální projevy nebo násilí. Těchto cílů by mělo být dosaženo především prostřednictvím vysoce rizikových technologií.
(31) Umělá inteligence, robotika a související technologie by měly být rovněž vyvíjeny, zaváděny a používány na podporu sociálního začleňování, demokracie, plurality, solidarity, spravedlnosti, rovnosti a spolupráce a jejich potenciál by v této souvislosti měl být maximalizován a prozkoumán prostřednictvím výzkumných a inovačních projektů. Unie a její členské státy by proto měly mobilizovat své komunikační, správní a finanční zdroje za účelem podpory těchto projektů a investic do nich.
(32) Projekty vztahující se k potenciálu umělé inteligence, robotiky a souvisejících technologií a mající řešit otázku společenských podmínek by měly být prováděny pomocí odpovědných výzkumných a inovačních nástrojů, aby byl již od počátku zajištěn soulad těchto projektů s etickými zásadami.
(33) Vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, by měly zohledňovat jejich environmentální stopu. V souladu s povinnostmi stanovenými v platných právních předpisech Unie by takové technologie neměly během své doby životnosti a v rámci celého dodavatelského řetězce poškozovat životní prostředí a měly by být vyvíjeny, zaváděny a používány způsobem, který zajišťuje ochranu životního prostředí, zmírňuje a napravuje environmentální stopu, přispívá k přechodu na zelenou ekonomiku a podporuje plnění cílů klimatické neutrality a oběhového hospodářství.
(34) Pro účely tohoto nařízení by vývojáři, provozovatelé a uživatelé měli v míře, v níž jsou zapojeni do vývoje, zavádění nebo používání jakékoli umělé inteligence, robotiky a souvisejících technologií považovaných za vysoce rizikové odpovídat za veškeré související poškození životního prostředí v souladu s platnými pravidly pro odpovědnost za životní prostředí.
(35) Tyto technologie by rovněž měly být vyvíjeny, zaváděny a používány s cílem podpořit dosažení environmentálních cílů v souladu s povinnostmi stanovenými platnými právními předpisy Unie, jako je snížení produkce odpadu, zmenšení uhlíkové stopy, boj proti změně klimatu a zachování životního prostředí, a jejich potenciál by v této souvislosti měl být maximalizován a prozkoumán prostřednictvím výzkumných a inovačních projektů. Unie a členské státy by proto měly mobilizovat své komunikační, správní a finanční zdroje za účelem podpory těchto projektů a investování do nich.
(36) Projekty vztahující se k potenciálu umělé inteligence, robotiky a souvisejících technologií by při řešení environmentálních problémů měly být prováděny pomocí odpovědných výzkumných a inovačních nástrojů tak, aby byl již od počátku zajištěn soulad těchto projektů s etickými zásadami.
(37) Veškerá umělá inteligence a robotika a všechny související technologie, včetně softwaru, algoritmů a dat používaných či produkovaných těmito technologiemi, které jsou vyvíjeny, zaváděny nebo používány v Unii, by měly plně respektovat práva občanů Unie na soukromí a ochranu osobních údajů. Zejména by měly být jejich vývoj, zavádění a používání v souladu s nařízením Evropského parlamentu a Rady (EU) 2016/679/ES[14] a směrnicí Evropského parlamentu a Rady 2002/58/ES[15].
(38) Je především třeba pečlivě zvážit etické hranice pro používání umělé inteligence, robotiky a souvisejících technologií, včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, kdykoli jsou používány technologie na dálkové rozpoznávání, jako je rozpoznávání biometrických rysů, zejména rozpoznávání obličeje, pro automatické zjišťování totožnosti osob. Používají-li tyto technologie veřejné orgány z důvodu zásadního veřejného zájmu, zejména za účelem zajištění bezpečnosti jednotlivců a řešení vnitrostátních krizových situací a zabezpečení bezpečnosti majetku, měly by je používat vždy veřejně, přiměřeně a cíleně, pouze na konkrétní účely a po omezenou dobu a v souladu s právními předpisy Unie a řádně zohledňovat lidskou důstojnost a autonomii a základní práva zakotvená v Listině. Kritéria pro tato užití a jejich omezení by měla podléhat soudnímu přezkumu a demokratické kontrole a diskusi, do níž bude zapojena občanská společnost;
(39) Řízení založené na příslušných normách zvyšuje bezpečnost a posiluje důvěru občanů ve vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií, včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují.
(40) Veřejné orgány by měly před zavedením vysoce rizikových technologií vypracovat posouzení dopadu na základní práva, která podpoří rozhodnutí veřejných orgánů, jež mají přímý a významný dopad na práva a povinnosti občanů.
(41) K současným relevantním správním normám patří například etické pokyny pro důvěryhodnou umělou inteligenci vypracované odbornou skupinou Komise na vysoké úrovni pro umělou inteligenci a veškeré další technické normy, například normy vydané na evropské úrovni Evropským výborem pro normalizaci (CEN), Evropským výborem pro normalizaci v elektrotechnice (CENELEC) a Evropským ústavem pro telekomunikační normy (ETSI) a na mezinárodní úrovni Mezinárodní organizací pro normalizaci (ISO) a Institutem pro elektrotechnické a elektronické inženýrství (IEEE).
(42) Sdílení a využívání dat více účastníky je citlivou záležitostí, a proto by se měl vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií řídit příslušnými pravidly, normami a protokoly, které stanovují požadavky v oblasti kvality, integrity, bezpečnosti, spolehlivosti, soukromí a kontroly. Strategie správy údajů by se měla zaměřovat na zpracovávání a sdílení těchto údajů a přístup k nim, včetně jejich řádné správy, kontrolovatelnosti a dohledatelnosti, a měla by zaručovat přiměřenou ochranu údajů o zranitelných skupinách, včetně osob se zdravotním postižením, pacientů, dětí, menšin a migrantů nebo jiných skupin ohrožených vyloučením. Vývojáři, provozovatelé a uživatelé by se kromě toho měli při posuzování používaných datových souborů případně opírat o klíčové ukazatele výkonnosti, aby posílili důvěryhodnost technologií, které vyvíjejí, zavádějí a používají.
(43) Členské státy by měly určit nezávislý správní orgán, který bude vykonávat funkci orgánu dohledu. Jednotlivé vnitrostátní orgány dohledu by měly zejména určovat, zda jsou umělá inteligence, robotika a související technologie považované s ohledem na kritéria pro posuzování rizik stanovená v tomto nařízení za vysoce rizikové, a posuzovat a sledovat, zda tyto technologie splňují povinnosti stanovené v tomto nařízení.
(44) Každý vnitrostátní orgán dohledu by měl také odpovídat za řádné řízení těchto technologií za koordinace Komise a/nebo jiného příslušného orgánu, instituce nebo subjektu Unie, který může být pověřen tímto úkolem. Hrají proto významnou úlohu při zvyšování důvěry občanů Unie a jejich bezpečnosti a pomáhají zajistit fungování demokratické, pluralitní a spravedlivé společnosti.
(45) Pro účely posouzení technologií, které jsou vysoce rizikové v souladu s tímto nařízením, a monitorování jejich souladu s ním by vnitrostátní orgány dohledu měly v případě potřeby spolupracovat s orgány odpovědnými za posuzování a monitorování těchto technologií a prosazování jejich souladu s vnitrostátními právními předpisy.
(46) Vnitrostátní orgány dohledu by měly rozvíjet rozsáhlou pravidelnou spolupráci jak mezi sebou navzájem, tak i s Evropskou komisí a dalšími příslušnými orgány, institucemi a dalšími subjekty Unie s cílem zaručit soudržný přeshraniční postup a umožnit jednotný vývoj, zavádění a používání těchto technologií v Unii v souladu s etickými zásadami a právními povinnostmi stanovenými tímto nařízením.
(47) V rámci spolupráce a s ohledem na dosažení plné harmonizace na úrovni Unie by měly vnitrostátní orgány dohledu pomáhat Komisi při vypracování společného a vyčerpávajícího seznamu vysoce rizikové umělé inteligence, robotiky a souvisejících technologií v souladu s kritérii stanovenými v tomto nařízení a jeho příloze. Kromě toho by měl být vytvořen povolovací postup pro vydávání evropského osvědčení o dodržování etických zásad, včetně dobrovolného postupu pro podávání žádostí pro všechny vývojáře, provozovatele nebo uživatele technologií, jež nejsou považované za vysoce rizikové, kteří by chtěli osvědčit jejich soulad s tímto nařízením.
(48) Vnitrostátní orgány dohledu by měly zajistit, aby vznikla pluralitní platforma za účasti co nejvyššího počtu zúčastněných stran, jako jsou zástupci průmyslu, obchodu, sociálních partnerů, vědy, spotřebitelů a organizací občanské společnosti, pro diskusi a výměnu názorů s cílem dospět k úplným a přesným závěrům, na základě nichž bude možné rozhodovat o regulaci řízení.
(49) Příslušné orgány dohledu by měly zajistit, aby vznikla pluralitní platforma za účasti co nejvyššího počtu zúčastněných stran, jako jsou zástupci průmyslu, obchodu, sociálních partnerů, vědy, spotřebitelů a organizací občanské společnosti, pro diskusi, výměnu názorů a snazší spolupráci mezi zúčastněnými stranami, zejména z vědecké obce, výzkumu, průmyslu a občanské společnosti, a jednotlivými odborníky, s cílem dospět k úplným a přesným závěrům, na základě nichž bude možné rozhodovat o regulaci řízení.
(50) Tyto vnitrostátní orgány dohledu by měly poskytovat odborné administrativní pokyny a podporu vývojářům, provozovatelům a uživatelům, zejména malým a středním podnikům a začínajícím podnikům, které mají obtíže s dodržováním etických zásad a právních povinností stanovených tímto nařízením.
(51) Komise a/nebo jakýkoli příslušný orgán, instituce nebo jiný subjekt Unie, který může být pověřen tímto úkolem, by měl stanovit závazné pokyny pro metodiku, kterou budou vnitrostátní orgány dohledu při posuzování shody používat.
(52) K tomu, aby se orgány dozvěděly o tom, že může být nebo skutečně bylo porušeno právo Unie, a mohly zamezit újmě či škodě, k níž by jinak došlo, je důležitá činnost oznamovatelů (whistleblowing). Důležité jsou rovněž oznamovací postupy v podnicích a organizacích, které zlepšují předávání informací a snižují riziko, že budou vyvíjeny nedokonalé či vadné výrobky a služby. Podniky a organizace, které vyvíjejí, zavádějí nebo používají umělou inteligenci, robotiku a související technologie, včetně dat používaných nebo produkovaných těmito technologiemi, by měly vytvořit oznamovací postupy a ochránit osoby oznamující porušení předpisů před odvetou.
(53) Vývoj umělé inteligence, robotiky a souvisejících technologií včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, a vývoj strojového učení a logického uvažování a dalších technologií, na nichž tento vývoj závisí, je rychlý a nelze jej předvídat. Proto je přiměřené a nezbytné vytvořit revizní mechanismus, v jehož rámci bude Komise kromě zpráv o uplatňování o tohoto nařízení podávat také pravidelné zprávy o případných změnách jeho působnosti.
(54) Jelikož cíle tohoto nařízení, kterým je vytvoření společného regulačního rámce pro etické zásady a právní povinnosti vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií v Unii, nemůže být dosaženo uspokojivě členskými státy, ale spíše jich, z důvodu rozsahu a účinků tohoto nařízení, může být lépe dosaženo na úrovni Unie, může Unie přijmout opatření v souladu se zásadou subsidiarity stanovenou v článku 5 Smlouvy o Evropské unii. V souladu se zásadou proporcionality stanovenou v uvedeném článku nepřekračuje toto nařízení rámec toho, co je nezbytné pro dosažení tohoto cíle.
(55) Koordinace na úrovni Unie stanovená v tomto nařízení by mohlo být nejlépe dosaženo Komisí a/nebo jakýmkoli příslušným orgánem, institucí nebo jiným subjektem Unie, který by mohl být tímto úkolem pověřen, s cílem zabránit fragmentaci a zajistit důsledné uplatňování tohoto nařízení. Komise by proto měla být pověřena nalezením vhodného řešení pro vytvoření struktury pro tuto koordinaci na úrovni Unie s cílem koordinovat pravomoci a činnosti vnitrostátních orgánů dohledu v jednotlivých členských státech, zejména pokud jde o posuzování rizik umělé inteligence, robotiky a souvisejících technologií, vytvoření společného rámce pro řízení vývoje, zavádění a používání těchto technologií, vytvoření a vydávání osvědčení o souladu s etickými zásadami a právními povinnostmi stanovenými tímto nařízením, podporu pravidelných diskusí se zúčastněnými stranami a občanskou společností a vytvoření odborného střediska, v němž by se na úrovni Unie setkávali zástupci akademické obce, výzkumu a průmyslu a jednotliví odborníci a které by podporovalo výměnu vědomostí a odborných technických znalostí, propagaci přístupu Unie v rámci mezinárodní spolupráci a zajištění celosvětově jednotné reakce na příležitosti a rizika, které jsou s těmito technologiemi neodmyslitelně spojeny.
PŘIJALY TOTO NAŘÍZENÍ:
Hlava I
Obecná ustanovení
Článek 1
Účel
Účelem tohoto nařízení je vytvořit komplexní a perspektivní regulační rámec Unie pro etické zásady a právní povinnosti v oblasti vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií v Unii.
Článek 2
Oblast působnosti
Toto nařízení se vztahuje na umělou inteligenci, robotiku a související technologie včetně softwaru, algoritmů a dat, které používají nebo produkují tyto technologie, vyvíjené, zaváděné nebo používané v Unii.
Článek 3
Zeměpisná působnost
Toto nařízení se vztahuje na umělou inteligenci, robotiku a související technologie, pokud je kterákoli jejich část vyvíjena, zaváděna nebo používána v Unii, a to i v případě, že se software, algoritmy nebo data používané nebo produkované těmito technologiemi nacházejí mimo Unii, nebo nemají konkrétní zeměpisné umístění.
Článek 4
Definice
Pro účely tohoto nařízení se rozumí:
a) „umělou inteligencí“ systém, který je buď založen na softwaru, nebo je součástí hardwarových zařízení a vykazuje inteligentní chování mimo jiné tím, že shromažďuje, zpracovává, analyzuje a interpretuje své okolí a podniká s určitým stupněm autonomie kroky k dosažení konkrétních cílů[16];
b) „autonomií“ systém UI, který pracuje tak, že interpretuje určitá vstupní data a využívá soubor předem stanovených pokynů, aniž by byl těmito pokyny omezován, navzdory tomu, že jeho chování je omezeno cílem, který mu byl stanoven, a dalšími příslušnými rozhodnutími vývojáře ohledně jeho designu a je zaměřeno na splnění tohoto cíle;
c) „robotikou“ technologie, které umožňují automaticky kontrolovaným, reprogramovatelným, víceúčelovým strojům[17] vykonávat činnosti ve fyzickém prostředí tradičně vykonávané nebo započaté člověkem, mimo jiné pomocí umělé inteligence nebo souvisejících technologií;
d) „souvisejícími technologiemi“ technologie, které umožňují softwaru částečně nebo zcela autonomně ovládat fyzický nebo virtuální proces, technologie schopné zjišťovat biometrické, genetické nebo jiné údaje a technologie, které kopírují nebo jinak využívají lidské rysy;
e) „vysokým rizikem“ závažné riziko, že jednotlivcům nebo společnosti bude způsobena újma nebo škoda v rozporu se základními právy a bezpečnostními pravidly stanovenými v právních předpisech Unie, které obnáší vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií, s ohledem na jejich konkrétní použití či účel, odvětví, v němž jsou vyvíjeny, zaváděny nebo používány, a závažnost újmy nebo škody, které lze očekávat;
f) „vývojem“ vytváření a projektování algoritmů, programování a design softwaru nebo shromažďování, ukládání a správa dat pro účely vytváření a trénování umělé inteligence, robotiky a souvisejících technologií nebo pro účely vytváření nové aplikace pro stávající umělou inteligenci, robotiku a související technologie;
g) „vývojářem“ jakákoli fyzická nebo právnická osoba, která přijímá rozhodnutí, jež určují a řídí průběh nebo způsob vývoje umělé inteligence, robotiky a souvisejících technologií;
h) „zaváděním“ provoz a řízení umělé inteligence, robotiky a souvisejících technologií a jejich uvádění na trh nebo jiné zpřístupňování uživatelům;
i) „provozovatelem“ jakákoli fyzická nebo právnická osoba, která je zapojena do konkrétního zavádění umělé inteligence, robotiky a souvisejících technologií do praxe, má kontrolní nebo řídící funkci, v nichž přijímá rozhodnutí, kontroluje riziko a má z tohoto zavádění prospěch;
j) „používáním“ jakákoli činnost týkající se umělé inteligence, robotiky a souvisejících technologií jiná než jejich vývoj nebo zavádění;
k) „uživatelem“ jakákoli fyzická nebo právnická osoba, která používá umělou inteligenci, robotiku a související technologie k jiným účelům než k vývoji a zavádění;
l) „stereotypem“ jakékoli osobní nebo společenské vnímání určité osoby nebo skupiny osob na základě jejich osobních rysů, které je založeno na předsudku;
m) „diskriminací“ rozdílné zacházení s určitou osobou nebo skupinou osob, které není objektivně nebo přiměřeně odůvodněno, a je tudíž podle práva Unie zakázáno;
n) „újmou nebo škodou“, včetně případů, kdy jsou způsobeny nenávistným projevem, stereotypem, diskriminací nebo stigmatizací, fyzická nebo psychická újma, materiální nebo nehmotná újma, jako je finanční nebo hospodářská ztráta, ztráta zaměstnání nebo příležitosti ke vzdělávání, neoprávněné omezení svobody volby nebo projevu, ztráta soukromí a jakékoli porušení práva Unie, které poškozuje určitou osobu;
o) „řádnou správou“ způsob řízení zajišťující, že vývojáři, provozovatelé a uživatelé na základě formálního souboru pravidel, postupů a hodnot přijmou a budou dodržovat vhodné a přiměřené standardy a protokoly chování, které jim umožní náležitě řešit etické otázky v okamžiku, kdy vyvstanou, případně dříve, než se tak stane.
Článek 5
Etické aspekty umělé inteligence, robotiky a souvisejících technologií
1. Veškerá umělá inteligence, robotika a související technologie, včetně softwaru, algoritmů a dat používaných či produkovaných těmito technologiemi, musí být vyvíjena, zaváděna a používána v Unii v souladu s právními předpisy Unie a za plného respektování lidské důstojnosti, autonomie a bezpečnosti a dalších základních práv stanovených v Listině.
2. Jakékoli zpracovávání osobních údajů prováděné v rámci vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií, včetně osobních údajů odvozených od neosobních a biometrických údajů, se provádí v souladu s nařízením (EU) 2016/679 a směrnicí (EU) 2002/58/ES.
3. Unie a její členské státy podporují výzkumné projekty, jejichž cílem je poskytovat na základě umělé inteligence, robotiky a souvisejících technologií řešení na podporu sociálního začleňování, demokracie, plurality, solidarity, spravedlnosti, rovnosti a spolupráce.
Hlava II
Podmínky, které musí splňovat vysoce rizikové technologie
Článek 6
Podmínky, které musí splňovat vysoce rizikové technologie
1. Ustanovení této hlavy se použijí pouze na umělou inteligenci, robotiku a související technologie včetně softwaru, algoritmů a dat, které jsou používány nebo produkovány těmito technologiemi, jež jsou vyvíjeny, zaváděny nebo používány v Unii a jsou považovány za vysoce rizikové.
2. Veškerá vysoce riziková umělá inteligence, robotika a související technologie, včetně softwaru, algoritmů a dat používaných či produkovaných těmito technologiemi, musí být vyvíjena, zaváděna a používána způsobem, který zaručuje, že nebudou porušeny etické zásady uvedené v tomto nařízení.
Článek 7
Umělá inteligence zaměřená na člověka a vytvářená člověkem
1. Veškeré umělé vysoce rizikové technologie, včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, musí být vyvíjeny, zaváděny a používány způsobem, který zaručuje trvalý lidský dohled.
2. Technologie uvedené v odstavci 1 musí být vyvíjeny, zaváděny a používány způsobem, který – bude-li to nutné – člověku umožňuje převzít v jakémkoli okamžiku kontrolu, mimo jiné prostřednictvím změny nebo zastavení těchto technologií.
Článek 8
Bezpečnost, transparentnost a odpovědnost
1. Veškerá vysoce riziková umělá inteligence, robotika a související technologie, včetně softwaru, algoritmů a dat používaných či produkovaných těmito technologiemi, musí být vyvíjeny, zaváděny a používány způsobem, který zaručuje, že budou:
a) vyvíjeny, zaváděny a používány spolehlivým způsobem, který tím, že se v jeho rámci dodržují minimální zásady kybernetické bezpečnosti, které odpovídají zjištěnému riziku, zaručí přiměřenou úroveň bezpečnosti a zamezí využívání případných technických nedostatků k zlovolným nebo protiprávním účelům;
b) vyvíjeny, zaváděny a používány bezpečným způsobem, který zaručí existenci pojistek zahrnujících nouzový plán a opatření pro případ, kdy hrozí porušení bezpečnosti nebo zabezpečení;
c) vyvíjeny, zaváděny a používány způsobem zaručujícím spolehlivé fungování odpovídající přiměřenému očekávání uživatele, pokud jde o dosažení cílů a provádění činností, pro něž byly původně určeny, mimo jiné tím, že veškeré operace jsou reprodukovatelné;
d) vyvíjeny, zaváděny a používány způsobem, který zaručuje, že konkrétní technologie přesně plní cíle a provádějí činnosti; není-li možné zabránit příležitostným nepřesnostem, systém pokud možno oznámí provozovatelům a uživatelům vhodným způsobem pravděpodobnost chyb a nepřesností;
e) vyvíjeny, zaváděny a používány snadno vysvětlitelným způsobem s cílem zaručit, že technické procesy technologií lze podrobit přezkumu;
f) vyvíjeny, zaváděny a používány způsobem, který uživatele upozorní na to, že je v interakci se systémy umělé inteligence, a poskytne vývojáři, provozovateli a uživateli náležité komplexní informace o schopnostech, přesnosti a omezeních těchto systémů;
g) v souladu s článkem 6 vyvíjeny, zaváděny a používány způsobem, který v případě nedodržení bezpečnostních prvků uvedených v písmenech a) až g) umožňuje dočasně vyřadit dané funkce z činnosti a vrátit se k předchozímu stavu, kterým budou bezpečné funkce obnoveny.
2. V souladu s čl. 6 odst. 1 musí být technologie uvedené v odstavci 1, včetně softwaru, algoritmů a dat používaných či produkovaných těmito technologiemi, vyvíjeny, zaváděny a používány transparentním a dohledatelným způsobem, aby jejich prvky, procesy a fáze byly zdokumentovány podle nejvyšších možných a platných norem a aby vnitrostátní orgány dohledu uvedené v článku 14 mohly posuzovat soulad těchto technologií s povinnostmi stanovenými tímto nařízením. Vývojář, provozovatel nebo uživatel těchto technologií zejména odpovídá za dodržování bezpečnostních prvků uvedených v odstavci 1 a jejich dodržování musí být schopen prokázat.
3. Vývojář, provozovatel nebo uživatel technologií uvedených v odstavci 1 zajistí, aby opatření k zajištění dodržování bezpečnostních prvků uvedených v odstavci 1 mohla být předmětem auditu vnitrostátních orgánů dohledu uvedených v článku 14, nebo případně jiných vnitrostátních nebo evropských odvětvových orgánů dohledu.
Článek 9
Nepřítomnost stereotypů a nediskriminace
1. Software, algoritmus nebo data, které jsou používány nebo produkovány vysoce rizikovou umělou inteligencí, robotikou a souvisejícími technologiemi vyvíjenými, zaváděnými nebo používanými v Unii, nesmí pracovat se stereotypy, a aniž je dotčen odstavec 3, nesmí nikoho diskriminovat na základě rasy, genderu, sexuální orientace, těhotenství, zdravotního postižení, tělesných nebo genetických znaků, věku, příslušnosti k národnostní menšině, etnického nebo sociálního původu, jazyka, náboženského vyznání nebo přesvědčení, politických názorů nebo občanské angažovanosti, státní příslušnosti, rodinného stavu, ekonomického postavení, vzdělání či trestní minulosti.
2. Odchylně od odstavců 1 a 2, a aniž jsou dotčeny právní předpisy Unie týkající se zákazu diskriminace, může být rozdílné zacházení s osobami nebo skupinami osob odůvodněné pouze v případě, že je sledován objektivní, přiměřený a legitimní cíl, který je proporcionální a nezbytný do té míry, že neexistují alternativy, které zásadě rovného zacházení odporují v menší míře.
Článek 10
Sociální odpovědnost a rovnost žen a mužů
Veškerá vysoce riziková umělá inteligence, robotika a související technologie, včetně softwaru, algoritmů a dat, které používají či produkují tyto technologie vyvíjené, zaváděné a používané v Unii, musí být vyvíjeny, zaváděny a používány v souladu s příslušnými právními předpisy, zásadami a hodnotami způsobem, který nezasahuje do voleb ani nepřispívá k šíření dezinformací, respektuje práva pracovníků, podporuje kvalitní vzdělávání a digitální gramotnost, neprohlubuje rozdíly mezi ženami a muži tím, že by bránil rovným příležitostem pro všechny, a neporušuje práva duševního vlastnictví ani žádná omezení nebo výjimky z těchto práv.
Článek 11
Udržitelnost z hlediska životního prostředí
Vnitrostátní orgány dohledu uvedené v článku 14, nebo případně jiné vnitrostátní nebo evropské odvětvové orgány dohledu posuzují veškerou vysoce rizikovou umělou inteligenci, robotiku a související technologie, včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, z hlediska udržitelnosti životního prostředí a zajišťují, aby byla přijímána opatření, která zmírní nebo napraví všeobecný dopad těchto technologií, pokud jde o přírodní zdroje, spotřebu energie, produkci odpadu, uhlíkovou stopu, změnu klimatu a zhoršování stavu životního prostředí, aby bylo zajištěno dodržování příslušných právních předpisů Unie a členských států, stejně jako všechny další environmentální závazky, které Unie přijala.
Článek 12
Respektování soukromí a ochrana osobních údajů
Používání a shromažďování biometrických údajů pro účely identifikace osob na dálku ve veřejných prostorech, jako je biometrické rozpoznávání nebo rozpoznávání obličeje, je spojeno se specifickými riziky, pokud jde o základní práva, a musí být zaváděno nebo používáno pouze veřejnými orgány členských států pro účely významného veřejného zájmu. Tyto orgány musí zajistit, aby takové zavádění nebo používání bylo zveřejněno, bylo přiměřené, cílené a omezené na konkrétní cíle a místo a časově omezeno v souladu s unijním a vnitrostátním právem, zejména s nařízením (EU) 2016/679 a směrnicí 2002/58/ES, a náležitě respektovalo lidskou důstojnost a autonomii a základní práva uvedená v Listině, konkrétně právo na respektování soukromí a ochranu osobních údajů.
Článek 13
Právo na nápravu
Každá fyzická nebo právnická osoba musí mít právo domáhat se nápravy za újmu nebo škodu, které jí způsobil vývoj, zavádění a používání vysoce rizikové umělé inteligence, robotiky a souvisejících technologií, včetně softwaru, algoritmů a dat, které tyto technologie používají nebo produkují, a to v rozporu s právem Unie a povinnostmi stanovenými v tomto nařízení.
Článek 14
Posouzení rizik
1. Pro účely tohoto nařízení se umělá inteligence, robotika a související technologie, včetně softwaru, algoritmů a dat, které tyto technologie používají nebo produkují, považují za vysoce rizikové technologie, pokud na základě posouzení rizik založeného na objektivních kritériích, jako je jejich specifické použití nebo účel, odvětví, v němž jsou vyvíjeny, zaváděny nebo používány, a závažnost případné újmy nebo škody, jejich vývoj, zavádění nebo používání představují významné riziko způsobení újmy nebo škody, jejichž vznik lze očekávat u jednotlivce nebo společnosti v rozporu se základními právy a bezpečnostními pravidly, které stanoví právní předpisy Unie.
2. Aniž jsou dotčeny použitelné odvětvové právní předpisy, posouzení rizik v případě umělé inteligence, robotiky a souvisejících technologií, včetně softwaru, algoritmů a dat, které používají nebo produkují tyto technologie, musí provádět v souladu s objektivními kritérii uvedenými v odstavci 1 tohoto článku a vyčerpávajícím a kumulativním seznamu uvedeném v příloze tohoto nařízení vnitrostátní orgány dohledu uvedené v článku 14, které koordinuje Komise nebo jiné příslušné instituce, orgány a subjekty Unie, které mohou být pro tento účel určené v rámci jejich spolupráce.
3. Ve spolupráci s vnitrostátními orgány dohledu uvedenými v odstavci 2 Komise prostřednictvím aktů v přenesené pravomoci v souladu s článkem 15a vypracuje a následně aktualizuje společný seznam vysoce rizikových technologií zjištěných v Unii.
4. Komise rovněž prostřednictvím aktů v přenesené pravomoci v souladu s článkem 15a pravidelně aktualizuje seznam uvedený v příloze tohoto nařízení.
Článek 15
Posuzování dodržování povinností
1. Vysoce riziková umělá inteligence, robotika a související technologie podléhají postupu posouzení dodržování povinností stanovených v článcích 6 až 12 tohoto nařízení a následnému sledování; posouzení i sledování provádějí vnitrostátní orgány dohledu uvedené v článku 17 v koordinaci s Komisí nebo jinými příslušnými orgány, institucemi nebo jinými subjekty Unie, které mohou být pro tento účel určeny.
2. Pokud se vnitrostátní orgán dohledu nerozhodne provést dané posouzení z vlastního podnětu nebo na žádost vývojáře, provozovatele nebo uživatele, má se za to, že software, algoritmy a data, které používají či produkují vysoce rizikové technologie, jež byly posouzeny a jsou v souladu s povinnostmi stanovenými v tomto nařízení podle odstavce 1, rovněž splňuje tyto povinnosti.
3. Aniž jsou dotčeny odvětvové právní předpisy, připraví Komise nebo jakýkoli příslušný orgán, instituce nebo jiný subjekt Unie, který může být pověřen tímto úkolem, do data vstupu tohoto nařízení v platnost závazné pokyny pro metodiku, kterou budou vnitrostátní orgány dohledu používat při posuzování shody uvedeném v odstavci 1.
Článek 16
Evropské osvědčení o dodržování etických zásad
1. Pokud bylo v souladu s článkem 7a provedeno posouzení dodržování etických zásad vysoce rizikovou umělou inteligencí, robotikou a souvisejícími technologiemi, včetně softwaru, algoritmů a dat, které tyto technologie používají nebo produkují, a jeho výsledek je kladný, vydá příslušný vnitrostátní orgán dohledu evropské osvědčení o dodržování etických zásad.
2. Každý vývojář, provozovatel nebo uživatel umělé inteligence, robotiky a souvisejících technologií, včetně softwaru, algoritmů a dat, které používají nebo produkují takové technologie, které nejsou považovány za vysoce rizikové, a proto se na ně nevztahují povinnosti stanovené v článcích 6 až 12 ani posouzení rizik a posouzení dodržování povinností a zásad stanovené v článcích 13 a 14, může rovněž požádat o osvědčení dodržování povinností stanovených v tomto nařízení nebo části těchto povinností, pokud je to odůvodněno povahou dotčené technologie, podle rozhodnutí vnitrostátních orgánů dohledu. Osvědčení se vydá, pouze pokud bylo provedeno posouzení dodržování povinností a zásad příslušným vnitrostátním orgánem dohledu a jeho výsledek je kladný.
3. Pro účely vydání osvědčení uvedeného v odstavci 2 zavede Komise nebo jakékoli jiné příslušné orgány, instituce nebo subjekty Unie, které mohou být tímto úkolem pověřeny, postup pro podávání žádostí.
Hlava III
Institucionální dohled
Článek 17
Správní normy a pokyny týkající se uplatňování nařízení
1. Umělá inteligence, robotika a související technologie, jež jsou vyvíjeny, zaváděny nebo používány v Unii musí být v souladu s příslušnými správními normami, které v souladu s právem, zásadami a hodnotami Unie stanoví vnitrostátní orgány dohledu uvedené v článku 17 v souladu s právem, zásadami a hodnotami Unie, za koordinace Komise nebo příslušných orgánů, institucí a jiných subjektů Unie, které mohou být pro tento účel určeny, a po konzultaci s příslušnými zúčastněnými stranami.
2. Normy uvedené v odstavci 1 musí zahrnovat nezávazné pokyny pro metodiku posuzování souladu s tímto nařízením vývojáři, provozovateli a uživateli a musí být zveřejněny do data vstupu tohoto nařízení v platnost.
3. Data, která používají nebo produkují umělá inteligence, robotika a související technologie vyvíjené, zaváděné nebo používané v Unii, spravují vývojáři, provozovatelé a uživatelé v souladu s příslušnými vnitrostátními, unijními a mezinárodními předpisy a normami a s předpisy a normami jiných evropských organizací a s příslušnými protokoly pro odvětvové a obchodní procesy. Pokud je to možné, vývojáři a provozovatelé provádějí zejména kvalitativní kontroly vnějších zdrojů dat, které umělá inteligence, robotika a související technologie používají, a zavádějí mechanismy pro dohled nad jejich shromažďováním, ukládáním, zpracováním a použitím.
3. Aniž by byla dotčena práva na přenositelnost údajů a práva osob, jejichž používání umělé inteligence, robotiky a souvisejících technologií vedlo ke vzniku dat, musí shromažďování, ukládání, zpracování a sdílení dat používaných nebo vyprodukovaných umělou inteligencí, robotikou a souvisejícími technologiemi, které jsou vyvíjeny, zaváděny nebo používány v Unii, a přístup k takovým datům, splňovat příslušné vnitrostátní, unijní a mezinárodní předpisy a normy, předpisy a normy jiných evropských organizací, jakož i příslušné protokoly pro odvětvové a obchodní procesy. Vývojáři a provozovatelé především zajistí dodržování těchto protokolů během vývoje a zavádění umělé inteligence, robotiky a souvisejících technologií tím, že jasně formulují požadavky na zpracování dat používaných nebo produkovaných těmito technologiemi a na udělování přístupu k nim, jakož i požadavky týkající se účelu, rozsahu a adresátů zpracování a zpřístupnění takových dat, přičemž všechny tyto prvky bude možné kdykoli zkontrolovat a vysledovat.
Článek 18
Orgány dohledu
1. Každý členský stát určí nezávislý veřejný orgán, který bude odpovídat za sledování uplatňování tohoto nařízení („orgán dohledu“) a za provádění posouzení rizik a dodržování povinností a zásad a za vydávání osvědčení stanovené v článcích 13, 14 a 15, aniž jsou dotčeny odvětvové právní předpisy.
2. Každý vnitrostátní orgán dohledu přispívá k jednotnému uplatňování tohoto nařízení v celé Unii. Za tímto účelem spolupracují orgány dohledu každého členského státu mezi sebou, s Komisí nebo dalšími příslušnými orgány, institucemi a jinými subjekty Unie, které mohou být tímto úkolem pověřeny.
3. Každý vnitrostátní orgán dohledu slouží jako první kontaktní místo v případech podezření na porušení etických zásad a právních povinností stanovených v tomto nařízení, včetně diskriminačního zacházení nebo porušení jiných práv v důsledku vývoje, zavádění nebo používání umělé inteligence, robotiky a souvisejících technologií. V takových případech provede příslušný vnitrostátní orgán dohledu posouzení souladu s cílem podpořit právo občanů ohradit se a požadovat náhradu.
4. Každý vnitrostátní orgán dohledu odpovídá za dohled nad uplatňováním příslušných vnitrostátních, evropských a mezinárodních správních předpisů a norem uvedených v článku 13 v souvislosti s umělou inteligencí, robotikou a souvisejícími technologiemi, a to i spoluprací s co největším počtem zúčastněných stran. Pro tento účel zřídí orgány dohledu v každém členském státě fórum pro pravidelnou výměnu informací se zúčastněnými stranami z akademických kruhů, výzkumné oblasti, průmyslu, občanské společnosti a mezi nimi navzájem.
5. Každý vnitrostátní orgán dohledu poskytne odborné a správní pokyny a podporu v oblasti obecného uplatňování právních předpisů Unie týkajících se umělé inteligence, robotiky a souvisejících technologií a etických zásad uvedených v tomto nařízení, zejména příslušným organizacím působícím v oblasti výzkumu a vývoje a malým a středním podnikům nebo začínajícím podnikům.
6. Každý členský stát informuje Evropskou komisi do [Úř. věst.: uveďte datum, rok po vstupu v platnost] o zákonných ustanoveních, která přijme na základě tohoto článku, a bezodkladně ji uvědomí o jakékoli následné změně, která se do těchto ustanovení promítne.
7. Členské státy přijmou veškerá opatření, která jsou nezbytná k zajištění uplatňování etických zásad a právních povinností uvedených v tomto nařízení. Členské státy podporují snahy příslušných zúčastněných stran a občanské společnosti, a to jak na úrovni Unie, tak na vnitrostátní úrovni, o včasnou, etickou a informovanou reakci na nové příležitosti a výzvy, které přináší technický rozvoj spjatý s umělou inteligencí, robotikou a souvisejícími technologiemi, zejména na příležitosti a výzvy přeshraniční povahy.
Článek 19
Oznamování porušení nařízení a ochrana osob oznamujících porušení
Oznamování porušení tohoto nařízení a ochrana osob oznamujících taková porušení se řídí směrnicí Evropského parlamentu a Rady (EU) 2019/1937[18].
Článek 20
Koordinace na úrovni Unie
1. Komise nebo příslušné orgány, instituce a jiné subjekty Unie, které mohou být v této souvislosti určeny, vykonávají následující hlavní úkoly:
– zajišťují jednotné posouzení rizika v případě umělé inteligence, robotiky a souvisejících technologií podle článku 13, které provádějí vnitrostátní orgány dohledu uvedené v článku 17 na základě společných objektivních kritérií stanovených v čl. 7 odst. 1 a v seznamu vysoce rizikových odvětví a vysoce rizikových použití nebo účelů uvedených v příloze tohoto nařízení;
– berou na vědomí posouzení souladu a následné sledování vysoce rizikové umělé inteligence, robotiky a souvisejících technologií uvedených v článku 14 prováděných vnitrostátními orgány dohledu uvedenými v článku 17;
– vytvářejí postup pro podávání žádostí podle článku 15 pro osvědčení vydávaná vnitrostátními orgány dohledu uvedenými v článku 17;
– aniž jsou dotčeny odvětvové právní předpisy, připravují závazné pokyny uvedené v čl. 14 odst. 3 týkající se metodiky, kterou budou používat vnitrostátní orgány dohledu uvedené v článku 17;
– koordinují stanovení příslušných správních norem uvedených v článku 16 vnitrostátními orgány dohledu uvedenými v článku 17, včetně nezávazných prováděcích pokynů pro vývojáře, provozovatele a uživatele týkajících se metodiky posuzování souladu s tímto nařízením;
– spolupracují s vnitrostátními orgány dohledu uvedenými v článku 17, pokud jde o jejich přínos k jednotnému uplatňování tohoto nařízení v celé Unii podle čl. 17 odst. 2;
– slouží jako odborné centrum a napomáhají výměně informací o umělé inteligenci, robotice a souvisejících technologiích a podporují vzájemné porozumění v rámci jednotného trhu, a to tím, že poskytují další pokyny, stanoviska a odborné posudky vnitrostátním orgánům dohledu uvedeným v článku 17, sledují uplatňování příslušných právních předpisů Unie, určují normy pro osvědčené postupy a případně vydávají doporučení pro regulační opatření; přitom by měly spolupracovat s co nejvyšším počtem příslušných zúčastněných stran a zajistit, aby složení jejich rozhodovacích úrovní bylo různorodé a zajišťovalo rovnost žen a mužů;
– uspořádají pracovní skupinu pro bezpečnost a obranu zabývající se politickými a investičními otázkami konkrétně souvisejícími s etickým využíváním umělé inteligence, robotiky a souvisejících technologií v oblasti bezpečnosti a obrany.
Článek 21
Výkon přenesené pravomoci
1. Pravomoc přijímat akty v přenesené pravomoci je svěřena Komisi za podmínek stanovených v tomto článku.
2. Pravomoc přijímat akty v přenesené pravomoci uvedená v čl. 7 odst. 3 a 4 je svěřena Komisi na dobu pěti let ode dne (datum vstupu tohoto nařízení v platnost).
3. Evropský parlament nebo Rada mohou přenesení pravomoci uvedené v čl. 7 odst. 3 a 4 kdykoli zrušit. Rozhodnutím o zrušení se ukončuje přenesení pravomoci v něm určené. Rozhodnutí nabývá účinku prvním dnem po zveřejnění v Úředním věstníku Evropské unie nebo k pozdějšímu dni, který je v něm upřesněn. Nedotýká se platnosti již platných aktů v přenesené pravomoci.
4. Před přijetím aktu v přenesené pravomoci Komise vede konzultace s odborníky jmenovanými jednotlivými členskými státy v souladu se zásadami stanovenými v interinstitucionální dohodě ze dne 13. dubna 2016 o zdokonalení tvorby právních předpisů.
5. Přijetí aktu v přenesené pravomoci Komise neprodleně oznámí současně Evropskému parlamentu a Radě.
6. Akt v přenesené pravomoci přijatý podle čl. 7 odst. 3 a 4 vstoupí v platnost, pouze pokud proti němu Evropský parlament nebo Rada nevysloví námitky ve lhůtě tří měsíců ode dne, kdy byl tento akt Evropskému parlamentu a Radě oznámen, nebo pokud Evropský parlament i Rada před uplynutím této lhůty informují Komisi o tom, že námitky nevysloví. Z podnětu Evropského parlamentu nebo Rady se tato lhůta prodlouží o tři měsíce.
Článek 22
Změna směrnice (EU) č. 2019/1937
Směrnice (EU) č. 2019/1937 se mění takto:
(1) V čl. 2 odst. 1 se doplňuje nový bod, který zní:
„xi) vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií;“
(2) V části I přílohy se doplňuje nové písmeno, které zní:
,K. Ustanovení čl. 2 odst. 1 písm. a) bodu xi) – vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií.
„xxi) nařízení Evropského parlamentu a Rady [XXX] o etických zásadách vývoje, zavádění a používání umělé inteligence, robotiky a souvisejících technologií“.‘
Článek 23
Přezkum
Komise průběžně přezkoumává vývoj umělé inteligence, robotiky a souvisejících technologií, včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, a do [Úř. věst.: uveďte datum tři roky po vstupu v platnost] a poté každé tři roky předkládá Evropskému parlamentu, Radě a Evropskému hospodářskému a sociálnímu výboru zprávu o uplatňování tohoto nařízení, včetně posouzení možných změn v oblasti působnosti tohoto nařízení.
Článek 24
Vstup v platnost
1. Toto nařízení vstupuje v platnost dvacátým dnem po vyhlášení v Úředním věstníku Evropské unie. Použije se ode dne XX.
2. Toto nařízení je závazné v celém rozsahu a přímo použitelné v členských státech v souladu se Smlouvou o založení Evropské unie.
Toto nařízení je závazné v celém rozsahu a přímo použitelné ve všech členských státech.
PŘÍLOHA
Vyčerpávající a kumulativní seznam vysoce rizikových odvětví a vysoce rizikových použití nebo účelů, které s sebou nesou možné porušení základních práv a bezpečnostních pravidel.
Vysoce riziková odvětví |
zaměstnanost vzdělávání zdravotní péče doprava energetika veřejný sektor (azyl, migrace, hraniční kontroly, soudnictví a služby sociálního zabezpečení) obrana a bezpečnost finance, bankovnictví, pojišťovnictví
|
Vysoce riziková použití nebo účely |
nábor zaměstnanců klasifikace a hodnocení studentů přidělování veřejných prostředků udělování půjček obchodování, zprostředkování, zdanění atd. lékařská péče a léčebné postupy volební procesy a politické kampaně rozhodnutí veřejného sektoru, která mají významný a přímý dopad na práva a povinnosti fyzických nebo právnických osob automatizované řízení řízení dopravy autonomní vojenské systémy výroba a distribuce energie nakládání s odpady kontrola emisí |
VYSVĚTLUJÍCÍ PROHLÁŠENÍ
Ve filmu Blade Runner z roku 1982 se v dialogu mezi replikantem Rachael, která pracuje v továrně na „replikanty“, tj. humanoidní roboty obdařené inteligencí, a Deckardem, lovcem odměn, který se živí odstraňováním replikantů, jež se vymkli kontrole, Rachael obrací na Deckarda se slovy:
– „Zdá se, že máte pocit, že naše práce není pro veřejnost prospěšná.“
A on jí na to odvětí:
– „Replikanti jsou jako jiné stroje. Mohou být prospěšní nebo nebezpeční. Pokud jsou prospěšní, netýká se mě to.“
Přínosy a rizika
Masové zavádění umělé inteligence do všech strojů, s nimiž se dostáváme do styku ve veřejném, pracovním i společenském životě, bude znamenat – již znamená – technologický skok, který je srovnatelný pouze s tím, co ve své době přinesla průmyslová revoluce. Život už nikdy nebude jako dříve, dojde k velmi podstatným změnám na trhu práce, ve vztahu s orgány veřejné moci, v osobních vztazích a dokonce i v našich domácnostech: pomysleme na to, co bude pro všechny přístroje, které používáme v domácnosti, znamenat „internet věcí“. Tak významný technologický skok nás přivádí k dilematu, které ve své odpovědi nastínil Blade Runner: každá technologie s sebou nese přínosy i rizika. A pokud hovoříme o umělé inteligenci a vezmeme v úvahu její potenciál, pak hovoříme o přínosech anebo rizicích dosud nevídaného rozsahu.
Úloha Evropské unie při stanovení právního rámce
Ovšem pokud se tímto fenoménem budeme zabývat coby orgány veřejné správy, nemůžeme se omezit na profesní cynismus Deckarda. Evropský parlament musí jak stimulovat využití potenciálu, který v sobě tyto technologie skrývají, pro zvýšení životní úrovně a konkurenceschopnosti Evropy, tak kontrolovat související rizika nebo předvídat důsledky rizikových situací, pokud by k nim skutečně došlo. Z tohoto důvodu chceme jako první vymezit zákonem etickou hranici, která by na jedné straně chránila evropské občany před případnými nepříznivými jevy, které by s sebou tato technologická evoluce nesla, a na druhé straně zajistila evropské umělé inteligenci ve světě důvěryhodnost jako přidanou hodnotu. Etickou hranici, která by byla v souladu jak s našimi evropskými zásadami a hodnotami zakotvenými v Listině základních práv Evropské unie, tak s podstatou naší civilizace. Právní rámec, který by se inspiroval humanistickým a antropocentrickým přístupem k technickému rozvoji. Právní úpravu, která by se nevztahovala jen na umělou inteligenci vyvinutou v Evropě, ale která by byla i přísným regulačním požadavkem pro každého, kde chce působit v Unii.
Je naprosto nutné, aby rámec pro práva a povinnosti platil pro všechny členské státy Evropské unie. Samostatné vnitrostátní předpisy přijímané postupně bez společného základu by mohly vést k narušení jednotného trhu a k oslabení našeho společného úsilí o získání vedoucího postavení ve světě v oblasti technologií. Zřízení evropské agentury pověřené dohledem nad vývojem této regulace povede k harmonizaci právních i technických rámců, které by vznikaly v jednotlivých členských státech.
Pružná regulace zaměřená na budoucnost
V argumentaci s obhájci samoregulace tohoto odvětví lze použít dialog citovaný na začátku tohoto prohlášení, který jasně dokládá nutnost zapojit veřejné orgány, díky nimž budou sledovány i jiné cíle než ziskovost. K cílům, které mají hájit evropské veřejné orgány, patří mimo jiné předcházení diskriminaci v rozhodovacích procesech (bez ohledu na její kořeny) a využití potenciálu těchto technologií v úsilí o spravedlivější společnost, a to se zvláštním důrazem na odstraňování genderových rozdílů, a o společnost ekologicky udržitelnější. Pokud jde o poslední jmenované aspekty, předkládané znění stanoví pro evropské orgány veřejné moci konkrétní mandáty.
Dalším cílem této právní úpravy je skloubit velmi přísný rámec s normativní jednoduchostí, a vyhnout se tak rafinovaným regulačním systémům nebo velkému zatížení zúčastněných stran byrokracií. Účelem je také vypracovat dostatečně flexibilní rámec, který bude moci zohledňovat pokrok v mimořádně rychle se měnící realitě a současně umožní vypracovávání norem v jednotlivých odvětvích, v nichž by se odrážely konkrétnější nové skutečnosti.
Celkové sladění a zřízení vnitrostátních orgánů dohledu
Záměrem této právní úpravy je rozšířit dohled na všechny fáze související s mimořádně složitými technologiemi. Vývoj technologií, jejich zavádění do praxe a vlastní rozvoj prostřednictvím takzvaného strojového učení (machine learning) nebo hlubokého učení (deep learning), to vše jsou aspekty, které tato regulace ve svých ustanoveních upravuje. Zvláštní důraz se klade na předcházení rizikům, pokud se jedná o takzvaně „vysoce rizikové“ technologie. Tzn. pokud by existovala vysoká pravděpodobnost vzniku nepříznivých externalit nebo pokud by se jednalo o citlivé oblasti, které vyžadují zvláštní ochranu a které jsou definované v této normě. Uvedená úprava reguluje tak citlivou problematiku z hlediska práv jednotlivců, jako jsou například techniky rozpoznávání na dálku. Pro jejich použití zavádí řadu pojistných mechanismů. Regulace předpokládá také velmi přísný věcný a časový rámec, podle něhož mohou veřejné orgány tyto techniky použít pouze výjimečně v nouzových situacích.
Záměrem je rovněž, aby se na návrhu, vypracování a kontrole tohoto regulačního rámce a dohledu nad ním podílela široká veřejnost, především jednotlivci a skupiny, jichž se rámec nejvíce týká. Regulace stanoví všem vnitrostátním orgánům dohledu, jejichž zřízení je podle této normy povinné, povinnost zajistit nezbytné a pravidelné zapojení občanské společnosti. Stejně tak se zavádí přísné požadavky transparentnosti a odpovědnosti, které se vztahují na vývojáře, provozovatele a uživatele umělé inteligence. Pro uživatele, kteří tyto technologie používají v dobré víře, se dále stanovují požadavky ohledně občanského chování a zavádí se jejich nezbytná ochrana.
Srozumitelnost, transparentnost, podávání zpráv odpovědnost a správa
Zatím jsme příliš vzdáleni od toho, že by se na základě algoritmu mohla zrodit psychohistorie, o níž hovoří Isaac Asimov ve své Nadaci. Zdá se tedy, že samotný koncept svobodného rozhodování, který je nedílnou součástí lidské podstaty, zatím není ohrožen. A to ani pokud jde o předvídání vzniku proudů, které by měly pro dějiny zásadní význam. Jakožto demokratické orgány zajistíme, aby podstatná i méně podstatná rozhodnutí, která se přijímají za pomoci umělé inteligence, nebyla výsledkem nesrozumitelných a nepřístupných matematických vzorců. Vývoj a použití umělé inteligence v Evropské unii bude muset nutně doprovázet srozumitelnost, transparentnost, podávání zpráv a odpovědnost.
Evropská unie usiluje konec konců o to, aby se stala prostorem, v němž panuje rovnováha mezi ochranou občanských práv a posilováním technologického rozvoje. Tato právní úprava a její další vývoj, který bude výsledkem činnosti orgánu/orgánů dozoru, musí jít příkladem zbývajícím částem světa a položit základy pro řádný přístup správních orgánů k této problematice na světové úrovni.
STANOVISKO VÝBORU PRO ZAHRANIČNÍ VĚCI (24.6.2020)
pro Výbor pro právní záležitosti
obsahující doporučení Komisi o rámci pro etické aspekty umělé inteligence, robotiky a souvisejících technologií
Zpravodaj (*): Urmas Paet
(*) Přidružený výbor – článek 57 jednacího řádu
(Podnět – článek 47 jednacího řádu)
NÁVRHY
Výbor pro zahraniční věci vyzývá Výbor pro právní záležitosti jako příslušný výbor:
– aby do svého návrhu usnesení začlenil následující návrhy:
1. zdůrazňuje, že se bezpečnostní a obranná politika Evropské unie a jejích členských států řídí zásadami zakotvenými v Listině základních práv Evropské unie a zásadami Charty Organizace spojených národů a obecnou shodou o univerzálních hodnotách dodržování nedotknutelných a nezadatelných práv lidských bytostí, respektování lidské důstojnosti, svobody, demokracie, rovnosti a právního státu; zdůrazňuje, že veškeré obranné úsilí v rámci Unie musí respektovat tyto univerzální hodnoty a zároveň podporovat mír, bezpečnost a pokrok v Evropě a ve světě; domnívá se, že používání umělé inteligence by mělo být založeno na společném souboru etických zásad, podle kterých by její používání mělo být: odpovědné, spravedlivé, sledovatelné, spolehlivé a řiditelné;
2. vítá skutečnost, že zasedání vysokých smluvních stran Úmluvy OSN o některých konvenčních zbraních (CCW) v roce 2019 schválilo 11 obecných zásad pro vývoj a používání autonomních zbraňových systémů; vyjadřuje však politování nad tím, že se nepodařilo dosáhnout dohody o právně závazném nástroji, který by upravoval smrtící autonomní zbraňové systémy, s účinným mechanismem vymáhání; vítá a podporuje „Etické zásady pro důvěryhodnou umělou inteligenci“ odborné skupiny Komise na vysoké úrovni pro umělou inteligenci, které byly zveřejněny dne 9. dubna 2019, a postoj této skupiny ke smrtícím autonomním zbraňovým systémům; naléhavě vyzývá členské státy, aby vypracovaly vnitrostátní strategie k vymezení definice a určení statusu smrtících autonomních zbraní s cílem vytvořit komplexní strategii na úrovni Unie a aby spolu s vysokým představitelem Unie, místopředsedou Komise a Radou podporovaly diskusi o smrtících autonomních zbraních v rámci CCW OSN a dalších příslušných fór a zavedení mezinárodních norem týkajících se etických a právních parametrů pro vývoj a používání plně autonomních, poloautonomních a dálkově ovládaných smrtících zbraňových systémů; v této souvislosti připomíná své usnesení o smrtících autonomních zbraňových systémech ze dne 12. září 2018 a znovu vyzývá k urychlenému vypracování a přijetí společného postoje k smrtícím autonomním zbraňovým systémům, k mezinárodnímu zákazu vývoje, výroby a používání smrtících autonomních zbraňových systémů, které umožňují útočit bez smysluplné lidské kontroly a bez dodržování zásady zapojení lidského faktoru v souladu s prohlášením nejvýznamnějších světových výzkumných pracovníků v oblasti umělé inteligence v jejich otevřeném dopise z roku 2015; vítá dohodu Rady a Parlamentu o vyloučení smrtících autonomních zbraní „bez možnosti smysluplné lidské kontroly nad rozhodnutími o výběru cíle a použití při provádění útoků na člověka“ z opatření financovaných z Evropského obranného fondu; je přesvědčen, že etické aspekty jiných oblastí uplatnění umělé inteligence v odvětví obrany, jako jsou zpravodajská činnost, sledování a průzkum (ISR) nebo kybernetické operace, nesmí být přehlíženy a zvláštní pozornost je třeba věnovat vývoji bezpilotních letounů a jejich používání ve vojenských operacích;
3. doporučuje, aby jakýkoli unijní rámec upravující používání systémů na bázi umělé inteligence v oblasti obrany v bojových i nebojových situacích dodržoval veškeré příslušné právní režimy, zejména mezinárodní humanitární právo a mezinárodní právo v oblasti lidských práv, a aby byl v souladu s právem Unie a s jejími zásadami a hodnotami; zdůrazňuje, že Unie by měla hrát globální úlohu při určování směru k zavedení důvěryhodného a závazného regulačního rámce v oblasti umělé inteligence, který bude založen na demokratických hodnotách a přístupu zaměřeném na člověka; vyzývá Unii a její členské státy, aby vytvořily společné mechanismy k rychlému a důkladnému posouzení přirozených rizik a příležitostí souvisejících s umělou inteligencí s ohledem na uplatňování práva Unie, které by se opíraly o osvědčené postupy vyspělejších členských států, a aby v případě potřeby zajistily nezbytné úpravy a prosazování, přičemž by braly v potaz rozdíly v technické a bezpečnostní infrastruktuře v celé Unii;
4. uznává, že na rozdíl od základen obranného průmyslu by kritické inovace v oblasti umělé inteligence mohly pocházet z malých členských států, a proto by standardizovaný přístup SBOP měl zajistit, aby nebyly menší členské státy a malé a střední podniky vytlačovány; zdůrazňuje, že soubor společných kapacit EU v oblasti umělé inteligence spolu s operačními koncepcemi členských států může překlenout technické mezery, kvůli nimž by mohly být vynechány státy, jež příslušnou technologií, odvětvím nebo odbornými znalostmi pro zavádění systémů umělé inteligence v rámci ministerstev obrany nedisponují;
5. zdůrazňuje, že zeměpisná působnost pro uplatňování takového rámce by měla zahrnovat všechny složky umělé inteligence, robotiky a souvisejících technologií vyvíjených, zaváděných nebo používaných v Unii, včetně případů, kdy může být část technologií umístěna mimo Unii nebo nemá konkrétní umístění;
6. zdůrazňuje, že nové technologie, na něž se nevztahuje mezinárodní právo, by se měly posuzovat z hlediska zásady respektování lidskosti a obecně platných etických norem; zdůrazňuje, že používání a etiku obranných systémů na bázi umělé inteligence je třeba neustále posuzovat, a to z hlediska lidských práv, zejména z hlediska lidské bezpečnosti, zdraví, svobody, soukromí, integrity a důstojnosti, a soustavně monitorovat, především z hlediska jejich výhod a nevýhod, jakož i dopadu na ochranu všeobecných lidských práv; je přesvědčen, že technologické výhody v oblasti obranných systémů na bázi umělé inteligence musí jít ruku v ruce s rozsáhlou diskusí o využívání umělé inteligence, jejích dopadech na společnosti a komunity a o potenciálních hospodářských a společenských přínosech a že je třeba řádně informovat o rizicích vyplývajících z využívání umělé inteligence;
7. domnívá se, že současné a budoucí činnosti související s bezpečností a obranou v rámci Unie budou vycházet z umělé inteligence, robotiky a autonomie a ze souvisejících technologií, a že spolehlivá, stabilní a důvěryhodná umělá inteligence by mohla přispět k moderním a účinným ozbrojeným silám Unie; Unie proto musí převzít vedoucí úlohu ve výzkumu a vývoji systémů umělé inteligence v oblasti bezpečnosti obrany; domnívá se, že využívání aplikací s podporou umělé inteligence v bezpečnosti a obraně by mohlo veliteli operace poskytnout řadu přímých výhod, jako jsou kvalitnější shromažďované údaje, lepší znalost situace, rychlejší rozhodování, nižší riziko vedlejších škod díky lepším kabelovým systémům, ochrana pozemních sil a také větší spolehlivost vojenského vybavení, a tím i snížené riziko pro lidi a méně lidských obětí; zdůrazňuje, že pro zaručení evropské schopnosti jednat v kapacitní a operační oblasti je nezbytný rozvoj důvěryhodné umělé inteligence v oblasti obrany; připomíná, že systémy umělé inteligence se také stávají klíčovými prvky v boji proti novým bezpečnostním hrozbám, jako jsou kybernetické a hybridní války, a to jak v online, tak v offline prostoru; zároveň zdůrazňuje všechna rizika a výzvy spojené s neregulovaným využíváním umělé inteligence; konstatuje, že umělá inteligence by mohla být vystavena manipulaci, chybám a nepřesnostem;
8. vyzývá k vytváření součinností a sítí mezi jednotlivými evropskými výzkumnými středisky v oblasti umělé inteligence a dalšími mnohostrannými fóry, mezi něž patří Rada Evropy, Organizace OSN pro výchovu, vědu a kulturu (UNESCO), Organizace pro hospodářskou spolupráci a rozvoj (OECD), Světová obchodní organizace a Mezinárodní telekomunikační unie (ITU) s cílem sladit jejich úsilí a lépe koordinovat vývoj technologie umělé inteligence;
9. zdůrazňuje, že technologie umělé inteligence mají v podstatě dvojí využití a že rozvoj umělé inteligence používané při činnostech souvisejících s obranou těží z výměn mezi vojenskými a civilními technologiemi; zdůrazňuje, že umělá inteligence používaná při činnostech souvisejících s obranou je průlomovou technologií s průřezovým dosahem, jejíž rozvoj může poskytnout příležitosti pro konkurenceschopnost a strategickou autonomii Unie;
10. zdůrazňuje, že na základě sdělení Komise ze dne 8. dubna 2019 nazvaného „Budování důvěry v umělou inteligenci zaměřenou na člověka“, podle nějž má technologie plně respektovat lidská práva a lidé si mají zachovat autoritu nad automatizovanými rozhodovacími systémy, které doplňují a podporují lidskou autonomii a rozhodování, Unie potřebuje spolehlivý regulační rámec pro umělou inteligenci zaměřený na bezpečnost a obranu, který zároveň respektuje odpovědnost a transparentnost, ochranu občanů a jejich údajů a obranu našich hodnot, aby její politiky usilovaly o zachování míru, předcházení konfliktům a posilování mezinárodní bezpečnosti, přičemž využijí možností, které tyto technologie nabízejí, a zohlední skutečnost, že systémy na bázi umělé inteligence se stanou klíčovým prvkem budoucího rozvoje obrany a obranných kapacit;
11. vyzývá členské státy a Komisi, aby zajistily, že algoritmy používané v obranných systémech se budou při zachování nezbytné důvěrnosti řídit zásadou transparentnosti, včetně jasného režimu odpovědnosti za výsledky využívání umělé inteligence; zdůrazňuje, že takovéto algoritmy musí být s ohledem na rozvoj technologií umělé inteligence soustavně upravovány;
12. zdůrazňuje, že Unie musí hrát vedoucí úlohu v souvislosti s podporou mnohostranného úsilí v rámci skupiny vládních odborníků fóra Úmluvy OSN o některých konvenčních zbraních dalších relevantních fór, jednat o účinném mezinárodním regulačním rámci, který zajistí smysluplnou lidskou kontrolu nad autonomními systémy zbraní s cílem ovládat tyto technologie tím, že stanoví dobře definované postupy založené na referenčních hodnotách a přijme právní předpisy pro jejich etické používání po konzultaci se zúčastněnými stranami z řad armády, průmyslu, policie, akademické obce a občanské společnosti, pochopit související etické aspekty, omezit přirozená rizika těchto technologií a předcházet používání k nepřátelským účelům; to zahrnuje zejména neúmyslnou újmu vůči osobám, a to jak materiální, tak nemateriální, například porušení základních práv nebo fyzickou újmu; Unie musí ve spolupráci s členskými státy určit vhodné režimy odpovědnosti použitelné na inovace v oblasti umělé inteligence a jiných imerzních technologií v oblasti bezpečnosti a obrany, a vytvořit tak právní základ pro mechanismy odpovědnosti a sledovatelnosti; zdůrazňuje, že právní předpisy a normativní rámce Unie nesmí zaostávat za budoucím technologickým pokrokem, pokrokem v oblasti umělé inteligence a novými způsoby vedení boje, a proto musí být podporovány smysluplnými systémy monitorování, které je třeba neustále upravovat, aby se zabránilo vzniku právních mezer nebo šedých zón; zdůrazňuje, že další výzkum a vývoj v oblasti umělé inteligence by měl zajistit, aby systémy na bázi umělé inteligence byly lépe vybaveny k pochopení jedinečných kontextů;
13. podporuje klíčovou zásadu „etika již od návrhu“, podle níž jsou etické zásady začleňovány do produktů a služeb umělé inteligence již od počátku procesu navrhování;
14. připomíná, že většina současných vojenských velmocí na celém světě se již zapojila do značného úsilí v oblasti výzkumu a vývoje v souvislosti s vojenským rozměrem umělé inteligence; má za to, že Unie se musí zasadit o to, aby v tomto směru nezaostávala; zdůrazňuje, že pro jakékoli uplatnění systémů na bázi umělé inteligence v obraně by Unie měla stanovit technické a organizační normy v souladu se zásadou „bezpečnost již od návrhu“, které umožní konkrétní lidský dohled, aby tak zajistila odolnost takovýchto systémů proti slabým místům, která lze napadnout externími útoky, kybernetickými útoky a digitálním vlivem zaměřeným na údaje, model nebo základní softwarovou i hardwarovou infrastrukturu, a také jejich soulad s co možná nejvyššími standardy spolehlivosti, aktivní monitorování a dohled, pokud jde o shromažďování, uchovávání a využívání operačních údajů v průběhu celého životního cyklu systému; zdůrazňuje význam transparentnosti a odpovědnosti algoritmů umělé inteligence; konstatuje, že je důležité rozlišovat mezi transparentností algoritmů a transparentností používání algoritmů; zdůrazňuje, že systémy a aplikace umělé inteligence určené k získávání a syntéze údajů a jejich extrapolaci za účelem poskytnutí informací pro rozhodnutí o záležitostech ve věci obrany a národní bezpečnosti musí mít konkrétní rozsah a musí být v souladu s ustanoveními stávajícího regulačního rámce, pokud jde o shromažďování a zpracování údajů; zdůrazňuje, že aplikace umělé inteligence, které jsou určeny ke zpracování údajů pro zpravodajské účely v rámci činností souvisejících s obranou, by měly být v souladu se standardy zpracování údajů, aby se zabránilo riziku nezamýšleného sledování nebo porušování práv jednotlivců; domnívá se, že v případě vysoce rizikových použití technologií na bázi umělé inteligence, jako je rozpoznávání obličeje, které postrádají definitivní regulační rámec na úrovni EU, musí Unie zajistit, aby jejich vývoj a zavádění bylo oprávněné, přiměřené a aby respektovalo práva jednotlivců; zdůrazňuje, že příslušné vnitrostátní donucovací orgány musí při vývoji a zavádění systémů a technologií na bázi umělé inteligence za účelem zachování veřejného pořádku dodržovat příslušné právní předpisy, aby se zmírnila nepřiměřená rizika prediktivního policejního dohledu; uznává, že primárním garantem euroatlantické bezpečnosti je NATO, a vyzývá k posílení spolupráce v rámci aliance NATO za účelem zavedení společných norem a interoperability systémů umělé inteligence v oblasti obrany; zdůrazňuje, že transatlantický vztah má zásadní význam pro zachování sdílených hodnot a pro boj proti budoucím a novým hrozbám;
15. zdůrazňuje, že pro systémy umělé inteligence v oblasti bezpečnosti a obrany je nezbytné přijmout jasná ustanovení a požadavky týkající se spolehlivosti, bezpečnosti a zabezpečení s náležitými certifikacemi, zavést kritéria transparentnosti v různých fázích, konkrétně ve fázi návrhu, výroby a provozu, a provádět neustálé monitorování, pravidelné testy a ověřování v rámci celého životního cyklu; zdůrazňuje nutnost zajistit soulad s platnými standardy a získanými certifikacemi v případech, kdy umělá inteligence například prostřednictvím strojového učení mění fungování a chování systémů, v nichž je integrována, aby se zajistila plná sledovatelnost, vysvětlitelnost a odpovědnost rozhodnutí přijímaných s využitím umělé inteligence a jejich důsledků, a také smysluplná lidská kontrola, pokud by takové systémy mohly zabíjet lidi;
16. vyzývá Komisi, aby do své průmyslové politiky začlenila budování kapacit v oblasti kybernetické bezpečnosti s cílem zajistit rozvoj a zavádění bezpečných, odolných a robustních systémů na bázi umělé inteligence; vyzývá Komisi, aby prozkoumala využívání aplikací a protokolů kybernetické bezpečnosti založených na technologii blockchain, s cílem zvýšit odolnost, důvěryhodnost a spolehlivost infrastruktur umělé inteligence prostřednictvím modelů šifrování údajů bez zprostředkovatelů; vybízí evropské zúčastněné strany, aby prozkoumaly a navrhly vyspělejší prvky, které by usnadnily odhalování poruchových a škodlivých systémů na bázi umělé inteligence a robotických systémů, které by mohly ohrozit bezpečnost Unie a občanů;
17. zdůrazňuje, že u všech systémů umělé inteligence v obraně musí být konkrétní a řádně vymezený rámec mise, který ponechá lidem schopnost odhalit a vypnout nebo deaktivovat nasazené systémy, pokud by překročily rámec mise vymezený a zadaný lidským velitelem nebo pokud by podnikly jakékoli eskalační nebo nezamýšlené kroky; domnívá se, že systémy, výrobky a technologie na bázi umělé inteligence pro vojenské využití by měly být vybaveny „černou skříňkou“ pro zaznamenávání každé datové transakce provedené strojem;
18. zdůrazňuje, že veškerou odpovědnost za rozhodování o koncepci, vývoji, nasazení a využívání systémů umělé inteligence musí nadále nést lidští provozovatelé, neboť při výkonu jakéhokoli rozhodnutí zbraňových systémů na bázi umělé inteligence, které by mohlo mít smrtící důsledky, musí být zajištěno smysluplné lidské monitorování a kontrola nad každým zbraňovým systémem a v rozhodování o použití síly musí být lidský záměr; zdůrazňuje, že by se měla zachovat lidská kontrola nad velením a kontrolou systémů na bázi umělé inteligence v souladu se zásadou aktivního zapojení člověka, sledování ze strany člověka a člověka ve velení na úrovni vojenského velení; zdůrazňuje, že systémy na bázi umělé inteligence musí umožňovat, aby vojenské vedení ozbrojených sil převzalo plnou odpovědnost za použití smrtící síly a uplatňovalo potřebnou úroveň úsudku, kterým stroje nemohou disponovat, protože musí být založen na rozlišování, přiměřenosti a obezřetnosti, při uskutečňování smrtících nebo rozsáhlých ničivých akcí prostřednictvím podobných systémů; zdůrazňuje, že je třeba vytvořit jasné a dohledatelné rámce pro povolování a odpovědnost za zavádění inteligentních zbraní a jiných systémů na bázi umělé inteligence, a to za použití jedinečných rysů uživatele, jako jsou biometrické specifikace, které umožní nasazení výlučně oprávněným personálem;
19. vyzývá Komisi, aby spolupracovala s příslušnými vnitrostátními orgány členských států a dalšími zúčastněnými subjekty, které se podílejí na vývoji a zavádění systémů, produktů a technologií na bázi umělé inteligence s cílem vytvořit bezpečný, zabezpečený a odolný rámec, v jehož mezích bude sdílen, sledován a ověřován zdrojový kód systémů na bázi umělé inteligence za účelem zmírnění možných odchylek od obecných zásad a etického rámce, na němž je založena technologie umělé inteligence v oblasti bezpečnosti a obrany; navrhuje Komisi, aby si Unie ponechala duševní vlastnictví výzkumu v oblasti systémů, produktů a technologií založených na umělé inteligenci v oblasti bezpečnosti a obrany financovaného z prostředků Unie;
20. zdůrazňuje, že Unie musí ve spolupráci s vojenskými činiteli podporovat lepší chápání vojenských dopadů, výhod, příležitostí a slabých stránek umělé inteligence, robotiky a autonomních funkcí a prvků, včetně potenciálu pro evropský obranný průmysl; domnívá se, že je nezbytné, aby Unie podporovala získávání nezbytných dovedností a znalostí o procesech technologického rozvoje a operačních metodách v celém dodavatelském řetězci a v celém životním cyklu vojenských kapacit na bázi umělé inteligence; zdůrazňuje, že je naléhavě nutné nastolit větší evropskou strategickou a technologickou nezávislost v oblasti systémů na bázi umělé inteligence, včetně kritické infrastruktury, kterou využívá;
21. domnívá se, že posílená spolupráce mezi členskými státy a Komisí je nezbytná k zajištění soudržných přeshraničních pravidel v Unii, která mají podpořit spolupráci mezi evropskými průmyslovými odvětvími a umožnit vývoj a zavádění technologií založených na umělé inteligenci v souladu s předepsanými bezpečnostními normami a etickým rámcem upravujícím vývoj a zavádění technologií umělé inteligence;
22. uznává, že v dnešním kontextu hybridního a vyspělého vedení válek mohou být objem a rychlost informací v počátečních fázích krize příliš velké pro lidské analytiky a že systém umělé inteligence by mohl tyto informace zpracovat a zajistit tak, aby lidé s rozhodovací pravomocí mohli sledovat celou škálu informací v přiměřeném časovém rámci umožňujícím rychlou reakci;
23. zdůrazňuje, že je důležité investovat do rozvoje lidského kapitálu pro umělou inteligenci a podporovat potřebné dovednosti a vzdělávání v oblasti bezpečnostních a obranných technologií na bázi umělé inteligence, přičemž je třeba se zaměřit zvláště na etiku poloautonomních a autonomních operačních systémů na základě lidské odpovědnosti ve světě využívajícím umělou inteligenci; zdůrazňuje zejména, že je důležité zajistit, aby etikové v této oblasti disponovali odpovídajícími dovednostmi a absolvovali náležitou odbornou přípravu; vyzývá Komisi, aby co nejdříve předložila svou „rozšířenou agendu dovedností“, která byla oznámena v Bílé knize o umělé inteligenci ze dne 19. února 2020;
24. zdůrazňuje, že kvantová výpočetní technika by mohla představovat nejrevolučnější změnu v konfliktech od vzniku jaderných zbraní, a proto naléhavě vyzývá Unii a členské státy, aby vývoj kvantových výpočetních technologií přijaly za svou prioritu; uznává, že akty agrese, včetně útoků na kritickou infrastrukturu, s pomocí kvantové výpočetní techniky vytvoří konfliktní prostředí, v němž bude čas přijímat rozhodnutí dramaticky omezen ze dnů a hodin na minuty a vteřiny, a členské státy tak budou nuceny rozvíjet kapacity na svoji ochranu a školit své činitele s rozhodovací pravomocí i vojenský personál k tomu, aby dokázali v těchto časových lhůtách účinně reagovat;
25. zdůrazňuje, že je třeba překonat současnou roztříštěnost v rámci Unie, pokud jde o vnitrostátní právní předpisy, výzkum, inovace a odborné znalosti v oblasti umělé inteligence, která ohrožuje fungování vnitřního trhu i záměr zajistit spolehlivý a bezpečný vývoj umělé inteligence v Evropě; vítá v této souvislosti začlenění projektů týkajících se umělé inteligence do Evropského programu rozvoje obranného průmyslu (EDIDP); je přesvědčen, že budoucí Evropský obranný fond (EDF) a stálá strukturovaná spolupráce (PESCO) také poskytují dobře přizpůsobené rámce pro budoucí projekty související s umělou inteligencí, které pomohou zefektivnit úsilí Unie v této oblasti a zároveň podpořit cíl Unie, kterým je posílení lidských práv, mezinárodního práva a vícestranných řešení; zdůrazňuje, že projekty související s umělou inteligencí by měly být synchronizovány s širšími civilními programy Unie zaměřenými na umělou inteligenci; konstatuje, že v souladu s Bílou knihou Evropské komise o umělé inteligenci by měla být zřízena střediska excelence a testovací střediska zaměřená na výzkum a vývoj umělé inteligence v oblasti bezpečnosti a obrany a měly by být stanoveny přísné specifikace podporující zapojení a investice soukromých zúčastněných stran;
26. zdůrazňuje, že Unie musí usilovat o strategickou odolnost, aby již nikdy nebyla v době krize nepřipravena, a zdůrazňuje, že to má zásadní význam, zejména pokud jde o umělou inteligenci a její využití k obranným a bezpečnostním účelům; zdůrazňuje, že dodavatelské řetězce pro systémy umělé inteligence v oblasti obrany a bezpečnosti, které mohou vést k technologické závislosti, by měly být přehodnoceny a tyto závislosti by měly být postupně odstraněny; vyzývá ke zvýšení investic do evropské umělé inteligence pro obranu a do kritické infrastruktury, která ji podporuje;
27. zdůrazňuje, že rozvoj umělé inteligence, která respektuje základní práva a podporuje veřejný zájem, vyžaduje strategické sdružování a sdílení údajů mezi soukromými a veřejnými subjekty v Unii, jakož i posílení unijního ekosystému umělé inteligence, do něhož jsou zapojeny veřejné, soukromé a občanské subjekty; vyzývá Komisi, aby podporovala dialog, užší spolupráci a součinnost mezi členskými státy, výzkumnými pracovníky, akademickými pracovníky, subjekty občanské společnosti, soukromým sektorem, zejména vedoucími společnostmi a podniky, a armádou s cílem zajistit inkluzivní procesy tvorby politik, pokud jde o právní předpisy týkající se umělé inteligence v oblasti obrany, a zároveň podpořit lepší pochopení rizik a přínosů a zajistit maximální provozní bezpečnost;
28. zdůrazňuje, že v souvislosti s rozsáhlou dezinformační válkou, kterou vedou zejména neevropské subjekty, by technologie umělé inteligence mohly mít eticky nepříznivé dopady, pokud by umožnily třetím zemím využívat zkreslení v údajích a algoritmech nebo záměrně měnit data pro učení, a mohly by být také vystaveny dalším formám nebezpečné škodlivé manipulace nepředvídatelnými způsoby s nedozírnými následky; proto je stále více zapotřebí, aby Unie pokračovala v investicích do výzkumu, analýzy, inovací a přeshraničního a meziodvětvového předávání znalostí s cílem rozvíjet technologie umělé inteligence, které by byly jednoznačně prosté jakéhokoli profilování, zaujatosti a diskriminace a mohly by účinně přispívat k boji proti falešným zprávám a dezinformacím a současně respektovat ochranu údajů a evropský právní rámec;
29. zdůrazňuje, že je důležité vytvořit etický kodex chování, který by byl základem pro zavádění zbraňových systémů na bázi umělé inteligence do vojenských operací a který by byl podobný stávajícímu regulačnímu rámci zakazujícímu nasazování chemických a biologických zbraní; je toho názoru, že Komise by měla iniciovat vytvoření norem pro používání zbraňových systémů založených na umělé inteligenci ve válce v souladu s mezinárodním humanitárním právem a Unie by měla usilovat o mezinárodní přijetí takovýchto norem; domnívá se, že by se Unie měla zapojit do diplomacie v oblasti umělé inteligence na mezinárodních fórech s podobně smýšlejícími partnery, jako je skupina G7, G20 a OECD;
30. bere na vědomí Bílou knihu Komise o umělé inteligenci ze dne 19. února 2020 a vyjadřuje politování nad tím, že nebyly zohledněny vojenské aspekty; vyzývá Komisi a místopředsedu Komise, vysokého představitele, aby také v rámci celkového přístupu předložili odvětvovou strategii v oblasti umělé inteligence pro činnosti související s obranou v rámci Unie, která zajistí dodržování práv občanů i strategické zájmy Unie a bude založena na jednotném přístupu, který se bude týkat fází od vzniku systémů na bázi umělé inteligence až po jejich vojenské využití, a aby v rámci odborné skupiny na vysoké úrovni pro umělou inteligenci vytvořili pracovní skupinu pro bezpečnost a obranu, která by se měla věnovat konkrétně politickým a investičním otázkám, ale i etickým aspektům umělé inteligence v oblasti bezpečnosti a obrany; vyzývá Radu, Komisi a místopředsedu Komise, vysokého představitele, aby za tímto účelem zahájili strukturovaný dialog s Parlamentem.
INFORMACE O PŘIJETÍ VE VÝBORU POŽÁDANÉM O STANOVISKO
Datum přijetí |
22.6.2020 |
|
|
|
Výsledek konečného hlasování |
+: –: 0: |
60 7 2 |
||
Členové přítomní při konečném hlasování |
Alviina Alametsä, Maria Arena, Petras Auštrevičius, Traian Băsescu, Lars Patrick Berg, Anna Bonfrisco, Reinhard Bütikofer, Fabio Massimo Castaldo, Susanna Ceccardi, Włodzimierz Cimoszewicz, Katalin Cseh, Tanja Fajon, Anna Fotyga, Michael Gahler, Kinga Gál, Sunčana Glavak, Raphaël Glucksmann, Klemen Grošelj, Bernard Guetta, Márton Gyöngyösi, Sandra Kalniete, Karol Karski, Dietmar Köster, Stelios Kouloglou, Andrius Kubilius, Ilhan Kyuchyuk, David Lega, Miriam Lexmann, Nathalie Loiseau, Antonio López-Istúriz White, Claudiu Manda, Lukas Mandl, Thierry Mariani, David McAllister, Vangelis Meimarakis, Sven Mikser, Francisco José Millán Mon, Javier Nart, Gheorghe-Vlad Nistor, Urmas Paet, Kostas Papadakis, Tonino Picula, Manu Pineda, Kati Piri, Giuliano Pisapia, Diana Riba i Giner, María Soraya Rodríguez Ramos, Nacho Sánchez Amor, Isabel Santos, Jacek Saryusz-Wolski, Andreas Schieder, Radosław Sikorski, Sergei Stanishev, Tineke Strik, Hermann Tertsch, Hilde Vautmans, Harald Vilimsky, Idoia Villanueva Ruiz, Thomas Waitz, Witold Jan Waszczykowski, Charlie Weimers, Isabel Wiseler-Lima, Željana Zovko |
|||
Náhradníci přítomní při konečném hlasování |
Katarina Barley, Nicolas Bay, Arnaud Danjean, Katrin Langensiepen, Hannah Neumann, Mick Wallace |
JMENOVITÉ KONEČNÉ HLASOVÁNÍ
VE VÝBORU POŽÁDANÉM O STANOVISKO
60 |
+ |
EPP |
Traian Băsescu, Arnaud Danjean, Michael Gahler, Kinga Gál, Sunčana Glavak, Sandra Kalniete, Andrius Kubilius, David Lega, Miriam Lexmann, Antonio López-Istúriz White, Lukas Mandl, David McAllister, Vangelis Meimarakis, Francisco José Millán Mon, Gheorghe-Vlad Nistor, Radosław Sikorski, Isabel Wiseler-Lima, Željana Zovko |
S&D |
Maria Arena, Katarina Barley, Włodzimierz Cimoszewicz, Tanja Fajon, Raphaël Glucksmann, Dietmar Köster, Claudiu Manda, Sven Mikser, Tonino Picula, Kati Piri, Giuliano Pisapia, Nacho Sánchez Amor, Isabel Santos, Andreas Schieder, Sergei Stanishev |
RENEW |
Petras Auštrevičius, Katalin Cseh, Klemen Grošelj, Bernard Guetta, Ilhan Kyuchyuk, Nathalie Loiseau, Javier Nart, Urmas Paet, María Soraya Rodríguez Ramos, Hilde Vautmans |
ID |
Anna Bonfrisco, Susanna Ceccardi |
VERTS |
Alviina Alametsä, Reinhard Bütikofer, Katrin Langensiepen, Hannah Neumann, Diana Riba i Giner, Tineke Strik, Thomas Waitz |
ECR |
Anna Fotyga, Karol Karski, Jacek Saryusz-Wolski, Hermann Tertsch, Witold Jan Waszczykowski, Charlie Weimers |
NI |
Fabio Massimo Castaldo, Márton Gyöngyösi |
7 |
- |
GUE |
Stelios Kouloglou, Manu Pineda, Idoia Villanueva Ruiz, Mick Wallace |
ID |
Nicolas Bay, Thierry Mariani |
NI |
Kostas Papadakis |
2 |
0 |
ID |
Lars Patrick Berg, Harald Vilimsky |
Význam zkratek:
+ : pro
- : proti
0 : zdrželi se
STANOVISKO VÝBORU PRO VNITŘNÍ TRH A OCHRANU SPOTŘEBITELŮ (8.7.2020)
pro Výbor pro právní záležitosti
s doporučeními Komisi k rámci pro etické aspekty umělé inteligence, robotiky a souvisejících technologií
Zpravodajka: Alexandra Geese
(Podnět – článek 47 jednacího řádu)
(*) Přidružený výbor – článek 57 jednacího řádu
NÁVRHY
Výbor pro vnitřní trh a ochranu spotřebitelů vyzývá Výbor pro právní záležitosti jako příslušný výbor:
– aby do návrhu usnesení, který přijme, začlenil tyto návrhy:
A. vzhledem k tomu, že etické pokyny, jako jsou zásady přijaté odbornou skupinou na vysoké úrovni pro umělou inteligenci, představují dobrý výchozí bod, ale nestačí k tomu, aby podniky jednaly čestně a zaručily účinnou ochranu spotřebitele;
Oblast působnosti
1. poukazuje na význam regulačního rámce EU zaměřeného na etické aspekty umělé inteligence (UI), robotiky a souvisejících technologií, který by se používal v případě, že jsou spotřebitelé v Unii uživateli algoritmického systému, že takovému systému podléhají, že se na ně takový systém zaměřuje nebo jsou k němu směrováni, a to nehledě na to, kde jsou subjekty, které daný systém vyvíjejí, prodávají nebo využívají, usazeny; dále je přesvědčen, že v zájmu právní jistoty by stanovená pravidla měla platit pro všechny vývojáře a v celém hodnotovém řetězci, konkrétně pro vývoj, zavádění a používání příslušných technologií a jejich součástí, a měla by zaručit vysokou úroveň ochrany spotřebitele; připomíná význam hodnot Unie zakotvených ve Smlouvách v souvislosti s důležitostí ochrany osobních údajů a výslovného, informovaného souhlasu, a navrhuje, aby tato pravidla zohledňovala poznatky získané při provádění nařízení (EU) č. 2016/679[19], které je považováno za globální referenční hodnotu; domnívá se, že pro prosazování budoucího regulačního rámce EU je důležitý právní zástupce se sídlem v Unii, jemuž by mohly být adresovány žádosti například za účelem sjednání nápravy pro spotřebitele;
2. konstatuje, že regulační rámec EU by se měl vztahovat na algoritmické systémy, mj. na oblasti UI, internet věcí, strojové učení, systémy založené na pravidlech a automatické a asistované procesy rozhodování a robotiky; dále konstatuje, že by mohly být vytvořeny standardizované ikony, které by pomáhaly vysvětlovat tyto systémy spotřebitelům, pokud by systémy byly složité nebo mohly činit rozhodnutí, která mají významný dopad na život spotřebitelů;
3. zdůrazňuje, že regulační rámec EU musí uplatňovat přístup zaměřený na člověka a musí vést k rozvoji systémů, v nichž jsou evropské etické hodnoty obsaženy již od návrhu; domnívá se, že regulační rámec EU s důrazem na hodnoty Unie, jak o nich hovoří Smlouvy, by byl přidanou hodnotou, která by Evropě poskytla jedinečnou konkurenční výhodu a významně přispěla k blahobytu a prosperitě občanů a podniků v Unii a podpořila vnitřní trh; zdůrazňuje, že etický rámec pro UI je rovněž přidanou hodnotou z hlediska podpory inovací na vnitřním trhu;
4. poukazuje na to, že legislativní rámec zavedený rozhodnutím č. 768/2008/ES[20] stanoví harmonizovaný seznam povinností výrobců, dovozců a distributorů, prosazuje používání norem a stanoví několik úrovní kontroly v závislosti na nebezpečnosti výrobku; domnívá se, že rámec by se měl vztahovat i na produkty se zabudovanou umělou inteligencí;
5. zdůrazňuje, že veškeré budoucí právní předpisy by se měly řídit diferencovaným přístupem založeným na posouzení rizik, a umožnit tak vývoj a zavádění bezpečných a důvěryhodných systémů s jasnými kritérii a ukazateli, po nichž by následovalo nestranné zákonné posouzení na základě potenciální újmy nebo porušení práv jednotlivce i celé společnosti, a to s ohledem na konkrétní kontext použití algoritmického systému; zdůrazňuje, že s rostoucí mírou zjištěného rizika by se měly postupně rozšiřovat i zákonné povinnosti a požadavky na certifikaci; podtrhuje, že v kategorii s nejnižším rizikem by neměly platit žádné další zákonné povinnosti; konstatuje, že algoritmické systémy, které by mohly poškodit jednotlivce, zapříčinit případná porušení práv jednotlivce nebo ovlivnit jeho přístup k veřejným dávkám, nejsou považovány za systémy patřící do kategorie s nejnižším rizikem; konstatuje, že přístup založený na posouzení rizika by se měl řídit jasnými a transparentními pravidly, přičemž by měl poskytovat dostatečnou právní jistotu a současně by měl obstát i v budoucnu; vyzývá k jednotnému zavedení systému klasifikace rizik a souvisejících právních povinností s cílem zajistit rovné podmínky mezi členskými státy a zabránit roztříštěnosti vnitřního trhu; zdůrazňuje, že posouzení rizik konkrétního systému musí být pravidelně přehodnocováno;
6. připomíná, že za účelem odhalení mezer v právních předpisech by Komise měla přezkoumat stávající právní rámec EU a jeho uplatňování, včetně acquis týkajícího se spotřebitelského práva, právních předpisů o odpovědnosti za vadné výrobky, o bezpečnosti výrobků a o dozoru nad trhem, a rovněž by měla přezkoumat stávající regulační povinnosti; považuje to za nezbytné, aby bylo možné ověřit, zda stávající právní rámec EU je schopen reagovat na zrod UI, robotiky a souvisejících technologií a zajistit vysokou úroveň ochrany spotřebitele;
Správa údajů
7. poukazuje na význam etického a regulačního rámce EU, mj. především na ustanovení, která pro trénování algoritmických systémů ve vztahu k účelu jejich použití vyžadují kvalitní data; v tomto ohledu zdůrazňuje, že s cílem zlepšit výstupy algoritmických systémů a posílit důvěru spotřebitelů a jejich přijímání spotřebiteli je nezbytné zajistit reprezentativnost používaných trénovacích dat a pokud možno objektivnost datových souborů a dat a norem pro jejich agregaci; zdůrazňuje, že tyto datové soubory by měly být na základě výzvy kdykoli kontrolovatelné příslušnými orgány, aby byl zajištěn jejich soulad s výše uvedenými zásadami;
Ochrana spotřebitele: transparentnost a vysvětlitelnost algoritmů
8. zdůrazňuje, že důvěra spotřebitelů má zásadní význam pro rozvoj a uplatňování UI, robotiky a souvisejících technologií, které s sebou mohou nést rizika, pokud jsou založeny na neprůhledných algoritmech a neobjektivních datových souborech; domnívá se, že spotřebitelé by měli mít právo být náležitě informováni, a to srozumitelným, včasným, standardizovaným, přesným a přístupným způsobem, o existenci, odůvodnění, možných výsledcích a dopadech algoritmických systémů, o tom, jak se obrátit na člověka s rozhodovacími pravomocemi a jak rozhodnutí systému zkontrolovat, smysluplně zpochybnit a opravit; připomíná, že lidé musí být vždy schopni automatizovaná rozhodnutí zrušit; domnívá se, že spotřebitelé by rovněž měli být chráněni právem vypnout nebo omezit systém UI, pokud možno s využitím personalizace; zdůrazňuje, že při vypracovávání rámce transparentnosti je důležité zohledňovat zásadu proporcionality, aby se zabránilo zbytečné zátěži pro startupy a malé a střední podniky působící v kategoriích s nízkým rizikem;
9. zdůrazňuje, že je třeba účinně řešit výzvy, k nimž algoritmické systémy vedou, a zajistit, aby spotřebitelé měli silné postavení a byli řádně chráněni; zdůrazňuje, že je třeba jít nad rámec tradičních zásad informování a zveřejňování, na nichž bylo založeno spotřebitelské acquis, neboť k zajištění toho, aby technologie přispívaly ke zlepšení života spotřebitelů a rozvíjely se způsobem, který respektuje základní práva a práva spotřebitelů a evropské hodnoty, budou zapotřebí větší práva spotřebitelů a jasná omezení týkající se vývoje a používání algoritmických systémů;
10. domnívá se, že v zájmu vytvoření podmínek pro široké společenské přijetí UI spotřebiteli je velmi důležité přistupovat k navrhování technologií způsobem, který bude citlivý k hodnotám; je toho názoru, že etické hodnoty spravedlnosti, přesnosti, důvěrnosti a transparentnosti by měly být základem UI, což v této souvislosti znamená, že systémy by měly fungovat tak, aby nevedly k nespravedlivě neobjektivním výstupům;
11. připomíná, že je důležité zajistit, aby měli spotřebitelé k dispozici účinné nápravné prostředky, a vyzývá členské státy a vnitrostátní orgány pro dohled nad trhem, aby zajistily přístupné, cenově dostupné, nezávislé a účinné postupy a kontrolní struktury, které by zaručovaly, že všechny případy údajného porušení práv spotřebitelů prostřednictvím používání algoritmických systémů, ať už pocházejí od subjektů z veřejného nebo soukromého sektoru, budou nestranně posouzeny člověkem; naléhavě vyzývá k tomu, aby mechanismy řešení sporů a kolektivního odškodnění podle směrnice Evropského parlamentu a Rady o zástupných žalobách na ochranu kolektivních zájmů spotřebitelů a o zrušení směrnice 2009/22/ES[21] byly zpřístupněny, aby bylo možné napadnout zavedení nebo nebo průběžné používání systému, který by mohl vést k porušování práv spotřebitelů, nebo napravit porušování práv; žádá Komisi, aby zajistila, že vnitrostátní a evropské spotřebitelské organizace budou mít dostatečné finanční prostředky na to, aby mohly spotřebitelům poskytovat pomoc při uplatňování jejich práva na nápravu v případech, kdy rozhodnutí založená na aplikacích umělé inteligence porušují práva spotřebitelů;
12. zdůrazňuje, že v případě, že k vývoji nebo zavedení určitého algoritmického systému jsou vedle otevřeného zadávání zakázek a otevřených smluvních norem použity ve značné míře i prostředky z veřejných zdrojů, mohly by být kód, vygenerovaná data – pokud nejde o osobní údaje – a model vytvořený na základě trénování po dohodě s vývojáři standardně veřejné, aby byla zajištěna jejich transparentnost a zvýšena kybernetická bezpečnost a aby bylo umožněno jejich opětovné použití v zájmu podpory inovací; zdůrazňuje, že tímto způsobem lze uvolnit plný potenciál jednotného trhu, a zabránit tak jeho fragmentaci;
Vnitřní trh: informování veřejnosti a osvěta
13. zdůrazňuje, že je důležité zajistit, aby se řádně přihlíželo k zájmům všech spotřebitelů, a to i těch, kteří patří k marginalizovaným skupinám nebo jsou ve zranitelném postavení, jako jsou osoby se zdravotním postižením, a aby byly tyto osoby zastoupeny v budoucím regulačním rámci EU; podotýká, že za účelem posouzení dopadu algoritmických systémů na spotřebitele by mělo dojít k rozšíření přístupu k datům na příslušné subjekty, zejména na nezávislé vědeckovýzkumné pracovníky, sdělovací prostředky a organizace občanské společnosti, pokud možno prostřednictvím aplikačních programovacích rozhraní, a zároveň by se měly dodržovat veškeré právní předpisy Unie v oblasti ochrany údajů, ochrany soukromí a obchodního tajemství; připomíná, že je důležité, aby měli spotřebitelé vzdělání, které by jim umožnilo být informovanější a mít potřebné dovednosti pro práci s algoritmickými systémy, chránilo je před potenciálními riziky a umožnilo jim prosazovat jejich práva; domnívá se, že UI, internet věcí a další vznikající technologie mají obrovský potenciál k tomu, aby spotřebitelům poskytovaly příležitost k získání přístupu k některým vymoženostem, které v mnoha směrech usnadní jejich každodenní život a přispějí k lepším produktům a službám, přičemž jejich další výhodou z hlediska spotřebitelů je, že by mohly posílit dozor nad trhem, ale k tomu je zapotřebí, aby se nadále uplatňovaly všechny platné zásady, podmínky (včetně transparentnosti a kontrolovatelnosti) a právní předpisy;
14. poukazuje na to, že je důležité dosáhnout vysoké úrovně celkové digitální gramotnosti a zajistit odborné vzdělávání vysoce kvalifikovaných pracovníků v této oblasti a vzájemné uznávání jejich kvalifikace v celé Unii; zdůrazňuje, že je třeba mít rozmanité týmy vývojových pracovníků a inženýrů společně s klíčovými společenskými aktéry, aby se předešlo nechtěnému zahrnutí genderové a kulturní předpojatosti do algoritmů, systémů a aplikací UI; podporuje vytvoření vzdělávacích osnov a činností zaměřených na zvyšování povědomí veřejnosti o společenském, právním a etickém dopadu UI;
15. vyzývá Komisi, aby podporovala a financovala rozvoj UI zaměřené na člověka, robotiky a souvisejících technologií, které řeší výzvy v oblasti životního prostředí a klimatu a zajišťují rovný přístup k základním právům a jejich uplatňování prostřednictvím daní, zadávání veřejných zakázek nebo jiných pobídek;
16. zdůrazňuje, že UI a algoritmické systémy by měly být již od návrhu v souladu s právními předpisy, odolné, spolehlivé a bezpečné; vyzývá Komisi, aby zajistila, že regulační přístup Unie k algoritmickým systémům bude zahrnovat vhodná opatření, která umožní, aby tyto systémy podléhaly nezávislé kontrole a dohledu;
Dozor nad trhem
17. vyzývá k vytvoření evropského odborného centra, které by posílilo kapacity Unie a navazovalo co nejvíc na stávající struktury, aby se podpořila výměna informací o algoritmických systémech mezi orgány členských států a prohloubilo vzájemné porozumění v rámci jednotného trhu, a to tím, že bude poskytovat svá doporučení, stanoviska a odborné posudky orgánům členských států, sledovat provádění příslušných právních předpisů Unie, řešit potenciální otázky ochrany spotřebitele, určovat normy pro osvědčené postupy a případně vydávat doporučení pro regulační opatření; dále vyzývá k tomu, aby organizace zastupující zúčastněné strany, například organizace na ochranu spotřebitelů, tuto strukturu náležitě doporučily, a zajistily tak široké zastoupení spotřebitelů; domnívá se, že vzhledem k nepřiměřenému dopadu algoritmických systémů na ženy a menšiny by měly být úrovně rozhodování takové struktury různorodé a vyvážené z hlediska rovnosti žen a mužů; zdůrazňuje, že členské státy musí v rámci svých vnitrostátních strategií pro dohled nad trhem vytvořit strategie řízení rizik pro UI;
18. vyzývá Komisi, aby navrhla opatření, která by zajistila dohledatelnost údajů, jednak s ohledem na zákonnost získávání těchto údajů a jednak s ohledem na ochranu spotřebitelů a základních práv; zdůrazňuje však, že datové soubory, algoritmy a procesy využívané při vývoji a zavádění algoritmických systémů, včetně těch pro shromažďování a označování údajů, by měly být zdokumentovány v nejlepším možném standardu; konstatuje, že je naprosto nezbytné, aby byla dokumentace posouzení rizik, softwarová dokumentace, algoritmy a datové soubory používané nebo vytvořené umělou inteligencí, robotikou a souvisejícími technologiemi přístupná orgánům pro dohled nad trhem a byla pro ně vysvětlitelná, a to v souladu s unijními právními předpisy; dále poznamenává, že tuto dokumentaci by měly osoby, které jsou zapojeny do různých fází vývoje algoritmických systémů, uchovávat; konstatuje, že by orgány dozoru nad trhem měly mít v tomto ohledu další pravomoci; domnívá se, že by mohl být nezbytný přezkum stávajících právních předpisů v oblasti dozoru nad trhem, aby se zabránilo jeho zastarávání a zajistilo se, že bude eticky reagovat na vznik UI, robotiky a souvisejících technologií;
19. vyzývá k tomu, aby všechny členské státy stanovily a dostatečně financovaly příslušný státní orgán, který by sledoval uplatňování příslušných ustanovení týkajících se algoritmických systémů; zdůrazňuje, že je třeba posílit vnitrostátní orgány pro dohled nad trhem, pokud jde o kapacitu, dovednosti a kompetence v oblasti UI a znalosti o specifických rizicích, které jsou s UI spojeny;
20. vyzývá k důsledné koordinaci orgánů členských států a k vytvoření evropské rady pro dohled nad trhem s algoritmickými systémy, jež by sestávala z vnitrostátních orgánů, s cílem zajistit účinný dohled, rovné podmínky v rámci Evropy a zabránit tříštění vnitřního trhu;
21. uznává cenné výsledky práce odborné skupiny na vysoké úrovni pro umělou inteligenci, zejména „Etické pokyny pro důvěryhodnou umělou inteligenci“; navrhuje, aby tato skupina složená ze zástupců akademické obce, občanské společnosti a průmyslu, ale i Evropské aliance pro umělou inteligenci mohla poskytovat odborné poradenství evropské radě pro dohled nad trhem s algoritmickými systémy;
22. konstatuje, že zejména v oblastech vztahů mezi podniky a spotřebiteli by systémy měly být zaměřeny na uživatele a navrženy způsobem, který umožní využívat produkty nebo služby umělé inteligence každému, bez ohledu na věk, pohlaví, schopnosti nebo vlastnosti; poznamenává, že obzvláště důležitá je dostupnost této technologie pro osoby se zdravotním postižením; poznamenává, že systémy UI by neměly být založeny na unifikovaném přístupu a měly by zohledňovat zásady univerzálního designu, který odpovídá potřebám co nejširší škály uživatelů a je v souladu s příslušnými standardy v oblasti přístupnosti; zdůrazňuje, že jednotlivcům se tím zajistí rovný přístup a možnost aktivní účasti na stávajících i nově vznikajících počítačově podporovaných lidských činnostech a asistenčních technologiích.
INFORMACE O PŘIJETÍ VE VÝBORU POŽÁDANÉM O STANOVISKO
Datum přijetí |
7.7.2020 |
|
|
|
Výsledek konečného hlasování |
+: –: 0: |
39 1 4 |
||
Členové přítomní při konečném hlasování |
Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo |
|||
Náhradníci přítomní při konečném hlasování |
Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin |
JMENOVITÉ KONEČNÉ HLASOVÁNÍ
VE VÝBORU POŽÁDANÉM O STANOVISKO
39 |
+ |
EPP S&D RENEW GREENS/EFA ECR EUL/NGL NI |
Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, MariaManuel LeitãoMarques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose Andrus Ansip, VladMarius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie YonCourtin David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kimvan Sparrentak Adam Bielan, Carlo Fidanza, Eugen Jurzyca, Beata Mazurek Kateřina Konečná, AnneSophie Pelletier Marco Zullo |
1 |
- |
ID |
Hynek Blaško |
4 |
0 |
ID |
Alessandra Basso, Markus Buchheit, Virginie Joron, JeanLin Lacapelle |
Význam zkratek:
+ : pro
- : proti
0 : zdrželi se
STANOVISKO VÝBORU PRO DOPRAVU A CESTOVNÍ RUCH (16.7.2020)
pro Výbor pro právní záležitosti
s doporučeními k rámci pro etické aspekty umělé inteligence, robotiky a souvisejících technologií určenými Komisi
Zpravodaj: Valter Flego
(*) Přidružený výbor – článek 57 jednacího řádu
(Podnět – článek 47 jednacího řádu)
NÁVRHY
Výbor pro dopravu a cestovní ruch vyzývá Výbor pro právní záležitosti jako věcně příslušný výbor, aby do svého návrhu usnesení začlenil tyto návrhy:
A. vzhledem k tomu, že umělá inteligence je technologií, která má pro odvětví dopravy strategický význam, a že podle očekávání by měla být na základě zvýšení kvality života a úrovně bezpečnosti všech druhů dopravy a vytváření nových pracovních míst a udržitelnějších podnikatelských modelů občanům a společnosti ku prospěchu; vzhledem k tomu, že umělá inteligence má potenciál podstatně změnit společnost, zejména pokud by byla široce dostupná a přístupná;
B. vzhledem k tomu, že celý potenciál umělé inteligence v odvětví dopravy může být využit, pouze pokud si budou uživatelé vědomi potenciálních přínosů a problémů, jež tato technologie přináší; vzhledem k tomu, že je nezbytné zabývat se touto otázkou v rámci vzdělávání a odborné přípravy, včetně toho, jak podporovat digitální inkluzi, a vést na unijní úrovni informační kampaně, které by přesně představily všechny aspekty rozvoje umělé inteligence;
C. vzhledem k tomu, že evropský přístup k umělé inteligenci, robotice a souvisejícím technologiím musí být v souladu s etickými zásadami, aby bylo zajištěno, že se umělá inteligence, robotika a související technologie budou zaměřovat na lidi, povedou k většímu blahobytu občanů i společnosti, zajistí větší bezpečnost a lepší životní prostředí, budou řešit příslušné etické otázky a budou zcela v souladu se základními právy, hodnotami a zásadami Unie a s jejími právními předpisy týkajícími se ochrany soukromí a soukromých údajů; vzhledem k tomu, že v rámci tohoto přístupu bude nutné zabývat se také otázkou kvality souborů údajů používaných algoritmickými systémy i samotnými algoritmy a otázkou norem týkajících se dat a jejich agregace;
D. vzhledem k tomu, že důvěryhodná umělá inteligence se musí zakládat na čtyřech etických zásadách: na respektu k autonomii člověka, prevenci škod, spravedlnosti a vysvětlitelnosti algoritmů; vzhledem k tomu, že dodržování těchto etických zásad vyžaduje vytvoření určitých konkrétních pravidel pro unijní odvětví dopravy;
E. vzhledem k tomu, že přibližně u 95 % všech silničních dopravních nehod v EU je stále přítomen lidský faktor; vzhledem k tomu, že cílem Unie je omezit do roku 2020 roční počet úmrtí na silnicích ve srovnání s rokem 2010 o 50 %, že však vzhledem ke stagnaci v této oblasti EU obnovila své úsilí v rámci politiky pro bezpečnost silničního provozu na období 2021–2030 – další kroky směrem k „vizi nulových obětí na cestách“; vzhledem k tomu, že umělá inteligence, automatizace a další nové technologie mají v tomto ohledu značný potenciál zvýšit bezpečnost silničního provozu tím, že omezení možnost lidské chyby, a že jsou v tomto ohledu nesmírně důležité;
F. vzhledem k tomu, že umělá inteligence a další nové technologie mohou přispívat i k omezení dopravních zácp a emisí skleníkových plynů a látek znečišťujících ovzduší;
G. vzhledem k tomu, že tvorba eticky odpovědné, na člověka zaměřené a technicky spolehlivé umělé inteligence, robotiky a souvisejících technologií v oblasti dopravy představuje pro unijní podniky, včetně malých a středních podniků, podnikatelskou příležitost stát se globálními lídry v této oblasti;
H. vzhledem k tomu, že tyto nové podnikatelské možnosti mohou přispět k oživení evropského průmyslu po současné zdravotní a hospodářské krizi a k širšímu využívání technologií umělé inteligence v oblasti dopravy; vzhledem k tomu, že tyto příležitosti povedou k vytvoření nových pracovních míst, protože zavádění umělé inteligence a souvisejících technologií má potenciál zvýšit úroveň produktivity podniků a přispět ke zvýšení efektivity; vzhledem k tomu, že inovativní programy v této oblasti mohou umožnit rozmach regionálních podnikatelských klastrů;
I. vzhledem k tomu, že evropský přístup k rozvoji umělé inteligence, robotiky a souvisejících technologií v oblasti dopravy má potenciál zvýšit globální konkurenceschopnost a strategickou autonomii unijního hospodářství;
J. vzhledem k tomu, že v odvětvích, jako je veřejná doprava, mohou být systémy umělé inteligence pro inteligentní dopravní systémy používány k minimalizaci čekání, optimalizaci tras, umožnění větší nezávislosti osob se zdravotním postižením a ke zvýšení energetické účinnosti, čímž by došlo ke zvýšení úsilí o dekarbonizaci a snížení environmentální stopy;
1. poukazuje na potenciál využívání umělé inteligence, robotiky a souvisejících technologií u všech autonomních druhů dopravy na silnici, železnici, vodních cestách i v letecké dopravě a při urychlení přechodu na jiné druhy dopravy a intermodální dopravu, protože tyto technologie mohou přispět k nalezení optimální kombinace jednotlivých způsobů dopravy zboží a cestujících; zdůrazňuje dále, že umělá inteligence, robotika a související technologie mohou potenciálně zvýšit účinnost dopravy, logistiky a dopravních toků a zajistit, aby byly všechny způsoby dopravy bezpečnější, inteligentnější a šetrnější k životnímu prostředí; poukazuje na to, že etický přístup k umělé inteligenci může být pokládán za systém včasného varování, zejména pokud jde o bezpečnost a účinnost dopravy;
2. poukazuje na to, že globální soutěž mezi společnostmi a hospodářskými regiony vyžaduje, aby EU podporovala investice a zvýšila mezinárodní konkurenceschopnost společností v odvětví dopravy tím, že vytvoří prostředí, které by bylo příznivé pro rozvoj a používání řešení založených na umělé inteligenci a dalších inovacích a v němž by se podniky se sídlem v Unii mohly stát světovými lídry v oblasti rozvoje technologií umělé inteligence;
3. zdůrazňuje, že dopravní odvětví EU potřebuje aktualizovaný regulační rámec týkající se těchto nově vznikajících technologií a jejich používání v odvětví dopravy a jasný etický rámec, aby bylo možné vyvinout důvěryhodnou umělou inteligenci, mj. pokud jde o její bezpečnost, zabezpečení, dodržování autonomie lidského rozhodování, dohled a otázky odpovědnosti za způsobenou škodu, který by zajistil rozsáhlejší společné výhody pro všechny a byl by klíčovým prvkem při navyšování investic do výzkumu a inovací, rozvoje dovedností a zavádění umělé inteligence v oblasti veřejných služeb a v malých, středních a začínajících podnicích a který by zároveň zajistil ochranu údajů a interoperabilitu, aniž by docházelo k vytváření zbytečné administrativní zátěže v případě podniků a spotřebitelů; poukazuje na to, že je nanejvýš důležité zajistit, aby se jakákoli novelizace regulačního rámce týkajícího se těchto nově vznikajících technologií vždy zakládala na skutečných potřebách a aby byla v souladu se zásadou tvorby lepších právních předpisů, a proto
a) vyzývá Komisi, aby poskytla jasný rámec etických zásad pro vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií v odvětví dopravy; veškerá umělá inteligence, robotika a související technologie v odvětví dopravy musejí být vyvíjeny, zaváděny a používány v souladu s těmito etickými zásadami;
b) doporučuje zavedení pokynů k jednotné klasifikaci rizik spojených s technologiemi využívajícími umělou inteligenci ve všech druzích dopravy, které by se vztahovaly na funkce vozidla, jež ovládá člověk a umělá inteligence, a které by jasně stanovovaly úkoly a požadavky týkající se bezpečnosti;
c) vyzývá Komisi, aby se zabývala možností používání stávající evropské struktury dohledu nad trhem pro algoritmické systémy, včetně souvisejících ustanovení o ochraně údajů, vydávání pokynů, stanovisek a předávání odborných zkušeností orgánům členských států, a to i pokud jde o interoperabilitu;
d) vyzývá Komisi, aby v souladu s hodnocením rizik, které vypracovala expertní skupina na vysoké úrovni, vytvořila systém klasifikace umělé inteligence pro inteligentní dopravní systémy, který by umožnil lépe reagovat na nově vznikající potřeby v odvětví dopravy;
e) vyzývá Komisi, aby věnovala zvláštní pozornost situaci malých a středních podniků a aby budoucí právní předpisy koncipovala tak, aby pro tyto podniky zajišťovaly lepší možnosti, pokud jde o vývoj a používání technologií umělé inteligence;
f) považuje za nezbytné poskytnout koncovým uživatelům podrobné informace o provozu dopravních systémů a vozidlech založených na umělé inteligenci;
4. poukazuje na to, že evropský přístup k technologiím umělé inteligence by měl zajistit důvěru občanů, sloužit veřejnému zájmu a upevnit společnou sociální odpovědnost; domnívá se, že vývoj důvěryhodné, eticky odpovědné a technicky propracované umělé inteligence je důležitým prvkem, který by umožnil rozvoj udržitelné bezpečné a přístupné inteligentní mobility; vyzývá v této souvislosti Komisi, aby i nadále prosazovala rozšiřování umělé inteligence v odvětví dopravy a aby s ohledem na zajištění dodržování základních práv Unie urychleně v úzké spolupráci se všemi zúčastněnými stranami v odvětví dopravy navrhla příslušné změny právních předpisů EU;
5. zdůrazňuje, že rozvoj a zavádění umělé inteligence musí zajišťovat bezpečné a přístupné dopravní služby;
6. doporučuje, aby byly na úrovni Unie vypracovány důvěryhodné normy pro umělou inteligenci používanou u veškerých druhů dopravy i v automobilovém průmyslu, které by se týkaly bezpečnosti, interoperability, technické spolehlivosti, možnosti opravy a recyklace příslušného hardwaru a které by řešily mj. obavy týkající se účinného využívání zdrojů, ochrany soukromí a soukromých údajů a transparentnosti, a také normy pro testování vozidel využívajících umělou inteligenci a souvisejících produktů a služeb;
7. vyzývá Komisi, aby při navrhování, provádění a prosazování důvěryhodných norem v oblasti umělé inteligence v Unii úzce spolupracovala s členskými státy; konstatuje, že Unie má potenciál stát se světovým lídrem, pokud jde o prosazování sociálně odpovědného a udržitelného přístupu k technologii umělé inteligence a jejímu používání;
8. vyzývá Komisi, aby se zabývala možností pověřit jednu nebo několik stávajících agentur, orgánů nebo subjektů na úrovni Unie uplatňováním mechanismu sledování, prosazování a ukládání sankcí a aby zjistila, jak by bylo možné upravit stávající nástroje dohledu a kontroly nad odvětvím dopravy a používat je k určitým krokům, aby byl zajištěn příslušný dohled na úrovni Unie a aby mohla Komise přijmout příslušná opatření, pokud by nějaký systém umělé inteligence používaný v odvětví dopravy porušovat základní práva nebo evropský etický a bezpečnostní rámec;
9. vyzývá Komisi, aby dále podporovala vypracování důvěryhodných systémů umělé inteligence, které by zajistily bezpečnější, účinnější, finančně i jinak přístupnější a inkluzivnější dopravu, mj. pokud jde o osoby s omezenou hybností, a zejména osoby se zdravotním postižením, a to s ohledem na směrnici Evropského parlamentu a Rady (EU) 2019/882[22] a na evropské právní předpisy o právech cestujících;
10. upozorňuje na vysoký přínos autonomních vozidel pro osoby s omezenou hybností, jelikož jim umožňují účinněji se účastnit individuální silniční dopravy, a usnadňují jim tak každodenní život;
11. poukazuje na význam dostupnosti, zejména při navrhování systémů řešení pro mobilitu (mobilita jako služba);
12. poukazuje na zásadní význam vědy založené na datech, aby bylo možné vytvářet nediskriminační systémy umělé inteligence a aby se zabránilo šíření závadných dat; doporučuje kromě toho sledovat takové postupy zpracování údajů, které by byly v souladu s obecným nařízením o ochraně osobních údajů (GDPR) a se zásadami zachování důvěrnosti údajů a zákazu diskriminace;
13. konstatuje, že systémy umělé inteligence by mohly přispět ke značnému snížení počtu úmrtí na silnicích, například prostřednictvím kratší reakční doby a lepšího dodržování silničních pravidel; domnívá se však, že není možné, aby používání autonomních vozidel vedlo k odstranění veškerých nehod, a zdůrazňuje, že je proto stále důležitější, aby bylo možné rozhodnutí umělé inteligence vysvětlit, a odůvodnit tak nedostatky a nechtěné důsledky těchto rozhodnutí;
14. zastává názor, že musí být vždy možné vysvětlit koncovým uživatelům a jiným zúčastněným stranám rozhodnutí učiněná umělou inteligencí i data, z nichž tato rozhodnutí vycházejí, a to pomocí neodborného jazyka;
15. konstatuje, že rozvoje a zavádění umělé inteligence v odvětví dopravy nebude možné dosáhnout bez moderní infrastruktury, která je zásadní součástí inteligentních dopravních systémů; zdůrazňuje, že přetrvávající rozdíly v úrovni rozvoje mezi členskými státy vytvářejí riziko, že nejméně rozvinuté regiony a jejich obyvatelé nebudou mít prospěch z rozvoje autonomní mobility; vyzývá k posouzení budoucích výzev v rámci pracovního trhu, které se objeví v důsledku vývoje technologií umělé inteligence v odvětví dopravy a k zajištění dostatečných finančních prostředků nutných k modernizaci unijní infrastruktury, včetně jejího začlenění do sítě 5G.
INFORMACE O PŘIJETÍ VE VÝBORU POŽÁDANÉM O STANOVISKO
Datum přijetí |
14.7.2020 |
|
|
|
Výsledek konečného hlasování |
+: –: 0: |
49 0 0 |
||
Členové přítomní při konečném hlasování |
Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski |
|||
Náhradníci přítomní při konečném hlasování |
Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti |
JMENOVITÉ KONEČNÉ HLASOVÁNÍ
VE VÝBORU POŽÁDANÉM O STANOVISKO
49 |
+ |
ECR Group |
Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski |
GUE/NGL Group |
Leila Chaibi, Kateřina Konečná, Elena Kountoura |
ID Group |
Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo |
NI |
Dorien Rookmaker, Mario Furore, |
PPE Group |
Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian-Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Elżbieta Katarzyna Łukacijewska |
Renew Group |
José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan-Christoph Oetjen, Dominique Riquet |
S&D Group |
Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi |
Verts/ALE Group |
Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay-Grunenberg, Tilly Metz |
0 |
- |
|
|
0 |
0 |
|
|
Význam zkratek:
+ : pro
- : proti
0 : zdrželi se
STANOVISKO VÝBORU PRO OBČANSKÉ SVOBODY, SPRAVEDLNOST A VNITŘNÍ VĚCI (22.9.2020)
pro Výbor pro právní záležitosti
s doporučeními Komisi k regulačnímu rámci pro etické aspekty umělé inteligence, robotiky a souvisejících technologií
Zpravodajka (*): Assita Kanko
(*) Přidružený výbor – článek 57 jednacího řádu
(Podnět – článek 47 jednacího řádu)
NÁVRHY
Výbor pro občanské svobody, spravedlnost a vnitřní věci vyzývá Výbor pro právní záležitosti jako příslušný výbor, aby do návrhu usnesení, který přijme, začlenil tyto návrhy:
– s ohledem na články 2 a 3 Smlouvy o Evropské unii (SEU),
– s ohledem na články 10, 19, 21 a 167 Smlouvy o fungování Evropské unie (SFEU),
– s ohledem na petiční právo zakotvené v článcích 20 a 227 SFEU a v článku 44 Listiny základních práv Evropské unie,
– s ohledem na články 21 a 22 Listiny základních práv EU,
– s ohledem na závazky stanovené v SEU,
– s ohledem na Rámcovou úmluvu Rady Evropy o ochraně národnostních menšin, na protokol č. 12 k Úmluvě o ochraně lidských práv a základních svobod a na Evropskou chartu regionálních či menšinových jazyků,
– s ohledem na směrnici Rady 2000/43/ES ze dne 29. června 2000, kterou se zavádí zásada rovného zacházení s osobami bez ohledu na jejich rasu nebo etnický původ[23] (směrnice o rasové rovnosti),
– s ohledem na směrnici Rady 2000/78/ES ze dne 27. listopadu 2000, kterou se stanoví obecný rámec pro rovné zacházení v zaměstnání a povolání[24] (směrnice o rovném zacházení v zaměstnání);
– s ohledem na nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně údajů)[25] (GDPR) a na směrnici Evropského parlamentu a Rady (EU) 2016/680 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů příslušnými orgány za účelem prevence, vyšetřování, odhalování či stíhání trestných činů nebo výkonu trestů, o volném pohybu těchto údajů a o zrušení rámcového rozhodnutí Rady 2008/977/SVV[26],
– s ohledem na sdělení Komise Evropskému parlamentu, Radě, Evropskému hospodářskému a sociálnímu výboru a Výboru regionů ze dne 11. prosince 2019 s názvem Zelená dohoda pro Evropu,
– s ohledem na své usnesení ze dne 16. února 2017 obsahující doporučení Komisi o občanskoprávních pravidlech pro robotiku[27],
– s ohledem na doporučení Rady OECD k umělé inteligenci přijaté dne 22. května 2019,
A. vzhledem k tomu, že vývoj a navrhování tzv. umělé inteligence, robotiky a souvisejících technologií provádějí lidé a jejich rozhodnutí určují potenciál technologií ku prospěchu společnosti;
B. vzhledem k tomu, že algoritmická odpovědnost by měla znamenat provádění technických a provozních opatření zajišťujících transparentnost, jasně stanovené řetězce odpovědnosti, nediskriminaci prostřednictvím automatizovaného rozhodování nebo prostřednictvím výpočtu pravděpodobnosti individuálního chování; vzhledem k tomu, že by transparentnost měla poskytovat jednotlivcům smysluplné informace o použitém postupu, významu a předpokládaných důsledcích; vzhledem k tomu, že tento přístup by měl zahrnovat informace o údajích použitých pro školení o umělé inteligenci a umožnit jednotlivcům pochopit a sledovat rozhodnutí, která je ovlivňují;
C. vzhledem k tomu, že existují vážné obavy, že stávající právní rámec EU, včetně spotřebitelského acquis, právních předpisů v oblasti bezpečnosti výrobků a dozoru nad trhem, jakož i právních předpisů zakazujících diskriminaci, není vhodný pro účel účinného řešení rizik plynoucích z umělé inteligence, robotiky a souvisejících technologií;
D. vzhledem k tomu, že umělá inteligence, robotika a související technologie mohou mít závažné důsledky pro materiální i nemateriální zboží jednotlivců, skupin a společnosti jako celku, a že tyto individuální i kolektivní škody musí být zohledněny v legislativní odezvě;
E. vzhledem k tomu, že otázky správy a řízení spojené se zaváděním umělé inteligence ve veřejném sektoru musí být řádně zváženy, pokud jde o jeho důsledky pro demokracii, zejména demokratickou legitimitu, odpovědnost, smysluplné zapojení veřejnosti a dohled;
F. vzhledem k tomu, že analýzy údajů a umělá inteligence mají stále větší dopad na informace zpřístupňované občanům; vzhledem k tomu, že takové technologie mohou v případě zneužití ohrozit základní práva na informace, jakož i svobodu a pluralitu sdělovacích prostředků;
G. vzhledem k tomu, že etické pokyny, jako jsou zásady přijaté odbornou skupinou na vysoké úrovni pro umělou inteligenci, představují užitečný výchozí bod, který ale nepostačuje k zajištění toho, aby podniky jednaly spravedlivě a zaručily účinnou ochranu jednotlivců;
1. zdůrazňuje, že perspektiv a příležitostí, které umělá inteligence nabízí, mohou občané, veřejný a soukromý sektor, akademická a vědecká obec plně využívat pouze tehdy, pokud bude zajištěna důvěra veřejnosti k těmto technologiím pomocí důrazného prosazování základních práv v souladu se stávajícími právními předpisy EU o ochraně údajů a právní jistoty pro všechny zúčastněné subjekty; zdůrazňuje, že zpracování osobních údajů může být provedeno pouze na základě některého z právních základů stanovených v článku 6 nařízení (EU) 2016/679; považuje za zásadní, že transparentnost a řádné poskytování informací dotčené veřejnosti jsou klíčem k budování důvěry veřejnosti a k ochraně práv jednotlivců;
2. zdůrazňuje, že dodržování stávajících právních předpisů o ochraně údajů je spolu se silnými vědeckými, etickými a právními normami a metodami demokratického dohledu klíčem k vytvoření důvěry v řešení založená na umělé inteligenci a k její spolehlivosti; dále zdůrazňuje, že informace odhalené umělou inteligencí neposkytují nestranný přehled o žádných tématech a jsou pouze stejně spolehlivé jako základní údaje; zdůrazňuje, že prediktivní analýza založená na umělé inteligenci může nabídnout pouze statistickou pravděpodobnost, a nemůže proto vždy přesně předvídat individuální chování; zdůrazňuje proto, že silné vědecké, etické a právní normy jsou zásadní pro řízení shromažďování údajů a posuzování výsledků této analýzy založené na umělé inteligenci;
3. domnívá se, že jakýkoli rámec etických zásad pro vývoj, zavádění a používání umělé inteligence, robotiky a souvisejících technologií by měl plně respektovat Listinu základních práv EU, a respektovat tak lidskou důstojnost, samostatnost a sebeurčení jednotlivce, předcházet škodám, prosazovat spravedlnost, začleňování a transparentnost, odstraňovat předsudky a diskriminaci, a to i menšinových skupin, a respektovat a dodržovat zásady omezování negativních externalit používaných technologií a vysvětlitelnosti technologií a zajistit, aby tyto technologie sloužily lidem, aby je nenahrazovaly nebo za ně nerozhodovaly, s tím, že jejich konečným cílem je zlepšovat životní podmínky lidí pro všechny;
4. zdůrazňuje asymetrii mezi těmi, kteří využívají technologie umělé inteligence, a těmi, kteří s nimi pracují a jsou jim vystaveni; v této souvislosti zdůrazňuje, že důvěru občanů v umělou inteligenci lze vybudovat na rámci „etiky již od návrhu a standardně“, který zajistí, že jakákoli zavedená umělá inteligence bude plně respektovat Listinu základních práv Evropské unie, právo Unie a Smlouvy a bude s nimi v souladu; domnívá se, že by to mělo být v souladu se zásadou předběžné opatrnosti, kterou se řídí právní předpisy EU, a mělo by to být ve středu jakéhokoli rámce pro umělou inteligenci; vyzývá v této souvislosti k vytvoření jasného a soudržného modelu správy, který společnostem a inovátorům umožní dále vyvíjet umělou inteligenci, robotiku a související technologie;
5. vyzývá Evropskou unii a členské státy, aby podporovaly informovanost veřejnosti o rizicích a příležitostech využívání umělé inteligence jako etického požadavku.
6. domnívá se, že stávající právní rámec Unie, zejména v oblasti ochrany soukromí a osobních údajů, se bude muset plně vztahovat na umělou inteligenci, robotiku a související technologie a bude muset být pravidelně přezkoumáván, kontrolován a v případě potřeby aktualizován, aby bylo možné účinně čelit rizikům vznikajícím v souvislosti s umělou inteligencí, robotikou a souvisejícími technologiemi, a v tomto ohledu by pro něj mohlo být prospěšné, aby byl doplněn o základní etické zásady; poukazuje na to, že v případech, kde je předčasné přijímat právní akty, by měl být použit rámec právně nevynutitelných pravidel („soft law“);
7. očekává, že Komise v návaznosti na Bílou knihu o umělé inteligenci do nadcházejícího legislativního návrhu začlení silný etický rámec zahrnující mimo jiné otázky týkající se bezpečnosti, odpovědnosti a základních práv, který maximalizuje příležitosti a minimalizuje rizika technologií umělé inteligence; očekává, že nadcházející legislativní návrh bude zahrnovat politická řešení hlavních uznávaných rizik umělé inteligence, včetně mj. etického shromažďování a využívání dat velkého objemu, otázky diskriminace a nerovných podmínek, k nimž dochází prostřednictvím algoritmů; vyzývá Komisi, aby vypracovala kritéria a ukazatele pro označování technologie umělé inteligence s cílem podpořit transparentnost, vysvětlitelnost a odpovědnost a podnítit k dalším preventivním opatřením ze strany vývojářů; zdůrazňuje, že je třeba investovat do integrace netechnických oborů přizpůsobených sociálním souvislostem do studia a výzkumu umělé inteligence;
8. připomíná, že umělá inteligence má v závislosti na tom, jak je vyvíjena, používána a aplikována, potenciál vytvářet a posilovat předsudky, a to i prostřednictvím inherentních předsudků v základních datových souborech, a tudíž vytvářet různé formy automatizované diskriminace včetně nepřímé diskriminace, které se týkají zejména skupin lidí s podobnými charakteristikami; vyzývá Komisi a členské státy, aby přijaly veškerá možná opatření s cílem zabránit takovýmto předsudkům a zajistit plnou ochranu základních práv;
9. konstatuje, že oblast umělé inteligence, robotiky a souvisejících technologií je silně homogenní a postrádá rozmanitost; uznává, že je třeba zajistit, aby týmy, které navrhují, vyvíjejí, testují, udržují, zavádějí a nabízejí tyto systémy, odrážely rozmanitost jejich využití a společnosti obecně, s cílem zajistit, aby nebylo možné do těchto technologií „zabudovat“ nerovné podmínky;
10. je toho názoru, že účinné přeshraniční spolupráce a etických norem lze dosáhnout pouze tehdy, pokud se všechny zúčastněné strany zavážou k zajištění lidského faktoru a dohledu, technické odolnosti a bezpečnosti, transparentnosti a odpovědnosti, rozmanitosti, nediskriminace a spravedlnosti, společenského a environmentálního blahobytu a dodržování zavedených zásad soukromí, správy dat a ochrany údajů, a to zejména zásad zakotvených v nařízení (EU) 2016/679 (GDPR);
11. vyzývá k přijetí přístupu k regulaci umělé inteligence, robotiky a souvisejících technologií, jenž bude založen na rizicích a zaměřený na budoucnost, včetně technologicky neutrálních norem pro všechna odvětví a případně s odvětvovými normami; je pevně přesvědčen, že životaschopný etický rámec pro celou EU by se měl vztahovat na všechny, kteří mají v úmyslu vyvíjet nebo využívat aplikace umělé inteligence v Unii, aby se zabránilo roztříštěnosti; vyzývá Unii, aby prosazovala silnou a transparentní spolupráci a sdílení poznatků mezi veřejným a soukromým sektorem, aby mohly být vypracovány osvědčené postupy a odhalovány vysoce rizikové aplikace umělé inteligence;
12. podporuje digitální odpovědnost podniků na dobrovolném základě; Unie by měla podporovat korporace, které se rozhodnou využívat digitální technologie a umělou inteligenci v rámci svých společností; Unie by měla motivovat k tomu, aby se korporace staly proaktivními, a to vytvořením platformy, kde by společnosti sdílely své zkušenosti s etickou digitalizací, a koordinací opatření a strategií zúčastněných společností;
13. zdůrazňuje, že je důležitá ochrana sítí propojené umělé inteligence a robotiky a případům narušení bezpečnosti, kybernetickým útokům a zneužívání osobních údajů musí předcházet přísná opatření, což bude vyžadovat, aby příslušné agentury, orgány a instituce na evropské i vnitrostátní úrovni spolupracovaly s koncovými uživateli těchto technologií; vyzývá Komisi a členské státy, aby při vývoji a zavádění technologie umělé inteligence vždy zajistily dodržování evropských hodnot a respektování základních práv s cílem zajistit bezpečnost a odolnost digitální infrastruktury EU;
14. v tomto ohledu bere na vědomí ustanovení nařízení Evropského parlamentu a Rady 2019/881 o agentuře ENISA a aktu o kybernetické bezpečnosti, zejména úlohu agentury ENISA při podpoře osvětových a vzdělávacích kampaní zaměřených na koncové uživatele, včetně kampaní o potenciálních kybernetických hrozbách a trestné činnosti on-line, a při podpoře nezbytných opatření na ochranu údajů; uznává přidanou hodnotu této agentury EU v tomto ohledu;
15. zdůrazňuje, že zlovolné využívání umělé inteligence může ohrozit hodnoty našich demokracií a základní práva občanů Evropské unie; vyzývá Komisi, aby navrhla rámec, který penalizuje ty, kteří pomocí této technologie narušují vnímání reality prostřednictvím dezinformačních kampaní nebo kteří nabádají ke kybernetickým útokům s cílem narušit digitální kybernetickou bezpečnost;
16. konstatuje, že umělá inteligence, robotika a související technologie v oblasti prosazování práva a ochrany hranic by mohly posílit veřejnou bezpečnost, ale rovněž potřebují rozsáhlou a přísnou veřejnou kontrolu a nejvyšší možnou úroveň transparentnosti, a to jak pokud jde o posuzování rizik jednotlivých aplikací, tak i o obecný přehled jejich využívání umělé inteligence, robotiky a souvisejících technologií v oblasti prosazování práva a ochrany hranic; domnívá se, že tyto technologie s sebou nesou významná etická rizika, na která je třeba odpovídajícím způsobem reagovat s ohledem na možné nepříznivé dopady na jednotlivce, zejména pokud jde o jejich právo na soukromí, ochranu údajů a nediskriminaci; zdůrazňuje, že jejich zneužívání se může stát přímou hrozbou pro demokracii a že jejich zavádění a využívání musí být v souladu se zásadami proporcionality a nezbytnosti, Listinou základních práv a příslušnými sekundárními právními předpisy Unie, jako jsou pravidla EU pro ochranu údajů; zdůrazňuje, že umělá inteligence by při vydávání soudních rozhodnutí nikdy neměla nahradit lidi; rozhodnutí, která se týkají například kauce nebo probace, slyšení před soudem nebo rozhodnutí založená výhradně na automatizovaném zpracování, která mají právní účinek na fyzické osoby nebo která se jich významně dotýkají, musí vždy zahrnovat smysluplné posouzení a úsudek člověka;
17. varuje před tím, že vzhledem k tomu, že rozhodnutí a opatření přijatá donucovacími orgány – včetně zpracování údajů a umělé inteligence – zasahují do životů a práv občanů, je nezbytná maximální opatrnost, aby se zabránilo nezákonné diskriminaci a cílení na určité jednotlivce nebo skupiny lidí definované podle rasy, barvy pleti, etnického nebo sociálního původu, genetických rysů, jazyka, náboženského vyznání nebo přesvědčení, politického či jiného názoru, majetku, narození, zdravotního postižení, věku, pohlaví, pohlavní identity nebo jejího vyjádření, sexuální orientace, pobytového statusu, zdravotního stavu nebo příslušnosti k národnostní menšině, která je často předmětem etnického profilování nebo intenzivnější policejního dohledu, jakož i jednotlivců, kteří jsou definováni podle určitých charakteristik; vyzývá k řádné odborné přípravě předních osob shromažďujících údaje a uživatelů zpravodajských informací získaných za pomoci využívání umělé inteligence;
18. poukazuje na to, že možnost, kterou skýtají tyto technologie, používat osobní a neosobní údaje ke kategorizaci osob, k mikrocílení na tyto osoby, k odhalení zranitelných jednotlivců či k využití přesné prediktivní znalosti, je třeba vyvážit účinným prosazováním ochrany údajů a zásad ochrany osobních údajů, jako je minimalizace údajů, právo podat námitku proti profilování a získat kontrolu nad svými údaji, právo získat vysvětlení rozhodnutí založeného na automatizovaném zpracování a ochrana soukromí již od návrhu, jakož i zásady proporcionality, nezbytnosti a omezení na základě přesně určeného účelu; poukazuje na to, že ačkoli některé modely prediktivního policejního dohledu jsou vstřícnější k ochraně soukromí než jiné, ukázalo se např. tam, kde se pravděpodobnostní předpovědi týkají místa či událostí, a nikoli jednotlivých osob, že prediktivní policejní systémy zhoršují přílišnou míru trestné činnosti na základě stávajících předsudků, jako je profilování na základě rasového původu, nebo na základě přistěhovaleckého či dělnického původu, a to i v případech, kdy to neodpovídá skutečným úrovním trestné činnosti;
19. zdůrazňuje, že občané mají právo důvěřovat technologii, kterou používají, a důvěřovat technologii, kterou používají jiní; zdůrazňuje, že umělá inteligence a robotika nejsou imunní vůči chybám, a proto zdůrazňuje význam práva na získání vysvětlení v případech, kdy budou osoby předmětem algoritmickému rozhodování, jakož i potřebu transparentnosti algoritmů, neboť transparentnost ohledně základní logiky algoritmu je pro dotčené osoby velmi důležitá k tomu, aby byla plně chráněna jejich základní práva; domnívá se, že je třeba, aby zákonodárci zvažovali složitou otázku odpovědnosti, a že odpovědnost za veškeré použití umělé inteligence by měla vždy nést fyzická nebo právnická osoba;
20. zdůrazňuje, že umělá inteligence, robotika a související technologie jsou celosvětovými technologiemi a že je třeba tyto standardy přijmout po celém světě, aby se zajistilo, že jejich budoucí vývoj bude v souladu s evropskými hodnotami a etickými standardy; vyzývá Komisi, aby se zapojila do diplomacie v oblasti umělé inteligence na mezinárodních fórech s podobně smýšlejícími partnery, jako jsou Spojené státy, skupina G7, skupina G20 a OECD, s cílem zavést společné etické standardy a pokyny pro vývoj umělé inteligence, robotiky a souvisejících technologií;
21 zdůrazňuje, že je třeba zavést jasný rámec pro používání umělé inteligence platformami sociálních médií, stejně jako požadavky na průhlednost používaných algoritmů a jejich kalibraci, aby se zabránilo nadměrnému odstraňování obsahu a jakékoli formě filtrování nebo cenzury internetu;
22 konstatuje, že umělá inteligence může být použita k manipulaci s obličejovými rysy a audiovizuálními charakteristikami, což se často označuje jako tzv. deep fake; připomíná, že tuto techniku lze využít ke zmanipulování voleb k šíření dezinformací a k dalším nežádoucím akcím; žádá proto Komisi, aby s využitím svého etického rámce stanovila u všech materiálů typu deep fake nebo jiných realisticky vypadajících uměle vytvořených videí zavedla povinnost uvést, že nejsou původní, a aby v případě, že jsou takové materiály používány pro volební účely, stanovila jejich přísné omezení;
23. navrhuje vytvořit odborné středisko, které bude sdružovat akademickou obec, výzkum, průmysl a jednotlivé odborníky na úrovni Unie, ať už jako nedílnou součást této agentury nebo s ní spojené, a to s cílem podpořit výměnu znalostí a odborných znalostí a usnadnit spolupráci v celé EU i mimo ni;
24. připomíná důležitost jazykové a kulturní rozmanitosti; vyzývá proto Komisi, aby s využitím svého etického rámce nedovolila umělé inteligenci tuto rozmanitost snižovat, ale aby i nadále nabízela přístup k široké škále obsahu, který by nepřiměřeně nezastupoval jeden určitý jazykový a/nebo kulturní model, a aby odsoudila veškeré pokusy algoritmů, které by tuto rozmanitost omezovaly a nabízely pouze obsah odpovídající některým již existujícím vzorcům nebo by mohly působit jako „komnata ozvěn“ bránící přístupu k větší rozmanitosti;
25. doporučuje, aby Komise prokázala, že jasně přezkoumala, posoudila a upravila svůj koordinovaný plán pro umělou inteligenci s cílem řešit závažné dopady umělé inteligence na základní práva, a uvedla, jak budou tato rizika zmírněna v legislativním přístupu EU a při provádění vnitrostátních strategií členských států;
INFORMACE O PŘIJETÍ VE VÝBORU POŽÁDANÉM O STANOVISKO
Datum přijetí |
22.9.2020 |
|
|
|
Výsledek konečného hlasování |
+: –: 0: |
55 5 7 |
||
Členové přítomní při konečném hlasování |
Magdalena Adamowicz, Malik Azmani, Katarina Barley, Pernando Barrena Arza, Pietro Bartolo, Nicolas Bay, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Patrick Breyer, Saskia Bricmont, Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Damien Carême, Anna Júlia Donáth, Lena Düpont, Cornelia Ernst, Laura Ferrara, Nicolaus Fest, Jean-Paul Garraud, Maria Grapini, Sylvie Guillaume, Andrzej Halicki, Balázs Hidvéghi, Evin Incir, Sophia in ‘t Veld, Patryk Jaki, Lívia Járóka, Marina Kaljurand, Assita Kanko, Fabienne Keller, Peter Kofod, Moritz Körner, Alice Kuhnke, Jeroen Lenaers, Juan Fernando López Aguilar, Nuno Melo, Roberta Metsola, Nadine Morano, Javier Moreno Sánchez, Maite Pagazaurtundúa, Nicola Procaccini, Paulo Rangel, Diana Riba i Giner, Ralf Seekatz, Michal Šimečka, Birgit Sippel, Sylwia Spurek, Tineke Strik, Ramona Strugariu, Annalisa Tardino, Tomas Tobé, Dragoş Tudorache, Milan Uhrík, Tom Vandendriessche, Bettina Vollath, Jadwiga Wiśniewska, Elena Yoncheva |
|||
Náhradníci přítomní při konečném hlasování |
Delara Burkhardt, Gwendoline Delbos-Corfield, Kostas Papadakis, Kris Peeters, Anne-Sophie Pelletier, Sira Rego, Rob Rooken, Paul Tang, Tomáš Zdechovský |
|||
Náhradníci (čl. 209 odst. 7) přítomní při konečném hlasování |
Isabel Benjumea Benjumea |
JMENOVITÉ KONEČNÉ HLASOVÁNÍ
VE VÝBORU POŽÁDANÉM O STANOVISKO
55 |
+ |
|
EPP |
Magdalena Adamowicz, Isabel Benjumea Benjumea, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Lena Düpont, Andrzej Halicki, Balázs Hidvéghi, Lívia Járóka, Jeroen Lenaers, Nuno Melo, Roberta Metsola, Nadine Morano, Kris Peeters, Paulo Rangel, Ralf Seekatz, Tomas Tobé, Tomáš Zdechovský |
|
S&D |
Katarina Barley, Pietro Bartolo, Delara Burkhardt, Maria Grapini, Sylvie Guillaume, Evin Incir, Marina Kaljurand, Juan Fernando López Aguilar, Javier Moreno Sánchez, Birgit Sippel, Sylwia Spurek, Paul Tang, Bettina Vollath, Elena Yoncheva |
|
RENEW |
|
|
ID |
Peter Kofod |
|
GREENS/EFA |
Patrick Breyer, Saskia Bricmont, Damien Carême, Gwendoline Delbos-Corfield, Alice Kuhnke, Diana Riba I Giner, Tineke Strik |
|
ECR |
Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Assita Kanko, Nicola Procaccini, Jadwiga Wiśniewska |
|
NI |
Laura Ferrara |
5 |
- |
EUL/NGL |
Pernando Barrena Arza, Cornelia Ernst, Anne-Sophie Pelletier, Sira Rego |
NI |
Kostas Papadakis |
7 |
0 |
ID |
Nicolas Bay, Nicolaus Fest, Jean-Paul Garraud, Annalisa Tardino, Tom Vandendriessche |
ECR |
Rob Rooken |
NI |
Milan Uhrík |
Význam zkratek:
+ : pro
- : proti
0 : zdrželi se
STANOVISKO VÝBORU PRO ZAMĚSTNANOST A SOCIÁLNÍ VĚCI (7.9.2020)
pro Výbor pro právní záležitosti
obsahující doporučení Komisi k rámci pro etické aspekty umělé inteligence, robotiky a souvisejících technologií
Zpravodajka: Lina Gálvez Muñoz
(Podnět – článek 47 jednacího řádu)
NÁVRHY
Výbor pro zaměstnanost a sociální věci vyzývá Výbor pro právní záležitosti jako příslušný výbor, aby do svého návrhu usnesení začlenil tyto návrhy:
A. vzhledem k tomu, že využívání umělé inteligence, robotiky a souvisejících technologií v každodenním životě a na pracovišti neustále roste, čímž se výrazně transformují současné socioekonomické struktury; vzhledem k tomu, že by umělá inteligence měla přinášet prospěch občanům a společnosti ve smyslu zvýšení kvality života, vytváření nových pracovních příležitostí a zlepšení konkurenceschopnosti Unie; vzhledem k tomu, že umělá inteligence je významnou součástí digitální ekonomiky a vzhledem k tomu, že pokud je dobře využívána, má potenciál zvyšovat prosperitu a usnadňovat přechod k udržitelnému hospodářství;
B. vzhledem k tomu, že se za umělou inteligenci považují systémy, které vykazují inteligentní chování v podobě vyhodnocování svého okolí a přijímání opatření – s určitou mírou autonomie – k dosažení konkrétních cílů; vzhledem k tomu, že systémy využívající umělou inteligenci mohou být čistě softwarové a působit jen ve virtuálním světě, jako jsou například hlasoví asistenti, program na analýzu snímků, vyhledávače, systémy rozpoznávání hlasu a obličeje, nebo mohou být součástí hardwarových zařízení, například v podobě pokročilých robotů, autonomních vozidel, dronů nebo aplikací internetu věcí;[28]
C. vzhledem k tomu, že umělá inteligence představuje strategickou prioritu, jejíž plný potenciál může být využit pouze tehdy, pokud si budou uživatelé a spotřebitelé vědomi potenciálních přínosů a problémů, jež přináší; vzhledem k tomu, že podniky a také pracovníci a jejich zástupci často neznají ani aplikace umělé inteligence ani jejich základní funkce a údaje; vzhledem k tomu, že existují případy aplikací umělé inteligence, které jsou v rozporu se stávajícími předpisy, například s předpisy o ochraně údajů;
D. vzhledem k tomu, že umělá inteligence má potenciál vytvářet ekonomické a společenské přínosy a také nové příležitosti pro podniky i pracovníky, vzhledem k tomu, že však zároveň vede k řadě etických a právních problémů a problémů souvisejících se zaměstnáním; vzhledem k tomu, že používání umělé inteligence na pracovišti může přispět k inkluzivním trhům práce a mít dopad na zlepšení bezpečnosti a ochrany zdraví při práci, přičemž může být rovněž využito k monitorování, hodnocení, předvídání a řízení výkonnosti pracovníků s přímými a nepřímými důsledky pro jejich profesní dráhu; vzhledem k tomu, že by umělá inteligence měla mít pozitivní dopad na pracovní podmínky a měla by se řídit dodržováním lidských práv i základních práv a hodnot Unie; vzhledem k tomu, že by umělá inteligence měla být zaměřená na člověka, podporovat dobré podmínky lidí a společnosti a přispívat ke spravedlivé a řádné transformaci;
E. vzhledem k tomu, že umělá inteligence má výrazný dopad na trh práce[29]; vzhledem k tomu, že může potenciálně nahradit pracovníky vykonávající opakující se činnosti, usnadnit provoz spolupracujících systémů mezi člověkem a strojem, zvýšit konkurenceschopnost a prosperitu a vytvořit nové pracovní příležitosti pro kvalifikované pracovníky; vzhledem k tomu, že se oblast zaměstnanosti rychle vyvíjí a odhaduje se, že 65 % dnešních dětí bude pracovat ve zcela nových typech zaměstnání, a vzhledem k tomu, že jsou nezbytné rekvalifikace a zvyšování kvalifikace pracovníků, zejména pokud jde o na digitální dovednosti, s cílem zajistit, aby nikdo nezůstal opomenut a aby byl dostatek specializovaných pracovníků[30];
F. vzhledem k tomu, že se podle průzkumu CEDEFOP přibližně 43 % dospělých zaměstnanců v Unii setkalo v práci s novými technologiemi; vzhledem k tomu, že přibližně sedm z deseti pracovníků v Unii potřebuje k výkonu svého zaměstnání alespoň průměrné digitální dovednosti;[31] vzhledem k tomu, že přibližně jedna čtvrtina občanů Unie nemá v průměru žádné nebo jen slabé digitální dovednosti; vzhledem k tomu, že digitální propast má specifické socioekonomické, genderové, věkové a geografické aspekty i aspekty související s přístupností, které je třeba řešit; vzhledem k tomu, že 42 % pracovníků ve společnostech, které používají umělou inteligenci ve svých obchodních procesech, se domnívá, že tyto činnosti vedou k etickým otázkám, které je třeba řešit; vzhledem k tomu, že se 28 % zaměstnavatelů domnívá, že se uplatňování umělé inteligence nerozvíjí v plném rozsahu, a to z důvodu chybějících etických pravidel k této problematice;[32]
G. vzhledem k tomu, že pandemie onemocnění COVID-19 zvýraznila význam digitálních řešení, včetně práce na dálku, a také její technické a sociální dopady; vzhledem k tomu, že na úrovni Unie neexistují žádná společná ustanovení, pokud jde o používání umělé inteligence na pracovišti, což by mohlo vést k narušení trhu a znevýhodnění v oblasti hospodářské soutěže; vzhledem k tomu, že by umělá inteligence měla být předmětem náležitého regulačního rámce;
H. vzhledem k tomu, že OECD vypracovala doporučení týkající se umělé inteligence[33];
I. vzhledem k tomu, že Rada Evropské unie vybízí ve vztahu k umělé inteligenci k prosazování etického přístupu a přístupu zaměřeného na člověka[34];
J. vzhledem k tomu, že sociální partneři na úrovni Unie uzavřeli rámcovou dohodu o digitalizaci, která obsahuje mimo jiné i kapitolu o umělé inteligenci a o zaručení zásady lidské kontroly[35];
K. vzhledem k tomu, že některé členské státy již zřídily zvláštní orgány pro sledování a posuzování vlivu umělé inteligence na pracovišti;
L. vzhledem k tomu, že úsilí o řešení genderových předsudků a nerovnosti v digitálním odvětví je nedostatečné; vzhledem k tomu, že rozdíly mezi muži a ženami přetrvávají ve všech oblastech digitálních technologií, zejména pokud jde o umělou inteligenci, a v dohledné budoucnosti tak upevňují trajektorii digitálního odvětví zaměřenou na muže;
1. zdůrazňuje, že je třeba důkladně posoudit příležitosti a výzvy při využívání umělé inteligence v soukromých i veřejných společnostech i ve veřejné správě, pokud jde o pracovní místa a pracovníky, včetně dopadu těchto výzev na rovnováhu mezi pracovním a soukromým životem, organizaci práce a pracovní toky; považuje za nezbytné, aby se neopomíjel sociální dialog, aby byli konzultováni pracovníci a jejich zástupci a aby dostávali dostatečné informace od samého začátku procesu rozhodování; zdůrazňuje, že zavádění umělé inteligence musí být transparentní a že systémy umělé inteligence na pracovišti musí respektovat soukromí a důstojnost pracovníků;
2. poukazuje na to, že by vývoji, zavádění a realizaci systémů AI mělo předcházet komplexní posouzení rizik, které by hodnotilo dopad umělé inteligence na základní práva a pracovní podmínky, a to i pokud jde o zdraví a bezpečnost při práci, jakož i její sociální důsledky; posouzení by se mělo zaměřit na rizika spojená s rozhodováním lidí a na sociální diskriminaci a rovněž na hodnocení rizik vznikajících na pracovišti;
3. poukazuje na to, že řešení v oblasti umělé inteligence mají potenciál zlepšovat pracovní podmínky a kvalitu života včetně zlepšení rovnováhy mezi pracovním a soukromým životem a lepší dostupnosti pro osoby se zdravotním postižením, a že mají také potenciál předvídat vývoj trhu práce a podporovat řízení lidských zdrojů při předcházení předsudkům, ačkoli mohou rovněž vzbuzovat obavy, pokud jde o soukromí a o zdraví a bezpečnost při práci, jako je právo na odpojení, a mohou vést k nepřiměřenému a protiprávnímu dohledu a monitorování pracovníků, které porušuje jejich důstojnost a soukromí, a také k diskriminačnímu zacházení, mimo jiné při náboru pracovníků, vlivem předpojatých algoritmů, včetně genderově či rasově a etnicky předpojatých algoritmů[36] a algoritmů na úkor zranitelných skupin; je dále znepokojen tím, že umělá inteligence může narušovat svobodu osob a autonomii lidí a přispívat k psychickým zdravotním problémům, jako je vyhoření pracovníků, technologický stres, nadměrná psychická zátěž a únava; zdůrazňuje, že řešení na pracovišti založená na umělé inteligenci musí být transparentní, spravedlivá a že musí bránit jakýmkoli negativním dopadům na pracovníky;
4. zdůrazňuje, že by příslušné orgány měly mít přístup ke všem informacím týkajícím se údajů používaných pro odbornou přípravu, statistických modelů a teoretických zásad pro řešení umělé inteligence i empirické ověřování platnosti jejich výsledků;
5. domnívá se, že umělá inteligence může pomoci lépe využívat dovedností a kompetencí osob se zdravotním postižením a že využívání umělé inteligence na pracovišti může přispívat k trhům práce podporujícím začleňování a k vyšší míře zaměstnanosti osob se zdravotním postižením;
6. zdůrazňuje, že nové technologické možnosti, jako je umělá inteligence, a hodnocení efektivity práce nesmí vést k nevyrovnaným technologicky podporovaným kapacitám a k dehumanizované digitální budoucnosti; zdůrazňuje, že se etika inovací musí řídit lidským přístupem;
7. domnívá se, že by mělo být povinné, aby uživatelé, včetně pracovníků, a spotřebitelé byli informováni, pokud systém používá umělou inteligenci, zejména pokud jde o personalizované produkty nebo služby, a aby dostávali smysluplné informace ve snadno srozumitelné a přístupné podobě, pokud jde o veškeré etické aspekty aplikací umělé inteligence, které se jich týkají, aby mohli přijímat informovaná rozhodnutí; zdůrazňuje význam chápání toho, jak algoritmy zpracovávají a hodnotí údaje a jak lze tento proces omezit nebo zastavit; zdůrazňuje, že je třeba prostřednictvím odborné přípravy a vzdělávání rozvíjet dovednosti pracovníků a jejich zástupců, pokud jde o umělou inteligenci na pracovišti, aby lépe chápali dopady řešení založených na umělé inteligenci;
8. zdůrazňuje, že žadatelé a pracovníci musí být řádně písemně informováni, pokud se umělá inteligence používá v průběhu přijímacích řízení a dalšího rozhodování o lidských zdrojích, a o také tom, jak lze v tomto případě požádat o lidský přezkum s cílem zvrátit automatizované rozhodnutí;
9. zdůrazňuje, že je třeba zajistit, aby zvyšování produktivity spojené s vývojem a využíváním umělé inteligence a robotiky nepřinášelo užitek pouze vlastníkům a akcionářům společností, ale aby také prospívalo společnostem a pracovníkům díky zlepšení pracovních podmínek a podmínek zaměstnávání, včetně mezd, hospodářského růstu a rozvoje, a aby také sloužilo společnosti jako celku, a to zejména v případech, kdy k němu dochází na úkor pracovních míst; vyzývá členské státy, aby pečlivě zkoumaly potenciální dopad umělé inteligence na trh práce a na systémy sociálního zabezpečení a aby vyvinuly strategie týkající se způsobu zajištění dlouhodobé stability pomocí reformy daní a příspěvků a také dalších opatření v případě nižších veřejných příjmů;
10. zdůrazňuje význam podnikových investic do formální a neformální odborné přípravy a celoživotního učení s cílem podpořit spravedlivou transformaci směrem k digitální ekonomice; zdůrazňuje v této souvislosti, že společnosti využívající umělou inteligenci odpovídají za poskytování přiměřeného zvyšování kvalifikací a rekvalifikací pro všechny příslušné zaměstnance tak, aby se mohli naučit, jak používat digitální nástroje a pracovat s coboty a dalšími novými technologiemi, a tím se přizpůsobit měnícím se potřebám trhu práce a zůstat v zaměstnání;
11. požaduje, aby byla v souvislosti s novými technologiemi založenými na umělé inteligenci uplatňována zásada předběžné opatrnosti; zdůrazňuje základní zásadu, že stroje a umělou inteligenci musí vždy kontrolovat lidé a že rozhodnutí přijímaná umělou inteligenci musí být založená na odpovědnosti, zpochybnitelná a v případě potřeby vratná; zdůrazňuje, že je třeba dodržovat standardy bezpečnosti a zabezpečení pro umělou inteligenci, a podtrhuje význam pravidelných prověrek a kontrol v tomto ohledu, aby se zabránilo chybným výstupům umělé inteligence; zdůrazňuje, že musí být jasně definována odpovědnost týkající se využívání umělé inteligence, a to jak v případě pracovních úrazů, tak v případě škody způsobené třetím stranám;
12. zdůrazňuje, že umělá inteligence musí být zaměřená na člověka, musí být transparentní, bezpečná a zabezpečená a musí být v souladu se základními právy a s platnými právními a správními předpisy, včetně obecného nařízení o ochraně osobních údajů (GDPR), a to po celý životní cyklus systému, zejména je-li nasazena na pracovišti; vyzývá k vyvinutí spolehlivého certifikačního systému založeného na kontrolních postupech, který se bude řídit zásadou předběžné opatrnosti a který podnikům umožní prokázat, že jejich produkty umělé inteligence jsou v souladu se základními právy a se standardy Unie;
13. připomíná, že se na umělou inteligenci plně uplatňuje acquis Unie v oblasti zaměstnanosti a sociální acquis, a vyzývá Komisi a členské státy, aby zajistily jeho řádné prosazování a aby řešily potenciální legislativní mezery; konstatuje, že se Unie může stát globálním lídrem v prosazování sociálně odpovědného využívání umělé inteligence;
14. zdůrazňuje význam společného evropského přístupu, pokud jde o etické aspekty umělé inteligence; zdůrazňuje, že jakýkoli právní rámec v této souvislosti musí být odpovídající a musí být založen na komplexním posouzení dopadu s cílem zabránit narušení budoucích inovací a tvorby pracovních míst; vyzývá v této souvislosti k vytvoření evropského regulačního rámce týkajícího se etických aspektů umělé inteligence, který bude proporcionální a zaměří se zvláště na svět práce, včetně práv pracovníků a pracovních podmínek; domnívá se, že by měla být zvláštní pozornost věnována všem novým formám práce, jako je práce v rámci tzv. „gig economy“ a v rámci platforem, která je výsledkem uplatňování nových technologií v této souvislosti; domnívá se, že dopad umělé inteligence musí být rovněž zohledněn v právním rámci s cílem regulovat podmínky práce na dálku v celé Unii a zajistit důstojné pracovní podmínky a podmínky zaměstnávání v digitální ekonomice; vyzývá Komisi, aby v tomto ohledu vedla konzultace se sociálními partnery, vývojáři umělé inteligence, badateli a dalšími zúčastněnými stranami;
15. zdůrazňuje, že umělá inteligence a veškeré související právní předpisy nesmí žádným způsobem ovlivňovat výkon základních práv uznávaných v členských státech a na úrovni Unie, včetně práva na stávku nebo svobody stávkovat nebo činit jiné kroky, na něž se vztahují konkrétní systémy vztahů mezi sociálními partnery v členských státech, v souladu s vnitrostátními právními předpisy nebo zvyklostmi, ani právo vyjednávat, uzavírat a vymáhat kolektivní smlouvy nebo podnikat kolektivní akce v souladu s vnitrostátními právními předpisy nebo zvyklostmi;
16. zdůrazňuje, že zvláštní pozornost je třeba věnovat údajům shromážděným za pomoci umělé inteligence na pracovišti, zvláště pokud se používá k rozhodování o lidských zdrojích; vyzývá sociální partnery na úrovni společností, aby zavádění umělé inteligence společně analyzovali a monitorovali; vyzývá Komisi a sociální partnery, aby v souvislosti s umělou inteligencí provedli analýzu potřeby zvláštních ustanovení o ochraně údajů na pracovišti; zdůrazňuje, že pracovníci jsou vlastníci svých údajů i po ukončení pracovního poměru;
17. domnívá se, že nová agenda dovedností pro Evropu musí s ohledem na ekologickou a digitální transformaci řešit výzvy spojené s adaptací a se získáváním kvalifikací a znalostí, včetně etických aspektů umělé inteligence; zdůrazňuje, že je třeba, aby se etické aspekty umělé inteligence a rozvoj dovedností k etickým účelům staly nedílnou součástí jakýchkoli vzdělávacích osnov a osnov odborné přípravy pro vývojáře a osoby pracující s umělou inteligencí; připomíná, že vývojáři, programátoři, subjekty s rozhodovací pravomocí a společnosti využívající umělou inteligenci musí být o své etické odpovědnosti informováni; považuje za podobně důležité zajistit, aby koneční uživatelé a spotřebitelé obdrželi komplexní informace a aby v tomto ohledu docházelo k pravidelným výměnám názorů mezi všemi příslušnými zúčastněnými stranami;
18. opětovně připomíná význam vzdělávání a soustavného učení pro rozvoj kvalifikací nezbytných v digitálním věku a pro boj proti digitálnímu vyloučení; vyzývá členské státy, aby investovaly do vysoce kvalitních reakceschopných a inkluzivních systémů vzdělávání, odborné přípravy a celoživotního učení a také do politiky rekvalifikace a zvyšování kvalifikace pro pracovníky v odvětvích, v nichž má umělá inteligence potenciálně výrazný vliv; zdůrazňuje, že je nezbytné vybavit současné i budoucí pracovníky nutnou gramotností, matematickou gramotností a digitálními dovednostmi, jakož i kompetencemi v oblasti vědy, technologie, inženýrství a matematiky (STEM) a průřezovými měkkými dovednostmi, jako je kritické myšlení, kreativita a podnikavost; zdůrazňuje, že je třeba v této souvislosti věnovat zvláštní pozornost začlenění znevýhodněných skupin;
19. zdůrazňuje, že umělá inteligence nesmí posilovat genderovou nerovnost a stereotypy tím, že pomocí algoritmů přemění analogové předsudky na předsudky digitální;
20. zdůrazňuje, že je třeba zajistit, aby se na vývoji, zavádění a využívání umělé inteligence podílely osoby z různých prostředí, včetně žen, mladých lidí, osob jiné barvy pleti a osob se zdravotním postižením; připomíná, že technologie založené na umělé inteligenci na pracovišti, musí být přístupné všem, a to na základě zásady design pro všechny;
21. poukazuje na to, že přístup k řešením založeným na umělé inteligenci úzce souvisí s připojením k vysokorychlostnímu internetu a že by tudíž mělo být prioritou širokopásmové pokrytí s cílem zabránit diskriminaci a nerovnému přístupu k těmto technologiím;
22. konstatuje, že možnosti řešení v oblasti umělé inteligence závisejí na datech velkého objemu, přičemž je zapotřebí nezbytné množství dat pro nastavení algoritmů a ladění výsledků; vítá v tomto ohledu návrh Komise na vytvoření společného datového prostoru v Unii s cílem posílit výměnu údajů a podpořit výzkum a zároveň plně dodržovat evropská pravidla pro ochranu údajů.
INFORMACE O PŘIJETÍ VE VÝBORU POŽÁDANÉM O STANOVISKO
Datum přijetí |
7.9.2020 |
|
|
|
Výsledek konečného hlasování |
+: –: 0: |
46 6 1 |
||
Členové přítomní při konečném hlasování |
Atidzhe Alieva-Veli, Abir Al-Sahlani, Marc Angel, Dominique Bilde, Gabriele Bischoff, Vilija Blinkevičiūtė, Andrea Bocskor, Milan Brglez, Sylvie Brunet, David Casa, Leila Chaibi, Margarita de la Pisa Carrión, Özlem Demirel, Klára Dobrev, Jarosław Duda, Estrella Durá Ferrandis, Lucia Ďuriš Nicholsonová, Rosa Estaràs Ferragut, Nicolaus Fest, Loucas Fourlas, Cindy Franssen, Heléne Fritzon, Elisabetta Gualmini, France Jamet, Agnes Jongerius, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Katrin Langensiepen, Miriam Lexmann, Elena Lizzi, Radka Maxová, Kira Marie Peter-Hansen, Dragoș Pîslaru, Manuel Pizarro, Dennis Radtke, Elżbieta Rafalska, Guido Reil, Daniela Rondinelli, Mounir Satouri, Monica Semedo, Beata Szydło, Eugen Tomac, Romana Tomc, Yana Toom, Marie-Pierre Vedrenne, Nikolaj Villumsen, Marianne Vind, Maria Walsh, Stefania Zambelli, Tomáš Zdechovský |
|||
Náhradníci přítomní při konečném hlasování |
Lina Gálvez Muñoz, Eugenia Rodríguez Palop |
JMENOVITÉ KONEČNÉ HLASOVÁNÍ
VE VÝBORU POŽÁDANÉM O STANOVISKO
46 |
+ |
ECR |
Lucia Ďuriš Nicholsonová, Elżbieta Rafalska, Beata Szydło, Margarita de la Pisa Carrión |
GUE/NGL |
Leila Chaibi, Özlem Demirel, Eugenia Rodríguez Palop, Nikolaj Villumsen |
NI |
Daniela Rondinelli |
PPE |
Andrea Bocskor, David Casa, Jarosław Duda, Rosa Estaràs Ferragut, Loucas Fourlas, Cindy Franssen, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Miriam Lexmann, Dennis Radtke, Eugen Tomac, Romana Tomc, Maria Walsh, Tomáš Zdechovský |
Renew |
Abir Al-Sahlani, Atidzhe Alieva-Veli, Sylvie Brunet, Dragoș Pîslaru, Monica Semedo, Yana Toom, Marie-Pierre Vedrenne |
S&D |
Marc Angel, Gabriele Bischoff, Vilija Blinkevičiūtė, Milan Brglez, Klára Dobrev, Estrella Durá Ferrandis, Heléne Fritzon, Lina Gálvez Muñoz, Elisabetta Gualmini, Agnes Jongerius, Manuel Pizarro, Marianne Vind |
Verts/ALE |
Katrin Langensiepen, Kira Marie Peter-Hansen, Mounir Satouri |
6 |
- |
ID |
Dominique Bilde, Nicolaus Fest, France Jamet, Elena Lizzi, Guido Reil, Stefania Zambelli |
1 |
0 |
Renew |
Radka Maxová |
Význam zkratek:
+ : pro
- : proti
0 : zdrželi se
STANOVISKO VÝBORU PRO ŽIVOTNÍ PROSTŘEDÍ, VEŘEJNÉ ZDRAVÍ A BEZPEČNOST POTRAVIN (16.9.2020)
pro Výbor pro právní záležitosti
s doporučeními Komisi k rámci pro etické aspekty umělé inteligence, robotiky a souvisejících technologií
Zpravodaj: Adam Jarubas
(Podnět – článek 47 jednacího řádu)
NÁVRHY
Výbor pro životní prostředí, veřejné zdraví a bezpečnost potravin vyzývá Výbor pro právní záležitosti jako věcně příslušný výbor:
– aby do svého návrhu usnesení začlenil následující návrhy:
A. vzhledem k tomu, že je Unie založena na hodnotách uvedených v článku 2 Smlouvy o Evropské unii a na dodržování zásady předběžné opatrnosti stanovené v čl. 191 odst. 2 Smlouvy o fungování Evropské unie;
B. vzhledem k tomu, že v článku 16 SFEU je stanoveno, že každý má právo na ochranu svých osobních údajů; vzhledem k tomu, že článek 22 nařízení Evropského parlamentu a Rady (EU) 2016/679[37] odkazuje na situaci, kdy jsou údaje používány pouze v rámci automatizovaného zpracování, a uznává právo subjektu údajů na to, aby nebyl předmětem žádného rozhodnutí založeného výhradně na automatizovaném zpracování údajů;
C. vzhledem k tomu, že dochází k urychlení celosvětového soupeření o vedoucí postavení v oblasti vývoje umělé inteligence, které ovlivní zdroj etických hodnot a norem utvářejících toto odvětí na celém světě, a že by Evropská unie měla být pro zbytek světa příkladem a vytvořit příslušný regulační rámec, který by zabránil případné snaze o co nejméně přísné normy, pokud jde o právní předpisy jednotlivých zemí;
D. vzhledem k tomu, že toto celosvětové soupeření by nemělo probíhat bez ohledu na etické zásady a normy;
E. vzhledem k tomu, že rychlý pokrok v oblasti výzkumu a inovací vyvolal řadu důležitých etických, právních a sociálních otázek, které ovlivňují vztah mezi vědou a společností; vzhledem k tomu, že podle ustanovení evropských výzkumných programů musí tento výzkum a inovace splňovat etické zásady a příslušné právní předpisy členských států a Unie a mezinárodní právní předpisy, včetně Listiny základních práv Evropské unie a Evropské úmluvy o ochraně lidských práv a základních svobod;
F. vzhledem k tomu, že začlenění údajů velkého objemu a technologií umělé inteligence do systémů veřejného zdravotnictví a dalších odvětví musí být doprovázeno vhodnými pravidly, normami a právními předpisy na ochranu základních práv jednotlivců a řešit tyto nové etické výzvy;
G. vzhledem k tomu, že ve srovnání s jinými částmi světa existuje v současné době zřetelný rozdíl, pokud jde o patenty a investice v Unii;
H. vzhledem k tomu, že umělá inteligence a vznikající digitální řešení mohou být společnosti prospěšné v oblasti ekologické transformace, ochrany životního prostředí a biologické rozmanitosti, mohou vést ke zvýšení účinnosti v zemědělství, při nakládání s odpadem, v oběhovém hospodářství, při omezování změny klimatu a přizpůsobování se jí, při ekologizaci nejrůznějších průmyslových procesů, při řízení a zvyšování účinnosti v oblasti energetiky a dopravy, dále v oblasti kvality vody a vzduchu (např. pokud jde o inteligentní sítě a elektromobilitu), při řízení rizik a sledování Země, v jejímž rámci je program Copernicus mj. jedním z nejlepších;
I. vzhledem k tomu, že umělou inteligenci lze využívat téměř v kterékoli oblasti medicíny: v biomedicínském výzkumu, kde může jako příklad sloužit antibiotikum Halicin objevené díky umělé inteligenci, nebo v rámci prevence výskytu nádorových onemocnění, při včasnější a přesnější diagnostice a nových léčebných postupech pomocí metod, jako je prediktivní a genomická medicína, v rámci lékařského vzdělávání, v oblasti asistenčních pečovatelů a podpory péče o seniory, při sledování zdravotního stavu pacientů, v rámci účinnějšího rozvoje léčiv a hledání cílenějších léčebných metod, při klinickém rozhodování, v oblasti personalizované medicíny a diagnostiky a léčby psychických onemocnění, v rámci revolučního vývoje robotických protéz a podpůrných systémů, v telemedicíně a telechirurgii a při zvyšování celkové účinnosti a interoperability zdravotnických systémů;
J. vzhledem k tomu, že aby se zabránilo vzniku digitální propasti, vyžaduje digitální pokrok příslušné proškolení a přípravu zdravotnických a administrativních pracovníků, přičemž musíme mít na paměti naši stárnoucí společnost a potenciální problémy, které to systémům zdravotnictví přináší;
K. vzhledem k tomu, že existují vážné etické obavy týkající se autonomního fungování strojů;
L. vzhledem k tomu, že digitální zdravotnictví by nemělo vést k dehumanizaci zdravotnictví ani omezit vztah mezi lékařem a pacientem, ale mělo by lékaři poskytovat pomoc při určování diagnózy pacientů, příp. při jejich účinnější léčbě;
M. vzhledem k tomu, že technologie umělé inteligence urychlí digitální transformaci průmyslu a zasazují se zásadním způsobem o úspěch digitální ekonomiky ve stále propojenějším světě;
N. vzhledem k tomu, že jak je uvedeno v bílé knize Komise o umělé inteligenci, zabývá se už stávající unijní právní rámec a jeho pokyny týkající se etiky některými etickými problémy spojenými s aplikacemi umělé inteligence, např. zavedené postupy při posuzování rizika zdravotních řešení založených na umělé inteligenci na jednotném trhu; vzhledem k tomu, že pokud jde o etické problémy, které je nutné zjistit a omezit, ostatní oblasti zaostávají, jelikož umělá inteligence má obrovskou schopnost ohrozit preference pacientů, jejich bezpečnost a soukromí; vzhledem k tomu, že při léčbě pacientů je nutné nastínit hranici mezi úlohou zdravotnických pracovníků a pečovatelů a úlohou přístrojů, včetně zásady autonomního rozhodování robotů, nad nimiž je vykonáván dohled, a vzhledem k tomu, že je nezbytné zajistit vzdělávání jak zdravotnických pracovníků, tak i pacientů;
O. vzhledem k tomu, že pravidla Unie v oblasti ochrany údajů by měla být upravena tak, aby zohledňovala větší složitost a propojení zdravotnických a lékařských robotů, které mohou být využívány pro správu velmi citlivých osobních a lékařských údajů, a to v souladu s integrovanou ochranou soukromí, jak je stanoveno v nařízení (EU) 2016/679 o ochraně údajů;
P. vzhledem k tomu, že řešení, která poukazují na potřebu zahrnout vědecký výzkum do základu strategií rozvoje vytvořením úložišť lékařských údajů (např. neurologické a kardiologické údaje) a sdílením údajů z tohoto výzkumu, mohou mít hmatatelný sociální přínos pro veřejnou bezpečnost a zdraví;
Q. vzhledem k tomu, že řešení založená na umělé inteligenci mohou být společnosti ku prospěchu v oblasti bezpečnosti potravin, mj. na základě omezení používání pesticidů, podpory přesného zemědělství nebo šířeji Zemědělství 2.0, kde patří Unie k lídrům v oblasti aplikací umělé inteligence (např. pokud jde o automatické úpravy techniky podle předpovědi počasí nebo vyhledávání chorob), což umožní zajistit účinnější produkci a zároveň splnit přísnější normy týkající se ochrany životního prostředí a lépe využívat zdroje, zejména v oblastech s omezenými vodními zdroji a závažným dopadem změny klimatu, jelikož je nutné, aby se tak dělo v souladu s prioritami uvedenými v Zelené dohodě pro Evropu;
R. vzhledem k tomu, že rozsah tohoto rámce by měl být náležitý a přiměřený a měl by být důkladně posouzen; vzhledem k tomu, že by měl zahrnovat širokou škálu technologií a jejich složek, včetně algoritmů, softwaru a dat, které umělá inteligence používá nebo vytváří; vzhledem k tomu, že je nezbytné vytvořit cílený přístup založený na koncepci rizikovosti, aby se předešlo tomu, aby bylo občanům bráněno využívat v rámci budoucích inovací přínos aplikací umělé inteligence, např. v oblasti zdravotní péče, ochrany životního prostředí a kvality potravin, občanům;
S. vzhledem k tomu, že je naprosto nezbytné nalézt účinné prostředky k zajištění důvěryhodných digitálních technologií, což umožní využít jejich výhod a současně chránit základní práva a podporovat rozvoj neformálních, otevřených, tolerantních a spravedlivých společností; vzhledem k tomu, že to je obzvláště důležité v případě hybridních systémů založených na lidské a umělé inteligenci;
T. vzhledem k tomu, že robotické stroje stírají hranice mezi lidskými subjekty a technickými objekty; vzhledem k tomu, že činnost těchto strojů má nejen společenské důsledky, které je třeba hodnotit z etického hlediska, ale že také zpochybňuje samotné etické rámce, jejichž pomocí se je snažíme hodnotit; vzhledem k tomu, že jak je uvedeno ve zprávě Světové komise pro etiku vědeckých znalostí a technologií (COMEST), měla by být zvláštní pozornost věnována použití zdravotnických robotů, ošetřovatelských robotů, robotů pečujících o seniory a robotických společníků;
U. vzhledem k rychlému rozvoji používání robotických společníků v oblasti zdravotní péče, a zejména péče o seniory; vzhledem k tomu, že roboti pečující o seniory a robotičtí společníci mohou plnit funkční a afektivní úlohu; vzhledem k úloze, kterou mohou tito roboti plnit při omezování osamělosti starších lidí, při prevenci chování spojeného s demencí, při stimulaci kognitivních aktivit u pacientů trpících neurodegenerativním onemocněním nebo při provádění určitých každodenních úkolů, jejichž plnění je pro starší osoby obtížné; vzhledem k tomu, že robotičtí společníci tak mohou u seniorů vyvolat falešné, iluzorní a neopětované pocity jejich klamáním a infantilizací;
V. vzhledem k tomu, že doprovodné roboty lze stále častěji používat pro sexuální účely; vzhledem k obzvláště znepokojujícím etickým důsledkům, které vyvstávají při používání sexuálních robotů se vzhledem dítěte nebo robotů, kteří byli naprogramováni, aby byli zneužíváni;
Právní a etický rámec týkající se umělé inteligence
1. zdůrazňuje, že Unie musí přijmout veškeré nezbytné kroky k zajištění účinného uplatňování svých etických hodnot uvedených v unijních právních předpisech ve všech oblastech umělé inteligence na svém území a k prosazování svých norem na celém světě; v této souvislosti zdůrazňuje, že technický vývoj v oblasti umělé inteligence musí být pro lidstvo vždy přínosem;
2. zdůrazňuje, že Unie musí učinit všechny nezbytné kroky, aby zvýšila důvěru společnosti ve vývoj a zavádění umělé inteligence, robotiky a souvisejících technologií; vzhledem k tomu, že tyto technologie mohou mít na občany významný dopad, vyzývá Komisi, aby se řídila etickými pokyny pro důvěryhodnou umělou inteligenci a navrhla vhodná opatření s cílem zajistit, aby tyto technologie nevytvářely nespravedlivě neobjektivní výstupy pro občany;
3. zdůrazňuje, že unijní ekosystém důvěry týkající se umělé inteligence založený na právních předpisech, ať už jde o ochranu životního prostředí, zdraví nebo aplikace v oblasti bezpečnosti potravin, který je rozšířen o etický rámec Unie pro umělou inteligenci, posílí právní jistotu a předvídatelnost, podpoří zapojení zúčastněných stran, zvýší objem svěřených údajů a jejich využívání na trhu, umožní úspory z rozsahu a podpoří v těchto odvětvích dosahování špičkových výsledků; je toho názoru, že to posílí globální konkurenceschopnost unijního odvětví umělé inteligence a její potenciál prosazovat své hodnoty a normy;
4. podotýká, že v důsledku skutečnosti, že právní předpisy lépe odpovídají současným dobře definovaným výzvám, a v důsledku rychlého rozvoje umělé inteligence, který vede k nejistotě ohledně toho, co nás čeká, může společný, právně dobře zakotvený etický rámec Unie pro oblast umělé inteligence vést k rozšíření ekosystému důvěry, jak je definován v bílé knize Komise, ať už se jedná o aplikace v oblasti ochrany životního prostředí a veřejného zdraví, vytváření zdravějšího prostředí, lepších zdravotnických zdrojů a služeb nebo bezpečnosti potravin, a tím k podpoře dosahování vynikajících výsledků při zajišťování právní jistoty a předvídatelnosti a nabízení účinného řešení problémů, které ještě nebyly v soudních síních, při schůzích vrcholného vedení nebo ve vědeckých laboratořích definovány;
5. konstatuje, že definice umělé inteligence vyžaduje další práci; poukazuje proto na význam přístupu zaměřeného na člověka a pravidelných přezkumů pokroku v oblasti umělé inteligence a etického rámce, s cílem podpořit aktivní regulaci a zajistit, že ji bude možné používat v delším časovém horizontu a v případě nového vývoje; zdůrazňuje, že v důsledku vývoje nových technologií umělé inteligence existuje mnoho úrovní rizika, které se v průběhu času vyvíjejí; zdůrazňuje, že je nutné vypracovat přiměřený legislativní rámec, který by se měl vyvíjet spolu s tím, jak postupuje technický pokrok; poukazuje na to, že program Copernicus může sloužit jako jeden z osvědčených postupů při rozvoji kvalitních rozsáhlých datových souborů, které souží jako vstupní údaje pro modely umělé inteligence;
6. zdůrazňuje, že je třeba vytvořit regulační rámec stanovující etické zásady, které je třeba uplatňovat při navrhování, vývoji, zavádění této technologie a v rámci jejího fungování, a to od přístupu k údajům až po přísné monitorování výsledků;
7. poukazuje na to, že je nutné nalézt vyvážený přístup k regulaci, který by zajišťoval především to, aby nedocházelo k ohrožení našich hodnot, a který by zabránit vzniku zbytečné administrativní zátěže, zejména pro malé, střední a začínající podniky; v této souvislosti poukazuje na to, že celosvětová konkurence v oblasti umělé inteligence se neřídí vždy stejnými etickými principy jako Unie; zdůrazňuje, že umělá inteligence a související technologie by neměly být ponechány pouze „kosmetické“ seberegulaci; domnívá se, že je naprosto zásadní vytvořit přiměřený podpůrný legislativní rámec Unie; připomíná, že na svých etických rámcích pracuje celá řada třetích zemí a že na celosvětové úrovni existuje mnoho nejrůznějších návrhů; je si vědom toho, že hlavním problémem etických zásad může být spíše uplatňování těchto zásad než jejich existence;
8. podporuje názor, že sedm požadavků na umělou inteligenci uvedených v etických pokynech pro důvěryhodnou umělou inteligenci, které vytvořila odborná skupina na vysoké úrovni pro umělou inteligenci, představuje solidní základ společného etického rámce Unie v oblasti umělé inteligence s řádným právním zakotvením, který se zabývá mj. etickými aspekty aplikací umělé inteligence v oblasti životního prostředí, zdravotnictví a ochrany potravin; vyzývá ke zdokonalení unijních právních předpisů týkajících se transparentnosti, dohledatelnosti a dohledu ze strany člověka, které byly v rámci zpětné vazby na uvedené pokyny získané od 350 organizací označeny za oblast, již je nutné dále zlepšit; vybízí navíc k vytvoření etického rámce Unie pro oblast umělé inteligence v duchu otevřenosti k pracím dalších mezinárodních partnerů, které sdílejí hodnoty Unie, jako je např. OSN, Rada Evropy se svými „Pokyny pro umělou inteligenci a ochranu údajů“[38] z roku 2019, evropská etická charta o používání umělé inteligence v rámci soudních systémů a činnost jejího právního výzkumného střediska, ad hoc Výbor pro umělou inteligenci (CAHAI), zásady týkající se umělé inteligence[39] , které v květnu 2019 podepsali členové OECD, prohlášení ministrů zemí G20 z roku 2019 o obchodu a digitální ekonomice, příloha, která obsahuje zásady týkající se umělé inteligence, a celosvětová iniciativa Institutu pro elektrotechnické a elektronické inženýrství (IEEE) týkající se etiky autonomních a inteligentních systémů[40];
9. důrazně podporuje Komisi při vytváření společného rámce Unie pro oblast umělé inteligence, který by překonal nedostatky způsobené roztříštěností vnitřního trhu umělé inteligence, mj. v oblasti výzkumu, inovací a odborných zkušeností týkajících se aplikací v oblasti ochrany životního prostředí, veřejného zdraví, zdravotní péče a bezpečnosti potravin, a který by zabránil tomu, aby při vývoji umělé inteligence v Unii i mimo ni docházelo v členských státech k používání dvojích norem, mj. v oblastech, jako je správa údajů o spotřebitelích, ochrana a soukromí v oblasti inteligentních sítí, likvidace odpadu, rovný přístup ke službám a technologiím, normy, kterými se řídí vztahy mezi pacientem a lékařem, právní předpisy v oblasti ochrany soukromých údajů, včetně jejich souhry s výzkumnou činností a vývojem léků, občanskoprávní odpovědnost v oblasti veřejného zdravotnictví založeného na umělé inteligenci a občanskoprávní odpovědnost týkající se autonomních vozidel nebo strojů; konstatuje, že právní předpisy na úrovni členských států neobsahují jednotná pravidla týkající se odpovědnosti za škodu nebo újmu na zdraví, která by mohla být způsobena digitálními nebo behaviorálními technologiemi; vyzývá k řádnému právnímu zakotvení a umístění takového etického rámce Unie v oblasti umělé inteligence;
10. připomíná v této souvislosti, že Evropský parlament ve svém usnesení ze dne 16. února 2017 o občanskoprávních pravidlech pro robotiku[41] vyzval Komisi, aby zvážila zřízení Evropské agentury pro umělou inteligenci, která by zajistila mj. harmonizovaný přístup v celé Unii, vytvořila společná kritéria a postup podávání žádostí týkajících se udělování evropského osvědčení o dodržování etických požadavků a řešila nové příležitosti a výzvy zejména přeshraniční povahy, které jsou důsledkem probíhajícího technického vývoje; vyzývá Komisi, aby zvážila, zda k řešení uvedených úkolů postačí stávající orgány a instituce Unie, nebo zda je nutné vytvořit nový orgán pro umělou inteligenci;
11. domnívá se, že u všech aplikací umělé inteligence, které jsou vyvíjeny v Unii i mimo ni, musí být v Unii zajištěna stejná úroveň ochrany jako u všech ostatních technologií, včetně účinné soudní nápravy pro strany, na něž mají systémy umělé inteligence negativní dopad, přičemž musí být umožněn další rozvoj technických inovací; dále se domnívá, že tato oblast rizika umělé inteligence má zásadní význam například pro zdravotnické služby, dopravu zahrnující autonomní vozidla a bezpečnost potravin; vyzývá k jasnému rozdělení povinností, práv a závazků mezi hospodářské subjekty zapojené do poskytování aplikací umělé inteligence, aby se každá povinnost přidělovala subjektu či subjektům, které mají nejlepší předpoklady k řešení všech případných rizik, ať už se jedná o vývojáře, provozovatele, výrobce, distributora nebo dovozce, poskytovatele služeb a profesionálního nebo soukromého uživatele, a v tomto ohledu k odpovídající revizi příslušných právních předpisů EU, např. směrnice o odpovědnosti za výrobky, a k harmonizaci právních předpisů členských států; podporuje postoj Komise vyjádřený v bílé knize, že vzhledem ke složitosti systémů umělé inteligence může být vzhledem k zajištění účinné úrovně ochrany a nápravy nutné upravit otázku důkazního břemene požadovaného vnitrostátními pravidly pro odpovědnost za škodu způsobenou provozem aplikací umělé inteligence; je toho názoru, že jasnost, pokud jde o právní odpovědnost v odvětví umělé inteligence, posílí prosazování etických hodnot Unie zakotvených v jejím acquis, právní jistotu a předvídatelnost a její společenské přijetí, což podpoří vznik kultury dosahování špičkových výsledků v oblasti umělé inteligence v Unii tím, že propojí investory a zvýší pronikání příslušných aplikací na trh;
12. zdůrazňuje, že mnohé návrhy zemí, které nejsou členy Unie, a mezinárodních organizací se týkají společných zásad nebo konceptů umělé inteligence, jimiž jsou zaměření na člověka, důvěryhodnost, úcta k lidské autonomii, předcházení škodám, rovnost, zásada, že „nikdo nesmí zůstat stranou“, a vysvětlitelnost; je toho názoru, že by bylo velmi žádoucí vypracovat mezinárodní etický rámec týkající se těchto zásad; je znepokojen pokrokem a inovacemi v oblasti umělé inteligence, které v případě, že nebudou přijata žádná opatření, povedou k sociální nerovnosti; vyzývá proto Komisi a členské státy, aby přijaly nezbytná opatření k tomu, aby při přechodu k digitální Evropě nebyl nikdo ponechán stranou, a aby zaručily spravedlivý, cenově dostupný a rovný přístup k těmto inovacím, zejména v oblastech, jako je zdravotní péče;
13. doporučuje doplnit přístup založený na posuzování rizik o algoritmické posuzování dopadů, při němž by se získávaly informace například z analýzy dopadů regulace (RIA), postupu pro posouzení rizik v rámci obecného nařízení o ochraně osobních údajů a posouzení dopadů na lidská práva (HRIA), a zajistit, aby se mohla veřejnost seznámit s příslušnými výsledky;
14. s potěšením konstatuje, že podle metodiky používané v rámci přístupu založeného na posuzování rizik, která je stanovena v bílé knize Komise ze dne 19. února 2020[42], se oblast zdravotní péče, dopravy a energetiky považuje automaticky za rizikovou, a kromě případů, kdy způsob používání umělé inteligence nepředstavuje závažné riziko, se v těchto odvětvích zavádějí seznamy požadavků na umělou inteligenci, které jdou nad rámec stávajících unijních pravidel; zdůrazňuje, že unijní etický rámec pro oblast umělé inteligence by se měl zaměřovat především na uvedená riziková odvětví;
15. vyzývá k zavedení jasných, objektivních a transparentních postupů na úrovni Unie při vytváření veřejného katalogu rizikových aplikací umělé inteligence, který by zahrnoval mechanismus jejich pravidelného přezkumu a aktualizace; vyzývá k tomu, aby se v případě těchto postupů u všech aplikací umělé inteligence ve všech oblastech zvážilo uvalení důkazního břemena na subjekt, který se snaží vyvinout nebo zavést systém umělé inteligence, a to za účelem zachování katalogu otevřeného inovacím a zohlednění rizika, že aplikace umělé inteligence nebudou klasifikovány jako rizikové;
16. domnívá se, že při vývoji, zavádění a používání rizikové umělé inteligence, robotiky a souvisejících technologií, včetně softwaru, algoritmů a dat, které tyto technologie používají či produkují, existuje riziko předpojatosti a diskriminace; připomíná, že tyto technologie by měly za všech okolností respektovat lidskou důstojnost a zajistit rovné zacházení se všemi; domnívá se, že tuto možnou předpojatost by bylo možné řešit stanovením pravidel pro zpracování údajů a zavedením vhodných záruk proti předsudkům a diskriminaci na základě sociálních, hospodářských, etnických, rasových, sexuálních a genderových faktorů, faktorů týkajících se zdravotního postižení či jiných faktorů; varuje před možným zneužitím diagnostických aplikací umělé inteligence a vyzývá k zajištění záruk týkajících se schopností a motivace v oblasti umělé inteligence;
17. vítá iniciativu týkající se nepovinného označování nerizikové umělé inteligence;
18. doporučuje přijmout opatření na podporu zapojení všech subjektů ze soukromého sektoru, skupin spotřebitelů a akademické obce působících v oblasti etiky umělé inteligence do vypracování etického kodexu, který by odpovídal technickému, sociálnímu a politickému vývoji;
19. připomíná, že roboti používají při rozhodování algoritmy, které ztělesňují etické hodnoty a rámce, a že jejich zavedení má významné etické důsledky v oblasti zdravotní péče a sociálních vztahů; je obzvláště znepokojen používáním robotických společníků k pedofilním účelům a k sexuálnímu zneužívání; domnívá se, že při navrhování robotických technologií by měly být brány v úvahu etické otázky; žádá, aby bylo v rámci procesu vývoje těchto strojů přiznáno místo etice založené na přístupu, jako je etický design (Value Sensitive Design), zejména pokud jde o roboty pro péči o seniory a robotické společníky; zdůrazňuje, že tento přístup by měl být rovněž upraven tak, aby zohledňoval dobré životní podmínky zvířat;
20. zdůrazňuje, že kromě jasných regulačních požadavků týkajících se sociální i právní odpovědnosti je rovněž třeba zajistit algoritmickou transparentnost, aby bylo možné vysledovat okamžik, kdy „se něco pokazilo“, a umožnit včasný zásah odborníků; domnívá se, že algoritmická transparentnost má zásadní význam při předcházení situacím, kdy k rozhodování ve zdravotnictví dochází v prostředí „černé skříňky“; zdůrazňuje, že algoritmy „černé skříňky“, které činí nevysvětlitelná rozhodnutí, jsou nepřijatelné v jakémkoli odvětví, avšak v situaci, kdy má rozhodování na základě umělé inteligence dopad na rozhodnutí o životě nebo smrti, mohou být důsledky algoritmického selhání vážné; vyzývá Komisi a členské státy, aby s cílem vytvořit platformy pro budování dialogu a posoudit dopad těchto nových technologií na vztah mezi lékařem a pacientem a odlidštění lékařské péče zahájily dialog s klíčovými zúčastněnými stranami z oblasti lékařství, IT, matematiky, fyziky, technologií lékařských údajů, klinické psychologie, bioinženýrství a léčiv;
21. požaduje, aby Unie vedla iniciativy podporující interpretovatelné algoritmy, vysvětlitelnou umělou inteligenci (xAI), symbolické uvažování umělé inteligence, transparentní testovací postupy umělé inteligence, a to tak, že ukáže, že uvedené technologie lze kombinovat s hlubokými neuronovými sítěmi, a poukáže na její legální, etické a často i obchodní výhody, ale také že bude prosazovat metody ke zjišťování rizik spojených s různými technickými možnostmi, které využívají mimo jiné i zkušeností Úřadu komisaře Spojeného království pro informace (ICO) a pokynů vydaných Institutem Alana Turinga s názvem „Vysvětlení rozhodnutí přijímaných s umělou inteligencí“, což ukazuje, že dostatečnou interpretaci lze zajistit i u velmi složitých neuronových systémů;
22. vyzývá k zajištění transparentnosti, zodpovědnosti, auditovatelnosti, předvídatelnosti a spolehlivosti, neboť občané, pacienti a uživatelé by měli být při interakci se systémem využívajícím umělou inteligenci informováni tak, že jim budou jasně a srozumitelně vysvětleny používané údaje, fungování algoritmu, jeho účel, výsledky a možná nebezpečí; zdůrazňuje, že pro zajištění důvěry v tyto technologie má zásadní význam transparentnost a vysvětlitelnost; domnívá se, že vysvětlení by mělo být doplněno auditovatelností a sledovatelností, neboť dodržování těchto zásad je jedním ze způsobů, jak je možné zaručit odpovědnost; připomíná, že aplikace umělé inteligence mohou člověka překonat v úzce specifických úkolech, zatímco v celkové analýze selhávají; vyzývá k zajištění dohledu ze strany člověka, profesní odpovědnosti a předvídatelnosti systému, které by měly mít možnost zvrátit rozhodnutí umělé inteligence;
23. domnívá se, že každá fyzická nebo právnická osoba by měla mít možnost domáhat se nápravy rozhodnutí vydaného rizikovou umělou inteligencí, robotikou nebo související technologií na úkor této osoby a že jakékoli rozhodnutí přijaté umělou inteligencí by mělo podléhat přísnému ověření ze strany člověka a řádnému procesu; navrhuje, aby byly v rámci záruk týkajících se využívání rizikové umělé inteligence, robotiky a souvisejících technologií v rámci rozhodnutí veřejné moci, včetně pravidelného posuzování a případného přezkumu regulačního rámce s cílem udržet krok s technickým vývojem, stanoveny závazné pokyny týkající se metodiky posuzování souladu, jimiž by se měly řídit vnitrostátní orgány dohledu, a aby byly stanoveny nezávazné pokyny určené vývojářům, provozovatelům a uživatelům;
24. vítá evropskou strategii pro data, která bude řešit budoucí výzvy, jimž bude Unie v této oblasti čelit, a jež má klíčový význam z hlediska pokroku v oblasti umělé inteligence a která bude hledat evropské příležitosti pro konkurenční výhodu v nové ekonomice založené na datech, zejména v rostoucím odvětví decentralizovaných, neosobních údajů pocházejících z průmyslu, podnikání a veřejného sektoru a ze zařízení na okraji sítě, které by měly v roce 2025 představovat 80 % ze 175 zettabajtů, a zvrátit stávající poměr;
25. vyzývá k zajištění dostatečných finančních zdrojů k transformaci Unie v oblasti umělé inteligence; podporuje náročný cíl stanovený v bílé knize Komise, kterým je přilákat v Unii v příštích deseti letech ve formě veřejných a soukromých investic 200 miliard EUR; vítá pozornost, která je věnována nedostatkům ekosystémů v oblasti umělé inteligence v méně rozvinutých regionech a potřebám malých, středních a začínajících podniků; vyzývá Komisi, aby zjistila, jaké jsou nedostatky veřejné infrastruktury, a usnadnila financování umělé inteligence při zmírňování změny klimatu a přizpůsobování se jí a v oblasti obnovitelných zdrojů energie a zdravotnictví a aby umožnila přijmout zeměpisně vyvážený přístup k veškerému financování umělé inteligence, mj. v případě malých, středních a začínajících podniků; zdůrazňuje, že nové cíle Unie nesmějí vést k její menší angažovanosti při dosahování dlouhodobých priorit, jako je SZP, politika soudržnosti, Zelená dohoda a plán obnovy po krizi způsobené onemocněním COVID-19;
26. vyzývá Komisi, aby podporovala a financovala rozvoj umělé inteligence zaměřené na člověka, robotiky a souvisejících technologií, které by řešily výzvy v oblasti životního prostředí a klimatu a zajišťovaly rovný přístup k požívání základních práv prostřednictvím daní, zadávání veřejných zakázek nebo jiných pobídek;
Uhlíková stopa umělé inteligence
27. konstatuje, že Komise ve svém digitálním balíčku zveřejněném dne 19. února 2020 uvádí, že IKT dnes odpovídají za 5 až 9 % celosvětové spotřeby elektrické energie a 2 % emisí CO2, že objem přenášených a uchovávaných údajů bude v nadcházejících letech nadále exponenciálně růst a že je nutné nalézt v tomto ohledu příslušná řešení; konstatuje dále, že studie Společného výzkumného střediska z roku 2018 s názvem „Umělá inteligence / evropská perspektiva“ odhaduje, že datová centra a přenos dat by mohly představovat 3 až 4 % veškeré spotřeby energie v Unii;
28. vítá, že jsou v evropské digitální strategii navržena opatření pro ekologickou transformaci digitálních odvětví;
29. zdůrazňuje, že nehledě na současnou vysokou uhlíkovou stopu hlubokého učení a samotné umělé inteligence mohou tyto technologie přispívat k omezení stávající environmentální stopy IKT a k rozvoji umělé inteligence, robotiky, automatizovaných rozhodnutí a strojového učení; poukazuje na to, že tyto i jiné řádně regulované související technologie by měly být tím, co umožní dosáhnout cílů Zelené dohody, cílů OSN v oblasti udržitelného rozvoje a cílů Pařížské dohody v mnoha odvětvích a měly by zajistit větší dopad politiky zajišťující ochranu životního prostředí, např. omezení odpadu a zhoršování životního prostředí;
30. vyzývá Komisi, aby vypracovala studii o dopadu uhlíkové stopy technologií umělé inteligence a o pozitivních a negativních dopadech přechodu na používání těchto technologií spotřebiteli;
31. konstatuje, že vzhledem k rychlejšímu rozvoji aplikací umělé inteligence, které vyžadují výpočetní, skladovací a energetické zdroje, by měl být v průběhu celého jejich životního cyklu zohledněn dopad systémů umělé inteligence na životní prostředí;
Dopad umělé inteligence na zdravotnictví a práva pacientů
32. je si vědom toho, že umělá inteligence může hrát důležitou úlohu v oblasti zdravotnictví, a zdůrazňuje, že její aplikace ve zdravotnictví by vždy měly mít za cíl maximalizovat příležitosti, které mohou přinést, jako je zlepšení zdraví jednotlivých pacientů a výkonnosti systémů veřejného zdravotnictví v členských státech, aniž by došlo ke snížení etických norem a aniž by bylo ohroženo soukromí nebo bezpečnost občanů;
33. vítá závazek Komise vyjádřený v bílé knize, že bude zkoumat problémy v oblasti bezpečnosti a odpovědnosti, kterými se vyznačuje oblast zdravotní péče, např. systémy umělé inteligence poskytující specializované lékařské informace lékařům nebo přímo pacientovi, systémy umělé inteligence, které vykonávají lékařské úkoly samy přímo u pacienta; vyzývá k odpovídajícímu přezkoumání ostatních odvětví uvedených na seznamu, která jsou standardně riziková;
34. domnívá se, že v oblastech, jako je zdravotnictví, musí odpovědnost nést v konečném důsledku fyzická nebo právnická osoba; zdůrazňuje, že je nutné zajistit sledovatelné a veřejně dostupné tréninkové údaje pro algoritmy;
35. vyzývá Komisi, aby zahájila otevřený a transparentní odvětvový dialog, který by upřednostnil zdravotní péči s cílem následně předložit akční plán pro usnadnění vývoje, testování a zavádění umělé inteligence v oblasti výzkumu a inovací a jejich širokého uplatňování ve veřejných zdravotnických službách;
36. varuje před pokusy poskytnout strojům určitou „osobní identitu“, což by mohlo vést k odstranění lidské odpovědnosti v případě chyb při léčbě;
37. důrazně podporuje vytvoření evropského zdravotního datového prostoru[43] navrženého Komisí, jehož cílem je podpora výměny údajů o zdraví a výzkumu při plném respektování ochrany údajů, včetně zpracování údajů pomocí technologií umělé inteligence, a který zajišťuje intenzivnější a širší využívání a opětovné používání údajů o zdravotním stavu; vyzývá k rozšíření přeshraniční výměny údajů o zdravotním stavu, jejich propojení a používání prostřednictvím bezpečných a sjednocených úložišť, specifických druhů zdravotních informací, jako jsou evropské zdravotní záznamy, genomické informace a digitální zdravotní snímky s cílem usnadnit vytvoření celounijních interoperabilních rejstříků nebo databází v oblastech, jako je výzkum, věda a zdravotnictví;
38. zdůrazňuje, že pacienti by měli vědět, kdy a jak jednají s lidským odborníkem a kdy nikoli; trvá na tom, že pacienti by měli moci o této interakci svobodně rozhodovat a měla by jim být nabídnuta alternativa stejného standardu;
39. domnívá se, že mobilní aplikace mohou zejména ve zdravotnictví pomoci při sledování nemocí a že je užitečné zajistit přítomnost robotů, kteří by podporovali práci lékařů a pečovatelů, s cílem zlepšit diagnostiku a léčbu a zároveň zajistit, aby nedocházelo k dehumanizaci lékařské praxe a péče o pacienty;
40. vyzývá k zajištění standardizované interoperability aplikací elektronického zdravotnictví v rámci Unie a k vytvoření společného evropského přístupu k údajům v případě lékařských předpisů, diagnóz a lékařských zpráv, které by byly jednoduše přístupné všem občanům Unie a ve všech členských státech;
41. opakuje, že příležitosti a rizika spojená s těmito technologiemi mají globální rozměr, který vyžaduje důsledný harmonizovaný přístup na mezinárodní úrovni; vyzývá Komisi, aby v rámci dvoustranných a mnohostranných fór pracovala na prosazování a zajištění dodržování etických pravidel;
42. poukazuje na výhody umělé inteligence při prevenci, léčbě a omezování nemocí, což dobře ilustruje příklad, kdy umělá inteligence předpověděla epidemii onemocnění COVID-19 dříve než WHO; naléhavě vyzývá Komisi, aby Evropskému středisku pro prevenci a kontrolu nemocí příslušným způsobem poskytla právní rámec a zdroje pro nezávislý sběr nezbytných anonymizovaných celkových zdravotních údajů v reálném čase spolu s členskými státy, aby bylo možné mj. zabývat se problémy, které odhalila pandemie onemocnění COVID-19;
43. poukazuje na to, že využívání technologií ke sledování a dohledávání kontaktů veřejnými orgány během pandemie onemocnění COVID-19 a dalších možných mimořádných zdravotních situací by mohlo být v rozporu s ochranou údajů; připomíná v této souvislosti sdělení Komise ze dne 17. dubna 2020 zabývající se pokyny týkajícími se aplikací na podporu boje proti pandemii onemocnění COVID-19 v souvislosti s ochranou údajů[44] a potřebou proporcionality, časového omezení, sladění s evropskými hodnotami a dodržování lidské důstojnosti a základních práv;
44. domnívá se, že umělá inteligence a robotika mohou přinést značné zlepšení v oblasti kontroly zdravotnických prostředků a usnadnit každodenní práci zdravotnických pracovníků; domnívá se, že u kritických zdravotnických prostředků je třeba zavést záložní systém pro monitorování a zabezpečení funkčnosti prostředku v jakékoli možné situaci, kdy dochází k interferenci, a že je třeba vzít v úvahu možné kybernetické hrozby při kontrole takových prostředků a omezovat je; zdůrazňuje, že vedle hackerů a vnějších hrozeb mohou být kybernetické hrozby také výsledkem lidských nebo systémových chyb a že je nezbytné mít zavedeny odpovídající funkční záložní systémy; dále se domnívá, že Unie by měla vytvořit záložní plán rozvoje umělé inteligence, který by řešil případné problémy systémových ovladačů umělé inteligence, které by udělaly chybu;
45. poukazuje na to, že vzhledem k problémům se systémy umělé inteligence nemusejí být bezpečnostní normy stanovené v nařízení Evropského parlamentu a Rady (EU) 2017/745[45] dostatečné; vyzývá Komisi, aby sledovala problémy v této oblasti a v případě potřeby předložila příslušné návrhy;
46. zdůrazňuje, že je třeba zajistit, aby zdravotnické prostředky založené na umělé inteligenci splňovaly požadavky na bezpečnost a funkční způsobilost vyplývající z nařízení (EU) 2017/745; vyzývá Komisi a členské státy, aby zajistily uplatňování nařízení (EU) 2017/745 s ohledem na tyto technologie; domnívá se, že pro hodnocení bezpečnosti a účinnosti softwaru, umělé inteligence a zařízení založených na hlubokém učení v průběhu celého cyklu jejich používání je nutné vypracovat nové pokyny a specifikace;
47. vyzývá k zajištění jasnějšího právního rámce a dostatečného financování pro agenturu EMA a příslušné orgány členských států v oblasti léčivých přípravků, s cílem podpořit inovace a aspekty veřejného zdraví související s umělou inteligencí v rámci životního cyklu léčiv, zejména s cílem shromažďovat a analyzovat skutečné zdravotní údaje, které mohou poskytnout další důkazy o léčivých přípravcích na podporu výzkumu a vývoje a optimalizovat bezpečné a účinné využívání stávajících léčivých přípravků v zájmu pacientů a evropských systémů zdravotní péče;
48. zdůrazňuje, že pojišťovnám nebo jiným poskytovatelům služeb by nemělo být dovoleno používat údaje z elektronických zdravotnických aplikací za účelem diskriminace při stanovování cen, protože by to bylo v rozporu se základním právem na přístup k nejvyšší možné úrovni zdraví;
Umělá inteligence a ochrana soukromých údajů
49. vítá revizi[46] nařízení (EU) 2016/679, kterou nedávno zveřejnila Komise, a podotýká, že právní předpisy členských států jsou založeny na odlišném přístupu, pokud jde o uplatňování výjimek ze všeobecného zákazu zpracovávání zvláštních kategorií osobních údajů týkajících se míry specifikace a záruk, mj. pro zdravotní účely; konstatuje proto, že v konečném důsledku by si měl zodpovědnost za rozhodování ponechat člověk, zejména v takových odvětvích, kde jde o mnoho a kde existují vysoká rizika, jako je zdravotnictví;
50. vítá záměr Komise sledovat uplatňování nařízení (EU) 2016/679 na nové technologie, mj. v rámci případných budoucích iniciativ v oblasti umělé inteligence a v rámci evropské strategie pro data, a podporuje výzvu Komise adresovanou Evropskému sboru pro ochranu osobních údajů, aby vydal pokyny k uplatňování nařízení (EU) 2016/679 v oblasti vědeckého výzkumu, umělé inteligence, bločenky a dalšího možného technického rozvoje;
51. vyzývá k posílení postavení občanů a pacientů, pokud jde o jejich osobní údaje, s cílem zajistit prosazování celého unijního právního rámce pro oblast ochrany soukromých údajů a jeho jednotného výkladu, zejména pokud jde o aplikace umělé inteligence v oblasti zdravotnictví a související citlivé údaje, aby bylo možné plně dodržovat „právo být zapomenut“ uvedené v článku 17 nařízení (EU) 2016/679, posílit „právo na získání vysvětlení“ uvedené v článku 22 nařízení (EU) 2016/679 a zpřísnit požadavky na možnost výkladu rizikové umělé inteligence;
52. zdůrazňuje, že etický rámec týkající se umělé inteligence by měl zahrnovat právo na získání vysvětlení ohledně rozhodnutí založeného na automatickém zpracování údajů o osobách, které jsou předmětem daného rozhodnutí;
53. vyzývá k dosažení správné rovnováhy mezi ochranou soukromí a údajů a užitečností údajů; domnívá se, že z hlediska vědeckého pokroku je důležité zajistit dostatečně důkladnou a podrobnou výměnu údajů o zdravotním stavu a jejich zpracování; vyzývá k zajištění anonymizace údajů a zároveň toho, aby nedocházelo k jejich nadměrné minimalizaci; vyzývá k vytvoření vhodných interoperabilních databází, registrů a úložišť na úrovni Unie s cílem usnadnit používání údajů o zdraví v oblasti zdravotnictví, životního prostředí a bezpečnosti potravin;
54. zdůrazňuje, že je nutné zajistit ochranu údajů o zdravotním stavu a údajů týkajících se ohrožených skupin, a poukazuje na to, že pokud se budou údaje o zdravotním stavu zpracovávat na základě souhlasu subjektu údajů pomocí aplikací umělé inteligence, je nutné, aby byly splněny podmínky stanovené v článku 7 nařízení (EU) 2016/679;
55. zdůrazňuje, že v žádném případě nesmí docházet k tomu, aby vygenerované údaje přispívaly k jakékoli diskriminaci; vyzývá k poskytnutí záruk, že sběr údajů a zajištění jejich přístupnosti bude vždy v souladu s právním rámcem Unie;
56. poukazuje na to, že riziko zlovolných změn údajů a jejich manipulace a možných hacků nebo krádeží údajů může být obzvlášť závažné ve zdravotnictví a že tyto postupy mohou být použity k poškození či diskreditaci jednotlivců nebo k získání výhod na jejich úkor; zdůrazňuje, že by pro příslušné sítě měly být vytvořeny nejvyšší normy kybernetické bezpečnosti;
Dopad umělé inteligence na pracovní a sociální prostředí
57. připomíná, že v etickém rámci OECD jsou zohledněny otřesy na trhu práce; zdůrazňuje, že automatizace v kombinaci s umělou inteligencí povede k vyšší produktivitě, a tím i k lepším výsledkům; poukazuje na to, že stejně jako v případě předchozích technických revolucí dojde k nahrazení některých pracovních míst; zdůrazňuje, že širší používání robotiky a umělé inteligence by mělo také snížit expozici člověka škodlivým a nebezpečným podmínkám a pomoci při vytváření kvalitnějších a důstojnějších pracovních míst a zvyšování produktivity; připomíná práci OECD, v níž se zdůrazňuje, že automatizace může společnosti umožnit snížit počet odpracovaných hodin, a tím zlepšit životní podmínky a zdraví pracovníků;
58. upozorňuje dále na doporučení OECD, podle nichž by měly vlády úzce spolupracovat se zúčastněnými stranami na prosazování odpovědného využívání umělé inteligence v práci, na zvyšování bezpečnosti pracovníků a kvality pracovních míst a na zajištění širokého a spravedlivého rozdělení výhod umělé inteligence; v této souvislosti zdůrazňuje, že různé týmy vývojářů a inženýrů, kteří spolupracují s hlavními aktéry, mohou přispět k předcházení genderové a kulturní předpojatosti a k zajištění respektování fyzické a duševní pohody pracovníků ze strany algoritmů umělé inteligence, systémů a aplikací;
59. zdůrazňuje, že vývoj aplikací umělé inteligence by mohl snížit náklady a zvýšit objem dostupných služeb, např. zdravotnických služeb, veřejné dopravy, zemědělství 2.0, aby byly cenově dostupnější pro širší spektrum společnosti; zdůrazňuje, že aplikace umělé inteligence mohou rovněž vést k nárůstu nezaměstnanosti, tlaku na systémy sociální péče a ke zvýšení chudoby; v souladu s hodnotami zakotvenými v článku 3 Smlouvy o Evropské unii poukazuje na to, že je nutné přizpůsobit transformaci Unie v oblasti umělé inteligence socioekonomickým kapacitám, přiměřené sociální ochraně, vzdělávání a vytváření alternativních pracovních míst; vyzývá k tomu, aby se zvážilo vytvoření Fondu Unie pro přizpůsobení se umělé inteligenci, který by vycházel ze zkušeností s Evropským fondem pro přizpůsobení se globalizaci (EFG) nebo s Fondem pro spravedlivou transformaci, který právě vzniká;
60. poukazuje dále na význam sociálního dialogu při zajišťování spravedlivého a inkluzivního přechodu pracovníků na novou pracovní realitu ovlivněnou umělou inteligencí, a že je nutné, aby společnosti investovaly do proškolení a rekvalifikace své pracovní síly;
61. vyzývá členské státy, aby upravily vzdělávání odborníků v oblasti ochrany životního prostředí, zdravotnictví a bezpečnosti potravin, tak aby odpovídalo vývoji v oblasti umělé inteligence, a aby zvyšovaly informovanost o rizicích a etických problémech spojených s umělou inteligencí;
62. vítá požadavky navržené v bílé knize týkající se rizikových tréninkových údajů v oblasti umělé inteligence, které se zabývají i bezpečností – na jedné straně dostatečně široké údaje, které pokrývají všechny relevantní scénáře, aby se zabránilo nebezpečným situacím, jako je diskriminace, a na druhé straně dostatečně reprezentativní údaje, které by náležitě odrážely sociální prostředí, na něž se budou vztahovat;
63. zdůrazňuje, že veřejný sektor by se měl spíše zaměřit na řešení sociálních problémů než na vytváření využívání umělé inteligence pro své vlastní účely; vyzývá ke zlepšení předpisů a pokynů Unie pro zadávání veřejných zakázek, včetně zadávání zelených veřejných zakázek v Evropské unii, aby se v rámci vyhodnocování nabídek bralo v úvahu, zda daná otázka vyžaduje použití aplikací umělé inteligence, a aby bylo možné v případech, kdy se při tomto vyhodnocení ukáže, že daný sociální problém lze lépe vyřešit pomocí řešení nezahrnujícího umělou inteligenci, zvolit alternativní způsob realizace.
INFORMACE O PŘIJETÍ VE VÝBORU POŽÁDANÉM O STANOVISKO
Datum přijetí |
10.9.2020 |
|
|
|
Výsledek konečného hlasování |
+: –: 0: |
77 2 2 |
||
Členové přítomní při konečném hlasování |
Nikos Androulakis, Bartosz Arłukowicz, Margrete Auken, Simona Baldassarre, Marek Paweł Balt, Traian Băsescu, Aurelia Beigneux, Monika Beňová, Sergio Berlato, Alexander Bernhuber, Malin Björk, Simona Bonafè, Delara Burkhardt, Pascal Canfin, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Nathalie Colin-Oesterlé, Miriam Dalli, Esther de Lange, Christian Doleschal, Marco Dreosto, Bas Eickhout, Eleonora Evi, Agnès Evren, Fredrick Federley, Pietro Fiocchi, Andreas Glück, Catherine Griset, Jytte Guteland, Teuvo Hakkarainen, Martin Hojsík, Pär Holmgren, Jan Huitema, Yannick Jadot, Adam Jarubas, Petros Kokkalis, Athanasios Konstantinou, Ewa Kopacz, Joanna Kopcińska, Ryszard Antoni Legutko, Peter Liese, Sylvia Limmer, Javi López, César Luena, Fulvio Martusciello, Liudas Mažylis, Joëlle Mélin, Tilly Metz, Silvia Modig, Dolors Montserrat, Alessandra Moretti, Dan-Ștefan Motreanu, Ville Niinistö, Ljudmila Novak, Jutta Paulus, Stanislav Polčák, Jessica Polfjärd, Luisa Regimenti, Frédérique Ries, María Soraya Rodríguez Ramos, Sándor Rónai, Rob Rooken, Silvia Sardone, Christine Schneider, Günther Sidl, Ivan Vilibor Sinčić, Linea Søgaard-Lidell, Nicolae Ştefănuță, Nils Torvalds, Edina Tóth, Véronique Trillet-Lenoir, Alexandr Vondra, Mick Wallace, Pernille Weiss, Michal Wiezik, Tiemo Wölken, Anna Zalewska |
|||
Náhradníci přítomní při konečném hlasování |
Michael Bloss, Manuel Bompard, Christel Schaldemose |
JMENOVITÉ KONEČNÉ HLASOVÁNÍ
VE VÝBORU POŽÁDANÉM O STANOVISKO
77 |
+ |
#PPE# |
Bartosz Arłukowicz, Alexander Bernhuber, Traian Băsescu, Nathalie Colin-Oesterlé, Christian Doleschal, Agnès Evren, Adam Jarubas, Ewa Kopacz, Peter Liese, Fulvio Martusciello, Liudas Mažylis, Dolors Montserrat, Dan-Ștefan Motreanu, Ljudmila Novak, Jessica Polfjärd, Stanislav Polčák, Christine Schneider, Edina Tóth, Pernille Weiss, Michal Wiezik, Esther de Lange |
S&D |
Nikos Androulakis, Marek Paweł Balt, Monika Beňová, Simona Bonafè, Delara Burkhardt, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Miriam Dalli, Jytte Guteland, César Luena, Javi López, Alessandra Moretti, Sándor Rónai, Christel Schaldemose, Günther Sidl, Tiemo Wölken |
Renew |
Pascal Canfin, Fredrick Federley, Andreas Glück, Martin Hojsík, Jan Huitema, Frédérique Ries, María Soraya Rodríguez Ramos, Linea Søgaard-Lidell, Nils Torvalds, Véronique Trillet-Lenoir, Nicolae Ştefănuță |
ID |
Simona Baldassarre, Aurelia Beigneux, Marco Dreosto, Catherine Griset, Joëlle Mélin, Luisa Regimenti, Silvia Sardone |
Verts/ALE |
Margrete Auken, Michael Bloss, Bas Eickhout, Pär Holmgren, Yannick Jadot, Tilly Metz, Ville Niinistö, Jutta Paulus |
ECR |
Sergio Berlato, Pietro Fiocchi, Joanna Kopcińska, Ryszard Antoni Legutko, Alexandr Vondra, Anna Zalewska |
GUE/NGL |
Malin Björk, Manuel Bompard, Petros Kokkalis, Silvia Modig, Mick Wallace |
NI |
Eleonora Evi, Athanasios Konstantinou |
2 |
- |
ID |
Sylvia Limmer |
ECR |
Rob Rooken |
2 |
0 |
ID |
Teuvo Hakkarainen |
NI |
Ivan Vilibor Sinčić |
Význam zkratek:
+ : pro
- : proti
0 : zdrželi se
STANOVISKO VÝBORU PRO KULTURU A VZDĚLÁVÁNÍ (3.9.2020)
pro Výbor pro právní záležitosti
s doporučeními Komise k rámci pro etické aspekty umělé inteligence, robotiky a souvisejících technologií
Zpravodaj: Łukasz Kohut
(Podnět – článek 47 jednacího řádu)
NÁVRHY
Výbor pro kulturu a vzdělávání vyzývá Výbor pro právní záležitosti jako příslušný výbor:
– aby do svého návrhu usnesení začlenil tyto návrhy:
1. připomíná, že nejenže vývoj, zavádění a používání umělé inteligence v kulturních a kreativních odvětvích, v oblasti vzdělávání, sdělovacích prostředků, mládeže a informační politiky může vyvolávat, ale také vyvolává a stále bude vyvolávat celou řadu etických otázek, kterými je třeba se zabývat; zdůrazňuje, že Unie by měla udávat směr k etickému využívání umělé inteligence na základě evropských hodnot a zajistit ochranu lidské důstojnosti a základních práv v rámci demokratické, spravedlivé a udržitelné Evropy; vyzývá orgány a instituce EU, aby se dlouhodobě zapojily do úvah o dopadu umělé inteligence na naši demokratickou diskuzi, naši společnost a samotnou podstatu lidské existence, aby bylo možné otevřít cestu technologii, která bude respektovat naši svobodu a nebude bránit inovacím a omezovat svobodu projevu;
2. je pevně přesvědčen, že je třeba prozkoumat, jak mohou pravidla a povinnosti v oblasti lidských práv ovlivňovat opatření a politiky týkající se nových digitálních technologií, aby se zaručil jejich antropocentrismus a dostupnost jejich přínosů pro všechny; uznává, že je třeba zajistit, aby při vývoji, zavádění a používání umělé inteligence nedocházelo k žádné diskriminaci ani předpojatosti skrze profilování a aby byly zohledněny všechny základní společenské elementy; je si vědom toho, že umělá inteligence a automatizace může mít dopad na globalizovanou ekonomiku, což může prohloubit stávající nerovnosti;
3. zdůrazňuje, že je třeba vypracovat adaptovaná kritéria pro vývoj, zavádění a používání umělé inteligence v oblasti vzdělávání, sdělovacích prostředků, mládeže a výzkumu a v kulturních a kreativních odvětvích a vytvořit referenční standardy a vymezující principy pro eticky zodpovědné a přijatelné používání technologií umělé inteligence v uvedených oblastech, mj. jasný systém odpovědnosti za škodu způsobenou výrobky v důsledku používání umělé inteligence; vyzdvihuje, že tato kritéria musí být upravitelná a soustavně upravována v závislosti na rozvoji technologií umělé inteligence, aby bylo možné odpovědně využít celý její potenciál; poukazuje zejména na to, že je nutné zabývat se otázkou sběru dat soukromých uživatelů a zajištěním soukromí a také otázkou odpovědnosti za škodu v případě, že by automatizované procesy měly nežádoucí důsledky; připomíná, že má-li být těmto kritériím poskytnut solidní základ, je nezbytné požadovat, aby byla dodržována zásada souladu systému s jeho specifikacemi a zásady transparentnosti, dobré víry a spravedlnosti, a to po konzultaci s příslušnými etickými komisemi, které mají asistovat při přípravné činnosti v této oblasti v souladu s kulturními hodnotami Evropské unie a s právním rámcem; konstatuje, že systémy umělé inteligence jsou založeny na softwaru vykazujícím inteligentní chování na základě analýzy daného prostředí; zdůrazňuje, že tato analýza je založena na statistických modelech, jejichž nevyhnutelnou součástí jsou chyby; poukazuje na potřebu zajistit, aby byly zavedeny systémy a metody umožňující ověření algoritmu, jednoznačnost algoritmu a přístup k opravným prostředkům; zdůrazňuje, že je třeba, aby existovala závazná pravidla zaručující zachování zásad transparentnosti, odpovědnosti a nediskriminace; opětovně poukazuje na etické pokyny pro důvěryhodnou umělou inteligenci vypracované v roce 2019 a na sedm základních podmínek, jež musí aplikace umělé inteligence splňovat, aby mohly být považovány za důvěryhodné;
4. konstatuje, že právo na kvalitní vzdělávání na všech úrovních má každé dítě; vyzývá proto k vypracování, zavedení a používání kvalitních systémů umělé inteligence, které by umožnily vytvořit a zajistit kvalitní vzdělávací nástroje na všech úrovních pro všechny, a zdůrazňuje, že zavedení těchto nových systémů ve školách by nemělo vést k vytváření ještě větších rozdílů v digitalizaci společnosti;
5. bere na vědomí, že se ve školách a na univerzitách stále více používají personalizované výukové systémy založené na umělé inteligenci, což postupně mění úlohu učitelů ve vzdělávacím procesu; zdůrazňuje, že tento posun by měl být důkladně posouzen, zohledněn v osnovách a založen na hodnotách, podle nichž je v prvořadém zájmu člověk; uznává obrovský potenciální přínos umělé inteligence a robotiky pro vzdělávání; konstatuje, že personalizované výukové systémy založené na umělé inteligenci by neměly nahrazovat vzdělávání s učitelem a že tradiční formy vzdělávání by neměly být opomíjeny, a zároveň poukazuje na to, že učitelům, kteří se snaží získat odpovídající dovednosti, musí být poskytnuta finanční, technologická a vzdělávací podpora, včetně specializovaných kurzů v oblasti informačních a komunikačních technologií, tak aby se mohli přizpůsobit technologickým změnám a aby potenciálu umělé inteligence dokázali nejen využívat, ale aby také porozuměli jejím omezením;
6. zdůrazňuje, že pokud se při postupech výběru potenciálních studentů používá postupů strojového učení, je nutné zavést příslušné záruky, mj. informovat uchazeče o těchto postupech a o jejich právech v daném ohledu; poukazuje na to, že je nutné, aby se příslušné algoritmy testovaly na velkých souborech údajů, aby se zabránilo nespravedlivé diskriminaci určitých skupin studentů; domnívá se, že je nutné zajistit možnost vysvětlení příslušných rozhodnutí přijímaných na základě automatizovaných procesů, v případě nutnosti i odmítnutým uchazečům;
7. požaduje, aby byla vypracována celounijní strategie v oblasti umělé inteligence, robotiky a souvisejících technologií s cílem napomoci transformaci a aktualizaci našich vzdělávacích systémů, přípravě našich vzdělávacích zařízení na všech úrovních a vybavení učitelů a žáků nezbytnými dovednostmi a schopnostmi; domnívá se, že je nezbytné vytvořit rámec pro etiku ve vzdělávání; doporučuje do procesu vypracování tohoto rámce zapojit občanskou společnost, univerzity, odborové organizace a sdružení zaměstnavatelů; konstatuje, že systémy s umělou inteligencí vyvíjené, zaváděné a používané v Unii musí odrážet její kulturní rozmanitost a mnohojazyčnost; zdůrazňuje, že je třeba poskytnout zvláštní podporu technologům a příjemcům ze znevýhodněných skupin a osobám se zdravotním postižením;
8. domnívá se, že s ohledem na velký význam vzdělávání pro budoucnost nezletilých je třeba zajistit zvláštní pozornost a ochranu posílení práv nezletilých, zejména práva na soukromí a na přístup ke vzdělání, a to za všech okolností při zajištění rovných příležitostí; zdůrazňuje, že vzdělávací instituce by měly systémy s umělou inteligencí používat pouze pro účely, které byly na základě auditu a certifikace vyhodnoceny jako etické, prospěšné a zcela v souladu se zásadami lidských práv; vyzývá Komisi a členské státy, aby podporovaly spolupráci mezi veřejným a soukromým sektorem a akademickou obcí s cílem posílit sdílení znalostí a otevřené zdroje;
9. konstatuje, že je nutné ujasnit pojem umění a kulturních a tvůrčích děl a také úlohu člověka coby tvůrce a umělce; zdůrazňuje, že příležitosti, které nabízí digitalizace a nové technologie, nesmí vést k celkové ztrátě pracovních míst v kulturních a kreativních odvětvích, k zanedbávání péče o originály a k omezení tradičního přístupu ke kulturnímu dědictví, kam je třeba směřovat stejnou podporu;
10. uznává rostoucí potenciál umělé inteligence v informační oblasti, ve sdělovacích prostředcích a na internetových platformách, mj. coby výkonného nástroje k boji proti dezinformacím; je však znepokojen tím, že umělá inteligence může být zneužita k manipulaci s veřejným míněním na internetu; zdůrazňuje, že bez odpovídající regulace by mohla mít eticky nepříznivé dopady spočívající ve využívání neobjektivních údajů a algoritmů, které by mohly vést k šíření dezinformací, vytváření informačních bublin a uplatňování předsudků zabudovaných do algoritmů umělé inteligence; připomíná, že patřičná informovanost je nezbytnou podmínkou pro ochranu občanských práv, pokud jde o svobodu informací, přesvědčení a projevu, a vyzývá k etickému využívání technologií umělé inteligence v oblasti sdělovacích prostředků; varuje před riziky cenzury založené na technologiích a upozorňuje, že je nutné vytvořit etický rámec na ochranu svobody slova;
11. domnívá se, že používání určitých druhů umělé inteligence, jako jsou systémy na rozpoznávání obličejů, emocí a detekci chování, může mít nepříznivý vliv, zejména na úlohu sdělovacích prostředků a novinářů coby strážců demokracie, a tedy i na demokratické procesy; zdůrazňuje proto, že je třeba používání těchto systémů na veřejných místech omezit, nebo ho v případě nutnosti zakázat; poukazuje na potřebu dalšího boje proti falešným zprávám, včetně technik, jako jsou „deep fake“, proti cenzuře a automatizovanému sledování;
12. zdůrazňuje, že na základě formálního a neformálního vzdělávání, i to v rámci humanitních studií, je nutné zvyšovat informovanost široké veřejnosti, pokud jde o úlohu a dopad umělé inteligence, zejména o používání algoritmů a jejich dopadu na práci, soukromí a jiné oblasti, a na pochopení toho, jaké místo zaujímají systémy IT při výběru, interpretaci, ukládání a prezentaci dat; podporuje vytvoření nástrojů digitální gramotnosti na všech úrovních vzdělávání, a vyzývá proto členské státy a orgány EU, aby investovaly do informační a mediální gramotnosti, vzdělávání a odborných kurzů; domnívá se, že informační a mediální kompetence mají zásadní význam pro všechny občany, včetně zranitelných sociálních skupin, jelikož umožňují kriticky posoudit a pochopit nový vývoj, a to i pokud jde o pochopení fungování umělé inteligence a jejích inherentních předsudků, a rozvíjet tak nové formy kritického myšlení; doporučuje, aby Komise podporovala takové formáty vzdělávání dětí a dospělých, které budou umělou inteligenci, robotiku a související technologie využívat;
13. konstatuje, že je důležité rozlišovat mezi transparentností algoritmů a transparentností v jejich používání; upozorňuje na význam transparentnosti a odpovědnosti v souvislosti s algoritmy, které používají platformy pro sdílení videonahrávek a streamingové platformy, neboť je třeba zajistit přístup ke kulturně a jazykově různorodému obsahu a zamezit zvýhodňování; věří, že každý uživatel by měl být řádně informován o tom, že je k doporučení obsahu používán algoritmus, a měl by být schopen ho optimalizovat podle svých preferencí, a že tyto algoritmy by neměly uživatele omezovat v jeho rozhodování; domnívá se, že každý uživatel by měl být rovněž schopen doporučování obsahu umělou inteligencí deaktivovat; zdůrazňuje, že příslušné algoritmy je třeba koncipovat tak, aby odrážely kulturní rozmanitost našich společností a zajišťovaly skutečnou kulturní otevřenost a zaručovaly svobodu tvorby; trvá na tom, že uživatelská data shromážděná umělou inteligencí, jako jsou kulturní preference nebo výsledky ve vzdělávání, se nesmí předávat nebo využívat bez vědomí jejich majitele;
14. konstatuje, že ve sportu se vždy technologické inovace využívaly; domnívá se nicméně, že rychle se šířící používání technologií umělé inteligence v rámci sportovních soutěží vyvolává stále častější otázky ohledně spravedlivé soutěže ve sportu s ohledem na to, že týmy s největším množstvím finančních prostředků si mohou pořídit ty nejlepší technologie, což jim poskytuje nespravedlivou výhodu; zdůrazňuje, že tento vývoj musí být pečlivě monitorován a že tato oblast vyžaduje regulační rámec, který bude pro vývoj a používání technologií umělé inteligence uplatňovat etická a na člověka zaměřená kritéria; požaduje, aby algoritmy a technologie používané ve sportu byly plně transparentní, s cílem zajistit spravedlivé podmínky soutěže.
INFORMACE O PŘIJETÍ VE VÝBORU POŽÁDANÉM O STANOVISKO
Datum přijetí |
31.8.2020 |
|
|
|
Výsledek konečného hlasování |
+: –: 0: |
28 0 2 |
||
Členové přítomní při konečném hlasování |
Isabella Adinolfi, Christine Anderson, Ilana Cicurel, Gilbert Collard, Gianantonio Da Re, Laurence Farreng, Tomasz Frankowski, Romeo Franz, Hannes Heide, Irena Joveva, Petra Kammerevert, Niyazi Kizilyürek, Predrag Fred Matić, Dace Melbārde, Victor Negrescu, Peter Pollák, Marcos Ros Sempere, Andrey Slabakov, Massimiliano Smeriglio, Michaela Šojdrová, Sabine Verheyen, Salima Yenbou, Milan Zver |
|||
Náhradníci přítomní při konečném hlasování |
Isabel Benjumea Benjumea, Christian Ehler, Ibán García Del Blanco, Bernard Guetta, Marcel Kolaja, Elżbieta Kruk, Martina Michels |
JMENOVITÉ KONEČNÉ HLASOVÁNÍ
VE VÝBORU POŽÁDANÉM O STANOVISKO
28 |
+ |
PPE |
Isabel Benjumea Benjumea, Christian Ehler, Tomasz Frankowski, Peter Pollák, Michaela Šojdrová, Sabine Verheyen, Milan Zver |
S&D |
Ibán García del Blanco, Hannes Heide, Petra Kammerevert, Predrag Fred Matić, Victor Negrescu, Marcos Ros Sempere, Massimiliano Smeriglio |
RENEW |
Ilana Cicurel, Laurence Farreng, Bernard Guetta, Irena Joveva |
ID |
Gilbert Collard |
VERTS/ALE |
Romeo Franz, Marcel Kolaja, Salima Yenbou |
ECR |
Elżbieta Kruk, Dace Melbārde, Andrey Slabakov |
GUE/NGL |
Niyazi Kizilyürek, Martina Michels |
NI |
Isabella Adinolfi |
0 |
- |
- |
- |
2 |
0 |
ID |
Christine Anderson, Gianantonio Da Re |
Význam zkratek:
+ : pro
- : proti
0 : zdrželi se
INFORMACE O PŘIJETÍ V PŘÍSLUŠNÉM VÝBORU
Datum přijetí |
1.10.2020 |
|
|
|
Výsledek konečného hlasování |
+: –: 0: |
20 0 4 |
||
Členové přítomní při konečném hlasování |
Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, Raffaele Stancanelli, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos |
|||
Náhradníci přítomní při konečném hlasování |
Patrick Breyer, Evelyne Gebhardt |
JMENOVITÉ KONEČNÉ HLASOVÁNÍ V PŘÍSLUŠNÉM VÝBORU
20 |
+ |
EPP |
Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos |
S&D |
Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken |
RENEW |
Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara |
VERTS/ALE |
Patrick Breyer, Marie Toussaint |
ECR |
Angel Dzhambazki, Raffaele Stancanelli |
NI |
Mislav Kolakušić |
0 |
- |
|
|
|
|
4 |
0 |