Procedūra : 2020/2012(INL)
Dokumenta lietošanas cikls sēdē
Dokumenta lietošanas cikls : A9-0186/2020

Iesniegtie teksti :

A9-0186/2020

Debates :

PV 19/10/2020 - 15
PV 19/10/2020 - 18
CRE 19/10/2020 - 15
CRE 19/10/2020 - 18

Balsojumi :

Pieņemtie teksti :

P9_TA(2020)0275

<Date>{08/10/2020}8.10.2020</Date>
<NoDocSe>A9-0186/2020</NoDocSe>
PDF 670kWORD 217k

<TitreType>ZIŅOJUMS</TitreType>

<Titre>ar ieteikumiem Komisijai par mākslīgā intelekta, robotikas un saistīto tehnoloģiju ētisko aspektu satvaru</Titre>

<DocRef>(2020/2012(INL))</DocRef>


<Commission>{JURI}Juridiskā komiteja</Commission>

Referents: <Depute>Ibán García Del Blanco</Depute>

Atzinuma sagatavotāji (*):

Urmas Paet, Ārlietu komiteja

Alexandra Geese, Iekšējā tirgus un patērētāju aizsardzības komiteja

Valter Flego, Transporta un tūrisma komiteja

Assita Kanko, Pilsoņu brīvību, tieslietu un iekšlietu komiteja

(*) Iesaistītās komitejas — Reglamenta 57. pants

(Iniciatīva – Reglamenta 47. pants)

GROZĪJUMI
EIROPAS PARLAMENTA REZOLŪCIJAS PRIEKŠLIKUMS
 PIELIKUMS REZOLŪCIJAS PRIEKŠLIKUMAM. SĪKI IZSTRĀDĀTI IETEIKUMI PAR PIEPRASĪTĀ PRIEKŠLIKUMA SATURU
 A. PIEPRASĪTĀ PRIEKŠLIKUMA PRINCIPI UN MĒRĶI
 B. PIEPRASĪTĀ TIESĪBU AKTA PRIEKŠLIKUMA TEKSTS
 PASKAIDROJUMS
 ĀRLIETU KOMITEJAS ATZINUMS
 IEKŠĒJĀ TIRGUS UN PATĒRĒTĀJU AIZSARDZĪBAS KOMITEJAS ATZINUMS
 TRANSPORTA UN TŪRISMA KOMITEJAS ATZINUMS
 PILSOŅU BRĪVĪBU, TIESLIETU UN IEKŠLIETU KOMITEJAS ATZINUMS
 NODARBINĀTĪBAS UN SOCIĀLO LIETU KOMITEJAS ATZINUMS
 VIDES, SABIEDRĪBAS VESELĪBAS UN PĀRTIKAS NEKAITĪGUMA KOMITEJAS ATZINUMS
 KULTŪRAS UN IZGLĪTĪBAS KOMITEJAS ATZINUMS
 INFORMĀCIJA PAR PIEŅEMŠANU ATBILDĪGAJĀ KOMITEJĀ
 ATBILDĪGĀS KOMITEJAS GALĪGAIS BALSOJUMS PĒC SARAKSTA

EIROPAS PARLAMENTA REZOLŪCIJAS PRIEKŠLIKUMS

ar ieteikumiem Komisijai par mākslīgā intelekta, robotikas un saistīto tehnoloģiju ētisko aspektu satvaru

(2020/2012(INL))

Eiropas Parlaments,

 ņemot vērā Līguma par Eiropas Savienības darbību 225. pantu,

 ņemot vērā Līguma par Eiropas Savienības darbību 114. pantu,

 ņemot vērā Eiropas Savienības Pamattiesību hartu,

 ņemot vērā Padomes Regulu (ES) 2018/1488 (2018. gada 28. septembris) par Eiropas Augstas veiktspējas datošanas kopuzņēmuma izveidi[1],

 ņemot vērā Padomes 2000. gada 29. jūnija Direktīvu 2000/43/EK, ar ko ievieš vienādas attieksmes principu pret personām neatkarīgi no rasu vai etniskās piederības[2] (Rasu vienlīdzības direktīva),

 ņemot vērā Padomes 2000. gada 27. novembra Direktīvu 2000/78/EK, ar ko nosaka kopēju sistēmu vienlīdzīgai attieksmei pret nodarbinātību un profesiju[3] (Direktīva par vienlīdzīgu attieksmi nodarbinātības jomā),

 ņemot vērā Eiropas Parlamenta un Padomes 2016. gada 27. aprīļa Regulu (ES) 2016/679 par fizisku personu aizsardzību attiecībā uz personas datu apstrādi un šādu datu brīvu apriti un ar ko atceļ Direktīvu 95/46/EK[4] (Vispārīgā datu aizsardzības regula) un Eiropas Parlamenta un Padomes 2016. gada 27. aprīļa Direktīvu (ES) 2016/680 par fizisku personu aizsardzību attiecībā uz personas datu apstrādi, ko veic kompetentās iestādes, lai novērstu, izmeklētu, atklātu noziedzīgus nodarījumus vai sauktu pie atbildības par tiem vai izpildītu kriminālsodus, un par šādu datu brīvu apriti, ar ko atceļ Padomes Pamatlēmumu 2008/977/TI[5],

 ņemot vērā 2016. gada 13. aprīļa Iestāžu nolīgumu par labāku likumdošanas procesu[6],

 ņemot vērā 2018. gada 6. jūnija priekšlikumu Eiropas Parlamenta un Padomes regulai, ar ko laikposmam no 2021. līdz 2027. gadam izveido Digitālās Eiropas programmu (COM(2018)0434),

 ņemot vērā Komisijas 2019. gada 11. decembra paziņojumu Eiropas Parlamentam, Padomei, Eiropas Ekonomikas un sociālo lietu komitejai un Reģionu komitejai “Eiropas zaļais kurss” (COM(2019)0640),

 ņemot vērā Komisijas 2020. gada 19. februāra paziņojumu Eiropas Parlamentam, Padomei, Eiropas Ekonomikas un sociālo lietu komitejai un Reģionu komitejai “Mākslīgais intelekts. Eiropeiska pieeja – izcilība un uzticēšanās” (COM(2016)0065),

 ņemot vērā Komisijas 2020. gada 19. februāra paziņojumu Eiropas Parlamentam, Padomei, Eiropas Ekonomikas un sociālo lietu komitejai un Reģionu komitejai “Eiropas Datu stratēģija” (COM(2016)0066),

 ņemot vērā Komisijas 2020. gada 19. februāra paziņojumu Eiropas Parlamentam, Padomei, Eiropas Ekonomikas un sociālo lietu komitejai un Reģionu komitejai “Eiropas digitālās nākotnes veidošana” (COM(2020) 0067),

 ņemot vērā Eiropas Savienības Padomes 2020. gada jūnija secinājumus par Eiropas digitālās nākotnes veidošanu,

 ņemot vērā 2017. gada 16. februāra rezolūciju ar ieteikumiem Komisijai par civiltiesību noteikumiem par robotiku[7],

 ņemot vērā Parlamenta 2017. gada 1. jūnija rezolūciju par Eiropas rūpniecības digitalizāciju[8],

 ņemot vērā Parlamenta 2018. gada 12. septembra rezolūciju par autonomo ieroču sistēmām[9],

 ņemot vērā Parlamenta 2018. gada 11. septembra rezolūciju par valodu līdztiesību digitālajā laikmetā[10],

 ņemot vērā 2019. gada 12. februāra rezolūciju par visaptverošu Eiropas rūpniecības politiku attiecībā uz mākslīgo intelektu un robotiku[11],

 ņemot vērā Komisijas izveidotās augsta līmeņa ekspertu grupas mākslīgā intelekta jautājumos 2019. gada 8. aprīļa ziņojumu “Ētikas pamatnostādnes uzticamam MI”,

 ņemot vērā informatīvos paziņojumus un pētījumus, kas sagatavoti pēc Eiropas Parlamenta Izpētes dienesta Zinātniskās perspektīvikas nodaļas pārziņā esošās Zinātnes un tehnoloģiju nākotnes darba grupas (STOA) pieprasījuma, – “Kā būtu, ja algoritmus varētu veidot, ievērojot ētikas principus?” (“What if algorithms could abide by ethical principles?”), “Mākslīgā intelekta tuvošanās – juridiska un ētiska rakstura pārdomas” (“Artificial Intelligence ante portas: Legal & ethical reflections”), “Algoritmiskās pārskatatbildības un pārredzamības pārvaldības sistēma”(“A governance framework for algorithmic accountability and transparency”), “Vai no mākslīgā intelekta būtu jābaidās?” (“Should we fear artificial intelligence?”) un “Ētika mākslīgā intelekta jomā – problēmjautājumi un iniciatīvas” (“The ethics of artificial intelligence: Issues and initiatives”),

 ņemot vērā Eiropas Padomes Vispārējo konvenciju par nacionālo minoritāšu aizsardzību, Cilvēktiesību un pamatbrīvību aizsardzības konvencijas Protokolu Nr. 12 un Eiropas reģionālo vai minoritāšu valodu hartu,

 ņemot vērā ESAO Padomes 2019. gada 22. maijā pieņemto ieteikumu par mākslīgo intelektu,

 ņemot vērā Reglamenta 47. un 54. pantu,

 ņemot vērā Ārlietu komitejas, Iekšējā tirgus un patērētāju aizsardzības komitejas, Transporta un tūrisma komitejas, Pilsoņu brīvību, tieslietu un iekšlietu komitejas, Nodarbinātības un sociālo lietu komitejas, Vides, sabiedrības veselības un pārtikas nekaitīguma komitejas un Kultūras un izglītības komitejas atzinumus,

 ņemot vērā Juridiskās komitejas ziņojumu (A9-0186/2020),

Ievads

A. tā kā mākslīgo intelektu (MI), robotiku un saistītās tehnoloģijas izstrādā, ievieš un izmanto cilvēki un viņu veiktās izvēles nosaka šo tehnoloģiju potenciālu izmantošanai sabiedrības labā;

B. tā kā tiek straujā tempā veicināts un attīstīts mākslīgais intelekts, robotika un saistītās tehnoloģijas, kam piemīt potenciāls radīt iespējas uzņēmumiem un ieguvumus cilvēkiem un kas var tieši ietekmēt visus mūsu sabiedrības aspektus, tostarp pamattiesības un sociālos un ekonomiskos principus un vērtības, kā arī kam var būt ilgstoša ietekme uz visām darbības jomām;

C. tā kā mākslīgais intelekts, robotika un saistītās tehnoloģijas ieviesīs būtiskas pārmaiņas darba tirgū un darba vidē; tā kā tās var aizstāt darba ņēmējus, kuri veic vienas un tās pašas darbības, atvieglot cilvēka un mašīnas sadarbīgās darba sistēmas, palielināt konkurētspēju un labklājību un radīt jaunas kvalificēto darba ņēmēju darba iespējas, vienlaikus radot nopietnas ar darbaspēka reorganizāciju saistītas problēmas;

D. tā kā mākslīgā intelekta, robotikas un saistīto tehnoloģiju attīstība var arī palīdzēt sasniegt zaļā kursa ilgtspējas mērķus daudzās dažādās nozarēs; tā kā digitālās tehnoloģijas var sekmēt politikas virzienu ietekmi uz vides aizsardzību; tā kā tās arī var palīdzēt samazināt satiksmes sastrēgumus un siltumnīcefekta gāzu un gaisu piesārņojošo vielu emisijas;

E. tā kā tādās nozarēs kā, piemēram, sabiedriskais transports, ar MI sistēmām atbalstītas intelektiskas transporta sistēmas var izmantot, lai samazinātu rindas, optimizētu maršrutus, ļautu personām ar invaliditāti būt neatkarīgākām un palielinātu energoefektivitāti, tādējādi sekmējot dekarbonizācijas pasākumus un samazinot ietekmi uz vidi;

F. tā kā ja šīs tehnoloģijas ja vairāk izmantotu, piemēram, transporta jomā, tās radītu jaunas uzņēmējdarbības iespējas, kas varētu veicināt Savienības ražojošās nozares atgūšanos pēc pašreizējās veselības un ekonomikas krīzes; tā kā šādas iespējas var radīt jaunas darbvietas, jo šo tehnoloģiju ieviešana var paaugstināt uzņēmumu ražīgumu un veicināt efektivitātes pieaugumu; tā kā inovācijas programmas šajā jomā var veicināt reģionālo klasteru uzplaukumu;

G. tā kā Savienība un tās dalībvalstis jo īpaši ir atbildīgas par mākslīgā intelekta pievienotās vērtības izmantošanu, veicināšanu un vairošanu, un tā kā tām ir jāgarantē tas, ka MI tehnoloģijas ir drošas un sekmē iedzīvotāju labklājību un vispārējās intereses, jo šīs tehnoloģijas ar savu ieguldījumu labāku stratēģiju un jauninājumu izstrādē vairākās jomās un nozarēs var ļoti palīdzēt sasniegt kopējo mērķi, proti, uzlabot iedzīvotāju dzīvi un veicināt labklājību Savienībā; tā kā nolūkā pilnībā izmantot mākslīgā intelekta potenciālu un palīdzēt lietotājiem izprast MI tehnoloģiju radītos ieguvumus un problēmas, izglītībā un apmācībā būtu jāiekļauj MI vai digitālo līdzekļu lietošanas prasmes, tostarp attiecībā uz digitālās iekļaušanas veicināšanu, un jāīsteno tādas Savienības līmeņa informācijas kampaņas, kas precīzi atspoguļotu visus MI attīstības aspektus;

H. tā kā vienotam Savienības līmeņa mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas un izmantošanas tiesiskajam regulējumam (“MI tiesiskais regulējums”) būtu gan jāļauj iedzīvotājiem kopīgi izmantot šo tehnoloģiju potenciāla sniegto labumu, gan jāaizsargā iedzīvotāji no to radītajiem potenciālajiem riskiem, un vienlaikus jāveicina šādu tehnoloģiju uzticamība Savienībā un citur; tā kā šim regulējumam vajadzētu būt pamatotam uz Savienības tiesību aktiem un vērtībām, un tajā būtu jāievēro pārredzamības, izskaidrojamības, taisnīguma, pārskatatbildības un atbildības principi;

I. tā kā šāds tiesiskais regulējums ir būtiski svarīgs tam, lai nepieļautu iekšējā tirgus sadrumstalošanos, ko izraisītu atšķirīgi valsts līmeņa tiesību akti, un tas palīdzēs veicināt ļoti nepieciešamos ieguldījumus, attīstīt datu infrastruktūru un atbalstīt pētniecību; tā kā tajā būtu jāparedz kopēji juridiski pienākumi un ētikas principi, kas izklāstīti šīs rezolūcijas pielikumā pieprasītajā regulas priekšlikumā; tā kā tas būtu jānosaka saskaņā ar labāka regulējuma pamatnostādnēm;

J. tā kā Savienībā pastāv stingrs tiesiskais regulējums, kura nolūks ir cita starpā nodrošināt personas datu un privātuma aizsardzību, diskriminācijas aizliegumu, veicināt dzimumu līdztiesību, vides aizsardzību un patērētāju tiesības; tā kā šis tiesiskais regulējums, kuru veido plašs horizontālu un nozarspecifisku tiesību aktu kopums, kurā ietilpst arī spēkā esošie tiesību akti par produktu drošumu un produktatbildību, būs piemērojams arī attiecībā uz mākslīgo intelektu, robotiku un saistītajām tehnoloģijām, kaut gan konkrētos juridiskos instrumentos varētu nākties veikt zināmas korekcijas, lai tajos atspoguļotu digitālo pārveidi un pievērstos jaunām problēmām, ko radīs mākslīgā intelekta izmantošana;

K. tā kā pastāv nopietnas bažas par to, ka pašreizējais Savienības tiesiskais regulējums, tostarp patērētāju tiesību akti un nodarbinātības un sociālais acquis, datu aizsardzības tiesību akti, produktu drošuma un tirgus uzraudzības tiesību akti, kā arī diskriminācijas novēršanas tiesību akti varētu vairs neatbilst mērķim efektīvi novērst riskus, ko rada mākslīgais intelekts, robotika un saistītās tehnoloģijas;

L. tā kā papildus korekcijām spēkā esošos tiesību aktos ir jāpievēršas ar MI tehnoloģijām saistītiem juridiskiem un ētikas jautājumiem, izstrādājot iedarbīgu, visaptverošu un nākotnes prasībām atbilstošu Savienības līmeņa tiesisko regulējumu, kas atspoguļotu Līgumos un Pamattiesību hartā paredzētos Savienības principus un vērtības un kurā vajadzētu atteikties no pārmērīga regulējuma, novēršot tikai reālas juridiskās nepilnības un palielinot juridisko noteiktību gan uzņēmumiem, gan iedzīvotājiem, kas būtu paveicams, iekļaujot obligātus pasākumus, ar kuriem novērst praksi, kas neapšaubāmi apdraudētu pamattiesības;

M. tā kā jebkurā jaunā tiesiskajā regulējumā ir jāņem vērā visas attiecīgās intereses; tā kā turpmāku likumdošanas pasākumu priekšnoteikumam ir jābūt rūpīgai pārbaudei ietekmes novērtējuma ietvaros par jaunā tiesiskā regulējuma sekām visiem aktoriem; tā kā mazo un vidējo uzņēmumu (MVU) un jaunuzņēmumu būtiskā nozīme, jo īpaši Eiropas ekonomikā, attaisno stingri samērīgu pieeju, lai šie uzņēmumi varētu attīstīties un ieviest inovācijas;

 

N. tā kā MI, robotikai un saistītajām tehnoloģijām var būt nopietna ietekme uz indivīdu, grupu un visas sabiedrības materiālo un nemateriālo integritāti, un potenciālajam individuālajam un kolektīvajam kaitējumam ir jāpievēršas tiesību aktos;

O. tā kā nolūkā ievērot Savienības MI tiesisko regulējumu var būt jāpieņem konkrētus Savienības transporta nozarei paredzētus noteikumus;

P. tā kā MI tehnoloģijas ir stratēģiski svarīgas transporta nozarei, tostarp tāpēc, ka tās palielina visu transporta veidu drošumu un piekļūstamību un rada jaunas nodarbinātības iespējas un ilgtspējīgākus uzņēmējdarbības modeļus; tā kā Savienības līmeņa pieeja mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādei transporta nozarē var palielināt Savienības ekonomikas konkurētspēju pasaulē un stratēģisko autonomiju;

Q. tā kā cilvēka kļūdu dēļ vēl arvien notiek aptuveni 95 % no visiem ceļu satiksmes negadījumiem Savienībā; tā kā Savienības mērķis bija līdz 2020. gadam samazināt Savienībā notikušajos ceļu satiksmes negadījumos bojāgājušo skaitu par 50 % salīdzinājumā ar 2010. gadu, bet, ņemot vērā lēno progresu, tā atsāka centienus saistībā ar Ceļu satiksmes drošības politikas satvaru 2021.–2030. gadam — turpmākie pasākumi virzībā uz t. s. “nulles redzējumu”; tā kā šajā sakarā ar MI, automatizāciju un citām jaunajām tehnoloģijām ir lielas iespējas uzlabot ceļu satiksmes drošību, potenciāli samazinot cilvēka kļūdu gadījumus, un šajā ziņā tās ir ļoti svarīgas;

R. tā kā Savienības tiesiskajā regulējumā MI jomā būtu jāatspoguļo arī vajadzība ievērot darba ņēmēju tiesības; tā kā būtu jāņem vērā 2020. gada jūnija Eiropas sociālo partneru pamatnolīgums par digitalizāciju;

S. tā kā Savienības MI tiesiskā regulējuma darbības jomai jābūt atbilstīgai, samērīgai un vispusīgi novērtētai; tā kā tai būtu jāaptver plašs klāsts tehnoloģiju un saistīto komponentu, tostarp jāaptver arī algoritmi, programmatūra un to izmantotie vai ģenerētie dati, ir vajadzīga mērķtiecīga uz risku balstīta pieeja, lai nepieļautu turpmāku inovāciju kavēšanu un nevajadzīgu slogu radīšanu, jo īpaši MVU; tā kā mākslīgā intelekta, robotikas un saistīto tehnoloģiju lietošanas iespēju daudzveidīgums nozīmē, ka ir sarežģītāk rast vienotu risinājumu, kas būtu piemērots visam risku spektram;

T. tā kā datu analīze un MI arvien vairāk ietekmē iedzīvotājiem pieejamo informāciju; tā kā šādas tehnoloģijas, ja tās izmanto nepareizi, var apdraudēt pamattiesības uz vārda brīvību un informāciju, kā arī plašsaziņas līdzekļu brīvību un plurālismu;

U. tā kā šāda Savienības MI tiesiskā regulējuma ģeogrāfiskās piemērošanas jomā būtu jāietver visi Savienībā izstrādātā, izvērstā vai izmantotā mākslīgā intelekta, robotikas un saistīto tehnoloģiju komponenti, tostarp gadījumos, kad daļa tehnoloģiju varētu atrasties ārpus Savienības vai kad tām nav konkrētas atrašanās vietas;

V. tā kā Savienības MI tiesiskajam regulējumam būtu jāaptver visi attiecīgie posmi, proti, attiecīgo tehnoloģiju un to komponentu izstrāde, ieviešana un izmantošana, tāpēc ir pienācīgi jāņem vērā attiecīgie juridiskie pienākum un ētikas principi un ir jāparedz nosacījumi, kas nodrošinātu, ka izstrādātāji, ieviesēji un lietotāji pilnībā ievēro šos pienākumus un principus;

W. tā kā, lai pieeja ētikas principiem, kas attiecas uz mākslīgo intelektu, robotiku un saistītajām tehnoloģijām, būtu saskaņota, Savienībā ir nepieciešama kopēja izpratne par jēdzieniem, uz kuriem minētās tehnoloģijas balstās, piemēram, algoritmiem, programmatūru, datiem un biometrisko atpazīšanu;

X. tā kā rīcību Savienības līmenī pamato vajadzība izvairīties no regulējuma sadrumstalotības vai tā, ka pastāv valsts līmeņa regulatīvo noteikumu virkne bez vienota kopsaucēja, un nepieciešamība pēc kopīgu ētikas principu viendabīgas piemērošanas, izstrādājot, ieviešot un izmantojot mākslīgo intelektu, robotiku un saistītās tehnoloģijas; tā kā gadījumos, kur pastāv ievērojams risks, ir vajadzīgi skaidri noteikumi;

Y. tā kā kopīgo ētikas principu efektivitāti var panākt tikai tad, ja šie principi ir arī nostiprināti tiesību aktos un ja tiek identificēti atbildīgie par atbilstības nodrošināšanu, novērtēšanu un uzraudzību;

Z. tā kā ētikas norādījumi, piemēram, Mākslīgā intelekta augsta līmeņa ekspertu grupas pieņemtie principi, ir uzskatāmi par labu sākumpunktu, bet ar tiem nevar nodrošināt, ka izstrādātāji, ieviesēji un lietotāji rīkosies taisnīgi un garantēs personu efektīvu aizsardzību; tā kā šādi norādījumi ir vēl svarīgāki attiecībā uz augsta riska mākslīgo intelektu, robotiku un saistītajām tehnoloģijām;

AA. tā kā katrai dalībvalstij būtu jāizraugās valsts uzraudzības iestāde, kas būtu atbildīga par to, lai tiktu nodrošināta, novērtēta un uzraudzīta augsta riska mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas un izmantošanas atbilstība Savienības MI tiesiskajam regulējumam; tā būtu atbildīga arī par iespējām apspriesties un apmainīties viedokļiem, cieši sadarbojoties ar attiecīgajām ieinteresētajām personām un pilsonisko sabiedrību; tā kā valstu uzraudzības iestādēm būtu savā starpā jāsadarbojas;

AB. tā kā nolūkā nodrošināt saskaņotu pieeju visā Savienībā un digitālā vienotā tirgus optimālu darbību būtu jāizvērtē iespējas paredzēt Komisijas un/vai jebkuras šajā sakarā izraudzītas attiecīgas iestādes, struktūras, biroja un aģentūras pārzinātu koordināciju Savienības līmenī, lai pievērstos no tehnoloģiju attīstības izrietošajām jaunajām iespējām un problēmām, jo īpaši tādām, kam ir pārrobežu dimensija; tā kā šajā nolūkā Komisijai būtu jāuzdod rast piemērotu risinājumu, lai šādu koordināciju strukturētu Savienības līmenī;

Antropocentrisks un cilvēka radīts mākslīgais intelekts

1. uzskata — lai visā Savienībā iedibinātu vienotus standartus un iedarbīgi aizsargātu Savienības vērtības, neskarot konkrētām nozarēm paredzētos tiesību aktus, ir nepieciešams iedarbīgs un saskaņots tiesiskais regulējums, kas balstītos uz Savienības tiesību aktiem, Eiropas Savienības Pamattiesību hartu (“Harta”) un starptautiskajām cilvēktiesībām un kas jo īpaši būtu piemērojams augsta riska tehnoloģijām;

2. uzskata, ka jebkurā jaunā mākslīgā intelekta tiesiskajā regulējumā, ko veido juridiskie pienākumi un ētikas principi, kas attiecas uz mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādi, ieviešanu un izmantošanu, būtu pilnībā jāievēro Harta un tādējādi jārespektē cilvēka cieņa, autonomija un pašnoteikšanās, jānovērš kaitējums, jāveicina taisnīgums, iekļaušana un pārredzamība, jānovērš aizspriedumi un diskriminācija, arī attiecībā uz minoritāšu grupām, un jāievēro principi attiecībā uz izmantoto tehnoloģiju negatīvo eksternalitāšu ierobežošanu, tehnoloģiju izskaidrojamības nodrošināšanu un garantēšanu, ka tehnoloģijas ir radītas, lai kalpotu cilvēkiem, nevis viņus aizstātu vai lemtu viņu vietā, ar galīgo mērķi visiem cilvēkiem nodrošināt arvien lielāku labbūtību;

3. uzsver asimetriju starp tiem, kas pārvalda MI tehnoloģijas, un tiem, kas tās lieto un ir šo tehnoloģiju objekti; šajā sakarā uzsver, ka iedzīvotāju uzticēšanos MI var veidot tikai uz jau izstrādes stadijā noteikta un integrēta ētiskuma sistēmas, kas nodrošina, ka ikviens ekspluatācijā laists MI pilnībā ievēro Līgumus, Hartu un sekundāros Savienības tiesību aktus un atbilst tiem; uzskata, ka balstīšanās uz šādu pieeju atbilstu piesardzības principam, kas ir Savienības tiesību aktu pamatā, un tam vajadzētu būt ikviena MI tiesiskā regulējuma centrā; šajā sakarā prasa izveidot skaidru un saskaņotu pārvaldības modeli, kas ļautu uzņēmumiem un novatoriem turpināt attīstīt MI, robotiku un saistītās tehnoloģijas;

4. uzskata, ka jebkurai ar mākslīgo intelektu, robotiku un saistītajām tehnoloģijām saistītai likumdošanas darbībai vajadzētu atbilst nepieciešamības un proporcionalitātes principam;

5.  uzskata, ka šāda pieeja ļaus uzņēmumiem tirgū laist novatoriskus ražojumus un radīt jaunas iespējas, vienlaikus nodrošinot Savienības vērtību aizsardzību, kas tiks panākta, virzot tādu MI sistēmu izstrādi, kurās ir integrēti Savienības ētikas principi; uzskata, ka šāds uz vērtībām balstīts tiesiskais regulējums dotu pievienoto vērtību, kas sniegtu Savienībai unikālas konkurences priekšrocības un būtisku ieguldījumu Savienības iedzīvotāju un uzņēmumu labbūtībā un labklājībā, kā arī stiprinātu mūsu iekšējo tirgu; uzsver, ka šāds MI tiesiskais regulējums rada pievienoto vērtību arī saistībā ar inovāciju veicināšanu iekšējā tirgū; uzskata, ka, piemēram, transporta nozarē, šī pieeja sniedz Savienības uzņēmumiem iespēju kļūt par pasaules līderiem šajā jomā;

6. norāda, ka Savienības tiesiskajam regulējumam vajadzētu attiekties uz mākslīgo intelektu, robotiku un saistītajām tehnoloģijām, tostarp uz šādu tehnoloģiju izmantoto vai ģenerēto programmatūru, algoritmiem vai datiem;

7. konstatē, ka mākslīgā intelekta, robotikas un saistīto tehnoloģiju iespējas balstās uz “lielajiem datiem”, un ir vajadzīga datu kritiskā masa, lai apmācītu algoritmus un pilnveidotu rezultātus; šajā sakarā atzinīgi vērtē Komisijas priekšlikumu Savienībā izveidot kopēju datu telpu, lai stiprinātu datu apmaiņu un atbalstītu pētniecību, pilnībā ievērojot Eiropas datu aizsardzības noteikumus;

8. uzskata, ka pašreizējais Savienības tiesiskais regulējums, jo īpaši attiecībā uz aizsardzību, privātumu un personas datiem, būs pilnībā jāpiemēro MI, robotikai un saistītajām tehnoloģijām un būs regulāri jāpārskata, jāpārbauda un vajadzības gadījumā jāatjaunina, lai efektīvi novērstu riskus, ko rada šīs tehnoloģijas, un šajā sakarā varētu gūt labumu no tā, ka to papildina ar stingriem vadošiem ētikas principiem; norāda, ka gadījumos, kad būtu pāragri pieņemt tiesību aktus, būtu jāizmanto ieteikuma tiesību sistēma;

9. sagaida, ka Komisija šīs rezolūcijas priekšlikumā pieprasītajā tiesību akta priekšlikumā iekļaus spēcīgu ētisko pieeju kā turpmākus pasākumus pēc Baltās grāmatas par mākslīgo intelektu, tostarp attiecībā uz drošumu, atbildību, pamattiesībām, kas maksimāli palielina MI tehnoloģiju iespējas un samazina ar tām saistītos riskus; sagaida, ka pieprasītajā tiesību akta priekšlikumā tiks iekļauti politiski risinājumi attiecībā uz galvenajiem atzītajiem mākslīgā intelekta riskiem, tostarp attiecībā uz lielo datu ētisku vākšanu un izmantošanu, algoritmiskās pārredzamības jautājumu un algoritmos iekļautajiem aizspriedumiem; aicina Komisiju izstrādāt kritērijus un rādītājus MI tehnoloģijas marķēšanai, lai veicinātu pārredzamību, izskaidrojamību un pārskatatbildību un stimulētu izstrādātāju veiktus papildu piesardzības pasākumus; uzsver, ka ir jāiegulda līdzekļi, lai integrētu netehniskās disciplīnas MI pētījumos un pētniecībā, ņemot vērā sociālo kontekstu;

10. uzskata, ka mākslīgo intelektu, robotiku un saistītās tehnoloģijas ir jāpielāgo cilvēku vajadzībām, ievērojot principu, saskaņā ar ko to izstrāde, ieviešana un izmantošana vienmēr kalpo cilvēkiem, nevis pretēji, un ka, īstenojot šīs darbības, ir jācenšas vairot labbūtību un individuālo brīvību, kā arī saglabāt mieru, novērst konfliktus un stiprināt starptautisko drošību, vienlaikus maksimāli palielinot radītos ieguvumus un novēršot un samazinot riskus;

11. apliecina, ka augsta riska mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādē, ieviešanā un izmantošanā, ko veic ne tikai cilvēki, vienmēr būtu jāievēro ētikas principi, un tā būtu jāveido, ņemot vērā cilvēka darbību un uzraudzību un paredzot iespējas to īstenot, kā arī, ieviešot pienācīgus kontroles pasākumus, būtu jāparedz iespēja jebkurā brīdī atgūt cilvēka veiktu kontroli;

Riska novērtēšana

12. uzsver, ka jebkurā nākotnes regulējumā būtu jāievēro diferencēta, uz risku balstīta un uz nākotni vērsta pieeja MI, robotikas un saistīto tehnoloģiju regulēšanai, tostarp tehnoloģiski neitrālus standartus visās nozarēs, vajadzības gadījumā piemērojot nozarei specifiskus standartus; norāda — lai garantētu riska novērtēšanas sistēmas vienveidīgu īstenošanu un to, ka tiek pildīti saistītie juridiskie pienākumi dažādās dalībvalstīs nodrošināt vienlīdzīgus konkurences apstākļus un nepieļaut iekšējā tirgus sadrumstalošanos, ir vajadzīgs izsmeļošs un kumulatīvs augsta riska nozaru un augsta riska lietojuma veidu vai nolūku saraksts; uzsver, ka šāds saraksts ir regulāri atkārtoti jāizvērtē un norāda, ka, ņemot vērā to, ka šīs tehnoloģijas nepārtraukti attīstās, nākotnē var būt nepieciešams atkārtoti novērtēt veidu, kādā tiek veikts to riska novērtējums;

13. uzskata — tas, vai mākslīgajam intelektam, robotikai un saistītajām tehnoloģijām piemīt augsts risks un vai līdz ar to uz tām attiecas prasība obligāti ievērot MI tiesiskajā regulējumā paredzētos juridiskos pienākumus un ētikas principus, vienmēr būtu jānosaka, veicot objektīvu, reglamentētu un ārēju ex-ante novērtējumu, kas balstīts uz konkrētiem un definētiem kritērijiem;

14. šajā sakarā uzskata, ka par augsta riska tehnoloģijām būtu jāuzskata tāds mākslīgais intelekts, robotika un saistītās tehnoloģijas, kuru izstrāde, ieviešana un izmantošana var radīt būtisku traumu vai kaitējuma risku atsevišķām personām vai sabiedrībai kopumā, pārkāpjot Savienības tiesību aktos noteiktās pamattiesības un drošības noteikumus; uzskata — vērtējot to, vai MI tehnoloģijas rada šādu risku, būtu jāņem vērā nozare, kurā tās tiek izstrādātas, ieviestas vai izmantotas, to konkrētais lietojums vai nolūks un paredzamās traumas vai kaitējuma smagums; pirmais kritērijs un nākamie divi kritēriji, respektīvi, nozare un konkrētais lietojuma veids vai nolūks, būtu jāvērtē kopā;

15. uzsver, ka šo tehnoloģiju riska novērtējums būtu jāveic, balstoties uz izsmeļošu un kumulatīvu augsta riska nozaru un augsta riska lietojuma veidu un nolūku sarakstu; ir stingri pārliecināts par to, ka Savienībā vajadzētu būt saskaņotībai attiecībā uz šo tehnoloģiju riska novērtējumu, jo īpaši gadījumā, ja tie tiek novērtēti gan pēc to atbilstības MI tiesiskajam regulējumam, gan saskaņā ar citiem piemērojamiem nozares reglamentējošajiem tiesību aktiem;

16. uzskata, ka šī uz risku balstītā pieeja būtu jāizstrādā tā, lai ierobežotu administratīvo slogu uzņēmumiem, jo īpaši MVU, cik vien iespējams izmantojot jau esošus instrumentus; šādi instrumenti ir, piemēram, Regulā (ES) 2016/679 paredzētais novērtējuma par ietekmi uz datu aizsardzību saraksts, bet ne tikai tas;

Drošības elementi, pārredzamība un pārskatatbildība

17. atgādina, ka patērētāju tiesības uz informāciju ir Savienības tiesību aktos nostiprināts pamatprincips, un uzsver, ka tāpēc tas ir pilnībā jāīsteno attiecībā uz mākslīgo intelektu, robotiku un saistītajām tehnoloģijām; uzskata, ka tām jo īpaši jāaptver pārredzamība attiecībā uz mijiedarbību ar mākslīgā intelekta sistēmām, tostarp automatizācijas procesiem, un attiecībā uz to darbības režīmu un spējām, piemēram, veidu, kādā notiek informācijas filtrēšana un sniegšana, precizitāti un ierobežojumiem; uzskata, ka šāda informācija būtu jāsniedz valsts uzraudzības iestādēm un valsts patērētāju tiesību aizsardzības iestādēm;

18. uzsver, ka patērētāju uzticēšanās ir būtiska šo tehnoloģiju izstrādei un ieviešanai, kas pēc sava rakstura var būt saistītas ar risku, ja to pamatā ir nepārredzami algoritmi un neobjektīvas datu kopas; uzskata, ka patērētājiem ir tiesības tikt pienācīgi un savlaicīgi informētiem saprotamā, standartizētā, precīzā un pieejamā veidā par algoritmisko sistēmu esamību, “spriešanas” loģiku un iespējamo iznākumu un ietekmi uz patērētājiem, par to, kā sazināties ar cilvēku, kuram ir lēmumu pieņemšanas pilnvaras, un par to, kā sistēmas lēmumus var pārbaudīt, konstruktīvi apstrīdēt un izlabot; šajā sakarā uzsver vajadzību apsvērt un ievērot informēšanas un izpaušanas principus, uz kuriem ir balstīts patērētāju acquis; uzskata, ka ir jāsniedz detalizēta informācija galalietotājiem par transporta sistēmu un ar MI atbalstītu transportlīdzekļu darbību;

19. konstatē, ka ir būtiski, lai mākslīgā intelekta, robotikas un saistīto tehnoloģiju izmantotie vai radītie algoritmi un datu kopas būtu izskaidrojamas un — gadījumā, ja tas ir absolūti nepieciešams un pilnībā tiek ievēroti Savienības tiesību akti datu aizsardzības, privātuma un intelektuālā īpašuma tiesību un komercnoslēpumu jomā — pieejami tādām publiskām iestādēm kā valsts uzraudzības iestādes un tirgus uzraudzības iestādes; turklāt konstatē, ka saskaņā ar visstingrākajiem un piemērojamajiem nozares standartiem personām, kas ir iesaistītas dažādos šo augsta riska tehnoloģiju izstrādes posmos, būtu jāglabā dokumentācija; norāda uz iespējamību, ka tirgus uzraudzības iestādēm var šajā ziņā būt papildu prerogatīvas; šajā sakarā uzsver likumīgas reversās inženierijas lomu; uzskata, ka varētu būt nepieciešams pārbaudīt spēkā esošos tirgus uzraudzības tiesību aktus, lai nodrošinātu, ka tie ētikas noteikumu ziņā pienācīgi reaģē uz mākslīgā intelekta, robotikas un saistīto tehnoloģiju parādīšanos;

20. prasa attiecībā uz augsta riska tehnoloģiju izstrādātājiem un ieviesējiem paredzēt prasību gadījumos, kad riska novērtējumā tas tiek atzīts par nepieciešamu, sniegt publiskajām iestādēm attiecīgo dokumentāciju par lietošanu, konstrukciju un drošības norādījumiem, tostarp gadījumos, kad tas ir absolūti nepieciešams un pilnībā ievērojot Savienības tiesību aktus, kas reglamentē datu aizsardzību, privātumu, intelektuālā īpašuma tiesības un komercnoslēpumu, sniegt informāciju par sistēmas pirmkodu, izstrādes instrumentiem un izmantotajiem datiem; atzīmē, ka šāds pienākums ļautu novērtēt to atbilstību Savienības tiesību aktiem un ētikas principiem un šajā sakarā norāda uz priekšzīmi, ko sniedz pienākums glabāt publikācijas obligāto eksemplāru valsts bibliotēkā; norāda uz to, cik svarīga ir algoritmu pārredzamības un algoritmu izmantošanas pārredzamības nodalīšana;

21. norāda arī to, ka, lai respektētu cilvēka cieņu, autonomiju un drošību, būtu pienācīgi jāņem vērā nozīmīgas un modernas medicīniskās ierīces un vajadzība nodrošināt, ka neatkarīgu un uzticamu iestāžu rīcībā paliek līdzekļi, kas vajadzīgi, lai sniegtu pakalpojumus personām, kuras apkalpo šādas ierīces, ja sākotnējais ražotājs vai ieviesējs šādus pakalpojumus vairs nenodrošina; piemēram, šādi pakalpojumi ir apkope, remonts un uzlabojumi, tostarp programmatūras atjauninājumi, kas novērš nepareizu darbību un vājās vietas;

22. uzskata, ka augsta riska mākslīgais intelekts, robotika un saistītās tehnoloģijas, tostarp programmatūra, algoritmi un šādu tehnoloģiju izmantotie vai ģenerētie dati, neatkarīgi no jomas, kurās to izstrādā, ievieš vai izmanto, būtu pēc noklusējuma jāizstrādā drošā, izsekojamā, tehniski robustā, uzticamā, ētiski un juridiski saistošā veidā, un tie ir jāpakļauj neatkarīgai pārbaudei un uzraudzībai; jo īpaši uzskata, ka visiem mākslīgā intelekta produktu un pakalpojumu izstrādes un piegādes ķēdē iesaistītajiem dalībniekiem vajadzētu būt juridiski atbildīgiem, un uzsver vajadzību ieviest mehānismus, kas nodrošinātu atbildību un pārskatatbildību;

23. uzsver, ka regulējums un pamatnostādnes par izskaidrojamību, revidējamību, izsekojamību un pārredzamību, kā arī gadījumos, kad to prasa riska novērtējums un ja tas ir absolūti nepieciešams un pilnībā tiek ievēroti Savienības tiesību akti, piemēram, datu aizsardzības, privātuma un intelektuālā īpašuma tiesību un komercnoslēpumu jomā, par publisko iestāžu piekļuvi tehnoloģijām, datiem un skaitļošanas sistēmām, kas ir šādu tehnoloģiju pamatā, ir būtiski svarīgs, lai varētu nodrošināt iedzīvotāju uzticēšanos šīm tehnoloģijām, pat ja to izskaidrojamības pakāpe ir atkarīga no minēto tehnoloģiju sarežģītības; norāda, ka vienmēr nav iespējams izskaidrot, kāpēc no kāda modeļa izmantošanas izriet konkrēts rezultāts vai lēmums, kā piemēru minot melnās kastes tipa algoritmus; tāpēc uzskata, ka šo principu ievērošana ir pārskatatbildības garantēšanas priekšnoteikums;

24. uzskata, ka iedzīvotāji, tostarp patērētāji, būtu jāinformē, kad viņiem ir mijiedarbība ar sistēmu, kurā izmanto mākslīgo intelektu, jo īpaši nolūkā personalizēt produktu vai pakalpojumu tās lietotājiem, un jāinformē par to, vai un kā lietotāji personalizāciju var izslēgt vai ierobežot;

25. šajā sakarā norāda — lai mākslīgais intelekts, robotika un ar to saistītās tehnoloģijas būtu uzticamas, tām ir jābūt tehniski robustām un precīzām;

26. uzsver, ka savstarpēji savienotu MI un robotikas tīklu aizsardzība ir svarīga un ka ir jāveic stingri pasākumi, lai novērstu drošības pārkāpumus, datu noplūdi, datu “saindēšanu”, kiberuzbrukumus un personas datu ļaunprātīgu izmantošanu, un ka tādēļ attiecīgajām aģentūrām, struktūrām un iestādēm gan Savienības, gan valstu līmenī būs jāstrādā kopā un jāsadarbojas ar šo tehnoloģiju galalietotājiem; aicina Komisiju un dalībvalstis nodrošināt, ka MI tehnoloģiju izstrādē un ieviešanā vienmēr tiek ievērotas Savienības vērtības un pamattiesības, lai nodrošinātu Savienības digitālās infrastruktūras drošību un noturību;

Aizspriedumu un diskriminācijas izslēgšana

27. atgādina, ka mākslīgais atkarībā no izstrādes un izmantošanas veida var radīt un pastiprināt aizspriedumus, tostarp ar pamatā esošajās datu kopās integrētiem aizspriedumiem, un tā rezultātā radīt dažādus automatizētas diskriminācijas veidus, tostarp netiešu diskrimināciju, jo īpaši attiecībā uz personu grupām ar līdzīgām īpašībām; aicina Komisiju un dalībvalstis veikt visus iespējamos pasākumus, lai izvairītos no šādiem aizspriedumiem un nodrošinātu pamattiesību pilnīgu aizsardzību;

28. ir nobažījies par to, ka pastāv aizspriedumu un diskriminācijas risks saistībā ar augsta riska mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādi, ieviešanu un izmantošanu, ietverot programmatūru, algoritmus un šādu tehnoloģiju izmantotos vai ģenerētos datus; atgādina, ka jebkuros apstākļos tām ir jāievēro Savienības tiesību akti, jārespektē cilvēktiesības, cilvēka cieņa un indivīda autonomija un pašnoteikšanās un jānodrošina vienlīdzīga attieksme un nediskriminācija visām personām;

29. uzsver, ka MI tehnoloģijas būtu jāizstrādā tā, lai tās respektētu un aizsargātu Savienības vērtības un fizisko un garīgo neaizskaramību un kalpotu tām, kā arī saglabātu Savienības kultūras un valodu daudzveidību un palīdzētu apmierināt pamatvajadzības; uzsver vajadzību izvairīties no jebkura lietošanas veida, kas varētu izraisīt nepieļaujamu tiešu vai netiešu ietekmēšanu, draudēt vājināt psiholoģisko autonomiju un garīgo veselību vai novest pie nepamatotas novērošanas, maldināšanas vai nepieļaujamas manipulācijas;

30. ir stingri pārliecināts, ka Hartā paredzētās cilvēka pamattiesības būtu stingri jārespektē, lai nodrošinātu, ka šīs jaunās tehnoloģijas nerada pārrāvumus aizsardzībā;

31. apstiprina, ka iespējamie aizspriedumi programmatūrā, algoritmos un datos un to pieļautā diskriminācija var nodarīt manāmu kaitējumu indivīdiem un sabiedrībai, tāpēc šiem trūkumiem būtu jāpievēršas, veicinot to, ka tiek izstrādātas stratēģijas to novēršanai un notiek apmaiņa ar šīm stratēģijām, piemēram, aizspriedumu neitralizēšanai paredzētām datu kopām pētniecībā un izstrādē, un izstrādājot noteikumus par datu apstrādi; uzskata, ka šī pieeja varētu padarīt programmatūru, algoritmus un datus par noderīgu līdzekli cīņā pret aizspriedumiem un diskrimināciju zināmās situācijās un spēku cīņā par līdztiesību un pozitīvām sociālām pārmaiņām;

32. joprojām uzskata, ka šīs tehnoloģijas ir jābalsta uz ētikas vērtībām — taisnīgumu, precizitāti, konfidencialitāti un pārredzamību, kas šajā kontekstā nozīmē, ka to darbības nedrīkst ģenerēt neobjektīvus iznākumus;

33. uzsver to, cik nozīmīga ir mākslīgajam intelektam, robotikai un saistītajām tehnoloģijām izmantoto datu kopu kvalitāte, jo to darbība ir atkarīga no konteksta, jo īpaši izmantoto apmācības datu tvēruma, datu kopu attīrīšanas no aizspriedumiem, kā arī no pašiem algoritmiem un datu un apkopošanas standartiem; uzsver, ka šīm datu kopām ir jābūt pārbaudāmām tādas revīzijas ceļā, ko veiktu valstu uzraudzības iestādes ikreiz, kad tās tiktu pieaicinātas nodrošināt minēto kopu atbilstību iepriekš minētajiem principiem;

34. uzsver, ka saistībā ar plaši izplatīto dezinformācijas karu, ko jo īpaši virza dalībnieki ārpus Eiropas, MI tehnoloģijām var būt ētiski nelabvēlīga ietekme, izmantojot neobjektivitāti datos un algoritmos vai apzināti mainot mācīšanās datus no trešās valsts puses, un tās var arī tikt pakļautas cita veida bīstamām ļaunprātīgām manipulācijām neparedzamā veidā un ar neaprēķināmām sekām; tāpēc palielinās nepieciešamība Savienībai turpināt ieguldīt pētniecībā, analīzē, inovācijās un pārrobežu un starpnozaru zināšanu nodošanā nolūkā izstrādāt MI tā, lai tas skaidri izskaustu jebkāda veida profilēšanu, aizspriedumus un diskrimināciju un varētu efektīvi palīdzēt apkarot viltus ziņas un dezinformāciju, vienlaikus ievērojot datu privātumu un Savienības tiesisko regulējumu;

35. atgādina, cik svarīgi ir nodrošināt efektīvus tiesiskās aizsardzības līdzekļus patērētājiem, un aicina dalībvalstis nodrošināt piekļuvi cenas ziņā pieejamām, neatkarīgām un efektīvām procedūrām un pārskatīšanas mehānismiem, lai garantētu, ka visas sūdzības par iedzīvotāju tiesību, piemēram, patērētāju tiesību vai pilsonisko tiesību, pārkāpumiem, kas ir pieļauti, izmantojot algoritmiskās sistēmas, objektīvi izskatītu cilvēki neatkarīgi no tā, vai tās pauž publiskā vai privātā sektora dalībnieki; uzsver to, cik projekts Eiropas Parlamenta un Padomes Direktīvai par pārstāvības prasībām patērētāju kolektīvo interešu aizsardzībai un Direktīvas 2009/22/EK atcelšanu, par ko 2020. gada 22. jūnijā tika panākta politiskā vienošanās, ir nozīmīgs, lai turpmāk varētu apstrīdēt tādas MI sistēmas ieviešanu vai izmantošanas turpināšanu, kas rada patērētāju tiesību pārkāpšanas risku, vai lai lūgtu piemērot aizsardzības līdzekļus saistībā ar tiesību pārkāpumiem; aicina Komisiju un dalībvalstis nodrošināt, ka valstu un Eiropas patērētāju organizācijām ir pietiekams finansējums, lai palīdzētu patērētājiem izmantot savas tiesības uz tiesiskās aizsardzības līdzekļiem gadījumos, kad ir pārkāptas viņu tiesības;

36. tāpēc uzskata, ka ikvienai fiziskai vai juridiskai personai jābūt iespējai prasīt atlīdzinājumu par augsta riska mākslīgā intelekta, robotikas vai saistītas tehnoloģijas pieņemtu lēmumu, kas šai personai kaitē un pārkāpj Savienības vai valsts tiesību aktus;

37 uzskata, ka gadījumos, kad šādā kontekstā pastāv aizdomas par Savienības tiesiskā regulējuma pārkāpumiem, patērētāji pirmām kārtām ar tiesiskās aizsardzības lūgumiem varētu vērsties arī pie valsts uzraudzības iestādēm, lai tādējādi nodrošinātu iedarbīgu minētā tiesiskā regulējuma izpildes panākšanu;

Sociālā atbildība un dzimumu līdzsvars

38. uzsver, ka sociāli atbildīgs mākslīgais intelekts, robotika un saistītās tehnoloģijas var dot ieguldījumu tādu risinājumu rašanā, kuri aizsargā un veicina pamattiesības un tādas mūsu sabiedrības vērtības kā demokrātija, tiesiskums, daudzveidīgi un neatkarīgi plašsaziņas līdzekļi un objektīva un brīvi pieejama informācija, veselība un ekonomiskā labklājība, iespēju vienlīdzība, darba ņēmēju tiesības un sociālās tiesības, kvalitatīva izglītība, bērnu aizsardzība, kultūru un valodu daudzveidība, dzimumu līdztiesība, digitālā pratība, inovācijas un radošums; atgādina vajadzību nodrošināt to, ka tiek pienācīgi ņemtas vērā un pārstāvētas visu iedzīvotāju, tostarp marginalizēto vai neaizsargātības situācijā esošo iedzīvotāju, piemēram, personu ar invaliditāti, intereses;

39. īpaši norāda uz to, cik svarīgi ir panākt vispārējās digitālās pratības augstu līmeni un cik svarīga ir apmācība, ar kuras palīdzību panāk augstu šīs jomas speciālistu kvalifikāciju, kā arī šādas kvalifikācijas savstarpējas atzīšanas visā Savienībā nodrošināšana; izceļ vajadzību pēc tā, lai daudzveidīgas izstrādātāju un inženieru grupas strādātu kopā ar galvenajiem sabiedrības aktoriem, lai nepieļautu to, ka MI algoritmos, sistēmās un lietotnēs nejauši tiek iekļauti ar dzimumu un kultūru saistīti aizspriedumi; atbalsta tādu izglītības programmu un sabiedrības informēšanas pasākumu izstrādi, kas aptvertu mākslīgā intelekta ietekmi uz sabiedrību, tiesībām un ētiku;

40. uzsver, cik būtiski svarīgi ir garantēt domas un vārda brīvību, tādējādi nodrošinot, ka šīs tehnoloģijas neveicina naida runu vai vardarbību, tādējādi uzskata, ka digitāli īstenota vārda brīvības ierobežošana ir pretlikumīga saskaņā ar Savienības pamatprincipiem, izņemot gadījumus, kad šo pamattiesību izmantošana ietver nelikumīgas darbības;

41. uzsver, ka mākslīgais intelekts, robotika un saistītās tehnoloģijas var palīdzēt samazināt sociālo nevienlīdzību un ka šo tehnoloģiju izstrādes Eiropas modelim ir jābūt balstītam uz iedzīvotāju uzticēšanos un sociālās kohēzijas palielināšanu;

42. uzsver, ka nekādas mākslīgā intelekta sistēmas ieviešanai nevajadzētu nepamatoti ierobežot lietotāju piekļuvi publiskajiem pakalpojumiem, piemēram, sociālajam nodrošinājumam; tāpēc aicina Komisiju izvērtēt, kā šo mērķi varētu sasniegt;

43. uzsver to, cik nozīmīga ir atbildīga pētniecība un izstrāde, kuras mērķis ir maksimāli izmantot visu mākslīgā intelekta, robotikas un saistīto tehnoloģiju potenciālu iedzīvotāju un sabiedriskā labuma interesēs; aicina mobilizēt Savienības un tās dalībvalstu resursus, lai izstrādātu un atbalstītu atbildīgas inovācijas;

44. uzsver, ka arvien vairāk pieaug tehnoloģiskās lietpratības nozīmīgums, tāpēc būs nepieciešams pastāvīgi atjaunināt mācību kursus, jo īpaši nākamajām paaudzēm, un veicināt darba tirgū jau nonākušo darba ņēmēju profesionālo pārkvalifikāciju; šajā sakarā uzskata, ka inovācijas un apmācība būtu jāveicina ne tikai privātajā sektorā, bet arī publiskajā sektorā;

45. ir pārliecināts, ka šo tehnoloģiju izstrādei, ieviešanai un izmantošanai nevajadzētu radīt nekādas traumas vai kaitējumu atsevišķām personām, sabiedrībai vai videi un ka attiecīgi šo tehnoloģiju izstrādātāji, ieviesēji un lietotāji būtu jāsauc pie atbildības par šādām traumām vai kaitējumu saskaņā ar attiecīgajiem Savienības un valstu līmeņa noteikumiem par atbildību;

46. aicina dalībvalstis novērtēt, vai šo tehnoloģiju ieviešanas izraisīta darbvietu zuduma rezultātā nevajadzētu pieņemt tādus atbilstošus publiskās politikas pasākumus kā darba laika samazināšana;

47. joprojām uzskata, ka ir ļoti nepieciešama uz Savienības vērtībām un ētikas principiem balstīta projektēšanas pieeja, lai radītu priekšnosacījumus mākslīgā intelekta, robotikas un saistīto tehnoloģiju plašai pieņemšanai sabiedrībā; uzskata, ka minētā pieeja, kuras mērķis būtu uzticama, ētiski atbildīga un tehniski stabila mākslīgā intelekta izstrāde, ir svarīga tādas ilgtspējīgas un viedas mobilitātes veicināšanai, kas ir droša un pieejama;

48. vērš uzmanību uz augsto pievienoto vērtību, ko autonomi transportlīdzekļi rada personām ar ierobežotām pārvietošanās spējām, jo šādi transportlīdzekļi ļauj šīm personām efektīvāk izmantot individuālo autotransportu un tādējādi atvieglo viņu ikdienas dzīvi; uzsver pieejamības nozīmi, jo īpaši, izstrādājot MaaS (mobilitāte kā pakalpojums) sistēmas;

49. aicina Komisiju turpināt atbalstīt uzticamu MI sistēmu izstrādi, lai padarītu transportu drošāku, efektīvāku, piekļūstamāku, cenas ziņā pieejamāku un iekļaujošāku, tostarp personām ar ierobežotām pārvietošanās spējām, jo īpaši personām ar invaliditāti, ņemot vērā Eiropas Parlamenta un Padomes Direktīvu (ES) 2019/882 un Savienības tiesību aktus par pasažieru tiesībām;

50. uzskata, ka MI var palīdzēt labāk izmantot personu ar invaliditāti prasmes un kompetences un ka MI izmantošana darba vietā var veicināt iekļaujošus darba tirgus un augstākus nodarbinātības rādītājus personām ar invaliditāti;

Vide un ilgtspēja

51. deklarē, ka mākslīgais intelekts, robotika un saistītās tehnoloģijas valdībām un uzņēmumiem būtu jāizmanto, lai dotu labumu cilvēkiem un planētai un dotu ieguldījumu ilgtspējīgas attīstības sasniegšanā, vides saglabāšanā, kā arī klimata neitralitātes un aprites ekonomikas mērķu sasniegšanā; šo tehnoloģiju izstrādei, ieviešanai un izmantošanai vajadzētu palīdzēt īstenot zaļo pārkārtošanos, saglabāt vidi un sekmēt pēc iespējas mazāka kaitējuma nodarīšanu videi to dzīves cikla laikā un visā to piegādes ķēdē atbilstīgi Savienības tiesību aktiem;

52. ņemot vērā mākslīgā intelekta, robotikas un saistīto tehnoloģiju nozīmīgo ietekmi uz vidi, iepriekšējā punkta piemērošanas nolūkā gadījumos, kur tas ir būtiski un lietderīgi, mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas un izmantošanas ietekmi uz vidi visā to dzīves ciklā varētu novērtēt par konkrētām nozarēm atbildīgās iestādes; šādā novērtējumā varētu iekļaut aplēsi par to, cik liela ir visu nepieciešamo materiālu ieguves ietekme, un cik daudz enerģijas patērē un cik lielas siltumnīcefekta gāzu emisijas rada to izstrāde, ieviešana un izmantošana;

53. lai būtu iespējams izstrādāt atbildīgus un modernus mākslīgā intelekta risinājumus, ierosina pētīt, veicināt un maksimāli palielināt mākslīgā intelekta, robotikas un saistīto tehnoloģiju potenciālu ar atbildīgu pētniecību un izstrādi, kuras vajadzībām būtu nepieciešams mobilizēt Savienības un tās dalībvalstu resursus;

54. uzsver, ka šo tehnoloģiju izstrāde, ieviešana un izmantošana nodrošina iespējas veicināt ANO izklāstītos ilgtspējīgas attīstības mērķus, vispārējo enerģētikas pārkārtošanu un dekarbonizāciju;

55. uzskata, ka sociālās atbildības, dzimumu līdzsvara, vides aizsardzības un ilgtspējas mērķiem nevajadzētu skart esošos vispārējos un nozarspecifiskos pienākumus šajās jomās; uzskata, ka būtu jānosaka nesaistoši īstenošanas norādījumi izstrādātājiem, ieviesējiem un lietotājiem, jo īpaši tiem, kas strādā ar augsta riska tehnoloģijām, par to, kā novērtēt šo tehnoloģiju atbilstību šai regulai un par iepriekš minēto mērķu sasniegšanu;

56. aicina Savienību veicināt un finansēt tāda antropocentriska mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādi, kas risinātu vides un klimata problēmas un ar nodokļu, iepirkumu vai citu stimulu palīdzību nodrošinātu pamattiesību ievērošanu;

57. uzsver, ka, neraugoties mākslīgā intelekta, robotikas un saistīto tehnoloģiju, tostarp automatizētu lēmumu un mašīnmācīšanās izstrādāšanas, ieviešanas un izmantošanas pašreizējo lielo oglekļa pēdu, šīs tehnoloģijas var palīdzēt samazināt IKT nozares pašreizējo vides pēdas nospiedumu; uzsver, ka šīm un citām pienācīgi regulētām saistītajām tehnoloģijām vajadzētu būt izšķirīgiem veicinātājiem, lai sasniegtu Eiropas zaļā kursa, ANO ilgtspējīgas attīstības mērķus un Parīzes nolīguma mērķus daudzās dažādās nozarēs, un tām būtu jāveicina tādas politikas ietekme, kas nodrošina vides aizsardzību, kā piemēru minot politikas pasākumus attiecībā uz atkritumu samazināšanu un vides degradāciju;

58. aicina Komisiju veikt pētījumu par MI tehnoloģiju oglekļa pēdas ietekmi un par pozitīvo un negatīvo ietekmi, ar ko saistīta patērētāju pāreja uz MI tehnoloģiju;

59. norāda, ka, ņemot vērā MI lietotņu pieaugošo izstrādi, kam nepieciešami analītiski algoritmiskie, uzglabāšanas un enerģijas resursi, MI sistēmu ietekme uz vidi būtu jānovērtē visā to dzīves ciklā;

60. uzskata, ka tādās jomās kā veselības aprūpe atbildība galu galā ir jāuzņemas fiziskai vai juridiskai personai; uzsver, ka ir nepieciešami izsekojami un publiski pieejami apmācības dati algoritmu vajadzībām;

61. stingri atbalsta Komisijas ierosinātās Eiropas veselības datu telpas[12] izveidi, kuras mērķis ir veicināt veselības datu apmaiņu un atbalstīt pētniecību saskaņā ar datu aizsardzības nosacījumiem, ietverot datu apstrādi ar MI tehnoloģijām, un kura stiprina un paplašina veselības datu izmantošanu un atkārtotu izmantošanu; mudina paplašināt veselības datu pārrobežu apmaiņu, šādu datu saistīšanu un izmantošanu, balstoties uz drošiem, apvienotiem repozitorijiem, konkrētus veselības informācijas veidus, piemēram, Eiropas veselības datus (EHR), genomu informāciju un digitālus veselības attēlus, lai sekmētu Savienības mēroga sadarbspējīgus reģistrus vai datubāzes tādās nozarēs kā pētniecība, zinātne un veselības aprūpe;

62. uzsver MI sniegtos ieguvumus slimību profilaksē, ārstēšanā un kontrolē, kā piemēru minot to, ka MI prognozēja Covid–19 epidēmiju pirms PVO; mudina Komisiju pienācīgi nodrošināt ECDC ar tiesisko regulējumu un resursiem, lai neatkarīgi no dalībvalstīm apkopotu vajadzīgos anonimizētus pasaules veselības datus, lai cita starpā risinātu Covid-19 krīzes atklātos jautājumus;

Privātums un biometriskā atpazīšana

63. konstatē, ka strauji pieaug mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas un izmantošanas rezultātā iegūtu datu, tostarp tādu personas datu kā biometrijas dati, ģenerēšana un izmantošana, tādējādi uzsverot nepieciešamību ievērot iedzīvotāju tiesības uz privātumu un personas datu aizsardzību saskaņā ar Savienības tiesību aktiem un nodrošināt šo tiesību ievērošanu;

64. norāda, ka šo tehnoloģiju sniegtā iespēja izmantot personas datus un nepersondatus kategorizācijas un mikrotargetinga piemērošanai cilvēkiem, personu neaizsargātības identificēšanai vai precīzu prognozējošu zināšanu izmantošanai ir jālīdzsvaro ar efektīvi piemērotu datu aizsardzības un privātuma principiem, piemēram, datu minimizāciju, tiesībām iebilst pret profilēšanu un kontrolēt savu datu izmantošanu, tiesībām saņemt skaidrojumu par lēmumu, kas pieņemts, izmantojot automatizētu apstrādi un integrētu privātuma aizsardzību, kā arī ar samērīguma, nepieciešamības un ierobežošanas principiem, ņemot vērā precīzi noteiktu nolūku atbilstīgi VDAR;

65. uzsver, ka tad, ja publiskās iestādes izmanto attālinātas atpazīšanas tehnoloģijas, piemēram, biometrisko identifikatoru atpazīšanu, jo īpaši sejas atpazīšanu, būtisku sabiedrības interešu dēļ, to izmantošana vienmēr ir jāizpauž un tai ir jābūt samērīgai, mērķtiecīgai un jāattiecas tikai uz konkrētiem mērķiem, tai jābūt ierobežotai laikā saskaņā ar Savienības tiesību aktiem, un tajā pienācīgi jāņem vērā cilvēka cieņa, autonomija un Hartā izklāstītās pamattiesības. Šīs izmantošanas kritērijus un ierobežojumus būtu jāvar pārskatīt tiesā, tie būtu demokrātiski jākontrolē un tajos būtu jāņem vērā izmantošanas psiholoģiskā un sociāli kulturālā ietekme uz pilsonisko sabiedrību;

66. norāda — kaut gan mākslīgā intelekta, robotikas un saistīto tehnoloģiju ieviešanai publiskā sektora lēmumu pieņemšanā ir savas priekšrocības, no tās var izvērsties nepareizas lietošanas prakse ar smagām sekām, piemēram, masu uzraudzība, kriminoloģiskā prognozēšana un pienācīgu procesuālo tiesību pārkāpumi;

67. uzskata, ka pret tehnoloģijām, kas var pieņemt automatizētus lēmumus, tādējādi aizstājot publisko iestāžu pieņemtus lēmumus, ir jāizturas ar vislielāko piesardzību, jo īpaši saistībā ar tiesām un tiesībaizsardzību;

68. uzskata, ka dalībvalstīm šādas tehnoloģijas būtu jāizmanto tikai tad, ja ir pārliecinoši pierādījumi par to uzticamību un ja gadījumos, kad var būt apdraudētas pamatbrīvības, ir iespējama vai sistemātiski tiek veikta jēgpilna cilvēka veikta iejaukšanās un pārskatīšana; uzsver, cik svarīgi ir valstu iestādēm veikt stingru pamattiesību ietekmējuma novērtējumu saistībā ar šajos gadījumos izvietotajām mākslīgā intelekta sistēmām, jo īpaši tad, ja novērtējumā šīs tehnoloģijas atzītas par augsta riska tehnoloģijām;

69. uzskata, ka jebkuram lēmumam, ko pieņēmis mākslīgais intelekts, robotika vai saistītās tehnoloģijas saskaņā ar publiskās varas prerogatīvām, ir jāparedz prasība nodrošināt jēgpilnu cilvēka veiktu iejaukšanos un ievērot pienācīgu procesu, jo īpaši tad, ja novērtējumā šīs tehnoloģijas atzītas par augsta riska tehnoloģijām;

70. uzskata, ka tehnoloģiskajam progresam nevajadzētu novest pie tā, ka mākslīgais intelekts, robotika un saistītās tehnoloģijas autonomi pieņem publiskā sektora lēmumus, kuriem ir tieša un nozīmīga ietekme uz pilsoņa tiesībām un pienākumiem;

71. norāda, ka MI, robotika un saistītās tehnoloģijas tiesībaizsardzības un robežkontroles jomā varētu uzlabot sabiedrības drošumu un drošību, taču ir vajadzīga arī plaša un stingra sabiedrības kontrole un visaugstākais iespējamais pārredzamības līmenis gan attiecībā uz atsevišķu lietojumu riska novērtējumu, gan vispārēju pārskatu par MI, robotikas un saistīto tehnoloģiju izmantošanu tiesībaizsardzības un robežkontroles jomā; uzskata, ka šādas tehnoloģijas rada ievērojamu ētiskuma apdraudējumu, kas ir pienācīgi jānovērš, ņemot vērā iespējamo nelabvēlīgo ietekmi uz privātpersonām, jo īpaši uz viņu tiesībām uz privātumu, datu aizsardzību un nediskrimināciju; uzsver, ka to nepareiza lietošana var tieši apdraudēt demokrātiju un ka to ieviešanā un izmantošanā ir jāievēro proporcionalitātes un nepieciešamības principi, Pamattiesību harta, kā arī attiecīgie Savienības sekundārie tiesību akti, piemēram, datu aizsardzības noteikumi; uzsver, ka MI nekad nevajadzētu aizstāt cilvēkus spriedumu pasludināšanā; uzskata, ka lēmumiem, piemēram, atbrīvošanai pret drošības naudu vai probācijai, kas tiek izskatīti tiesā vai lēmumiem, kuru pamatā ir tikai automatizēta apstrāde, kas rada juridiskas sekas fiziskai personai vai kas to būtiski ietekmē, vienmēr ir jāietver jēgpilns novērtējums un cilvēka spriedums;

Laba pārvaldība

72. uzsver, ka mākslīgā intelekta, robotikas un saistīto tehnoloģiju, jo īpaši augsta riska tehnoloģiju, izstrādes, ieviešanas un izmantošanas pienācīga pārvaldība, tostarp pieņemtie pasākumi, kas pievēršas pārskatatbildībai un risina iespējamos ar aizspriedumiem un diskrimināciju saistītos riskus, var palielināt iedzīvotāju drošību un uzticēšanos minētajām tehnoloģijām;

73. uzskata, ka kopīgs satvars šo tehnoloģiju pārvaldībai, ko koordinētu Komisija un/vai jebkuras šajā sakarā šim uzdevumam izraudzītas attiecīgas iestādes, struktūras, biroja un aģentūras un kas katrā valstī būtu jāīsteno valsts uzraudzības iestādei, nodrošinātu saskaņotu Eiropas mēroga pieeju un nepieļautu vienotā tirgus sadrumstalotību;

74. konstatē, ka mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādē dati tiek izmantoti lielos apjomos un ka šādu datu apstrāde, kopīgošana, piekļuve tiem un to izmantošana ir jāpārvalda saskaņā ar tiesību aktiem un tajos noteiktajiem kvalitātes, integritātes, sadarbspējas, pārredzamības, drošības, privātuma un kontroles prasībām;

75. atgādina, ka piekļuve datiem ir būtisks digitālās ekonomikas izaugsmes faktors; šajā sakarā norāda, ka datu sadarbspējai, ko panāk, ierobežojot “ieslēgšanas” efektu, ir būtiska loma taisnīgu tirgus apstākļu nodrošināšanā un vienlīdzīgu konkurences apstākļu veicināšanā digitālajā vienotajā tirgū;

76. uzsver vajadzību nodrošināt to, ka tiek pienācīgi aizsargāti personas dati, jo īpaši dati par neaizsargātām grupām, piemēram, personām ar invaliditāti, pacientiem, bērniem, veciem cilvēki, minoritātēm, migrantiem un citām atstumtības riskam pakļautām grupām, vai dati, kas ir iegūti no šādām grupām;

77. norāda, ka publiskās iestādes mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādi, ieviešanu un izmantošanu bieži uzdod privātā sektora dalībniekiem; uzskata, ka tam nekādi nevajadzētu apdraudēt sabiedriskās vērtības un pamattiesības; uzskata, ka vajadzības gadījumā publiskā iepirkuma nosacījumiem vajadzētu atspoguļot publiskajām iestādēm piemērotos ētikas principus;

Patērētāji un iekšējais tirgus

78. uzsver, cik svarīgi ir īstenot MI tiesisko regulējumu gadījumos, kad patērētāji Savienībā ir algoritmiskās sistēmas lietotāji vai tā viņiem tiek piemērota, neatkarīgi no to struktūru iedibinājuma vietas, kuras minēto sistēmu izstrādā, pārdod vai izmanto; turklāt uzskata, ka šādā regulējumā paredzētie noteikumi būtu jāpiemēro visiem izstrādātājiem un visā vērtību ķēdē, proti, attiecīgo tehnoloģiju un to komponentu izstrādē, ieviešanā un izmantošanā, un ir jāgarantē augsts patērētāju aizsardzības līmenis;

79. norāda mākslīgā intelekta, robotikas un saistīto tehnoloģiju, tostarp programmatūras, algoritmu un šādu tehnoloģiju izmantoto vai ģenerēto datu  ciešo saikni ar tādām jomām kā lietu internets, mašīnmācīšanās, uz likumiem balstītas sistēmas vai automatizēti un datorizēti lēmumu pieņemšanas procesi. turklāt norāda, ka varētu izstrādāt standartizētas ikonas, kas palīdzētu izskaidrot šīs sistēmas patērētājiem katru reizi, kad tās ir sarežģītas vai ir izveidotas, lai pieņemtu lēmumus, kas būtiski ietekmē viņu dzīvi;

80. atgādina, ka Komisijai būtu jāizskata spēkā esošais tiesiskais regulējums un tā piemērošana, tostarp patērētāju tiesību acquis, tiesību akti par produktatbildību, tiesību akti par produktu drošumu un tirgus uzraudzības tiesību akti, lai atklātu likuma robus, kā arī spēkā esošos likumā noteiktos pienākumus; uzskata, ka tas ir nepieciešams, lai pārliecinātos, vai tas spēj reaģēt uz MI, robotikas un saistīto tehnoloģiju parādīšanos un vai tas spēj nodrošināt augstu patērētāju aizsardzības līmeni;

81. uzsver nepieciešamību efektīvi risināt problēmas, ko rada mākslīgais intelekts, robotika un saistītās tehnoloģijas, un nodrošināt, ka patērētājiem ir attiecīgās tiesības un viņi ir pienācīgi aizsargāti; uzsver, ka ir jāraugās tālāk par tradicionālajiem informēšanas un izpaušanas principiem, kas ir patērētāju acquis pamatā, jo būs nepieciešamas stingrākas patērētāju tiesības un skaidri ierobežojumi attiecībā uz mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādi, ieviešanu un izmantošanu, lai nodrošinātu, ka šāda tehnoloģija palīdz uzlabot patērētāju dzīvi un attīstās tā, ka tiek ievērotas pamattiesības, patērētāju tiesības un Savienības vērtības;

82. norāda, ka ar Lēmumu Nr. 768/2008/EK ieviestais tiesiskais regulējums paredz ražotāju, importētāju un izplatītāju saskaņotu pienākumu sarakstu, mudina izmantot standartus un paredz vairākus kontroles līmeņus atkarībā no produkta bīstamības; uzskata, ka šāds regulējums būtu jāpiemēro arī MI iegultajiem produktiem;

83. norāda — lai analizētu mākslīgā intelekta, robotikas un saistīto tehnoloģiju ietekmi uz patērētājiem, valstu kompetentajām iestādēm varētu piešķirt piekļuvi datiem, ja tiktu pilnībā ievēroti Savienības tiesību akti, tostarp attiecībā uz datu aizsardzību, privātumu un komercnoslēpumiem; atgādina, cik svarīga ir patērētāju izglītošana, lai viņi būtu labāk informēti un kvalificēti saskarsmē ar mākslīgo intelektu, robotiku un saistītajām tehnoloģijām nolūkā viņus pasargāt no iespējamiem riskiem un nodrošināt viņu tiesību ievērošanu; 

84. aicina Komisiju ierosināt datu izsekojamības pasākumus, paturot prātā gan datu iegūšanas likumību, gan patērētāju tiesību un pamattiesību aizsardzību, vienlaikus pilnībā ievērojot Savienības tiesību aktus, piemēram, datu aizsardzības, privātuma un intelektuālā īpašuma tiesību un komercnoslēpumu jomā;

85. konstatē, ka šīm tehnoloģijām jābūt vērstām uz lietotāju un izstrādātām tā, lai visi cilvēki varētu izmantot MI produktus vai pakalpojumus neatkarīgi no viņu vecuma, dzimuma, spējām vai īpašībām; konstatē, ka to pieejamība personām ar invaliditāti ir īpaši svarīga; norāda, ka tās nedrīkstētu izmantot, piemērojot universālas panacejas pieeju visos gadījumos, un tajās ir jāapsver visplašākajam iespējamam lietotāju lokam paredzētie vispārējie izstrādes principi, ievērojot attiecīgos pieejamības standartus; uzsver, ka tādējādi cilvēki varēs vienlīdzīgi piekļūt esošajām un tapšanas stadijā esošajām datorizētajām cilvēku darbībām un palīgtehnoloģijām un aktīvi tajās piedalīties.

86. uzsver, ka gadījumos, kad nauda, kuru piešķir no publiskiem avotiem, būtiski veicina mākslīgā intelekta, robotikas un saistīto sistēmu izstrādi, ieviešanu vai izmantošanu, papildus publiska iepirkuma un publiskiem līgumslēgšanas standartiem, varētu apsvērt iespēju paredzēt, ka programma, ģenerētie dati, ciktāl tie nav personas dati, un apmācītais modelis pēc noklusējuma ir publiski pieejami, vienojoties ar izstrādātāju, lai garantētu pārredzamību, uzlabotu kiberdrošību un ļautu tos atkārtoti izmantot, tādējādi veicinot inovāciju; uzsver, ka šādā veidā var pilnībā atraisīt vienotā tirgus potenciālu, izvairoties no tirgus sadrumstalotības;

87.  uzskata, ka MI, robotikai un saistītajām tehnoloģijām ir milzīgs potenciāls sniegt patērētājiem iespējas piekļūt vairākām ērtībām daudzos to dzīves aspektos kopā ar labākiem produktiem un pakalpojumiem, kā arī gūt labumu no labākas tirgus uzraudzības, kamēr vien ir spēkā visi piemērojamie principi, nosacījumi, tostarp pārredzamība un revidējamība, un noteikumi;

Drošība un aizsardzība

88. uzsver, ka Eiropas Savienības un tās dalībvalstu drošības un aizsardzības politikas pamatā ir Eiropas Pamattiesību hartā noteiktie principi un Apvienoto Nāciju Organizācijas Statūtu principi un vienota izpratne par vispārējām vērtībām respektēt cilvēka neaizskaramās un neatņemamās tiesības, cilvēka cieņu, brīvību, demokrātiju, līdztiesību un tiesiskumu; uzsver, ka visos ar aizsardzību saistītajos Savienības centienos tiek ievērotas šīs universālās vērtības, vienlaikus veicinot mieru, drošību un progresu Eiropā un pasaulē;

89. atzinīgi vērtē to, ka Apvienoto Nāciju Organizācijas Konvencijas par noteiktiem parastiem ieročiem (CCW) augsto līgumslēdzēju pušu 2019. gada sanāksmē tika apstiprināti 11 vadošie principi par autonomu ieroču sistēmu izveidi un izmantošanu; tomēr pauž nožēlu par to, ka nav panākta vienošanās par juridiski saistošu instrumentu, ar ko reglamentētu autonomus letālus ieročus ar efektīvu izpildes mehānismu; atzinīgi vērtē un atbalsta Komisijas augsta līmeņa ekspertu grupas mākslīgā intelekta jomā 2019. gada 9. aprīlī publicētās “Ētikas vadlīnijas uzticamam mākslīgajam intelektam” un tās nostāju jautājumā par autonomajām letālu ieroču sistēmām (LAWS); mudina dalībvalstis izstrādāt valsts stratēģijas autonomu letālu ieroču definēšanai un statusam, lai izstrādātu visaptverošu stratēģiju Savienības līmenī, un kopā ar Savienības augsto pārstāvi/Komisijas priekšsēdētājas vietnieku (AP/PV) un Padomi veicināt diskusijas par LAWS ANO CCW satvarā un citos attiecīgos forumos un starptautisku normu noteikšanu attiecībā uz pilnībā autonomu, pusautonomu un tālvadības ieroču sistēmu izstrādes un izmantošanas ētiskajiem un juridiskajiem parametriem; šajā sakarā atgādina par savu 2018. gada 12. septembra rezolūciju par autonomām ieroču sistēmām un vēlreiz aicina steidzami izstrādāt un pieņemt kopēju nostāju par autonomām letālu ieroču sistēmām, lai starptautiskā līmenī aizliegtu tādu autonomu letālu ieroču sistēmu izstrādi, ražošanu un izmantošanu, kas ļauj veikt uzbrukumus bez jēgpilnas cilvēka kontroles un neievērojot principu par cilvēka iesaistīšanos procesā saskaņā ar pasaules ievērojamāko MI pētnieku paziņojumu 2015. gada atklātajā vēstulē; atzinīgi vērtē Padomes un Parlamenta vienošanos par tādu autonomu letālu ieroču izslēgšanu, “kuru izmantošanā nav iespējama jēgpilna cilvēka kontrole attiecībā uz to, kā tiek pieņemti atlases un darbības īstenošanas lēmumi, veicot uzbrukumus cilvēkiem,” no Eiropas Aizsardzības fonda finansētajām darbībām; uzskata, ka nedrīkst aizmirst par ētikas aspektiem citās MI izmantošanas jomās aizsardzības nozarē, piemēram, izlūkošanas, novērošanas un rekognoscēšanas (ISR) vai kiberoperāciju jomās, un ka īpaša uzmanība jāpievērš bezpilota lidaparātu izstrādei un izvietošanai militārajās operācijās;

90 uzsver, ka jaunās tehnoloģijas aizsardzības un drošības nozarē, kuras nav starptautisko tiesību darbības jomā, būtu jānovērtē saskaņā ar cilvēcīguma principa un sabiedrības sirdsapziņas nosacījumu respektēšanu;

91. ierosina, ka jebkurā Eiropas regulējumā, kas reglamentē ar mākslīgo intelektu (MI) saistītu sistēmu izmantošanu aizsardzībā gan kaujas situācijās, gan situācijās, kuras nav kaujas situācijas, ir jāievēro visi piemērojamie tiesiskie režīmi, jo īpaši starptautiskās humanitārās tiesības un starptautiskās cilvēktiesības, un tam ir jāatbilst Savienības tiesību aktiem, principiem un vērtībām, paturot prātā atšķirības tehniskajās un drošības infrastruktūrās visā Savienībā;

92. atzīst, ka pretēji aizsardzības rūpniecības bāzēm kritiskas MI inovācijas varētu nākt no mazām dalībvalstīm, tādēļ KDAP standartizētai pieejai būtu jānodrošina, ka netiek izstumtas mazākas dalībvalstis un MVU; uzsver, ka vienots ES MI spēju kopums, kas atbilst dalībvalstu darbības koncepcijām, var novērst tehnoloģiju trūkumu, kurš rada risku, ka valstis, kam nav attiecīgās tehnoloģijas, rūpniecisko zināšanu vai spējas ieviest MI sistēmas savās aizsardzības ministrijās, tiek izslēgtas;

93. uzskata, ka pašreizējās un turpmākās ar drošību un aizsardzību saistītās darbības Savienībā balstīsies uz MI, robotiku un autonomiju, un saistītām tehnoloģijām un ka ticams, stabils un uzticams MI varētu veicināt modernus un efektīvus militāros spēkus; tādēļ Savienībai ir jāuzņemas vadošā loma MI sistēmu pētniecībā un izstrādē drošības un aizsardzības jomā; uzskata, ka ar MI saistītu lietojumprogrammu izmantošana drošības un aizsardzības jomā varētu nodrošina vairākus tiešus ieguvumus operācijas komandierim, piemēram, kvalitatīvākus savāktos datus, labāku informētību par situāciju, ātrāku lēmumu pieņemšanu, samazinātu netiešā kaitējuma risku, pateicoties labākam kabelējumam, spēku aizsardzību konkrētajā teritorijā, kā arī lielāku militārā aprīkojuma uzticamību un tādējādi risku cilvēkiem un dzīvā spēka zaudējumus; uzsver, ka uzticama mākslīgā intelekta attīstība aizsardzības jomā ir neatsverama tehnoloģija, ar ko spēju un darbības jomās nodrošināt Eiropas stratēģisko autonomiju; atgādina, ka MI sistēmas kļūst arī par būtiskiem elementiem cīņā pret jauniem drošības apdraudējumiem, piemēram, kiberkarā un hibrīdkarā, gan tiešsaistes, gan bezsaistes vidē; vienlaikus uzsver visus riskus un problēmas, ar ko saistīta MI nereglamentēta izmantošana; norāda, ka MI varētu tikt pakļauts manipulācijām, kļūdām un neprecizitātēm;

94. uzsver, ka MI tehnoloģijas galvenokārt ir divējāda lietojuma tehnoloģijas, un MI izstrāde ar aizsardzību saistītās darbībās gūst ieguvumus no informācijas apmaiņas starp militārām un civilām tehnoloģijām; uzsver, ka MI ar aizsardzību saistītās darbībās ir šķērseniska revolucionāra tehnoloģija, kuras izstrāde var Savienībai sniegt konkurētspējas un stratēģiskās autonomijas iespējas;

95. atzīst, ka mūsdienu hibrīdkaru un progresīvo karu kontekstā informācijas apjoms un ātrums krīzes agrīnajos posmos var cilvēkiem analītiķiem būt pārmērīgs un ka MI sistēma varētu apstrādāt informāciju, lai nodrošinātu, ka lēmumus pieņemošie cilvēki atbilstīgā laikposmā ņem vērā visu informāciju, lai būtu iespējami ātra reaģēšana;

96. uzsver, ka ir ļoti svarīgi veikt ieguldījumus cilvēkkapitālā mākslīgā intelekta vajadzībām, veicinot nepieciešamo izglītošanu un uz ētiku balstītu apmācību drošības un aizsardzības MI tehnoloģiju jomā, kā arī īpašu uzmanību pievēršot pusautonomu un autonomu operatīvo sistēmu ētikai un balstoties uz cilvēku pārskatatbildību; jo īpaši uzsver, ka ir svarīgi nodrošināt pienācīgas prasmes un apmācību ētikas speciālistiem šajā jomā; aicina Komisiju pēc iespējas drīz iepazīstināt ar savu 2020. gada 19. februāra Baltajā grāmatā par mākslīgo intelektu paziņoto pastiprināto prasmju programmu;

97. uzsver, ka kvantu skaitļošana varētu nodrošināt revolucionāras konflikta situāciju izmaiņas, kādas nav pieredzētas kopš atomieroču radīšanas, tādēļ mudina Savienību un dalībvalstis piešķirt prioritāti kvantu skaitļošanas tehnoloģiju turpmākai izstrādei; atzīst, ka agresija, tostarp uzbrukumi kritiskai infrastruktūrai ar kvantu skaitļošanas palīdzību, radīs konfliktu vidi, kurā lēmumu pieņemšanai pieejamais laiks būs ievērojami samazināts, proti, no dienām un stundām uz minūtēm un sekundēm, liekot dalībvalstīm izveidot spējas sevis aizsargāšanai un apmācīt gan lēmumu pieņēmējus, gan militārpersonas efektīvi reaģēt šādos termiņos;

98. prasa palielināt ieguldījumus Eiropas aizsardzības MI un tās pamatā esošajā kritiskajā infrastruktūrā;

99. atgādina, ka vairums militāro spēku visā pasaulē jau ir iesaistījušies nozīmīgās pētniecības un izstrādes darbībās saistībā ar mākslīgā intelekta militāro dimensiju; uzskata, ka Savienībai ir jāpanāk, lai tā šajā ziņā neatpaliktu;

100. aicina Komisiju savā rūpniecības politikā integrēt kiberdrošības spēju veidošanu, lai garantētu drošu, noturīgu un stabilu MI darbinātu un robotikas sistēmu izstrādi un lietošanu; aicina Komisiju izskatīt iespēju izmantot uz blokķēdi balstītus kiberdrošības protokolus un lietojumprogrammas, lai uzlabotu MI infrastruktūras noturīgumu, uzticamību un stabilitāti ar nepastarpinātiem datu šifrēšanas modeļiem; mudina Eiropas ieinteresētās personas izpētīt un izstrādāt progresīvas iespējas, kas palīdzētu atklāt bojātas un ļaunprātīgas MI darbinātas un robotikas sistēmas, kuras varētu apdraudēt Savienības un iedzīvotāju drošību;

101. uzsvēra, ka visām MI sistēmām aizsardzības jomā jābūt konkrētam un skaidri definētam misiju satvaram, tādējādi saglabājot ietekmi atklāt un atvienot vai deaktivizēt pielietojamās sistēmas, ja tās pārvietojas ārpus cilvēku noteiktā un uzdotā misiju satvara vai iesaistās jebkādā saasinošā vai neparedzētā darbībā; uzskata, ka MI iespējotas sistēmas, produkti un tehnoloģijas, kas paredzētas militārām vajadzībām, būtu jāaprīko ar “melno kasti”, lai reģistrētu visus mašīnas veiktos datu darījumus;

102. uzsver, ka visa atbildība un pārskatatbildību par lēmumu projektēt, izstrādāt, lietot un izmantot mākslīgā intelekta sistēmas ir jāuzņemas cilvēkiem, jo cilvēkam ir jēgpilni jākontrolē visas ieroču sistēmas un jānosaka lēmums izmantot spēku, pildot jebkuru MI iespējotas ieroču sistēmas lēmumu, kam var būt letālas sekas; uzsver, ka cilvēka efektīva kontrole būtu jāsaglabā attiecībā uz MI iespējotu sistēmu vadību un kontroli saskaņā ar principu par cilvēka iesaistīšanos procesā, cilvēka īstenota procesa kontroli un cilvēka īstenota procesa kontroli militārās vadības līmenī; uzsver, ka MI iespējotām sistēmām jāļauj armiju militārajai vadībai pilnībā uzņemties atbildību un pārskatatbildību par letāla spēka izmantošanu un veikt nepieciešamos lēmumus par nāvējošas vai liela mēroga postošas darbības veikšanu, izmantojot šādas sistēmas, un šādus lēmumus nevar uzticēt mašīnām, jo tiem ir jābalstās uz nodalīšanu, samērīgumu un piesardzību; uzsver, ka ir jāizstrādā skaidri un izsekojami atļauju un pārskatatbildības satvari viedo ieroču un citu MI darbinātu sistēmu pielietošanai, izmantojot unikālus lietotāja raksturlielumus, piemēram, biometriskās specifikācijas, lai tos varētu lietot tikai pilnvarots personāls;

Transports

103. uzsver mākslīgā intelekta, robotikas un saistīto tehnoloģiju potenciālu attiecībā uz visiem autonomajiem autoceļu, dzelzceļa, ūdens un gaisa transporta veidiem, kā arī attiecībā uz kravu novirzīšanas uz citiem transporta veidiem un vairākveidu pārvadājumu veicināšanu, jo šādas tehnoloģijas var palīdzēt atrast optimālu transporta veidu kombināciju preču un pasažieru pārvadāšanai; turklāt uzsver, ka tās var padarīt transportu, loģistiku un satiksmes plūsmas efektīvākas un visus transporta veidus drošākus, viedākus un videi draudzīgākus; norāda, ka ētisku pieeju MI var uzskatīt arī par agrīnās brīdināšanas sistēmu, jo īpaši attiecībā uz transporta drošību un efektivitāti;

104 uzsver, ka globālā konkurence starp uzņēmumiem un ekonomikas reģioniem nozīmē, ka Savienībai ir jāveicina investīcijas un jāstiprina transporta nozares uzņēmumu starptautiskā konkurētspēja, izveidojot tādu vidi, kas ir labvēlīga MI risinājumu un turpmāku inovāciju izstrādei un pielietošanai, un kurā Savienības uzņēmumi var kļūt par pasaules līderiem MI tehnoloģiju izstrādē;

105. uzsver, ka Savienības transporta nozarei ir nepieciešams atjaunināts tiesiskais regulējums attiecībā uz šādām jaunām tehnoloģijām un to izmantošanu transporta nozarē, kā arī skaidra ētikas sistēma uzticama MI izstrādei, tostarp aptverot drošības, drošuma, cilvēka autonomijas ievērošanas, pārraudzības un atbildības aspektus, kas palielinās ieguvumus, ko varēs izmantot visi un kas būs svarīgi, lai veicinātu investīcijas pētniecībā un inovācijā, prasmju attīstībā un MI ieviešanā publiskajos pakalpojumos, MVU, jaunuzņēmumos un citos uzņēmumos, vienlaikus nodrošinot arī datu aizsardzību un sadarbspēju, turklāt neradot nevajadzīgu administratīvo slogu uzņēmumiem un patērētājiem;

106. norāda, ka MI izstrāde un īstenošana transporta nozarē nebūs iespējama bez modernas infrastruktūras, kas ir būtiska intelektisko transporta sistēmu daļa; uzsver, ka pastāvošās attīstības līmeņa atšķirības starp dalībvalstīm rada risku, ka vismazāk attīstītajiem reģioniem un to iedzīvotājiem tiks liegtas autonomas mobilitātes attīstības sniegtās priekšrocības; aicina pienācīgi finansēt transporta infrastruktūras modernizāciju Savienībā, tostarp tās integrāciju 5G tīklā;

107. iesaka izstrādāt Savienības mēroga uzticama MI standartus visiem transporta veidiem, tostarp autobūves nozarei, kā arī ar MI nodrošinātu transportlīdzekļu un ar tiem saistītu produktu un pakalpojumu testēšanai;

108. atzīmē, ka MI sistēmas varētu palīdzēt ievērojami samazināt ceļu satiksmes negadījumos bojāgājušo skaitu, piemēram, uzlabojot reaģēšanas laiku un sekmējot labāku noteikumu ievērošanu; tomēr uzskata, ka ar autonomo transportlīdzekļu izmantošanu nebūs iespējams novērst visus negadījumus, un uzsver, ka tas par arvien svarīgāku uzdevumu padara MI lēmumu izskaidrojamības nodrošināšanu, lai tādējādi padarītu izprotamus MI lēmumu trūkumus un neparedzētas sekas;

Nodarbinātība, darba ņēmēju tiesības, digitālās prasmes un darba vieta

109. norāda, ka mākslīgā intelekta, robotikas un saistīto tehnoloģiju izmantošana darba vietā var veicināt iekļaujošu darba tirgu un ietekmēt arodveselību un drošību un vienlaikus to var izmantot arī, lai uzraudzītu, izvērtētu, prognozētu un vadītu darba ņēmēju sniegumu, tieši un netieši ietekmējot viņu karjeru; tā kā, izmantojot MI, ir pozitīvi jāietekmē darba apstākļi un tā pamatā ir jābūt cilvēktiesību ievērošanai, kā arī Savienības pamattiesību un vērtību ievērošanai; tā kā MI ir jābūt vērstam uz cilvēku, jāuzlabo cilvēku un sabiedrības labklājība un jāveicina godīga un taisnīga pārkārtošanās; tāpēc šādām tehnoloģijām ir pozitīvi jāietekmē darba apstākļi un to pamatā ir jābūt cilvēktiesību ievērošanai, kā arī Savienības pamattiesību un vērtību ievērošanai;

110. uzsver, ka ir jāattīsta kompetence, nodrošinot darba ņēmēju un viņu pārstāvju apmācību un izglītību attiecībā uz MI darbavietā, lai labāk izprastu MI risinājumu ietekmi; uzsver, ka pieteikuma iesniedzēji un darba ņēmēji ir pienācīgi jāinformē rakstveidā par MI izmantošanu darbā pieņemšanas procedūrās un citos ar cilvēkresursiem saistītos lēmumos un par to, kā šajā gadījumā var pieprasīt cilvēka veiktu pārskatīšanu, lai iekārtas pieņemto lēmumu atceltu;

111. uzsver nepieciešamību nodrošināt, lai produktivitātes pieaugums, ko rada MI un robotikas izstrāde un izmantošana, būtu izdevīgs ne tikai uzņēmumu īpašniekiem un akcionāriem, bet arī uzņēmumiem un strādājošajiem, jo ar to ir jāuzlabo darba un nodarbinātības apstākļi, tostarp darba algas un ekonomiskā izaugsme un attīstība, kā arī, lai minētais produktivitātes pieaugums būtu izdevīgs sabiedrībai kopumā, jo īpaši gadījumos, kad ieguvumi tiek gūti uz darbvietu rēķina; aicina dalībvalstis rūpīgi pētīt MI iespējamo ietekmi uz darba tirgu un sociālā nodrošinājuma sistēmām un izstrādāt stratēģijas, ar kurām nodrošina ilgtermiņa stabilitāti, reformējot nodokļus un iemaksas, kā arī citus pasākumus mazāku valsts ieņēmumu gadījumā;

112. uzsver uzņēmumu ieguldījumu nozīmi formālā un ikdienējā apmācībā un mūžizglītībā, lai atbalstītu taisnīgu pāreju uz digitālo ekonomiku; šajā sakarībā uzsver, ka uzņēmumiem, kas izmanto MI, ir pienākums nodrošināt pienācīgu pārkvalifikāciju un kvalifikācijas celšanu visiem attiecīgajiem darbiniekiem, lai viņi varētu iemācīties izmantot digitālos rīkus un strādāt ar kobotiem un citām jaunām tehnoloģijām, tādējādi pielāgojoties mainīgajām darba tirgus vajadzībām un arī turpmāk nodrošinot savu nodarbinātību;

113. uzskata, ka īpaša uzmanība ir jāpievērš jauniem darba veidiem, piemēram, gabaldarbam un darbam platformās, kas izriet no jauno tehnoloģiju izmantošanas šajā kontekstā;  uzskata, ka reglamentējot tāldarba apstākļus visā Savienībā un nodrošinot pienācīgus darba un nodarbinātības apstākļus digitālajā ekonomikā, ir jāņem vērā arī MI ietekme; aicina Komisiju šajā sakarā apspriesties ar sociālajiem partneriem, MI izstrādātājiem, pētniekiem un citām ieinteresētajām personām;

114. uzsver, ka mākslīgais intelekts, robotika un saistītās tehnoloģijas nekādā veidā nedrīkst ietekmēt dalībvalstīs un Savienības līmenī atzīto pamattiesību īstenošanu, tostarp tiesības vai brīvību streikot vai veikt citu darbību, kas ir raksturīga attiecīgās dalībvalsts darba attiecību sistēmā, saskaņā ar valsts tiesību aktiem un/vai praksi, vai ietekmēt tiesības apspriest, noslēgt un izpildīt koplīgumus vai īstenot kolektīvu rīcību saskaņā ar valsts tiesību aktiem un/vai praksi;

115. atgādina, cik svarīga ir izglītība un nepārtraukta mācīšanās, lai iegūtu un pilnveidotu digitālajā laikmetā nepieciešamo kvalifikāciju un risinātu digitālās atstumtības problēmu; aicina dalībvalstis ieguldīt augstas kvalitātes atsaucīgas un iekļaujošas izglītības, arodapmācības un mūžizglītības sistēmās, kā arī pārkvalificēšanās un kvalifikācijas celšanas politikā attiecībā uz darba ņēmējiem nozarēs, kuras MI var ietekmēt negatīvi; uzsver, ka pašreizējam un turpmākajam darbaspēkam ir jānodrošina nepieciešamās rakstpratības, rēķinpratības un digitālās prasmes, kā arī kompetence zinātnē, tehnoloģijā, inženierzinātnēs un matemātikā (STEM) un transversālas vispārīgās prasmes, piemēram, kritiskā domāšana, radošums un uzņēmējdarbība; uzsver, ka šajā sakarībā īpaša uzmanība ir jāpievērš nelabvēlīgā situācijā esošu grupu iekļaušanai;

116. atgādina, ka darba vietā izmantotajam mākslīgajam intelektam, robotikai un saistītajām tehnoloģijām ir jābūt pieejamām visiem, pamatojoties uz principu “izstrādāts visiem”;

Izglītība un kultūra

117. uzsver, ka ir nepieciešams izstrādāt kritērijus MI izstrādei, ieviešanai un izmantošanai, ņemot vērā tā ietekmi uz izglītību, plašsaziņas līdzekļiem, jaunatnes lietām, pētniecību, sportu un kultūras un radošajās nozarēm, izstrādājot standartus un nosakot principus ētiski atbildīgam un akceptētam tādu MI tehnoloģiju lietojumam šajās jomās, kuras tajās var pienācīgi izmantot, tostarp precīzu atbildības režīmu par MI lietošanas rezultātā radītajiem izstrādājumiem;

118. konstatē, ka ikvienam bērnam ir tiesības uz augstvērtīgu visu līmeņu publisko izglītību; tādēļ prasa, lai tiktu izstrādātas, ieviestas un izmantotas tādas MI sistēmas, ar kurām sekmē un nodrošina kvalitatīvus izglītības instrumentus visos līmeņos, un uzsver, ka jaunu MI sistēmu ieviešana skolās nedrīkstētu radīt plašāku digitālo plaisu sabiedrībā; atzīst milzīgo potenciālu, kāds MI un robotikai var būt attiecībā uz izglītību; norāda, ka MI personalizētas mācību sistēmas nedrīkst aizstāt izglītības attiecības, kurās iesaistīti skolotāji, un ka nedrīkst atstāt novārtā tradicionālos izglītības veidus, vienlaikus norādot, ka ir jāsniedz finansiāls, tehnoloģisks un izglītojošs atbalsts, tostarp specializēta apmācība informācijas un komunikāciju tehnoloģiju jomā, skolotājiem, kuri vēlas iegūt atbilstošas prasmes, lai pielāgotos tehnoloģiskajām pārmaiņām un ne tikai izmantotu MI potenciālu, bet arī izprastu tā ierobežojumus; prasa Savienības līmenī izstrādāt stratēģiju, lai pārveidotu un atjauninātu mūsu izglītības sistēmas, sagatavotu mūsu izglītības iestādes visos līmeņos un panāktu, ka skolotājiem un skolēniem ir nepieciešamās prasmes un spējas;

119. uzsver, ka izglītības iestādēm vajadzētu censties izglītojošos nolūkos izmantot tādas MI sistēmas, kas ir saņēmušas Eiropas sertifikātu par atbilstību ētikas principiem;

120. uzsver, ka digitalizācijas un jauno tehnoloģiju sniegtās iespējas nedrīkst izraisīt vispārēju darbvietu zudumu kultūras un radošajās nozarēs, atstāt novārtā oriģinālu saglabāšanu un mazināt tradicionālo piekļuvi kultūras mantojumam, kas būtu vienlīdz jāveicina; atzīmē, ka MI sistēmās, kas ir izstrādātas, ieviestas un izmantotas Savienībā, būtu jāatspoguļo tās kultūru daudzveidība un daudzvalodība;

121. atzīst MI aizvien lielāko potenciālu informācijas, plašsaziņas līdzekļu un tiešsaistes platformu jomā, tostarp kā dezinformācijas apkarošanas līdzekli saskaņā ar Savienības tiesību aktiem; uzsver, ka, ja tas netiks reglamentēts, MI tehnoloģijām var būt arī ētiski negatīvas sekas, jo tiktu izmantota datu un algoritmu neobjektivitāte, kas var izraisīt dezinformācijas izplatīšanos un radīt informācijas burbuļus; uzsver, cik svarīgi ir nodrošināt pārredzamību un pārskatatbildību attiecībā uz algoritmiem, ko izmanto video koplietošanas platformas, kā arī audiovizuālās platformas, lai nodrošinātu piekļuvi kultūras un valodu ziņā daudzveidīgam saturam;

Valstu uzraudzības iestādes

122. pieņem zināšanai pievienoto vērtību, ko var gūt, katrā dalībvalstī izraugoties uzraudzības iestādi, kas atbildīga par to, lai saistībā ar augsta riska mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādi, ieviešanu un izmantošanu nodrošinātu, novērtētu un uzraudzītu juridisko pienākumu izpildi un atbilstību ētikas principiem, tādējādi veicinot šo tehnoloģiju atbilstību juridiskajām prasībām un ētikas principiem;

123. uzskata, ka, nedublējot šo iestāžu pienākumus, no tām ir jāprasa sadarboties ar iestādēm, kas atbildīgas par nozaru tiesību aktu īstenošanu, lai apzinātu tehnoloģijas, kam piemīt augsts risks no ētikas viedokļa, un lai pārraudzītu nepieciešamo un pienācīgo pasākumu īstenošanu šādu tehnoloģiju konstatēšanas gadījumā;

124. norāda, ka šādām iestādēm būtu jāsadarbojas ne tikai savā starpā, bet arī ar Eiropas Komisiju un citām attiecīgām Savienības iestādēm, struktūrām, birojiem un aģentūrām, lai nodrošinātu saskaņotu pārrobežu rīcību;

125. iesaka šādas sadarbības kontekstā izstrādāt vienotus kritērijus un procedūru, kā iesniegt pieteikumu par Eiropas sertifikāta piešķiršanu par atbilstību ētikas principiem, tostarp pēc tam, kad lūgumu ir iesniedzis par augsta riska tehnoloģijām neuzskatītu tehnoloģiju izstrādātājs, ieviesējs vai lietotājs, kas vēlas apliecinājumu par pozitīvu atbilstības novērtējumu, ko sniegusi attiecīgā valsts uzraudzības iestāde;

126. prasa, lai šādām iestādēm tiktu uzticēta regulāras informācijas apmaiņas ar pilsonisko sabiedrību un inovācijas veicināšana Savienībā, sniedzot atbalstu pētniekiem, izstrādātājiem un citām attiecīgām ieinteresētajām personām, kā arī darbam digitālajā vidē mazāk gataviem uzņēmumiem, jo īpaši mazajiem un vidējiem uzņēmumiem vai jaunuzņēmumiem; jo īpaši tas attiecas uz informētības veicināšanu un atbalstu izstrādei, ieviešanai, apmācībai un talantu piesaistei nolūkā nodrošināt tehnoloģiju efektīvu nodošanu un piekļuvi tehnoloģijām, projektiem, rezultātiem un tīkliem;

127. prasa katrai dalībvalstij piešķirt pietiekamu finansējumu savai izraudzītajai valsts uzraudzības iestādei un uzsver, ka ir jāstiprina valstu tirgus uzraudzības iestāžu spējas, prasmes un kompetence MI, robotikas un saistīto tehnoloģiju jomā, kā arī zināšanas par to specifiskajiem riskiem;

 

Koordinēšana Savienības līmenī

128. uzsver, cik svarīga ir Savienības līmeņa koordinācija, ko veic Komisija un/vai jebkura attiecīgā Savienības iestāde, struktūra, birojs un aģentūra, kuras var izraudzīties šajā kontekstā, lai izvairītos no sadrumstalotības un visā Savienībā nodrošinātu saskaņotu pieeju; uzskata, ka, īstenojot koordināciju, būtu jākoncentrējas uz katras dalībvalsts uzraudzības iestāžu pilnvarām un darbībām, kā tas ir minēts iepriekšējā apakšiedaļā, un uz paraugprakses apmaiņu šo iestāžu starpā un sadarbības veicināšanu šīs sfēras pētniecībā un izstrādē visā Savienībā; aicina Komisiju novērtēt un rast vispiemērotāko risinājumu, kā šādu koordināciju strukturēt; dažas no attiecīgajām Savienības iestādēm, struktūrām, birojiem un aģentūrām ir ENISA, EDAU un Eiropas Ombuds;

129. uzskata, ka šāda koordinācija, kā arī Eiropas ētiskās atbilstības sertifikāts šajā kontekstā ne tikai veicinātu Savienības nozares un inovācijas attīstību, bet arī palielinātu mūsu iedzīvotāju informētību par šo tehnoloģiju sniegtajām iespējām un tām raksturīgajiem riskiem;

130. ierosina izveidot zinātības centru, kurā Savienības līmenī darbotos akadēmisko aprindu, pētniecības un nozares pārstāvji un atsevišķi eksperti, lai veicinātu apmaiņu ar zināšanām un tehnisko zinātību un atvieglotu sadarbību visā Eiropas Savienībā un ārpus tās; papildus tam prasa, lai minētais zinātības centrs iesaistītu ieinteresēto personu organizācijas, piemēram, patērētāju aizsardzības organizācijas nolūkā nodrošināt patērētāju plašu pārstāvību; uzskata, ka, ņemot vērā algoritmisko sistēmu iespējamo nesamērīgo ietekmi uz sievietēm un minoritātēm, šādas struktūras lēmumu pieņemšanas līmeņiem ir jābūt daudzveidīgiem un dzimuma ziņā līdzsvarotiem; uzsver, ka dalībvalstīm savu valsts tirgus uzraudzības stratēģiju kontekstā ir jāizstrādā saskaņotas MI riska pārvaldības stratēģijas;

131.  ierosina, lai Komisija un/vai visas attiecīgās Savienības iestādes, struktūras, biroji un aģentūras, ko šajā kontekstā var izraudzīties, valsts uzraudzības iestādēm sniegtu jebkādu nepieciešamo palīdzību, tām pildot pirmo kontaktpunktu lomu, gadījumos, kad ir aizdomas par tādu juridisko pienākumu un ētikas principu, tostarp nediskriminācijas principa, pārkāpumiem, kas Savienības tiesiskajā regulējumā ir noteikti attiecībā uz MI; tai visu veidu nepieciešamā palīdzība valsts uzraudzības iestādēm ir jāsniedz arī gadījumos, kad tās veic atbilstības novērtējumus, lai atbalstītu pilsoņu tiesības apstrīdēt un panākt savu tiesību aizsardzību, proti, attiecīgā gadījumā atbalstot apspriešanos ar citām Savienības kompetentajām iestādēm, jo īpaši ar Patērētāju tiesību aizsardzības sadarbības tīklu un valstu patērētāju aizsardzības struktūrām, pilsoniskās sabiedrības organizācijām un sociālajiem partneriem, kas atrodas citās dalībvalstīs;

132. atzīst tās augsta līmeņa ekspertu grupas MI jautājumos vērtīgos rezultātus, kuras sastāvā ir akadēmisko aprindu, pilsoniskās sabiedrības un nozares pārstāvji, kā arī uzteic Eiropas MI aliansi, jo īpaši “Ētikas pamatnostādnes uzticama MI jomā”, un ierosina, ka tā varētu sniegt zinātību Komisijai un/vai jebkurai attiecīgajai Savienības iestādei, struktūrai, birojam un aģentūrai, kas varētu tikt izraudzīta šajā kontekstā;

133. konstatē ar MI saistītu projektu iekļaušanu Eiropas aizsardzības rūpniecības attīstības programmā (EDIDP); uzskata, ka topošais Eiropas Aizsardzības fonds (EAF) un Pastāvīgā strukturētā sadarbība (PESCO) arī var piedāvāt turpmāko ar MI saistīto projektu satvaru, kas palīdzētu labāk racionalizēt Savienības centienus šajā jomā un vienlaikus palīdzētu sasniegt Savienības mērķi stiprināt cilvēktiesības, starptautiskās tiesības un daudzpusējos risinājumus; uzsver, ka ar MI saistīti projekti būtu jāsaskaņo ar plašākām MI veltītām Savienības civilajām programmām; konstatē, ka saskaņā ar Eiropas Komisijas 2020. gada 19. februāra Balto grāmatu MI ir jāizveido izcilības un testēšanas centri, kuros galvenā vērība būtu pievērsta MI pētniecībai un izstrādei drošības un aizsardzības jomā, nosakot stingras specifikācijas, saskaņā ar kurām tiktu īstenota privātu ieinteresēto personu dalība un veikti viņu ieguldījumi;

134. pieņem zināšanai Komisijas 2020. gada 19. februāra Balto grāmatu par MI un pauž nožēlu, ka nav ņemti vērā militārie aspekti; aicina Komisiju un PV/AP iesniegt ― arī kā daļu no vispārējas pieejas ― nozaru MI stratēģiju, kas būtu paredzēta ar aizsardzību saistītām Savienībā veiktām darbībām un nodrošinātu gan iedzīvotāju tiesību, gan Savienības stratēģisko interešu ievērošanu un kura būtu balstīta uz konsekventu pieeju, sākot ar MI iespējotām sistēmām un beidzot ar to izmantošanu militārām vajadzībām, un augsta līmeņa ekspertu grupas mākslīgā intelekta jautājumos ietvaros izveidot drošības un aizsardzības darba grupu, kurai būtu jārisina tikai politikas un ieguldījumu jautājumi, kā arī MI ētikas aspekti drošības un aizsardzības jomā; aicina Padomi, Komisiju un PV/AP šajā nolūkā iesaistīties strukturētā dialogā ar Parlamentu;

Eiropas sertifikācija par atbilstību ētikas principiem

135. ierosina, lai Eiropas ētiskās atbilstības sertifikāta piešķiršanas kopīgie kritēriji un pieteikšanās process tai tiktu izstrādāti kopsolī ar Savienības līmenī īstenotu koordināciju, tostarp pēc jebkuru par augsta riska tehnoloģijām neuzskatīto tehnoloģiju tāda izstrādātāja, ieviesēja vai izmantotāja pieprasījuma, kurš vēlas, lai tiktu apliecināts attiecīgās valsts uzraudzības iestādes veiktais atbilstības pozitīvais novērtējums;

136. uzskata, ka šāds Eiropas ētiskās atbilstības sertifikāts veicinātu ētikas ievērošanu visā MI ekosistēmu piegādes ķēdē pēc noklusējuma; tādēļ ierosina, lai augsta riska tehnoloģiju gadījumā šī sertifikācija kļūtu par obligātu dalības publiskā iepirkuma procedūrās priekšnoteikumu MI, robotikas un saistīto tehnoloģiju jomā;

Starptautiskā sadarbība

137. uzskata, ka efektīvu pārrobežu sadarbību un ētikas standartus var ievērot tikai tad, ja visas ieinteresētās personas apņemas nodrošināt cilvēka rīcības iespēju un pārraudzību, tehnisko stabilitāti un drošumu, pārredzamību un pārskatatbildību, daudzveidību, nediskrimināciju un godīgumu, sabiedrības un vides labjūtību un ievērot iedibinātos privātuma, datu pārvaldības un datu aizsardzības principus, jo īpaši tos, kas ir noteikti Eiropas Parlamenta un Padomes Regulā (ES) 2016/679;

138. uzsver, ka Savienības juridiskie pienākumi un ētikas principi, kurus piemēro šo tehnoloģiju izstrādei, ieviešanai un izmantošanai, varētu padarīt Eiropu par pasaules līderi MI nozarē un tādēļ tie ir jāveicina visā pasaulē, sadarbojoties ar starptautiskajiem partneriem, vienlaikus turpinot kritisko un uz ētiku balstīto dialogu ar trešām valstīm, kurām ir alternatīvi MI regulējuma, izstrādes un ieviešanas modeļi;

139. atgādina, ka šīm tehnoloģijām raksturīgajām iespējām un riskiem ir globāls mērogs, jo to izmantotā programmatūra un dati bieži tiek importēti Savienībā un eksportēti no tās, un tādēļ starptautiskā līmenī ir vajadzīga konsekventa sadarbības pieeja; aicina Komisiju uzņemties iniciatīvu novērtēt, kuri divpusējie un daudzpusējie līgumi un nolīgumi ir jāpielāgo, lai nodrošinātu konsekventu pieeju un visā pasaulē popularizētu Eiropas ētiskās atbilstības modeli;

140. norāda uz Savienības līmenī īstenotas koordinācijas pievienoto vērtību, kas šajā kontekstā ir minēta jau iepriekš;

141. prasa panākt dažādu MI jomā darbojošos Eiropas pētniecības centru sinerģiju un tos saslēgt tīklā, kā arī to pašu izdarīt ar citiem daudzpusējiem forumiem, piemēram, Eiropas Padomi, Apvienoto Nāciju Organizācijas Izglītības, zinātnes un kultūras organizāciju (UNESCO), Ekonomiskās sadarbības un attīstības organizāciju (ESAO), Pasaules Tirdzniecības organizāciju un Starptautisko Telesakaru savienību (ITU), lai saskaņotu šo organizāciju centienus un labāk koordinētu MI tehnoloģijas, robotikas un saistīto tehnoloģiju izstrādi;

142. uzsver, ka Savienībai ir jāuzņemas vadošā loma, atbalstot daudzpusējus centienus ANO CCW valdību ekspertu grupā un citos attiecīgos forumos apspriest efektīvu starptautisku tiesisko regulējumu, kas nodrošinātu jēgpilnu cilvēka kontroli pār autonomajām ieroču sistēmām nolūkā pārvaldīt šādas tehnoloģijas, izveidojot precīzi noteiktus, uz kritērijiem balstītus procesus un pieņemot tiesību aktus, ar kuriem reglamentē to ētisku lietojumu, un ka tai tas ir jādara, apspriežoties ar ieinteresētajām personām militārajās, nozares, tiesībaizsardzības, akadēmiskajās un pilsoniskās sabiedrības aprindās, lai izprastu saistītos ētikas aspektus un ierobežotu šīm tehnoloģijām raksturīgos riskus, un novērstu to izmantošanu ļaunprātīgos nolūkos; 

143. atzīst NATO lomu eiroatlantikas drošības sekmēšanā un prasa paplašināt sadarbību NATO alianses ietvaros, lai izstrādātu kopīgus standartus un nodrošinātu MI aizsardzības sistēmu sadarbspēju; uzsver, ka transatlantiskās attiecības ir nozīmīgas kopīgu vērtību aizsardzībā un gaidāmu un jaunrodušos apdraudējumu novēršanā;

144. uzsver, ka ir svarīgi izstrādāt ētikas rīcības kodeksu, kas būtu bruņotu MI iespējotu sistēmu izmantošanas militārās operācijās pamatā un kas būtu līdzīgs spēkā esošajam tiesiskajam regulējumam, saskaņā ar kuru izmantot ķīmiskos un bioloģiskos ieročus ir aizliegts; uzskata, ka Komisijai ir jāsāk izstrādāt standartus par MI iespējotu ieroču sistēmu izmantošanu karadarbībā saskaņā ar starptautiskajām humanitārajām tiesībām un ka Savienībai ir jāpanāk šādu standartu starptautiska pieņemšana; uzskata, ka Savienībai starptautiskos forumos ir jāveido MI diplomātijas attiecības ar līdzīgi domājošiem partneriem, piemēram, G7, G20 un ESAO;

Noslēguma aspekti

145. ņemot vērā iepriekš izklāstītās pārdomas par aspektiem, kas attiecas uz MI, robotikas un saistīto tehnoloģiju ētisko dimensiju, secina, ka tiesiskā un ētiskā dimensija būtu jāiekļauj efektīvā, tālredzīgā un visaptverošā Savienības līmeņa tiesiskajā regulējumā, kuru atbalstītu valstu kompetentās iestādes, kuras koordinētu un pastiprinātu Komisija un/vai jebkura attiecīgā šajā kontekstā potenciāli izraudzītā Savienības iestāde, struktūra, birojs un aģentūra un kuras regulāri atbalstītu iespējamais iepriekš minētais zinātības centrs, un kuras tiktu pienācīgi cienītas un sertificētas iekšējā tirgū;

146. Saskaņā ar Līguma par Eiropas Savienības darbību 225. pantā noteikto procedūru pieprasa, lai Komisija iesniegtu priekšlikumu regulai par MI, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas un izmantošanas ētikas principiem, pamatojoties uz Līguma par Eiropas Savienības darbību 114. pantu un saskaņā ar minētā priekšlikuma pielikumā izklāstītajiem detalizētajiem ieteikumiem; norāda, ka šis priekšlikums nozares reglamentējošus tiesību aktus apdraudēt nedrīkst, bet tam ir jāattiecas tikai uz konstatētajām nepilnībām;

147. iesaka Eiropas Komisijai pēc apspriešanās ar visām attiecīgajām ieinteresētajām personām nepieciešamības gadījumā pārskatīt patlaban spēkā esošos Savienības tiesību aktus, kas ir piemērojami MI, robotikai un saistītajām tehnoloģijām, lai jautājumu par to izstrādes ātrumu varētu risināt saskaņā ar minēto tiesību aktu pielikumā izklāstītajiem ieteikumiem un nepieļautu pārmērīgu regulējumu, tostarp attiecībā uz MVU;

148. uzskata, ka MI, robotikas un saistīto tehnoloģiju Savienības tiesiskā regulējuma vajadzības gadījumā periodiski veikta novērtēšana un pārskatīšana būs būtiska, lai nodrošinātu, ka piemērojamie tiesību akti tiek atjaunināti atbilstoši straujajam tehnoloģiju progresam;

149. pauž viedokli, ka pieprasītajam tiesību akta priekšlikumam būtu finansiālas sekas, ja jebkurai Eiropas struktūra, kurai būtu uzticētas iepriekš minētās koordinācijas funkcijas, piešķirs tehniskos līdzekļus un cilvēkresursus, kas ir nepieciešami, lai pildītu tai nesen uzticētos uzdevumus;

150. uzdod priekšsēdētājam šo rezolūciju un pielikumā izklāstītos sīki izstrādātos nosūtīt ieteikumus Komisijai un Padomei.

 


PIELIKUMS REZOLŪCIJAS PRIEKŠLIKUMAM. SĪKI IZSTRĀDĀTI IETEIKUMI PAR PIEPRASĪTĀ PRIEKŠLIKUMA SATURU
A. PIEPRASĪTĀ PRIEKŠLIKUMA PRINCIPI UN MĒRĶI

I. Pieprasītā priekšlikuma principi un mērķi ir šādi:

˗  visos iesaistīto ieinteresēto personu un sabiedrības līmeņos vairot uzticēšanos MI, robotikai un saistītām tehnoloģijām, jo īpaši, ja tās tiek uzskatītas par augsta riska tehnoloģijām;

˗  samazinot slogu un birokrātiju, atbalstīt MI, robotikas un saistīto tehnoloģiju attīstību Savienībā, tostarp, palīdzot uzņēmumiem, jaunuzņēmumiem un maziem un vidējiem uzņēmumiem inovāciju un uzņēmējdarbības attīstības procesā , kā arī turpmākajā posmā, kad MI, robotiku un saistītās tehnoloģijas izmantos profesionāļi un privātpersonas, novērtēt pašreizējās un turpmākās regulatīvās prasības un riskus un pārliecinoši ņemt tos vērā;

˗  atbalstīt MI, robotikas un saistīto tehnoloģiju ieviešanu Savienībā, nodrošinot atbilstošu un samērīgu tiesisko regulējumu, kas būtu jāpiemēro, neskarot spēkā esošos vai turpmākos nozares reglamentējošos tiesību aktus, nolūkā veicināt regulatīvo noteiktību un inovācijas, vienlaikus garantējot pamattiesības un patērētāju aizsardzību;

˗  atbalstīt MI, robotikas un saistīto tehnoloģiju izmantošanu Savienībā, nodrošinot, ka tās tiek izstrādātas, ieviestas un izmantotas ētikas principiem atbilstošā veidā;

˗  pieprasīt nodrošināt pārredzamību un uzlabot informācijas plūsmas tādu iedzīvotāju vidū un tādu organizāciju iekšienē, kas izstrādā, ievieš vai izmanto mākslīgo intelektu, robotiku un saistītās tehnoloģijas, tādējādi panākot, ka šīs tehnoloģijas atbilst Savienības tiesību aktiem, pamattiesībām un pamatvērtībām, un ierosinātās regulas priekšlikumā ietvertajiem ētikas principiem;

II. Priekšlikumā ir ietverti šādi elementi:

˗  “Regula par mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas un izmantošanas ētiskajiem principiem”; Komisijas un/vai jebkuras tās attiecīgās Savienības iestādes, struktūras, biroja un aģentūras koordinējošā loma Savienības līmenī, kuras var izraudzīties šajā kontekstā, un Eiropas ētiskās atbilstības sertifikācija;

˗  Eiropas Komisijas atbalsta nozīme;

˗  “uzraudzības iestādes” loma katrā dalībvalstī, lai nodrošinātu ētikas principu piemērošanu mākslīgajam intelektam, robotikai un saistītām tehnoloģijām;

 

˗  attiecīgo pētniecības un izstrādes projektu un ieinteresēto personu, tostarp jaunuzņēmumu, mazo un vidējo uzņēmumu, uzņēmumu, sociālo partneru un citu pilsoniskās sabiedrības pārstāvju, iesaistīšana un apspriešanās ar tiem, kā arī atbalsta sniegšana tiem;

˗  pielikums, kurā ir ietverts izsmeļošs un kumulatīvs augsta riska nozaru un augsta riska pielietojumu un mērķu saraksts;

III. “Regulas par mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas un izmantošanas ētikas principiem” pamatā ir šādi principi:

˗  uz cilvēku orientēts, cilvēku radīts un cilvēku kontrolēts mākslīgais intelekts, robotika un saistītas tehnoloģijas;

˗  obligātā augsta riska mākslīgā intelekta, robotikas un saistīto tehnoloģiju atbilstības novērtēšana;

˗  drošība, pārredzamība un pārskatatbildība;

˗  aizsardzības garantijas un aizspriedumu un diskriminācijas nepieļaušanas pasākumi;

˗  tiesības uz tiesisko aizsardzību;

˗  sociālā atbildība un dzimumu līdzsvars mākslīgā intelekta, robotikas un saistīto tehnoloģiju jomā;

˗  mākslīgā intelekta, robotikas un saistīto tehnoloģiju ilgtspēja no vides viedokļa;

˗  privātuma respektēšana un biometriskās atpazīšanas izmantojuma ierobežojumi;

˗  laba pārvaldība, kas attiecas uz mākslīgo intelektu, robotiku un saistītajām tehnoloģijām, tostarp uz šādu tehnoloģiju izmantotajiem vai ģenerētajiem datiem;

IV. koordinācijas Savienības līmenī nolūkā Komisijai un/vai jebkurai attiecīgajai Savienības iestādei, struktūrai, birojam un aģentūrai, kuru var izraudzīties šajā kontekstā, ir jāveic šādi galvenie uzdevumi;

˗  sadarbošanās, uzraugot, kā tiek īstenots pieprasītais regulas priekšlikums un attiecīgās Savienības nozares reglamentējošie tiesību akti;

˗  sadarbošanās, izdodot norādījumus par to, kā konsekventi piemērot pieprasīto regulas priekšlikumu, proti, kā piemērot kritērijus attiecībā uz mākslīgo intelektu, robotiku un saistītām tehnoloģijām, kuras ir jāuzskata par augsta riska tehnoloģijām, un kā piemērot regulas pielikumā iekļauto sarakstu ar augsta riska nozarēm un augsta riska pielietojumiem un mērķiem;

˗  sadarbošanās ar katras dalībvalsts “uzraudzības iestādi”, lai izstrādātu Eiropas atbilstības ētikas principiem un juridiskajiem pienākumiem sertifikātu, kā ir noteikts pieprasītajā regulas priekšlikumā un attiecīgajos Savienības tiesību aktos, kā arī, lai izstrādātu pieteikšanās procesu jebkuram par augsta riska tehnoloģiju neuzskatītu tehnoloģiju izstrādātājam, ieviesējam vai izmantotājam, kurš vēlas apliecināt minēto tehnoloģiju atbilstību pieprasītajam regulas priekšlikumam;

˗  sadarbošanās attiecībā uz atbalstu starpnozaru un pārrobežu sadarbībai, regulāri apmainoties ar attiecīgajām ieinteresētajām personām un pilsonisko sabiedrību Eiropas Savienībā un pasaulē, jo īpaši ar uzņēmumiem, sociālajiem partneriem, pētniekiem un kompetentajām iestādēm, tostarp attiecībā uz tehnisko standartu izstrādi starptautiskā līmenī;

˗  sadarbošanās ar katras dalībvalsts “uzraudzības iestādi”, lai izstrādātu saistošas pamatnostādnes par metodiku, kas katrai “uzraudzības iestādei” ir jāpiemēro, novērtējot atbilstību tiesību normām;

˗  sadarbošanās, īstenojot saziņu ar katrā dalībvalstī izveidotām “uzraudzības iestādēm”, un to pilnvaru un uzdevumu koordinācija;

˗  sadarbošanās attiecībā uz informētības uzlabošanu, informācijas sniegšana un iesaistīšanās informācijas apmaiņā ar izstrādātājiem, ieviesējiem un izmantotājiem visā Savienībā.

˗  sadarbošanās, lai uzlabotu informētību, sniegtu informāciju, veicinātu digitālo pratību, nodrošinātu apmācību, mācītu prasmes un iesaistītos apmaiņās ar projektētājiem, izstrādātājiem, ieviesējiem, iedzīvotājiem, izmantotājiem un institucionālajām struktūrām visā Savienībā un starptautiskā mērogā;

˗  sadarbošanās, lai koordinētu vienotu mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas un izmantošanas pārvaldības sistēmu, kas ir jāīsteno praksē katras dalībvalsts “uzraudzības iestādei”;

˗  sadarbošanās, lai kalpotu par zinātības centru, veicinot informācijas apmaiņu un atbalstot vienotas izpratnes veidošanu vienotajā tirgū;

˗  sadarbošanās, lai uzņemtu Drošības un aizsardzības darba grupu.

V. papildus tam Komisijai ir jāveic šādi uzdevumi:

˗  izmantojot deleģētos aktus, kopīga saraksta ar tādām augsta riska tehnoloģijām izstrāde un pēc tam atjaunināšana, kas Savienībā ir konstatētas sadarbībā ar katras dalībvalsts uzraudzības iestādi;

˗  izmantojot deleģētos aktus, regulas pielikumā pievienotā saraksta atjaunināšana.

VI. “Uzraudzības iestādei” katrā dalībvalstī ir jāveic šādi galvenie uzdevumi:

˗  tā tiesiskā regulējuma konsekventas piemērošanas sekmēšana, kas ir izveidots ar pieprasīto regulas priekšlikumu, sadarbībā ar citu dalībvalstu “uzraudzības iestādi”, kā arī ar citām iestādēm, kas ir atbildīgas par nozares reglamentējošu tiesību aktu īstenošanu, Komisiju un/vai jebkuru attiecīgo Savienības iestādi, struktūru, biroju un aģentūru, kuru šajā kontekstā var izraudzīties, proti, attiecībā uz pieprasītajā regulas priekšlikumā paredzēto riska novērtēšanas kritēriju un tās pielikumā uzskaitīto augsta riska nozaru un augsta riska pielietojumu vai mērķu piemērošanu un pēc tam vajadzīgo un atbilstošo pasākumu uzraudzīšana, ja minētās piemērošanas rezultātā ir konstatētas augsta riska tehnoloģijas.

˗  izvērtēšana, vai mākslīgā intelekta, robotika un saistītās tehnoloģijas, tostarp programmatūra, algoritmi un dati, ko izmanto vai ģenerē šādas Savienībā izstrādātās, ieviestās un izmantotās tehnoloģijas, ir jāuzskata par augsta riska tehnoloģijām saskaņā ar riska novērtēšanas kritērijiem, kas ir reglamentēti pieprasītajā regulas priekšlikumā un tās pielikumā iekļautajā sarakstā;

˗  Eiropas sertifikāta par atbilstību ētikas principiem un juridiskajiem pienākumiem izdošana, kā tas ir noteikts pieprasītajā regulas priekšlikumā un attiecīgajos Savienības tiesību aktos, tostarp, ja tas izriet no pieteikumu iesniegšanas procesa, kas ir jāievēro jebkuram par augsta riska tehnoloģijām neuzskatītu tehnoloģiju izstrādātājam, ieviesējam vai izmantotājam, kurš vēlas iegūt apliecinājumu tam, ka tās atbilst pieprasītajam regulas priekšlikumam, un ko ir izstrādājusi Komisija un/vai jebkura attiecīgā Savienības iestāde, struktūra, birojs un aģentūra, kuru šajā kontekstā var izraudzīties;

˗  minēto tehnoloģiju atbilstību tiem ētikas principiem un juridiskajiem pienākumiem novērtēšana un uzraudzīšana, kas ir noteikti pieprasītajā regulas priekšlikumā un attiecīgajos Savienības tiesību aktos;

˗  atbildības uzņemšanās par mākslīgā intelekta, robotikas un saistīto tehnoloģiju pārvaldības standartu izveidi un īstenošanu, tostarp sazinoties ar visām attiecīgajām ieinteresētajām personām un pilsoniskās sabiedrības pārstāvjiem un regulāri risinot ar viņiem dialogu; šajā nolūkā sadarbošanās ar Komisiju un jebkuru attiecīgo Savienības iestādi, struktūru, biroju un aģentūru, kuru šajā kontekstā var izraudzīties, attiecībā uz kopējas sistēmas koordinēšanu Savienības līmenī;

˗  informētības uzlabošana, sabiedrības informēšana par mākslīgo intelektu, robotiku un saistītajām tehnoloģijām un tādas attiecīgo profesiju apmācības atbalstīšana, kuru cita starpā nodrošina arī tiesu iestādēs, tādējādi nodrošinot iedzīvotājiem un darba ņēmējiem digitālo kompetenci, prasmes un rīkus, kas ir vajadzīgi no taisnīgas pārejas viedokļa;

˗  darbība pirmā kontaktpunktua statusā gadījumos, kad rodas aizdomas par to juridisko pienākumu un ētikas principu pārkāpumiem, kas ir noteikti pieprasītajā regulas priekšlikumā, un šādos gadījumos atbilstības novērtējuma veikšana; saistībā ar šo atbilstības novērtējumu tā var apspriesties un/vai informēt citas Savienības kompetentās iestādes, jo īpaši Patērētāju tiesību aizsardzības sadarbības tīklu, valstu patērētāju tiesību aizsardzības struktūras, pilsoniskās sabiedrības organizācijas un sociālos partnerus;

VII. šajā nolūkā tai ir jāsadarbojas ar Komisiju un/vai jebkuru attiecīgo Savienības iestādi, struktūru, biroju un aģentūru, kuru šajā kontekstā katrā dalībvalstī var izraudzīties.

B. PIEPRASĪTĀ TIESĪBU AKTA PRIEKŠLIKUMA TEKSTS

Priekšlikums

EIROPAS PARLAMENTA UN PADOMES REGULAI

par mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas un izmantošanas ētikas principiem

ņemot vērā Līgumu par Eiropas Savienības darbību un jo īpaši tā 114. pantu,

ņemot vērā Eiropas Komisijas priekšlikumu,

pēc leģislatīvā akta projekta nosūtīšanas dalībvalstu parlamentiem,

ņemot vērā Eiropas Ekonomikas un sociālo lietu komitejas atzinumu,

saskaņā ar parasto likumdošanas procedūru,

tā kā:

(1) Mākslīgā intelekta, robotikas un saistīto tehnoloģiju, tostarp programmatūras, algoritmu un šādu tehnoloģiju izmantoto vai ģenerēto datu, izstrādes, ieviešanas un izmantošanas pamatā būtu jābūt vēlmei apkalpot sabiedrības intereses. Šādas tehnoloģijas var būt saistīta ar iespējām un riskiem, kuriem būtu jāpievērš uzmanība un kuri būtu jāreglamentē, Savienības līmenī pieņemot visaptverošu, ētikas principus atspoguļojošu tiesisko regulējumu, kas būtu jāievēro, sākot ar šādu tehnoloģiju izstrādi un ieviešanu, līdz pat to izmantošanai.

(2) Līmenim, kādā tiek nodrošināta atbilstība šādam tiesiskam regulējumam attiecībā uz mākslīgā intelekta, robotikas un saistīto tehnoloģiju, tostarp programmatūras, algoritmu un šādu tehnoloģiju izmantoto vai ģenerēto datu, izstrādi, ieviešanu un izmantošanu Savienībā, visās dalībvalstīs vajadzētu būt līdzvērtīgam, lai varētu efektīvi izmantot iespējas un konsekventi risināt jautājumu par riskiem, kurus šādas tehnoloģijas izraisa, un nepieļaut normatīvo sadrumstalotību. Būtu jānodrošina, lai šīs regulas noteikumu piemērošana visā Savienībā būtu vienāda.

(3) Šajā sakarībā ir jāteic, ka pašreizējā visā Savienībā obligāto noteikumu un īstenotās prakses daudzveidība rada būtisku vienotā tirgus sadrumstalotības risku un apdraud arī personu un sabiedrības labklājības un pārticības aizsardzību, kā arī saskanīgu tāda pilnīga potenciāla izpēti, kāds mākslīgajam intelektam, robotikai un saistītajām tehnoloģijām piemīt inovāciju veicināšanā un šīs labklājības un pārticības saglabāšanā. Atšķirības, kādas pastāv mērā, kādā izstrādātāji, ieviesēji un izmantotāji ņem vērā ar šīm tehnoloģijām saistīto ētisko dimensiju, var traucēt šo tehnoloģiju brīvu izstrādi, ieviešanu vai izmantošanu Savienībā, un šādas atšķirības var kļūt par vienlīdzīgu konkurences apstākļu nodrošināšanas un tehnoloģiskā progresa, un ekonomisko darbību īstenošanas Savienības līmenī šķērsli, kropļot konkurenci un liegt iestādēm iespējas pildīt to pienākumus, kas tām ir noteikti Savienības tiesību aktos. Turklāt, ja nav mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas un izmantošanas vienota regulējuma, kas saturētu ētikas principus, visas šajos procesos iesaistītās personas, t. i. izstrādātāji, ieviesēji un izmantotāji, saskaras ar juridisko nenoteiktību.

(4) Neskatoties uz to, ka ar šo regulu ir jāveicina Savienības līmeņa saskanīgas pieejas īstenošana tajā noteiktajos ietvaros, ar to tomēr būtu dalībvalstīm jāparedz rīcības brīvība, tostarp attiecībā uz to, kā ir jāīsteno minēto valstu attiecīgo uzraudzības iestāžu pilnvaras, lai sasniegtu šajā regulā noteiktos mērķus.

(5) Šī regula spēkā esošos vai turpmākos nozari reglamentējošos tiesību aktus neskar. Tai būtu jābūt samērīgai attiecībā uz tās mērķi, lai nepamatoti nekavētu inovācijas Savienībā, un tai būtu jāatbilst uz risku balstītai pieejai.

(6) Šāda regulējuma ģeogrāfiskās piemērošanas areālā būtu jāietver visi mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas vai izmantošanas Savienībā komponenti, tostarp tad, kad daļa tehnoloģiju varētu atrasties ārpus Savienības vai kad tām nav konkrētas atrašanās vietas, piemēram, mākoņdatošanas pakalpojumu gadījumā.

(7) Lai nodrošinātu saskaņotu regulatīvo pieeju un līdz ar to nodrošinātu juridisko noteiktību gan iedzīvotājiem, gan uzņēmumiem, Savienībā ir nepieciešama kopēja izpratne par tādiem jēdzieniem kā mākslīgais intelekts, robotika, saistītās tehnoloģijas un biometriskā atpazīšana. Tiem būtu jābūt tehnoloģiski neitrāliem un vajadzības gadījumā pārskatāmiem.

(8) Turklāt ir jāņem vērā tas, ka pastāv tehnoloģijas, kas ir saistītas ar mākslīgo intelektu un robotiku un, pateicoties kurām, programmatūra var kontrolēt fiziskos vai virtuālos procesus ar atšķirīgu autonomijas pakāpi[13]. Piemēram, attiecībā uz transportlīdzekļu automatizētu vadīšanu SAE starptautiskajā standartā J3016 ir ierosināti seši braukšanas automatizācijas līmeņi.

(9) Mākslīgā intelekta, robotikas un saistīto tehnoloģiju, tostarp programmatūras, algoritmu un šādu tehnoloģiju izmantoto vai ģenerēto datu, izstrāde, ieviešana un izmantošana būtu jāveic tā, lai tās cilvēku spējas papildinātu, nevis aizstātu, un būtu jānodrošina, ka to īstenošana iedzīvotāju interesēm nekaitē un atbilst Savienības tiesībām, Eiropas Savienības Pamattiesību hartā (“Harta”) noteiktajām pamattiesībām, Eiropas Savienības Tiesas iedibinātajai judikatūrai un citiem Eiropas instrumentiem un Savienībā piemērojamiem starptautiskiem instrumentiem.

(10) Lēmumus, kurus pieņem vai kuru pamatā esošo informāciju izstrādā mākslīgais intelekts, robotika un saistītās tehnoloģijas, arī turpmāk vajadzētu varēt jēgpilni pārskatīt, par tiem izteikt spriedumus, tajos būtu jāvar iejaukties un tie būtu jākontrolē cilvēkiem. Šādu tehnoloģiju tehniskā un funkcionālā sarežģītība to ieviesējiem vai lietotājiem nekad nedrīkst kalpot par aizbildinājumu, lai vismaz neiedarbinātu drošatteices mehānismu, nemainītu vai apturētu to darbību vai neatgrieztos pie iepriekšējo darbības režīma, atjaunojot drošas funkcijas, gadījumos, kad Savienības tiesību un šajā regulā izklāstīto ētisko principu un juridisko pienākumu izpilde ir apdraudēta.

(11) Mākslīgais intelekts, robotika un saistītās tehnoloģijas, kuru izstrāde, ieviešana un izmantošana var radīt būtisku traumas vai kaitējuma atsevišķām personām vai sabiedrībai kopumā risku, pārkāpjot Savienības tiesību aktos noteikto pamattiesību un drošības noteikumus, būtu jāuzskata par augsta riska tehnoloģijām. Lai tos kvalificētu kā tādus, būtu jāņem vērā nozare, kurā tie tiek izstrādāti, ieviesti vai izmantoti, to konkrētais lietojums vai nolūks un paredzamās traumas vai kaitējuma smagums. Smaguma pakāpe būtu jānosaka, pamatojoties uz iespējamās traumas vai kaitējuma apmēru, cietušo personu skaitu, radītā kaitējuma kopējo vērtību un sabiedrībai kopumā nodarīto kaitējumu. Smaga trauma un kaitējums ir, piemēram, bērnu, patērētāju vai darba ņēmēju tiesību pārkāpumi, kas to apmēra, cietušo bērnu, patērētāju vai darba ņēmēju skaita vai to ietekmes uz sabiedrību kopumā dēļ rada būtisku risku pārkāpt pamattiesības un drošības noteikumus, kas ir paredzēti Savienības tiesību aktos. Šajā regulā būtu jāiekļauj izsmeļošs un kumulatīvs augsta riska nozaru un augsta riska pielietojumu un mērķu saraksts.

(12) Šajā regulā noteiktie pienākumi, jo īpaši tie, kas attiecas uz augsta riska tehnoloģijām, būtu jāpiemēro tikai mākslīgajam intelektam, robotikai un saistītām tehnoloģijām, tostarp programmatūrai, algoritmiem un datiem, ko izmanto vai ģenerē šādas tehnoloģijas, kuras izstrādā, ievieš vai izmanto Savienībā un kuras pēc šajā regulā paredzētā riska novērtējuma tiek uzskatītas par augsta riska tehnoloģijām. Šādi pienākumi būtu jāpilda, neskarot vispārējo pienākumu, ka jebkāds mākslīgais intelekts, robotika un saistītās tehnoloģijas, tostarp programmatūra, algoritmi un šādu tehnoloģiju izmantotie un ģenerētie dati, Savienībā būtu jāizstrādā, jāievieš un jāizmanto, orientējoties uz cilvēku un pamatojoties uz cilvēka autonomijas un cilvēku drošības principiem saskaņā ar Savienības tiesību aktiem un pilnībā ievērojot tādas pamattiesības kā cilvēka cieņa, tiesības uz brīvību un drošību un tiesības uz personas neaizskaramību.

(13) Augsta riska tehnoloģiju īstenošanā būtu jāievēro drošības, pārredzamības, pārskatatbildības, bezaizspriedumainības vai nediskriminācijas, sociālās atbildības un dzimumu līdztiesības, tiesību uz tiesisko aizsardzību, vides ilgtspējas, privātuma un labas pārvaldības principi pēc tam, kad valsts uzraudzības iestāde būs veikusi objektīvu un ārēju riska novērtējumu saskaņā ar kritērijiem, kas ir paredzēti šajā regulā un tās pielikumā iekļautajā sarakstā. Veicot novērtējumu, būtu jāņem vērā izstrādātāja vai ieviesēja viedokļi un visi pašnovērtējumi.

(14) Komisijai un/vai jebkurai attiecīgajai Savienības iestādei, struktūrai, birojam un aģentūrai, kuru var izraudzīties šim nolūkam, būtu jāsagatavo nesaistošas īstenošanas pamatnostādnes par metodiku, kas izstrādātājiem, ieviesējiem un izmantotājiem būtu jāpiemēro, novērtējot atbilstību šai regulai. To darot, tām būtu jāapspriežas ar attiecīgajām ieinteresētajām personām.

(15) Savienībā būtu jāpanāk saskaņotība attiecībā uz šo tehnoloģiju riska novērtējumu, jo īpaši gadījumā, kad tās tiek novērtētas gan, par pamatu ņemot šo regulu, gan atbilstoši piemērojamiem nozares reglamentējošajiem tiesību aktiem. Attiecīgi valsts uzraudzības iestādēm būtu jāinformē citas iestādes, kas veic riska novērtējumus saskaņā ar visiem nozares tiesību aktiem, ja šīs tehnoloģijas, veicot šajā regulā paredzēto riska novērtējumu, tiek kvalificētas kā augsta riska tehnoloģijas.

(16) Lai mākslīgais intelekts, robotika un saistītās tehnoloģijas, tostarp programmatūra, algoritmi un šādu tehnoloģiju izmantotie vai ģenerētie dati, būtu uzticami, tie būtu jāizstrādā, jāievieš un jāizmanto drošā, pārredzamā un pārskatatbildīgā veidā, pamatojoties uz pamatīguma, noturības, drošības, precizitātes un kļūdu noteikšanas, izskaidrojamības, interpretējamības, revidējamības, pārredzamības un identificējamības drošuma parametriem, kā arī tā, lai atslēgtu attiecīgās funkcijas un atgrieztos pie iepriekšējā darbības režīma, atjaunojot drošas funkcijas, gadījumos, kad tiek konstatēta neatbilstība minētajiem drošības parametriem. Pārredzamība būtu jānodrošina, ļaujot publiskajām iestādēm gadījumos, kad tas ir absolūti nepieciešams, piekļūt tehnoloģijām, datiem un skaitļošanas sistēmām, kas ir šādu tehnoloģiju pamatā.

(17) Mākslīgā intelekta, robotikas un saistīto tehnoloģiju, jo īpaši augsta riska tehnoloģiju, izstrādātāji, ieviesēji un izmantotāji, kaut arī dažādā mērā, bet ir atbildīgi par atbilstību drošuma, pārredzamības un pārskatatbildības principiem, ciktāl tie ir saistīti ar attiecīgajām tehnoloģijām, tostarp programmatūru, algoritmiem un šādu tehnoloģiju izmantotiem un ģenerētiem datiem. Izstrādātājiem būtu jānodrošina, ka attiecīgās tehnoloģijas tiek izstrādātas un konstruētas atbilstoši drošuma parametriem, savukārt ieviesējiem un izmantotājiem būtu jāievieš un jāizmanto attiecīgās tehnoloģijas, minētos parametrus ievērojot pilnībā. Šajā nolūkā augsta riska tehnoloģiju izstrādātājiem būtu jānovērtē un jāprognozē ļaunprātīgas izmantošanas risks, ko var pamatoti sagaidīt attiecībā uz viņu izstrādātajām tehnoloģijām. Viņiem ir jānodrošina arī tas, ka to izstrādātās sistēmas iespēju robežās un ar piemērotiem līdzekļiem, piemēram, sniedzot paziņojumus par atteikšanos no tiesībām, norāda kļūdu vai neprecizitāšu iespējamību.

(18) Izstrādātājiem un ieviesējiem būtu jānodrošina, lai izmantotājiem būtu pieejami turpmāki attiecīgo tehnoloģiju atjauninājumi, proti, programmatūras atjauninājumi, saskaņā ar līgumu vai Savienības vai dalībvalstu tiesību aktiem. Turklāt, ja tas ir norādīts riska novērtējumā, izstrādātājiem un izvietotājiem būtu jāsniedz publiskajām iestādēm attiecīgā dokumentācija par konkrēto tehnoloģiju izmantošanu un šo tehnoloģiju izmantošanas drošību instrukcijas, tostarp, ja tas ir absolūti nepieciešams un pilnībā ievērojot Savienības tiesību aktus par datu aizsardzību, privātumu un intelektuālā īpašuma tiesībām, un komercnoslēpumiem, — arī avotkods, izstrādes rīki un sistēmā izmantotie dati.

 (19) Privātpersonām ir tiesības sagaidīt, ka viņu izmantotā tehnoloģija tiks īstenota saprātīgā veidā un ka tās attaisnos viņu uzticība. Iedzīvotāju uzticēšanās mākslīgajam intelektam, robotikai un saistītajām tehnoloģijām, tostarp programmatūrai, algoritmiem un šādu tehnoloģiju izmantotajiem vai ģenerētajiem datiem, ir atkarīga no tehnisko procesu izpratnes un iedziļināšanos tajos. Šādu procesu izskaidrojamības pakāpei vajadzētu būt atkarīgai no šo tehniskos procesu konteksta un tādu seku smaguma, kuras izraisa minēto tehnisko procesu kļūdains vai neprecīzs veikums, un tai vajadzētu būt pietiekamai, lai minētos procesus varētu apstrīdēt un panāktu tiesisko aizsardzību. Nodrošinot revidējamību, izsekojamību un pārredzamību, būtu jāvar novērst jebkuru iespējamu šādu tehnoloģiju nesaprotamību.

(20) Iedzīvotāju uzticēšanās mākslīgajam intelektam, robotikai un saistītajām tehnoloģijām, tostarp, programmatūrai, algoritmiem un šādu tehnoloģiju izmantotajiem vai ģenerētajiem datiem, ir atkarīga no pakāpes, kādā attiecīgajās tehnoloģijās ir paredzēta to novērtēšana, revidējamība un izsekojamība Atkarībā no izstrādātāju iesaistīšanās pakāpes viņiem būtu jānodrošina, ka šādas tehnoloģijas tiek izstrādātas un konstruētas tā, lai šāda novērtēšana, revidējamība un izsekojamība būtu iespējama. Ieviesējiem un izmantotājiem, cik vien tas tehniski ir iespējams, būtu jānodrošina, ka mākslīgais intelekts, robotika un saistītās tehnoloģijas tiek izstrādātas un izmantotas, pilnībā ievērojot pārredzamības prasības, kā arī tā, lai būtu iespējams tās revidēt un izsekot.

(21) Nolūkā nodrošināt pārredzamību un pārskatatbildību, iedzīvotāji būtu jāinformē, kad sistēma izmanto mākslīgo intelektu, kad mākslīgā intelekta sistēmas produktu vai pakalpojumu personalizē tā izmantotāju vajadzībām, vai viņi personalizāciju var atslēgt vai ierobežot un kad viņi saskaras ar automatizētas lēmumu pieņemšanas tehnoloģiju. Turklāt pārredzamības pasākumi, ciktāl tas ir tehniski iespējams, būtu jāpapildina ar precīziem un saprotamiem paskaidrojumiem par izmantotajiem datiem un algoritmu, tā mērķi, rezultātiem un iespējamo bīstamību.

(22) Programmatūrās, algoritmos un datos iestrādātie aizspriedumi un diskriminācija ir nelikumīgi un būtu jārisina, reglamentējot procesus, ar kuriem tie tiek projektēti un izmantoti. Neobjektivitāte var izrietēt gan no lēmumiem, kuru pamatā esošo informāciju izstrādā automatizētā sistēma vai kas tajā tiek pieņemti, gan no datu kopām, uz kurām šāda lēmumu pieņemšana balstās vai ar kurām sistēma ir apmācīta.

(23) Programmatūra, algoritmi un dati, ko izmanto vai ģenerē mākslīgais intelekts, robotika un saistītās tehnoloģijas, būtu jāuzskata par tādiem, kas satur aizspriedumus, gadījumos, kad tie, piemēram, pamatojoties uz aizspriedumainu personisku vai sociālu uztveri un vēlāku ar šīm iezīmēm saistītu datu apstrādi, optimālus rezultātus attiecībā uz ikvienu personu vai personu grupu nesasniedz.

(24) Saskaņā ar Savienības tiesību aktiem programmatūra, algoritmi un dati, ko izmanto vai ģenerē mākslīgais intelekts, robotika un saistītās tehnoloģijas, būtu jāuzskata par diskriminējošiem, ja to rezultātiem ir nesamērīgi nelabvēlīga iedarbība un ja to darbības rezultātā pret personu vai personu grupu izturas atšķirīgi, tostarp šo personu vai personu grupu nostādot neizdevīgākā stāvoklī salīdzinājumā ar citiem, piemēram, minēto personu individuālo iezīmju dēļ, bez nekāda objektīva vai saprātīga pamatojuma, neraugoties uz apgalvojumiem par minēto tehnoloģiju neitralitāti.

(25) Saskaņā ar Savienības tiesību aktiem leģitīmi mērķi, kas varētu objektīvi pamatot jebkādu atšķirīgu attieksmi pret noteiktām personām vai personu grupām, ir sabiedrības drošuma un drošības un veselības aizsardzība, noziedzīgu nodarījumu nepieļaušana, pamattiesību un brīvību aizsardzība, taisnīga pārstāvība un objektīvas prasības par tiesībām uz darbu profesijā.

(26) Mākslīgajam intelektam, robotikai un saistītajām tehnoloģijām, tostarp programmatūrai, algoritmiem un šādu tehnoloģiju izmantotiem vai ģenerētiem datiem, progresa ilgtspēja būtu jāveicina. Šādām tehnoloģijām nevajadzētu būt pretrunā ar vides saudzēšanas vai zaļās pārkārtošanas jautājumiem. Šādām tehnoloģijām varētu būt liela nozīme ANO vispārīgi izklāstīto ilgtspējīgas attīstības mērķu sasniegšanā, ņemot vērā nepieciešamību labklājību nodrošināt nākamajām paaudzēm. Šādas tehnoloģijas var atbalstīt adekvāta progresa uzraudzību, pamatojoties uz ilgtspējas un sociālās kohēzijas rādītājiem un izmantojot atbildīgus pētniecības un inovācijas instrumentus, un šim nolūkam ir nepieciešama Savienības un tās dalībvalstu resursu piesaiste, lai atbalstītu projektus, ar kuriem nodrošina šo mērķu sasniegšanu, un tajos investētu.

(27) Mākslīgā intelekta, robotikas un saistīto tehnoloģiju, tostarp programmatūras, algoritmu un šādu tehnoloģiju izmantoto vai ģenerēto datu, izstrādes, ieviešanas un izmantošanas procesā nekādā gadījumā nedrīkstētu tīši nodarīt nekāda veida traumu vai kaitējumu nedz atsevišķām personām, nedz sabiedrībai kopumā vai minēto traumu vai kaitējumu paredzēt pēc noklusējuma. Līdz ar to, jo īpaši augsta riska tehnoloģijas būtu jāizstrādā, jāievieš un jāizmanto sociāli atbildīgā veidā.

(28) Tādēļ izstrādātājus, ieviesējus un izmantotājus atkarībā no viņu iesaistīšanās pakāpes attiecīgajā mākslīgajā intelektā, robotikā un saistītajās tehnoloģijās, ir jāvar saukt pie atbildības un saskaņā ar Savienības un dalībvalstu tiesību aktiem, ar kuriem reglamentē atbildību, — par jebkādu atsevišķām personām vai sabiedrībai nodarītu traumu vai kaitējumu.

(29) Jo īpaši atbildīgajiem par minētās traumas vai kaitējuma nepieļaušanu, pamatos būtu jābūt izstrādātājiem, kas pieņem lēmumus, ar kuriem nosaka un kontrolē mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes gaitu vai veidu, kā arī šo tehnoloģiju ieviesējiem, kas pilda kontroles vai vadības funkcijas un ir iesaistīti to ieviešanā, pieņemot lēmumus par minēto ieviešanu, un kontrolē ar šo ieviešanu saistītos riskus vai gūst no tās labumu, izstrādes procesā veicot atbilstīgus pasākumus un attiecīgi pilnībā ievērojot šādus pasākumus ieviešanas posmā.

(30) Sociāli atbildīgu mākslīgo intelektu, robotiku un saistītās tehnoloģijas, tostarp programmatūru, algoritmus un šādu tehnoloģiju izmantotos vai ģenerētos datus var definēt kā tehnoloģijas, kas palīdz rast risinājumus, ar kuriem aizsargā un veicina dažādus mērķus attiecībā uz sabiedrību, jo īpaši demokrātiju, veselību un ekonomisko labklājību, iespēju vienlīdzību, darba ņēmēju un sociālās tiesības, dažādus un neatkarīgus plašsaziņas līdzekļus un objektīvu un brīvi pieejamu informāciju, nodrošinot publiskas debates, kvalitatīvu izglītību, kultūras un valodu daudzveidību, dzimumu līdzsvaru, digitālās prasmes, inovācijas un radošumu. Tās ir arī tādas, kas tiek izstrādātas, ieviestas un izmantotas, pienācīgi ņemot vērā to galīgo ietekmi uz iedzīvotāju fizisko un mentālo labjutību un ar kurām naida runu vai vardarbību nekurina. Šādi mērķi būtu jāsasniedz, jo īpaši, izmantojot augsta riska tehnoloģijas.

(31) Mākslīgais intelekts, robotika un saistītās tehnoloģijas būtu jāizstrādā, jāievieš un jāizmanto arī nolūkā atbalstīt sociālo iekļaušanu, demokrātiju, plurālismu, solidaritāti, taisnīgumu, līdztiesību un sadarbību, un to potenciāls šajā sakarībā būtu maksimāli jāattīsta un jāizpēta, īstenojot pētniecības un inovācijas projektus. Tādēļ Savienībai un tās dalībvalstīm būtu jāpiesaista to saziņas, administrācijas un finanšu resursi, lai šādus projektus atbalstītu un tajos investētu.

(32) Projekti, kas ir saistīti ar mākslīgā intelekta, robotikas un saistīto tehnoloģiju potenciālu sociālās labklājības jautājuma risināšanā, būtu jāīsteno, pamatojoties uz atbildīgiem pētniecības un inovācijas instrumentiem, lai jau no paša sākuma garantētu šo projektu atbilstību ētikas principiem.

(33) Mākslīgā intelekta, robotikas un saistīto tehnoloģiju, tostarp programmatūras, algoritmu un šādu tehnoloģiju izmantoto vai ģenerēto datu, izstrādē, ieviešanā un izmantošanā ir jāņem vērā to vides pēdas nospiedums. Saskaņā ar pienākumiem, kas ir noteikti piemērojamajos Savienības tiesību aktos, šādas tehnoloģijas radīt kaitējumu videi to dzīves ciklā un visā piegādes ķēdē nedrīkstētu, un tās būtu jāizstrādā, jāievieš un jāizmanto tā, lai saudzētu vidi un mazinātu, un uzlabotu savu vides pēdas nospiedumu, sekmētu zaļo pārkārtošanos un atbalstītu klimatneitralitātes un aprites ekonomikas mērķu sasniegšanu.

(34) Šīs regulas piemērošanas vajadzībām izstrādātāji, ieviesēji un izmantotāji atkarībā no viņu attiecīgās iesaistes jebkura augsti riskanta mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādē, ieviešanā vai izmantošanā saskaņā ar spēkā esošajiem noteikumiem, ar kuriem reglamentē videi nodarīto kaitējumu, būtu jāsauc pie atbildības par jebkādu videi nodarīto kaitējumu.

(35) Šīs tehnoloģijas būtu jāizstrādā, jāievieš un jāizmanto arī nolūkā atbalstīt vides mērķu sasniegšanu saskaņā ar spēkā esošajām Savienības tiesībās noteiktajām tādām saistībām kā radīto atkritumu apjoma samazināšana, oglekļa dioksīda pēdas mazināšana, klimata pārmaiņu apkarošana un vides saudzēšana, un šajā sakarā, izmantojot pētniecības un inovācijas projektus, šo tehnoloģiju potenciāls būtu maksimāli jāattīsta un jāizpēta. Tādēļ Savienībai un tās dalībvalstīm būtu jāpiesaista to saziņas, administrācijas un finanšu resursi, lai šādus projektus atbalstītu un tajos investētu.

(36) Projekti, kas ir saistīti ar mākslīgā intelekta, robotikas un saistīto tehnoloģiju potenciālu vides problēmu risināšanā, būtu jāīsteno, pamatojoties uz atbildīgiem pētniecības un inovācijas instrumentiem, lai jau no paša sākuma garantētu šo projektu atbilstību ētikas principiem.

(37) Savienībā izstrādātam, ieviestam un izmantotam mākslīgajam intelektam, robotikai un saistītajām tehnoloģijām, tostarp programmatūrai, algoritmiem un šādu tehnoloģiju izmantotiem vai ģenerētiem datiem, ir jābūt pilnīgā saskaņā ar Savienības pilsoņu tiesībām uz privātumu un personas datu aizsardzību. Jo īpaši to izstrādei, ieviešanai un izmantošanai būtu jāatbilst Eiropas Parlamenta un Padomes Regulai (ES) 2016/679[14] un Eiropas Parlamenta un Padomes Direktīvai 2002/58/EK[15].

(38) Tā, piemēram, izmantojot tādas attālinātas atpazīšanas tehnoloģijas kā biometrisko pazīmju atpazīšanu, jo sevišķi sejas vaibstu atpazīšanu, lai automātiski identificētu indivīdus, būtu pienācīgi jāņem vērā mākslīgā intelekta, robotikas un saistīto tehnoloģiju, tostarp programmatūras, algoritmu un šādu tehnoloģiju izmantoto vai ģenerēto datu, pielietošanas ētikas robežas. Ja publiskās iestādes šīs tehnoloģijas izmanto būtisku sabiedrības interešu vārdā, proti, lai garantētu privātpersonu drošību un pārvarētu ārkārtas situācijas valstī, nevis, lai garantētu īpašumu drošību, to izmantošana vienmēr būtu jādara zināma, tai būtu jābūt samērīgai, mērķtiecīgai, tā nedrīkst pārsniegt konkrētos mērķus un tā būtu jāierobežo laikā saskaņā ar Savienības tiesību aktiem un pienācīgi ņemot vērā cilvēka cieņu un autonomiju, kā arī Hartā noteiktās pamattiesības. Šīs izmantošanas kritērijus un ierobežojumus būtu jāvar pārskatīt tiesā, un tie būtu demokrātiski jākontrolē un jāapspriež debatēs, kurās būtu iesaistīta pilsoniskā sabiedrība.

(39) Pārvaldība, kuras pamatā ir attiecīgie standarti, uzlabo drošumu un vairo iedzīvotāju uzticēšanos mākslīgā intelekta, robotikas un saistīto tehnoloģiju, tostarp programmatūras, algoritmu un šādu tehnoloģiju izmantoto vai ģenerēto datu, izstrādei, ieviešanai un izmantošanai.

(40) Publiskām iestādēm pirms tādu augsta riska tehnoloģiju ieviešanas, kuras sniedz atbalstu lēmumiem, kas tiek pieņemti publiskajā sektorā un kuriem ir tieša un būtiska ietekme uz pilsoņu tiesībām un pienākumiem, būtu jāveic ietekmes novērtējumi attiecībā uz pamattiesībām.

(41) No spēkā esošajiem attiecīgajiem pārvaldības standartiem ir jāmin, piemēram, “Ētikas vadlīnijas uzticamam MI”, ko izstrādāja Eiropas Komisijas izveidotā mākslīgā intelekta augsta līmeņa ekspertu grupa, un jebkuri citi tehniskie standarti, ko Eiropas mērogā, piemēram, pieņēma Eiropas Standartizācijas komiteja (CEN), Eiropas Elektrotehnikas standartizācijas komiteja (CENELEC) un Eiropas Telekomunikāciju standartu institūts (ETSI), un pasaules mērogā — Starptautiskā Standartizācijas organizācija (ISO) un Elektrotehnikas un elektronikas inženieru institūts (EEIE).

(42) Datu koplietošana un izmantošana daudzu dalībnieku starpā ir sensitīva, un tāpēc mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrāde, ieviešana un izmantošana būtu jāreglamentē ar attiecīgiem noteikumiem, standartiem un protokoliem, kas saturētu kvalitātes, integritātes, drošības, uzticamības, privātuma un kontroles prasības. Datu pārvaldības stratēģijā galvenā uzmanība būtu jāpievērš šādu datu apstrādei, koplietošanai un piekļuvei tiem, tostarp to pienācīgai pārvaldībai, revidējamībai un izsekojamībai, un būtu jāgarantē neaizsargātu grupu, tostarp personu ar invaliditāti, pacientu, bērnu, minoritāšu un migrantu datu pienācīga aizsardzība. Turklāt izstrādātājiem, ieviesējiem un izmantotājiem, novērtējot datu kopas, ko tie izmanto, lai uzlabotu to tehnoloģiju uzticamību, kuras tie izstrādā, ievieš un izmanto, attiecīgā gadījumā būtu jābūt iespējai paļauties uz galvenajiem darbības rādītājiem.

(43) Dalībvalstīm būtu jāizrauga neatkarīga administratīva iestāde, kas darbotos kā uzraudzības iestāde. Jo īpaši katrai valsts uzraudzības iestādei būtu jābūt atbildīgai par tāda mākslīgā intelekta, robotikas un saistīto tehnoloģiju apzināšanu, kas tiek uzskatītas par augsta riska tehnoloģijām, ņemot vērā šajā regulā paredzētos riska novērtēšanas kritērijus, un par šo tehnoloģiju atbilstības šajā regulā noteiktajiem pienākumiem novērtējumu un uzraudzību.

(44) Katrai valsts uzraudzības iestādei būtu jāuzņemas arī atbildība par šo tehnoloģiju labu pārvaldību, ko koordinētu Komisija un/vai jebkura attiecīgā Savienības iestāde, struktūra, birojs vai aģentūra, kuru šim nolūkam var izraudzīties. Tādēļ tām ir svarīga loma Savienības pilsoņu uzticēšanās un drošības veicināšanā, kā arī demokrātiskas, plurālistiskas un taisnīgas sabiedrības veidošanā.

(45) Lai novērtētu saskaņā ar šo regulu uzskatītās augsta riska tehnoloģijas un uzraudzītu to atbilstību šai regulai un uzraudzītu to atbilstību tai, valsts uzraudzības iestādēm attiecīgā gadījumā būtu jāsadarbojas ar iestādēm, kas ir atbildīgas par šo tehnoloģiju novērtēšanu un uzraudzību un to atbilstības nozares reglamentējošiem tiesību aktiem nodrošināšanu.

(46) Valsts uzraudzības iestādēm būtu jāīsteno būtiska un regulāra savstarpējā sadarbība, kā arī sadarbība ar Eiropas Komisiju un citām attiecīgām Savienības iestādēm, struktūrām, birojiem un aģentūrām, lai garantētu saskaņotu pārrobežu darbību un nodrošinātu šo tehnoloģiju konsekventu izstrādi, ieviešanu un izmantošanu Savienībā saskaņā ar šajā regulā noteiktajiem ētikas principiem un juridiskajiem pienākumiem.

(47) Piedaloties šādā sadarbībā un cenšoties panākt pilnīgu saskaņošanu Savienības līmenī, valsts uzraudzības iestādēm būtu jāpalīdz Komisijai izstrādāt kopīgu un izsmeļošu augsta riska mākslīgā intelekta, robotikas un saistīto tehnoloģiju sarakstu saskaņā ar kritērijiem, kas ir paredzēti šajā regulā un tās pielikumā. Turklāt būtu jāizstrādā piešķiršanas process, atbilstoši kuram izsniedz Eiropas ētiskās atbilstības sertifikātu, tostarp brīvprātīgas pieteikšanās process, kuru varēti izmantot jebkurš par augsta riska tehnoloģijām neuzskatītu tehnoloģiju izstrādātājs, izplatītājs vai izmantotājs, kas vēlas apliecināt to atbilstību šai regulai.

(48) Valsts uzraudzības iestādēm būtu jānodrošina, ka tiek iesaistīts pēc iespējas lielāks skaits ieinteresēto personu, piemēram, nozares, uzņēmumu, sociālo partneru, pētniecības, patērētāju un pilsoniskās sabiedrības organizāciju pārstāvji, un būtu jānodrošina plurālistisks forums, kurā tiktu veikta analīze un notiktu viedokļu apmaiņa, lai nonāktu pie saprotamiem un precīziem slēdzieniem par to, kā pārvaldību reglamentēt.

(49) Valsts uzraudzības iestādēm būtu jānodrošina, ka tiek iesaistīts pēc iespējas lielāks skaits ieinteresēto personu, piemēram, nozares, uzņēmumu, sociālo partneru, pētniecības, patērētāju un pilsoniskās sabiedrības organizāciju pārstāvji, un ir jānodrošina plurālistisks forums, kurā tiktu veikta analīze un notiktu viedokļu apmaiņa, lai sekmētu ieinteresēto personu savstarpējo sadarbību, galvenokārt ar akadēmiskajām aprindām, pētniekiem, nozari, pilsonisko sabiedrību un atsevišķiem ekspertiem, un sastrādāšanos to starpā, lai nonāktu pie saprotamiem un precīziem slēdzieniem par to, kā pārvaldību reglamentēt.

(50) Papildus tam minētajām valsts uzraudzības iestādēm būtu jāsniedz profesionālas administratīvas norādes un atbalsts izstrādātājiem, ieviesējiem un izmantotājiem, jo īpaši maziem un vidējiem uzņēmumiem vai jaunuzņēmumiem, kas saskaras ar problēmām ievērot šajā regulā noteiktos ētiskos principus un juridiskos pienākumus.

(51) Komisijai un/vai jebkurai attiecīgajai Savienības iestādei, struktūrai, birojam un aģentūrai, ko var izraudzīties šim nolūkam, būtu jāizstrādā saistošas dalībvalstu uzraudzības iestādēm paredzētas pamatnostādnes par metodiku, kas tām būtu jāpiemēro, novērtējot atbilstību tiesību normām.

(52) Trauksmes celšana vērš attiecīgo iestāžu uzmanību uz iespējamiem un faktiskiem Savienības tiesību aktu pārkāpumiem, lai nepieļautu traumu, kaitējumu vai bojājumu, kas pretējā gadījumā tiktu nodarīti. Turklāt ziņošanas procedūras uzlabo informācijas plūsmu uzņēmumos un organizācijās, tādējādi mazinot risku, ka tiek izstrādāti nepareizi vai kļūdaini produkti vai pakalpojumi. Uzņēmumiem un organizācijām, kas izstrādā, ievieš vai izmanto mākslīgo intelektu, robotiku un saistītās tehnoloģijas, tostarp tehnoloģiju izmantotos vai ģenerētos datus, būtu jāizveido ziņošanas kanāli, un personas, kas ziņo par pārkāpumiem, būtu jāaizsargā pret represijām.

(53) Nav iespējams paredzēt, cik strauji attīstīsies mākslīgais intelekts, robotika un saistītās tehnoloģijas, tostarp programmatūra, algoritmi un šādu tehnoloģiju izmantotie vai ģenerētie dati, kā arī tehniska mašīnmācīšanās, spriešanas procesi un citas tehnoloģijas, kas ir šīs attīstības pamatā. Tādēļ ir gan lietderīgi, gan nepieciešami izveidot pārskatīšanas mehānismu, saskaņā ar kuru papildus ziņošanai par regulas piemērošanu Komisijai ir regulāri jāiesniedz ziņojums par iespējamām izmaiņām šīs regulas piemērošanas jomā.

(54) Tā kā šīs regulas mērķi, proti, izveidot mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas un izmantošanas Savienībā ētikas principu kopēju tiesisko regulējumu un noteikt juridiskus minēto darbību pienākumus, pietiekami labi atsevišķās dalībvalstīs sasniegt nevar, bet tā mēroga un iedarbības dēļ to var labāk sasniegt Savienības līmenī, Savienība var noteikt pasākumus saskaņā ar Līguma par Eiropas Savienību 5. pantā noteikto subsidiaritātes principu. Ievērojot minētajā pantā noteikto proporcionalitātes principu, šajā regulā paredz vienīgi tos pasākumus, kas ir vajadzīgi minētā mērķa sasniegšanai.

(55) Šajā regulā paredzēto koordināciju Savienības līmenī vislabāk nodrošinātu Komisija un/vai jebkura attiecīgā Savienības iestāde, struktūra, birojs un aģentūra, kuru var izraudzīties šajā kontekstā, lai izvairītos no sadrumstalotības un visā Savienībā nodrošinātu konsekventu šīs regulas piemērošanu; Tādēļ Komisijai būtu jāuzdod rast piemērotu risinājumu, lai šādu koordināciju strukturētu Savienības līmenī nolūkā katrā dalībvalstī koordinēt valsts uzraudzības iestāžu pilnvaras un darbības: mākslīgā intelekta, robotikas un saistīto tehnoloģiju riska novērtējumu, šo tehnoloģiju izstrādes, ieviešanas un izmantošanas pārvaldības vienota regulējuma izveidi, sertifikātu izstrādi un izdošanu par atbilstību šajā regulā noteiktajiem ētikas principiem un juridiskajiem pienākumiem, atbalstu regulārai apmaiņai ar attiecīgajām ieinteresētajām personām un pilsonisko sabiedrību un tāda zinātības centra izveidi, kurš apvienotu akadēmisko aprindu, pētniecības, nozares pārstāvjus un atsevišķus ekspertus, lai Savienības līmenī veicinātu zināšanu un tehniskās zinātības apmaiņu, un Savienības pieejas veicināšanu starptautiskās sadarbības ceļā un konsekventu reaģēšanu visā pasaulē uz iespējām un riskiem, kas šīm tehnoloģijām ir raksturīgi.


IR PIEŅĒMUŠI ŠO REGULU.

 

I nodaļa

Vispārīgie noteikumi

1. pants

Regulas pieņemšanas nolūks

 

Šīs regulas pieņemšanas nolūks ir izveidot visaptverošu un nākotnes prasībām atbilstošu Savienības ētikas principu un juridisko pienākumu tiesisko regulējumu, saskaņā ar kuru Savienībā tiktu īstenota mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrāde, ieviešana un izmantošana.

2. pants

Piemērošanas joma

 

Šī regula attiecas uz Savienībā izstrādātu, ieviestu un izmantotu mākslīgo intelektu, robotiku un saistītajām tehnoloģijām, tostarp programmatūru, algoritmiem un šādu tehnoloģiju izmantotajiem vai ģenerētajiem datiem.

3. pants

Ģeogrāfiskais spēkā esamības areāls

Šo regulu piemēro mākslīgajam intelektam, robotikai un saistītajām tehnoloģijām, ja kādu no to daļām izstrādā, ievieš vai izmanto Savienībā, neatkarīgi no tā, vai programmatūra, algoritmi vai šādu tehnoloģiju izmantotie vai izstrādātie dati atrodas ārpus Savienības vai tiem konkrētas ģeogrāfiskās atrašanās vietas nav.

4. pants

Definīcijas

Šīs regulas piemērošanas nolūkā ir jāievēro šādas definīcijas:

(a) “mākslīgais intelekts” ir sistēma, kura darbojas, pamatojoties uz programmatūru, vai ir iestrādāta tehnikas ierīcēs un kuras rīcība liecina par intelektu, inter alia, vācot, apstrādājot, analizējot un interpretējot datus par tā apkārtējo vidi un ar zināmu autonomijas pakāpi veicot darbības, ar kurām tā sasniedz konkrētus mērķus[16];

(b) “autonomija” ir MI sistēma, kas darbojas, interpretējot konkrētus ievaddatus un izmantojot iepriekš noteiktu norāžu komplektu, bet ar šādām norādēm aprobežota nav, lai gan tās rīcību ierobežo tai noteiktais mērķis, kuru tā saskaņā ar programmu tiecas sasniegt, un citas būtiskas izstrādātāja sistēmas projektā izdarītas izvēles;

(c) “robotika” ir tehnoloģijas, ar kuras palīdzību automātiski kontrolētas, pārprpogrammējamas, daudzfunkcionālas ierīces[17] fiziskajā pasaulē var veikt uzdevumus, kurus tradicionāli veic vai sāk cilvēki, tostarp, izmantojot mākslīgo intelektu vai saistītās tehnoloģijas;

(d) “saistītās tehnoloģijas” ir tehnoloģijas, pateicoties kurām, programmatūra var daļēji vai pilnīgi autonomi kontrolēt fizisku vai virtuālu procesu un tehnoloģijas, kas spēj konstatēt biometriskos, ģenētiskos vai cita veida datus, un tehnoloģijas, kas cilvēku iezīmes kopē vai tās izmanto kā citādi;

(e) “augsts risks” ir ievērojams risks, kas ir saistīts ar mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādi, ieviešanu un izmantošanu, lai radītu traumu vai kaitējumu atsevišķām personām vai sabiedrībai, pārkāpjot Savienības tiesību aktos noteiktās pamattiesības un drošības noteikumus, ņemot vērā to konkrēto izmantojumu vai nolūku un nozari, kurā tie ir izstrādāti, ieviesti vai izmantoti, un paredzamās traumas vai kaitējuma smagumu;

(f) “izstrāde” ir algoritmu veidošana un projektēšana, programmatūras rakstīšana un projektēšana vai datu vākšana, uzglabāšana un pārvaldība, lai radītu vai apmācītu mākslīgo intelektu, robotiku un saistītās tehnoloģijas vai lai radītu izveidotā mākslīgā intelekta, robotikas un saistīto tehnoloģiju jaunu pielietojumu;

(g) “izstrādātājs” ir jebkura fiziska vai juridiska persona, kas pieņem lēmumus, ar kuriem nosaka un kontrolē mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes gaitu vai veidu;

(h) “ieviešana” ir mākslīgā intelekta, robotikas un saistīto tehnoloģiju izmantošana un pārvaldība, kā arī to laišana tirgū vai citāda to pieejamības nodrošināšana izmantotājiem;

(i) “ieviesējs” ir jebkura fiziska vai juridiska persona, kas ir iesaistīta mākslīgā intelekta, robotikas un saistīto tehnoloģiju konkrētā ieviešanā un kurai ir kontroles vai vadības funkcija, pieņemot lēmumus, kontrolējot risku un gūstot labumu no šādas ieviešanas;

(j) “izmantošana” ir jebkura darbība, kas attiecas uz mākslīgo intelektu, robotiku un saistītajām tehnoloģijām, izņemot izstrādi vai ieviešanu;

(k) “izmantotājs” ir fiziska vai juridiska persona, kas izmanto mākslīgo intelektu, robotiku un saistītās tehnoloģijas, bet tās neizstrādā un neievieš;

(l) “aizspriedums” ir personas vai personu grupas neobjektīva individuāla vai sociāla uztvere, kuras pamatā ir šo personu personīgās iezīmes;

(m) “diskriminācija” ir jebkāda atšķirīga attieksme pret personu vai personu grupu tāda iemesla dēļ, kam nav objektīva vai saprātīga pamatojuma un kas tādēļ Savienības tiesību aktos ir aizliegts;

(n) “trauma vai kaitējums”, tostarp, ja to ir izraisījusi naida runa, aizspriedumi, diskriminācija vai stigmatizācija, fizisks vai garīgs kaitējums, materiāls vai nemateriāls kaitējums, piemēram, finansiāla vai ekonomiska rakstura kaitējums, darba vai izglītības iespējas zaudēšana, nepamatota izvēles vai vārda brīvības ierobežošana vai privātuma zaudēšana, un jebkurš Savienības tiesību aktu pārkāpums, kas kaitē personai;

(o) “laba pārvaldība” ir veids, kā nodrošināt, lai izstrādātāji, ieviesēji un izmantotāji pieņemtu un ievērotu atbilstošus un saprātīgus standartus un uzvedības protokolus, kuru pamatā būtu oficiāli noteikumi, procedūras un vērtību kopumi un, pateicoties kuriem, viņi var pienācīgi risināt ētikas jautājumus, tiklīdz tie rodas vai pirms tam.

5. pants

Mākslīgā intelekta, robotikas un saistīto tehnoloģiju ētikas principi

1. Jebkurš mākslīgais intelekts, robotika un saistītās tehnoloģijas, tostarp programmatūrs, algoritmi un šādu tehnoloģiju izmantotie vai ģenerētie dati, Savienībā ir jāizstrādā, jāievieš un jāizmanto saskaņā ar Savienības tiesību aktiem un pilnībā ievērojot cilvēka cieņu, autonomiju un drošību un citas Hartā noteiktas pamattiesības.

2. Tādu personas datu apstrādi, kas ir iegūti, izstrādājot, ieviešot un izmantojot mākslīgo intelektu, robotiku un saistītās tehnoloģijas, tostarp tādu personas datu apstrādi, kuru avots ir nepersondati un biometriskie dati, veic saskaņā ar Regulu (ES) 2016/679 un Direktīvu 2002/58/EK.

3. Savienība un tās dalībvalstis veicina pētniecības projektus, kuru mērķis ir nodrošināt uz mākslīgo intelektu, robotiku un saistītajām tehnoloģijām balstītus risinājumus, ar kuriem cenšas veicināt sociālo iekļautību, demokrātiju, plurālismu, solidaritāti, taisnīgumu, vienlīdzību un sadarbību.

II nodaļa

Pienākumi attiecībā uz augsta riska tehnoloģijām

6. pants

Pienākumi attiecībā uz augsta riska tehnoloģijām

1. Šī nodaļas normas piemēro tikai tādam Savienībā izstrādātam, ieviestam un izmantotam mākslīgajam intelektam, robotikai un saistītajām tehnoloģijām, tostarp programmatūrai, algoritmiem un šādu tehnoloģiju izmantotajiem vai ģenerētajiem datiem, kuri tiek uzskatīti par augsti riskantiem.

 

2. Jebkuru augsta riska mākslīgo intelektu, robotiku un saistītās tehnoloģijas, tostarp programmatūru, algoritmus un šādu tehnoloģiju izmantoto vai ģenerēto datus, izstrādā, ievieš vai izmanto, lai tiktu nodrošināts, ka netiek pārkāpti šajā regulā noteiktie ētikas principi.

7. pants

Antropocentrisks un cilvēka radīts mākslīgais intelekts

1. Jebkuru augsta riska tehnoloģiju, tostarp programmatūru, algoritmus un šādu tehnoloģiju izmantotos vai ģenerētos datus izstrādā, ievieš vai izmanto, lai tiktu nodrošināta iespēja cilvēkiem to jebkurā brīdī pilnībā pārraudzīt.

2. Šā panta 1. punktā minētās tehnoloģijas izstrādā, ievieš un izmanto, lai vajadzības gadījumā cilvēks varētu atjaunot pilnīgu kontroli, tostarp, minētās tehnoloģijas mainot vai apturot.

 

8. pants

Drošība, pārredzamība un pārskatatbildība

1. Jebkuru augsta riska mākslīgo intelektu, robotiku un saistītās tehnoloģijas, tostarp programmatūru, algoritmus un šādu tehnoloģiju izmantoto vai ģenerēto datus, izstrādā, ievieš vai izmanto tā, lai tiktu nodrošināts, ka tie ir:

 (a) izstrādāti, ieviesti un izmantoti, panākot izturību un tādējādi garantējot pienācīgu drošības līmeni, jo tiek ievēroti kiberdrošības minimuma atskaites punkti, kuriem ir jābūt proporcionāliem konstatētajam riskam, un tādiem, ar kuriem novērš jebkādu tehnisku vājo vietu izmantošanu negodīgos vai nelikumīgos nolūkos;

(b) izstrādāti, ieviesti un izmantoti, garantējot drošību un līdz ar to veicot aizsardzības pasākumus, kuri ietver rezerves plānu un rīcību drošības vai drošuma apdraudējuma gadījumā;

(c) izstrādāti, ieviesti un izmantoti, garantējot, ka darbība, kā to izmantotājs var pamatoti sagaidīt, ir uzticama attiecībā uz mērķu sasniegšanu un tādu darbību veikšanu, kuras veikt tie bija iecerēti, tostarp nodrošinot, ka visas operācijas ir reproducējamas;

(d) izstrādāti, ieviesti un izmantoti, nodrošinot, ka konkrēto tehnoloģiju virzība uz mērķi un darbību izpilde ir precīza; ja no gadījuma rakstura neprecizitātēm izvairīties nevar, sistēma pienācīgā veidā, cik vien iespējams, informē ieviesējus un izmantotājus par kļūdu un neprecizitāšu iespējamību;

(e) izstrādāti, ieviesti un izmantoti, nodrošinot vieglu saprotamību un līdz ar to — iespēju tehnoloģiju tehniskos procesus pārskatīt;

(f) izstrādāti, ieviesti un izmantoti, lai varētu izmantotājus brīdināt, ka viņi saskaras ar mākslīgā intelekta sistēmām, pienācīgi un vispusīgi atklājot mākslīgā intelekta izstrādātājiem, ieviesējiem un izmantotājiem šo sistēmu spējas, precizitāti un ierobežojumus;

(g) saskaņā ar 6. pantu ir izstrādāti, ieviesti un izmantoti, lai a) līdz g) apakšpunktā noteikto drošuma pazīmju neievērošanas gadījumā varētu uz laiku atslēgt attiecīgās funkcijas un atgriezties pie agrākā darbības režīma, minētās funkcijas iespējojot no jauna. 

2. Saskaņā ar šīs regulas 6. panta 1. punktu, šā panta 1. punktā minētās tehnoloģijas, tostarp programmatūru, algoritmus un šādu tehnoloģiju izmantotos vai ģenerētos datus, izstrādā, ievieš un izmanto, nodrošinot pārredzamību un izsekojamību, — lai to elementi, procesi un posmi tiktu dokumentēti atbilstīgi iespējami visaugstākajiem un piemērojamajiem standartiem un lai šīs regulas 14. pantā minētās valsts uzraudzības iestādes varētu novērtēt šādu tehnoloģiju atbilstību šajā regulā noteiktajiem pienākumiem. Jo īpaši šo tehnoloģiju izstrādātājs, ieviesējs vai izmantotājs ir atbildīgs par šā panta 1. punktā izklāstītajiem drošības parametriem un spēj pierādīt atbilstību tiem.

3. Šā panta 1. punktā minēto tehnoloģiju izstrādātājs, ieviesējs vai izmantotājs nodrošina, ka pasākumus, kas tiek veikti, lai panāktu atbilstību šā panta 1. punktā izklāstītajām drošības pazīmēm, var revidēt šīs regulas 14. pantā minētās valsts uzraudzības iestādes vai vajadzības gadījumā — citas dalībvalsts vai Eiropas nozaru uzraudzības struktūras.

9. pants

Aizspriedumu un diskriminācijas nepieļaušana

 

1. Jebkura programmatūra, algoritms vai dati, ko izmanto vai ģenerē Savienībā izstrādāts, ieviests vai pielietots augsta riska mākslīgais intelekts, robotika un saistītās tehnoloģijas, vienpusēji būt nedrīkst un, neskarot šā panta 3. punktu, nediskriminē tādu iemeslu dēļ kā rase, dzimums, seksuālā orientācija, grūtniecība, invaliditāte, fiziskās vai ģenētiskās īpašības, vecums, nacionālā minoritāte, etniskā vai sociālā izcelsme, valoda, reliģija vai ticība, politiskie uzskati vai pilsoniskā līdzdalība, pilsonība, civilstāvokļa vai ekonomiskais statuss, izglītība vai sodāmība.

 

2. Atkāpjoties no šā panta 1. un 2. punkta un neskarot Savienības tiesību aktus, kas reglamentē nelikumīgu diskrimināciju, jebkāda atšķirīga attieksme pret personām vai personu grupām var būt pamatota tikai tad, ja ir objektīvs, saprātīgs un leģitīms mērķis, kas ir gan samērīgs, gan nepieciešams, ciktāl nepastāv alternatīva, kura vienlīdzīgas attieksmes principa īstenošanu traucētu mazāk.

10. pants

Sociālā atbildība un dzimumu vienlīdzība

Jebkuru augsta riska mākslīgo intelektu, robotiku un saistītās tehnoloģijas, tostarp programmatūru, algoritmus un šādu tehnoloģiju izmantotos un ģenerētos datus, kuru izstrādā, ievieš un izmanto Savienībā, izstrādā, izmanto un izmanto saskaņā ar attiecīgajiem Savienības tiesību aktiem, principiem un vērtībām, lai netraucētu vēlēšanām vai neveicinātu dezinformācijas izplatīšanu, ievērotu darba ņēmēju tiesības, veicinātu kvalitatīvu izglītību un digitālo pratību, nepalielinātu dzimumu nevienlīdzību, nodrošinot vienlīdzīgas iespējas visiem, un respektētu intelektuālā īpašuma tiesības un to ierobežojumus.

11. pants

Vides ilgtspēja

Šīs regulas 14. pantā minētās valsts uzraudzības iestādes vai attiecīgā gadījumā cita dalībvalsts vai Eiropas nozares uzraudzības struktūra novērtē jebkuru augta riska mākslīgo intelektu, robotiku un saistītās tehnoloģijas, tostarp programmatūru, algoritmus un šādu tehnoloģiju izmantotos un ģenerētos datus no to vides ilgtspējas viedokļa, nodrošinot, ka tiek ieviesti pasākumi, ar kuriem mazina un novērš vispārējo ietekmi, kāda tiem ir uz dabas resursiem, enerģijas patēriņu, atkritumu radīšanu, oglekļa dioksīda pēdu, klimata pārmaiņu krīzi un vides degradāciju, nolūkā nodrošināt atbilstību spēkā esošajiem Savienības vai dalībvalstu tiesību aktiem un jebkurām citām starptautiskām vides saistībām, kuras Savienība ir apņēmusies pildīt.

12. pants

Privātās dzīves neaizskaramība un personas datu aizsardzība

Biometrisko datu izmantošana un vākšana attālinātās identifikācijas nolūkos publiskās vietās, izmantojot biometrisko vai sejas atpazīšanu, īpaši apdraud pamattiesības, un to ievieš vai izmanto tikai dalībvalstu publiskās iestādes, aizstāvot būtiskas sabiedrības intereses. Minētās iestādes nodrošina, ka šāda ieviešana vai izmantošana tiek darīta zināma sabiedrībai, ir samērīga, mērķtiecīga un aprobežota ar konkrētajiem mērķiem un atrašanās vietu un ir ierobežota laikā saskaņā ar Savienības un valstu tiesību aktiem, jo īpaši Regulu (ES) 2016/679 un Direktīvu 2002/58/EK, un šajā ieviešanā un izmantošanā pienācīgi ņem vērā cilvēka cieņu un autonomiju, kā arī Hartā noteiktās pamattiesības, proti, tiesības uz privātās dzīves neaizskaramību un personas datu aizsardzību.

 

13. pants

Tiesības uz sūdzības iesniegšanu

 Jebkurai fiziskai vai juridiskai personai ir tiesības prasīt kompensāciju par traumu vai kaitējumu, ko ir nodarījusi augsta riska mākslīgā intelekta, robotikas un saistītu tehnoloģiju, tostarp programmatūras, algoritmu un šādu tehnoloģiju izmantoto vai ģenerēto datu, izstrāde, ieviešana un izmantošana, pārkāpjot Savienības tiesību aktus un šajā regulā noteiktos pienākumus.

14. pants

Riska novērtējums

1. Šīs regulas piemērošanas vajadzībām mākslīgo intelektu, robotiku un saistītās tehnoloģijas, tostarp programmatūru, algoritmus un šādu tehnoloģiju izmantotos vai ģenerētos datus, uzskata par augsta riska tehnoloģijām, ja, veicot riska novērtējumu, kura pamatā ir objektīvi kritēriji, piemēram, to konkrētais lietojums vai nolūks, nozare, kurā tās tiek izstrādātas, ieviestas vai izmantotas, un iespējamās radītās traumas vai kaitējuma smagums, konstatē, ka to izstrāde, ieviešana vai izmantošana var izraisīt būtisku tādas traumas vai kaitējuma risku, kas var tikt nodarīti indivīdiem vai sabiedrībai, pārkāpjot Savienības pamattiesības un drošības noteikumus.

2. Neskarot piemērojamos nozares reglamentējošos tiesību aktus, mākslīgā intelekta, robotikas un saistīto tehnoloģiju, tostarp programmatūras, algoritmu un šādu tehnoloģiju izmantoto vai ģenerētos datu, riska novērtējumu saskaņā ar objektīviem kritērijiem, kas ir paredzēti šā panta 1. punktā un šīs regulas pielikumā iekļautajā izsmeļošajā un kumulatīvajā sarakstā, veic šīs regulas 14. pantā minētās valstu uzraudzības iestādes, kuras koordinē Komisija, un/vai jebkura cita attiecīgā Savienības iestāde, struktūra, birojs un aģentūra, kuru var izraudzīties šajā nolūkā, ņemot vērā to sadarbības faktu.

3. Sadarbībā ar šā panta 2. punktā minētajām valstu uzraudzības iestādēm Komisija, pieņemot deleģētos aktus saskaņā ar šīs regulas 15.a pantu, izveido un pēc tam atjaunina Savienībā atklāto augsta riska tehnoloģiju kopējo sarakstu.

4. Komisija, pieņemot deleģētos aktus saskaņā ar šīs regulas15.a pantu, regulāri atjaunina arī sarakstu, kas ir paredzēts šīs regulas pielikumā.

15. pants

Atbilstības novērtēšana

1. Augsta riska mākslīgo intelektu, robotiku un saistītās tehnoloģijas novērtē no atbilstības šīs regulas 6.–12. pantā noteiktajiem pienākumiem viedokļa, kā arī tās pēc tam uzrauga šīs regulas 17. pantā minētās valstu uzraudzības iestādes, kuras koordinē Komisijas un/vai jebkura cita attiecīgā Savienības iestāde, struktūra, birojs un aģentūra, kuru var izraudzīties šim nolūkam.

 

2. Programmatūra, algoritmi un augsta riska tehnoloģijas izmantotie un ģenerētie dati, kas saskaņā ar šā panta 1. punktu ir novērtēti kā atbilstīgi šajā regulā noteiktajiem pienākumiem, atbilst arī minētajiem pienākumiem, ja vien attiecīgā valsts uzraudzības iestāde nenolemj veikt novērtējumu pēc savas iniciatīvas vai pēc izstrādātāja, ieviesēja vai izmantotāja pieprasījuma.

 

3. Neskarot nozari reglamentējošos tiesību aktus, Komisija un/vai jebkura attiecīgā Savienības iestāde, struktūra, birojs un aģentūra, ko var izraudzīties īpaši šim nolūkam, līdz šīs regulas spēkā stāšanās dienai izstrādā saistošas, dalībvalstu uzraudzības iestādēm paredzētas pamatnostādnes par metodiku, kas tām ir jāpiemēro, novērtējot šā panta 1. punktā minēto atbilstību tiesību normām.

 

16. pants

Eiropas ētiskās atbilstības sertifikāts

1. Ja saskaņā ar 7.a pantu ir saņemts pozitīvs novērtējums par augsta riska mākslīgā intelekta, robotikas un saistīto tehnoloģiju, tostarp programmatūras, algoritmu un šādu tehnoloģiju izmantoto vai ģenerēto datu, ētisko atbilstību, attiecīgā valsts uzraudzības iestāde izdod Eiropas ētiskās atbilstības sertifikātu.

 

2. Ikviens tāda mākslīgā intelekta, robotikas un saistīto tehnoloģiju, tostarp programmatūras, algoritmu un šādu tehnoloģiju izmantoto vai ģenerēto datu, izstrādātājs, ieviesējs vai izmantotājs, kuru par augsti riskantu neuzskata un uz kuru tādēļ 6.–12. pantā noteiktie pienākumi un 13. un 14. pantā paredzētais riska novērtējums un atbilstības novērtējums neattiecas, arī var vēlēties apliecināt atbilstību šajā regulā noteiktajiem pienākumiem vai to daļai, ja to pamato attiecīgās tehnoloģijas būtība, ko apstiprina valsts uzraudzības iestādes pieņemtais lēmums. Sertifikātu izsniedz tikai tad, ja attiecīgā valsts uzraudzības iestāde ir veikusi atbilstības novērtējumu un ja šis novērtējums ir pozitīvs.

 

3. Lai izsniegtu šā panta 2. punktā minēto sertifikātu, Komisija un/vai jebkura cita attiecīgā Savienības iestāde, struktūra, birojs un aģentūra, ko var izraudzīties šim nolūkam, izstrādā pieteikšanās procesu.

 

III nodaļa

Institucionālā pārraudzība

17. pants

Pārvaldības standarti un īstenošanas norādījumi

1. Mākslīgais intelekts, robotika un saistītās tehnoloģijas, kas ir izstrādātas, ieviestas vai izmantotas Savienībā, atbilst attiecīgajiem pārvaldības standartiem, kurus saskaņā ar Savienības tiesību aktiem, principiem un vērtībām un apspriežoties ar attiecīgajām ieinteresētajām personām ir noteikušas šīs regulas 17. pantā minētās valsts uzraudzības iestādes, kuras koordinē Komisija un/vai attiecīgā Savienības iestāde, struktūra, birojs un aģentūra, kuru var izraudzīties šim nolūkam.

 

2. Šā panta 1. punktā minētie standarti ietver nesaistošas īstenošanas pamatnostādnes par metodiku, kas izstrādātājiem, ieviesējiem un izmantotājiem ir jāpiemēro, lai panāktu atbilstību šai regulai, un tās publicē līdz šīs regulas spēkā stāšanās dienai.

 

3. Datus, ko izmanto vai ģenerē Savienībā izstrādāts, ieviests un izmantots mākslīgais intelekts, robotika un saistītās tehnoloģijas, pārvalda izstrādātāji, ieviesēji un izmantotāji saskaņā ar attiecīgajiem dalībvalstu, Savienības, citu Eiropas organizāciju noteikumiem un standartiem un starptautiskajiem noteikumiem un standartiem, kā arī saskaņā ar attiecīgās nozares vai uzņēmējdarbības protokoliem. Jo īpaši izstrādātāji un ieviesēji, ciktāl iespējams, veic to ārējo datu avotu kvalitātes pārbaudes, kurus izmanto mākslīgais intelekts, robotika un saistītās tehnoloģijas, un ievieš datu vākšanas, glabāšanas, apstrādes un izmantošanas pārraudzības mehānismus.

 

3. Neskarot personu datu pārnesamību un tādu personu tiesības, kuru mākslīgā intelekta, robotikas un saistīto tehnoloģiju izmantojums ir ģenerējis datus, tādu datu vākšana, glabāšana, apstrāde, koplietošana un piekļuve tiem, kurus izmanto vai rada Savienībā izstrādāts, ieviests un izmantots mākslīgais intelekts, robotika un saistītās tehnoloģijas, atbilst attiecīgajiem dalībvalstu, Savienības, citu Eiropas organizāciju noteikumiem un standartiem un starptautiskajiem noteikumiem un standartiem, kā arī attiecīgās nozares vai uzņēmējdarbības protokoliem. Jo īpaši izstrādātāji un ieviesēji nodrošina, ka minētos protokolus piemēro mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes un ieviešanas laikā, precīzi nosakot prasības attiecībā uz šo tehnoloģiju izmantoto vai ģenerēto datu apstrādi un piekļuves tiem atļaušanu, kā arī — šādu datu apstrādes mērķi, apjomu un adresātus un piekļuves tādiem datiem atļaušanu, kuri vienmēr ir pārbaudāmi un izsekojami pilnībā.

 

18. pants

Uzraudzības iestādes

1. Katra dalībvalsts izraugās neatkarīgu valsts pārvaldes iestādi, kas ir atbildīga par šīs regulas piemērošanas uzraudzību (“uzraudzības iestāde”) un par šīs regula 13., 14. un 15. pantā paredzēto riska un atbilstības novērtējuma un sertifikācijas veikšanu, neskarot nozari reglamentējošos tiesību aktus. 

 

2. Valsts uzraudzības iestādes palīdz nodrošināt šīs regulas konsekventu piemērošanu visā Savienībā. Šajā nolūkā katras dalībvalsts uzraudzības iestādes sadarbojas viena ar otru, ar Komisiju un/vai citām attiecīgām Savienības iestādēm, struktūrām, birojiem un aģentūrām, ko var izraudzīties šim nolūkam.

 

3. Katra valsts uzraudzības iestāde darbojas kā pirmais kontaktpunkts gadījumos, kad rodas aizdomas par šajā regulā noteikto ētikas principu un juridisko pienākumu pārkāpšanu, tostarp par diskriminējošu attieksmi vai citu tiesību pārkāpšanu, kas ir pieļauta mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas vai izmantošanas rezultātā. Šādos gadījumos attiecīgā valsts uzraudzības iestāde veic atbilstības novērtējumu, lai atbalstītu pilsoņu tiesības apstrīdēt un panākt savu tiesību aizsardzību.

 

4. Katra valsts uzraudzības iestāde ir atbildīga par attiecīgo šīs regulas 13. pantā minēto valsts, Eiropas un starptautisko pārvaldības noteikumu un standartu piemērošanas mākslīgajam intelektam, robotikai un saistītajām tehnoloģijām uzraudzību, tostarp, īstenojot koordināciju ar pēc iespējas lielāku ieinteresēto personu skaitu. Šajā nolūkā katras dalībvalsts uzraudzības iestādes nodrošina forumu, kurā notiek regulāra viedokļu apmaiņa ar ieinteresētajām personām no akadēmiskajām aprindām, pētniecības vides, nozares un pilsoniskās sabiedrības un minēto personu starpā.

 

5. Katra valsts uzraudzības iestāde sniedz profesionālus un administratīvus norādījumus un atbalstu par mākslīgajam intelektam, robotikai un saistītajām tehnoloģijām piemērojamo Savienības tiesību un šajā regulā izklāstīto ētikas principu vispārēju īstenošanu — jo īpaši attiecīgajām pētniecības un izstrādes organizācijām un maziem un vidējiem uzņēmumiem vai jaunuzņēmumiem.

 

6. Katra dalībvalsts līdz [OV: lūgums ievietot datumu — viens gads pēc stāšanās spēkā] paziņo Eiropas Komisijai tiesību normas, kuras tā pieņem saskaņā ar šo pantu, un nekavējoties — visus turpmākos grozījumus, kuri tās ietekmē.

 

7. Dalībvalstis veic visus pasākumus, kas ir vajadzīgi, lai nodrošinātu šajā regulā noteikto ētikas principu un juridisko pienākumu īstenošanu. Dalībvalstis gan Savienības, gan valstu līmenī atbalsta attiecīgās ieinteresētās personas un pilsonisko sabiedrību, tām cenšoties nodrošināt savlaicīgu, ētisku un pietiekami informētu reakciju uz jaunajām iespējām un problēmām, jo īpaši tām, kurām ir pārrobežu raksturs un kuras izriet no tehnoloģiju attīstības, kas ir notikusi mākslīgā intelekta, robotikas un saistīto tehnoloģiju jomā.

 

19. pants

Ziņošana par pārkāpumiem un ziņojošo personu aizsardzība

 

Ziņošanai par šīs regulas pārkāpumiem un to personu aizsardzībai, kas ziņo par šādiem pārkāpumiem, piemēro Eiropas Parlamenta un Padomes Direktīvu (ES) 2019/1937[18].

 

20. pants

Koordinēšana Savienības līmenī

1. Komisija un/vai jebkura attiecīgā Savienības iestāde, struktūra, birojs un aģentūra, kuru var izraudzīties šajā nolūkā, veic šādus uzdevumus:

 

- šīs regulas 13. pantā minētā mākslīgā intelekta, robotikas un saistīto tehnoloģiju konsekventa riska novērtēšana, kas ir jāveic šīs regulas 17. pantā minētajām valsts uzraudzības iestādēm, pamatojoties uz šīs regulas 7. panta 1. punktā paredzētajiem kopējiem objektīvajiem kritērijiem un šīs regulas pielikumā pievienotajā augsta riska nozaru un augsta riska pielietojumu vai mērķu sarakstā;

 

- šīs regulas 14. pantā minēto augsta riska mākslīgā intelekta, robotikas un saistīto tehnoloģiju atbilstības novērtējuma un turpmākās uzraudzības, kas ir jāveic šīs regulas 17. pantā minētajām valsts uzraudzības iestādēm, pieņemšana zināšanai;

 

- tā pieteikšanās procesa izstrāde, ko īsteno attiecībā uz šīs regulas 15. pantā minēto sertifikātu, kuru izdod šīs regulas 17. pantā minētās valsts uzraudzības iestādes;

 

- neskarot nozari reglamentējošos tiesību aktus, to šīs regulas 14. panta 3. punktā minēto saistošo pamatnostādņu izstrāde, kas attiecas uz metodoloģiju, kas ir jāievēro šīs regulas 17. pantā minētajām valsts uzraudzības iestādēm;

 

- šīs regulas 16. pantā minēto attiecīgo pārvaldības standartu izstrādes koordinācija, ko veic šīs regulas 17. pantā minētās valsts uzraudzības iestādes, tostarp izstrādātājiem, ieviesējiem un izmantotājiem paredzēto nesaistošo īstenošanas pamatnostādņu par šīs regulas ievērošanas metodiku izstrādes koordinācija;

 

- sadarbība ar šīs regulas 17. pantā minētajām valsts uzraudzības iestādēm attiecībā uz to ieguldījumu šīs regulas konsekventā piemērošanā visā Savienībā saskaņā ar šīs regulas 17. panta 2. punktu;

 

- darbība tāda zinātības centra statusā, kurš veicina informācijas apmaiņu par mākslīgo intelektu, robotiku un saistītajām tehnoloģijām un atbalsta vienotas izpratnes veidošanu vienotajā tirgū, šīs regulas 17. pantā minētajām valsts uzraudzības iestādēm sniedzot papildu norādījumus, atzinumus un zinātību, attiecīgo Savienības tiesību aktu īstenošanas uzraudzība, paraugprakses standartu noteikšana un attiecīgā gadījumā ieteikumu regulatīviem pasākumiem sniegšana; to darot, tai ir jāsadarbojas ar pēc iespējas lielāku attiecīgo ieinteresēto personu skaitu un ir jānodrošina, ka lēmumu pieņemšanas līmeņi ir dažādi un panāk dzimumu līdztiesību;

 

- drošības un aizsardzības darba grupas izveide nolūkā izskatīt politikas un ieguldījumu jautājumus, kas īpaši ir saistīti ar mākslīgā intelekta, robotikas un saistīto tehnoloģiju ētisku izmantošanu drošības un aizsardzības jomā.

 

21. pants

Deleģēšanas īstenošana

1. Pilnvaras pieņemt deleģētos aktus Komisijai piešķir, ievērojot šajā pantā izklāstītos nosacījumus.

 

2. Komisiju pilnvaro pieņemt 7. panta 3. un 4. punktā minētos deleģētos aktus uz piecu gadu laikposmu no ... [šīs regulas spēkā stāšanās diena].

 

3. Eiropas Parlaments vai Padome jebkurā laikā var atsaukt 7. panta 3. un 4. punktā minēto pilnvaru deleģēšanu. Ar lēmumu par atsaukšanu izbeidz tajā norādīto pilnvaru deleģēšanu. Lēmums stājas spēkā nākamajā dienā pēc tā publicēšanas Eiropas Savienības Oficiālajā Vēstnesī vai vēlākā dienā, kas tajā norādīta. Tas neskar jau spēkā esošos deleģētos aktus.

 

4. Pirms deleģētā akta pieņemšanas Komisija apspriežas ar ekspertiem, kurus katra dalībvalsts iecēlusi saskaņā ar principiem, kas noteikti 2016. gada 13. aprīļa Iestāžu nolīgumā par labāku likumdošanas procesu.

 

5. Tiklīdz Komisija pieņem deleģētu aktu, tā par to paziņo vienlaikus Eiropas Parlamentam un Padomei.

 

6. Saskaņā ar 7. panta 3. un 4. punktu pieņemts deleģētais akts stājas spēkā tikai tad, ja trīs mēnešu laikā pēc tā paziņošanas Eiropas Parlamentam un Padomei ne Eiropas Parlaments, ne Padome nav izteikuši iebildumus vai ja līdz minētā laikposma beigām gan Eiropas Parlaments, gan Padome ir informējuši Komisiju par savu nodomu neizteikt iebildumus. Pēc Eiropas Parlamenta vai Padomes iniciatīvas šo laikposmu pagarina par trim mēnešiem.

 

22. pants

Grozījumi Direktīvā (ES) 2019/1937

 

Direktīvu (ES) 2019/1937 groza šādi:

 

(1) Direktīvas 2. panta 1. punktam pievieno šādu apakšpunktu:

 

‘(xi) mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrāde, ieviešana un izmantošana.”

 

(2) Pielikuma I daļai pievieno šādu punktu:

 

“K. 2. panta 1. punkta a) apakšpunkta xi) punkts — mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrāde, ieviešana un izmantošana.

 

“xxi) Eiropas Parlamenta un Padomes Regula [XXX] par mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas un izmantošanas ētikas principiem”.”

23. pants

Pārskatīšana

Komisija regulāri pārskata mākslīgā intelekta, robotikas un saistīto tehnoloģiju attīstību, tostarp programmatūru, algoritmus un šādu tehnoloģiju izmantotos vai ģenerētos datus, un līdz [OV: lūgums ievietot datumu — trīs gadi pēc šīs regulas stāšanās spēkā] un pēc tam reizi trijos gados iesniedz Eiropas Parlamentam, Padomei un Eiropas Ekonomikas un sociālo lietu komitejai ziņojumu par šīs regulas piemērošanu, tostarp novērtējumu par šīs regulas piemērošanas jomas iespējamām izmaiņām.

24. pants

Stāšanās spēkā

1. Šī regula stājas spēkā divdesmitajā dienā pēc tās publicēšanas Eiropas Savienības Oficiālajā Vēstnesī. To piemēro, sākot ar XX.

2. Šī regula uzliek saistības kopumā un ir tieši piemērojama visās dalībvalstīs saskaņā ar Eiropas Savienības dibināšanas līgumu.

Šī regula uzliek saistības kopumā un ir tieši piemērojama visās dalībvalstīs.


 

PIELIKUMS

 

Izsmeļošs un kumulatīvs saraksts ar augsta riska nozarēm un augsta riska pielietojumiem vai mērķiem, kuri var izraisīt pamattiesību un drošības noteikumu pārkāpumu.

 

 

Augsta riska nozares

 

 Nodarbinātība

 Izglītība

 Veselības aprūpe

 Transports

 Enerģētika

 Publiskais sektors (patvērums, migrācija, robežkontrole, tiesu iestādes un sociālā nodrošinājuma dienesti)

 Aizsardzība un drošība

 Finanses, banku pakalpojumi un apdrošināšana

 

 

Augsta riska pielietojums vai mērķi

 

 Pieņemšana darbā

 Skolēnu klasificēšana un novērtēšana

 Valsts līdzekļu piešķiršana

 Aizdevumu piešķiršana

 Tirdzniecība, starpniecība, aplikšana ar nodokļiem utt.

 Ārstēšana un procedūras

 Vēlēšanu procesi un politiskās kampaņas

 Publiskā sektora lēmumi, kuriem ir būtiska un tieša ietekme uz fizisku vai juridisku personu tiesībām un pienākumiem

 Automatizēta braukšana

 Satiksmes vadība

 Autonomas militārās sistēmas

 Enerģijas ražošana un piegāde

 Atkritumu apsaimniekošana

 Emisiju kontrole 

 


PASKAIDROJUMS

 

1982. gadā uzņemtās mākslas filmas „Pa asmeni skrejošais“ dialogā starp Reičelu (replikanti, kura strādā uzņēmumā, kas ražo „replikantus“ — humanoīdus robotus ar prāta spējām) un Dekardu (algotni, kurš pelna iztiku, likvidējot kontroli zaudējušos replikantus), viņa saka:

 

-„Tev šķiet, ka mūsu darbs nenes ieguvumus cilvēkiem“.

 

Savukārt, viņš atbild:

 

-„Replikanti ir tādi paši kā citas mašīnas — viņi vai nu nes ieguvumus, vai arī rada riskus. Ja viņi nes ieguvumus, tā nav mana problēma“.

 

Ieguvumi un riski

 

Plaša mēroga mākslīgā intelekta ieviešana visās iekārtās, ar kurām mēs mijiedarbojamies mūsu publiskajā, darba un sociālajā sfērā, paredz un nozīmē tādu tehnoloģiskās attīstības lēcienu, kuru var salīdzināt tikai ar rūpniecisko revolūciju. Dzīve nekad nebūs tāda kā iepriekš, notiks ļoti būtiskas izmaiņas darba tirgū, saistībā ar valsts sektora iestādēm, personīgajās attiecībās un pat mūsu mājas dzīvē. Iedomāsimies tikai par to, ko nozīmē „lietiskais internets“ visos aparātos mūsu mājās. Šāda mēroga tehnoloģisks lēciens rada pretrunu, kuru minēja „Pa asmeni skrejošais“ savā atbildē, proti, jebkura tehnoloģija rada gan ieguvumus, gan arī riskus. Ja runājam par mākslīgo intelektu, tā radītie ieguvumi un/vai riski sasniedz nepieredzētus mērogus, ņemot vērā tam raksturīgo potenciālu.

 

Eiropas Savienības nozīme tiesiskā regulējuma izstrādē

 

Taču valsts pārvaldes iestādēm saskaroties ar šo parādību, tās nevar saglabāt tādu pašu profesionālo cinismu, kā Dekards. Konkrētāk, Eiropas Parlamentam ir svarīgi gan sekmēt potenciālu, kas piemīt šīm tehnoloģijām Eiropas labklājības un konkurētspējas sekmēšanai, gan arī kontrolēt tām piemītošos riskus vai paredzēt sekas, ja kāds no šiem riskiem pārvērstos realitātē. Šajā nolūkā mēs vēlamies izrādīt iniciatīvu tāda ētiska sliekšņa juridiskajā noteikšanā, kas, no vienas puses, pasargās Eiropas iedzīvotājus no iespējamiem negatīviem faktoriem, kuri ir saistīti ar šo tehnoloģisko attīstību, un, no otras puses, rūpēsies par to, lai uzticēšanās mākslīgā intelekta pievienotā vērtība pasaulē arvien pieaugtu. Šādam ētiskam slieksnim jāatbilst Eiropas principiem un vērtībām, kas atspoguļotas Eiropas Savienības Pamattiesību hartā, un jābūt saskaņotam arī ar mūsu civilizācijas attīstības scenāriju. Šo normu pamatā jābūt humānai un antropocentriskai tehnoloģiskās attīstības pieejai. Šis regulējums jāpiemēro ne tikai Eiropā ieviestajam mākslīgajam intelektam, bet arī jānosaka kā obligāta prasībai jebkuram, kas vēlas darboties Savienībā.

 

Visām Eiropas Savienības dalībvalstīm ir kopīgi jāveido šis tiesību un pienākumu satvars. Ja dalībvalstis izstrādās virkni noteikumu bez kopēja satvara, tas varētu radīt traucējumus vienotajā tirgū un kavēt mūs kopīgos pūliņus sasniegt vadošo pozīciju pasaules tehnoloģiskajā jomā. Izveidojot Eiropas aģentūru, kuras uzdevums būtu uzraudzīt šo noteikumu izstrādi, varētu sekmēt tiesiskā un tehniskā regulējuma saskaņošanu katrā no dalībvalstīm.

 

Elastīgs un tālredzīgs regulējums

 

Tiem, kuri uzskata, ka šī sektora struktūru ir jāatstāj pašregulācijas ziņā, varētu noderēt sākotnējs dialogs, kurš demonstrētu arī sabiedrības iesaistīšanās nepieciešamību, kas aizsargātu mērķus, kuri pārsniedz ekonomisko rentabilitāti. Eiropas publiskajām iestādēm ir jārūpējas arī par tādu citu mērķu aizsardzību kā diskriminācijas (jebkura iemesla dēļ) novēršana lēmumu pieņemšanā, šo tehnoloģisko izmaiņu potenciāla izmantošana taisnīgākas sabiedrības veidošanā (īpaši pievēršoties dzimumu nevienlīdzības mazināšanai) un ilgtspējīgākas vides panākšanā. Saistībā ar šiem pēdējiem jautājumiem, Eiropas publiskajām iestādēm tekstā paredzētas skaidras pilnvaras.

 

Šī regulējuma mērķis ir arī augsts prasību līmenis kopā ar normatīvu vienkāršību, izvairoties no samudžinātām regulatīvām sistēmām un/vai pārmērīgas birokrātijas, ar ko saskartos attiecīgie dalībnieki. Tāpat ir jāpanāk pietiekami elastīgs satvars, lai iekļautu šos sasniegumus ārkārtīgi mainīgā realitātē, vienlaikus ļaujot nozarēs izstrādāt normas, kuras attiecas uz konkrētākām situācijām.

 

Visaptveroša saskaņošana, izveidojot valstu uzraudzības struktūras

 

Ir paredzēts, ka šis regulējums paplašinās uzraudzību, aptverot visus ļoti sarežģītas tehnoloģijas izstrādes posmus. Šā regulējuma normatīvajā daļā ir paredzēti noteikumi tehnoloģijas izstrādei, ieviešanai un pašas tehnoloģijas attīstībai ar mašīnmācīšanās (machine-learning) vai dziļās mācīšanās ( deep-learning) palīdzību. Īpaša uzmanība tiek pievērsta riska novēršanai saistībā ar tehnoloģijām, kuras tiek definētas kā augsta riska tehnoloģijas, proti, gadījumos, kad pastāv augsts risks radīt papildu negatīvas sekas un/vai kad ir iesaistīti sensitīvi jautājumi, kuriem nepieciešama īpaša aizsardzība, un šie jautājumi paši par sevi raksturo šo attiecīgo klauzulu. Tiek iekļauti arī individuālajām tiesībām tik sensitīvi jautājumi kā attālinātas atpazīšanas tehnikas, paredzot to izmantošanai daudzus aizsardzības pasākumus. Tāpat tiek iekļauts ļoti stingrs satvars attiecībā uz materiāliem un laiku, lai publiskās iestādes varētu šādas tehnikas izmantot tikai un vienīgi ārkārtas situācijās.

 

Šīs klauzulas mērķis ir arī panākt plašas sabiedrības un īpaši skartāko un ietekmētāko personu un grupu dalību šī tiesiskā regulējuma izstrādē, ieviešanā, kontrolē un uzraudzībā.  Tekstā ir paredzētas pilnvaras visām valstu uzraudzības struktūrām, kuru izveidošanu paredz šī pati norma, lai ņemtu vērā vajadzīgo un periodisko pilsoniskās sabiedrības konkurenci. Tāpat tiek noteiktas stingras prasības mākslīgā intelekta izgudrotājiem, operatoriem un izmantotājiem pārredzamības un pārskatatbildības jomā. Līdzīgi tiek ietverti pilsoniskās uzvedības pienākumi izmantotājiem un viņu nepieciešamā aizsardzība, labticīgi izmantojot šīs tehnoloģijas.

 

Saprotamība, pārredzamība, pārskatatbildība, atbildība un pārvaldība

 

Mēs joprojām esam ļoti tālu no tā, lai kāds algoritms varētu padarīt par realitāti tā dēvētās psihovēstures rašanos, par kuru grāmatā „Fonds“ rakstīja Aizeks Azimovs. Tomēr pats brīvas gribas princips, kurš ir nesaraujami saistīts ar cilvēka dzīvi, šķiet, šobrīd netiek apdraudēts;  pat ne tad, kad mēģinām paredzēt vēstures lielo virzienu rašanos. Mēs kā demokrātiskās varas pārstāvji gādāsim, lai lielie un mazie lēmumi, kuri tiek pieņemti ar mākslīgā intelekta palīdzību, neizrietētu no nesaprotamām un nepieejamām matemātiskām formulām. Saprotamība, pārredzamība, pārskatatbildība un atbildība būs tāda mākslīgā intelekta neatņemamas sastāvdaļas, kurš tiks ieviests un darbosies Eiropas Savienībā.

 

Noslēgumā, Eiropas Savienības mērķis ir kļūt par telpu, kurā pastāv nepieciešamais līdzsvars starp iedzīvotāju tiesību aizsardzību un tehnoloģiskās attīstības stiprināšanu. Mūsu regulējumam un tā izstrādei, ko veiks uzraudzības struktūra(-s), ir jāsniedz piemērs pārējai pasaulei, un tam vajadzētu būt pirmajam solim ceļā uz šīs parādības pienācīgu pārvaldību globālā līmenī.


ĀRLIETU KOMITEJAS ATZINUMS (24.6.2020)

<CommissionInt>Juridiskajai komitejai</CommissionInt>


<Titre>ar ieteikumiem Komisijai par mākslīgā intelekta, robotikas un saistīto tehnoloģiju ētisko aspektu satvaru</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Atzinuma sagatavotājs (*): <Depute>Urmas Paet</Depute>

(*) Iesaistītā komiteja — Reglamenta 57. pants

 (Iniciatīva – Reglamenta 47. pants)

 

 

IEROSINĀJUMI

Ārlietu komiteja aicina par jautājumu atbildīgo Juridisko komiteju:

 rezolūcijas priekšlikumā iekļaut šādus ierosinājumus:

1. uzsver, ka Eiropas Savienības un tās dalībvalstu drošības un aizsardzības politikas pamatā ir Eiropas Pamattiesību hartā noteiktie principi un Apvienoto Nāciju Organizācijas Statūtu principi un vienota izpratne par vispārējām vērtībām respektēt cilvēka neaizskaramās un neatņemamās tiesības, cilvēka cieņu, brīvību, demokrātiju, līdztiesību un tiesiskumu; uzsver, ka visos ar aizsardzību saistītajos Savienības centienos tiek ievērotas šīs universālās vērtības, vienlaikus veicinot mieru, drošību un progresu Eiropā un pasaulē; uzskata, ka MI izmantošanas pamatā jābūt vienotam ētikas principu kopumam, saskaņā ar kuriem izmantošanai vajadzētu būt atbildīgai, taisnīgai, izsekojamai, uzticamai un pārvaldāmai;

2. atzinīgi vērtē to, ka Apvienoto Nāciju Organizācijas Konvencijas par noteiktiem parastiem ieročiem (CCW) augsto līgumslēdzēju pušu 2019. gada sanāksmē tika apstiprināti 11 vadošie principi par autonomu ieroču sistēmu izveidi un izmantošanu; tomēr pauž nožēlu par to, ka nav panākta vienošanās par juridiski saistošu instrumentu, ar ko reglamentētu autonomus letālus ieročus ar efektīvu izpildes mehānismu; atzinīgi vērtē un atbalsta Komisijas augsta līmeņa ekspertu grupas mākslīgā intelekta jomā 2019. gada 9. aprīlī publicētās "Ētikas vadlīnijas uzticamam mākslīgajam intelektam" un tās nostāju jautājumā par autonomajām letālu ieroču sistēmām (LAWS); mudina dalībvalstis izstrādāt valsts stratēģijas autonomu letālu ieroču definēšanai un statusam, lai izstrādātu visaptverošu stratēģiju Savienības līmenī, un kopā ar Savienības augsto pārstāvi/Komisijas priekšsēdētājas vietnieku (AP/PV) un Padomi veicināt diskusijas par LAWS ANO CCW satvarā un citos attiecīgos forumos un starptautisku normu noteikšanu attiecībā uz pilnībā autonomu, pusautonomu un tālvadības ieroču sistēmu izstrādes un izmantošanas ētiskajiem un juridiskajiem parametriem; atgādina šajā sakarībā par savu 2018. gada 12. septembra rezolūciju par autonomām ieroču sistēmām un vēlreiz aicina steidzami izstrādāt un pieņemt kopēju nostāju par autonomām letālu ieroču sistēmām, lai starptautiskā līmenī aizliegtu tādu autonomu letālu ieroču sistēmu izstrādi, ražošanu un izmantošanu, kas ļauj veikt uzbrukumus bez jēgpilnas cilvēka kontroles un neievērojot principu par cilvēka iesaistīšanos procesā saskaņā ar pasaules ievērojamāko MI pētnieku paziņojumu 2015. gada atklātajā vēstulē; atzinīgi vērtē Padomes un Parlamenta vienošanos par tādu autonomu letālu ieroču izslēgšanu, "kuru izmantošanā nav iespējama jēgpilna cilvēka kontrole attiecībā uz to, kā tiek pieņemti atlases un darbības īstenošanas lēmumi, veicot uzbrukumus cilvēkiem," no Eiropas Aizsardzības fonda finansētajām darbībām; uzskata, ka nedrīkst aizmirst par ētikas aspektiem citās MI lietojumprogrammu izmantošanas jomās aizsardzības nozarē, piemēram, izlūkošanas, novērošanas un rekognoscēšanas (ISR) vai kiberoperāciju jomās, un ka īpaša uzmanība jāpievērš bezpilota lidaparātu izstrādei un izvietošanai militārajās operācijās;

3. ierosina, ka jebkurā Eiropas regulējumā, kas reglamentē ar mākslīgo intelektu (MI) saistītu sistēmu izmantošanu aizsardzībā gan kaujas situācijās, gan situācijās, kuras nav kaujas situācijas, ir jāievēro visi piemērojamie tiesiskie režīmi, jo īpaši starptautiskās humanitārās tiesības un starptautiskās cilvēktiesības, un tam ir jāatbilst Savienības tiesību aktiem, principiem un vērtībām; uzsver, ka ES būtu globāli jāvirza progress ticamas un saistošas MI regulatīvās programmas tiesiskajā regulējumā, kurš balstās uz demokrātiskām vērtībām un antropocentrisku pieeju; aicina Savienību un tās dalībvalstis izstrādāt kopējus mehānismus, lai ātri un rūpīgi novērtētu raksturīgos ar MI saistītos riskus un iespējas attiecībā uz Savienības tiesību aktu piemērošanu, balstoties uz progresīvāko dalībvalstu paraugpraksi, un vajadzības gadījumā paredzēt iespējamus pielāgojumus un izpildi, paturot prātā atšķirības tehniskajās un drošības infrastruktūrās visā Savienībā;

4. atzīst, ka pretēji aizsardzības rūpniecības bāzēm kritiskas MI inovācijas varētu nākt no mazām dalībvalstīm, tādēļ KDAP standartizētai pieejai būtu jānodrošina, ka netiek izstumtas mazākas dalībvalstis un MVU; uzsver, ka vienots ES MI spēju kopums, kas atbilst dalībvalstu darbības koncepcijām, var novērst tehnoloģiju trūkumu, kurš rada risku, ka valstis, kam nav attiecīgās tehnoloģijas, rūpniecisko zināšanu vai spējas ieviest MI sistēmas savās aizsardzības ministrijās, tiek izslēgtas;

5. uzsver, ka šāda regulējuma ģeogrāfiskās piemērošanas jomā būtu jāietver visi Savienībā izstrādātā, izvērstā vai izmantotā mākslīgā intelekta, robotikas un saistīto tehnoloģiju komponenti, tostarp gadījumos, kad daļa tehnoloģiju varētu atrasties ārpus Savienības vai kad tām nav konkrētas atrašanās vietas;

6. uzsver, ka jaunās tehnoloģijas, kuras nav starptautisko tiesību darbības jomā, būtu jānovērtē saskaņā ar cilvēcīguma principa un sabiedrības sirdsapziņas nosacījumu respektēšanu; uzsver, ka ar MI saistītu sistēmu izmantošana un ētika aizsardzībā ir pastāvīgi jāizvērtē no cilvēktiesību, jo īpaši cilvēku drošības, veselības un drošības, brīvības, privātuma, integritātes un cieņas viedokļa un pastāvīgi jāuzrauga, jo īpaši ņemot vērā to priekšrocības un trūkumus, kā arī to ietekmi uz vispārējo cilvēktiesību aizsardzību; uzskata, ka tehnoloģiskajām priekšrocībām MI iespējoto aizsardzības sistēmu jomā cieši jāsaista ar plašu diskusiju par MI izmantošanu un tā ietekmi uz sabiedrību un kopienām, kā arī iespējamiem ekonomiskiem un sabiedriskiem ieguvumiem un ka ir pienācīgi jāinformē par riskiem, kas izriet no MI izmantošanas;

7. uzskata, ka pašreizējās un turpmākās ar drošību un aizsardzību saistītās darbības Savienībā balstīsies uz MI, robotiku un autonomiju, un saistītām tehnoloģijām un ka ticams, stabils un uzticams MI varētu veicināt modernus un efektīvus militāros spēkus; tādēļ Savienībai ir jāuzņemas vadošā loma MI sistēmu pētniecībā un izstrādē drošības un aizsardzības jomā; uzskata, ka ar MI saistītu lietojumprogrammu izmantošana drošības un aizsardzības jomā varētu nodrošina vairākus tiešus ieguvumus operācijas komandierim, piemēram, kvalitatīvākus savāktos datus, labāku informētību par situāciju, ātrāku lēmumu pieņemšanu, samazinātu netiešā kaitējuma risku, pateicoties labākam kabelējumam, spēku aizsardzību konkrētajā teritorijā, kā arī lielāku militārā aprīkojuma uzticamību un tādējādi risku cilvēkiem un dzīvā spēka zaudējumus; uzsver, ka uzticama mākslīgā intelekta attīstība aizsardzības jomā ir neatsverama tehnoloģija, ar ko spēju un darbības jomās nodrošināt Eiropas stratēģisko autonomiju; atgādina, ka MI sistēmas kļūst arī par būtiskiem elementiem cīņā pret jauniem drošības apdraudējumiem, piemēram, kiberkarā un hibrīdkarā, gan tiešsaistes, gan bezsaistes vidē; vienlaikus uzsver visus riskus un problēmas, ar ko saistīta MI nereglamentēta izmantošana; norāda, ka MI varētu tikt pakļauts manipulācijām, kļūdām un neprecizitātēm;

8. aicina izveidot sinerģiju un tīklus starp dažādiem Eiropas pētniecības centriem MI jomā, kā arī ar citiem daudzpusējiem forumiem, piemēram, Eiropas Padomi, Apvienoto Nāciju Organizācijas Izglītības, zinātnes un kultūras organizāciju (UNESCO), Ekonomiskās sadarbības un attīstības organizāciju (ESAO), Pasaules Tirdzniecības organizāciju un Starptautisko Telesakaru savienību (ITU), lai saskaņotu šo organizāciju centienus un labāk koordinētu MI tehnoloģijas izstrādi;

9. uzsver, ka MI tehnoloģijas galvenokārt ir divējāda lietojuma tehnoloģijas, un MI izstrāde ar aizsardzību saistītās darbībās gūst ieguvumus no informācijas apmaiņas starp militārām un civilām tehnoloģijām; uzsver, ka MI ar aizsardzību saistītās darbībās ir šķērseniska revolucionāra tehnoloģija, kuras izstrāde var Savienībai sniegt konkurētspējas un stratēģiskās autonomijas iespējas;

10. uzsver, ka, pamatojoties uz Komisijas 2019. gada 8. aprīļa paziņojumu “Vairojot uzticēšanos antropocentriskam MI”, ar ko saskaņā tehnoloģijas pilnībā ievēro cilvēktiesības un cilvēki saglabā kontroli attiecībā uz automatizētajām lēmumu pieņemšanas sistēmām, vienlaikus papildinot un atbalstot cilvēku autonomiju un lēmumu pieņemšanu, Savienībai ir vajadzīgs stingrs MI tiesiskais regulējums, kurš ir vērsts uz drošību un aizsardzību, ievērojot atbildības un pārredzamības principu, aizsargājot mūsu iedzīvotājus un aizstāvot mūsu vērtības, ko aizsargā tās politikas virzieni nolūkā saglabāt mieru, novērst konfliktus un stiprināt starptautisko drošību, vienlaikus izmantojot šo tehnoloģiju piedāvātās iespējas, kā arī saprotot, ka MI iespējotās sistēmas būs nozīmīgākais elements turpmākajā izstrādē aizsardzības jomā un aizsardzības spējās;

11. aicina dalībvalstis un Komisiju nodrošināt, lai aizsardzības sistēmās izmantotie algoritmi atbilstu pārredzamības principam, tostarp skaidram atbildības režīmam attiecībā uz MI izmantošanas rezultātiem, vienlaikus saglabājot vajadzīgo konfidencialitāti; uzsver, ka šādi algoritmi ir nepārtraukti jāpielāgo MI tehnoloģiju progresam;

12. uzsver, ka Savienībai ir jāuzņemas vadošā loma, atbalstot daudzpusējus centienus ANO CCW valdību ekspertu grupā un citos attiecīgos forumos, lai apspriestu efektīvu starptautisku tiesisko regulējumu, kas nodrošina jēgpilnu cilvēka kontroli attiecībā uz autonomajām ieroču sistēmām nolūkā pārvaldīt šādas tehnoloģijas, izveidojot skaidri noteiktus, uz kritērijiem balstītus procesus un pieņemot tiesību aktus pēc apspriešanās ar ieinteresētajām personām militārajām, rūpniecības, tiesībaizsardzības, akadēmiskajām un pilsoniskās sabiedrības aprindām, lai izprastu saistītos ētikas aspektus un ierobežotu šīm tehnoloģijām raksturīgos riskus un novērstu to izmantošanu ļaunprātīgos nolūkos; pie tiem jo īpaši pieder netīšs kaitējums personām neatkarīgi no tā, vai tas ir materiāls vai nebūtisks, piemēram, pamattiesību pārkāpums vai fizisks kaitējums; Savienībai, sadarbojoties ar dalībvalstīm, ir jānosaka piemēroti atbildības režīmi, kas piemērojami inovācijām MI un citām iegultām tehnoloģijām drošības un aizsardzības jomās, tādējādi paredzot juridisko pamatu pārskatatbildības un izsekojamības mehānismiem; uzsver, ka Savienības tiesību aktus un normatīvo regulējumu nedrīkst apsteigt nekādi turpmāki tehnoloģiskie sasniegumi, MI attīstība un jaunas karadarbības metodes un tādēļ tie ir jāatbalsta ar jēgpilnām uzraudzības sistēmām, kas pastāvīgi jāpielāgo, lai novērstu juridiskās nepilnības vai “pelēkās zonas”; uzsver, ka papildu MI pētījumiem un izstrādei būtu jānodrošina, lai MI darbinātas sistēmas būtu labāk aprīkotas unikālu kontekstu izprašanai;

13. atbalsta integrētās ētikas pamatprincipu, saskaņā ar ko ētikas principi ir integrēti MI produktos un pakalpojumos no izstrādes procesa sākuma;

14. atgādina, ka vairums militāro spēku visā pasaulē jau ir iesaistījušies nozīmīgās pētniecības un izstrādes darbībās saistībā ar MI militāro dimensiju; uzskata, ka Savienībai ir jāpanāk, lai tā šajā ziņā neatpaliktu; uzsver, ka attiecībā uz jebkādu ar MI saistītu sistēmu lietojumprogrammu aizsardzības jomā Savienībai būtu jānosaka tehniskie un organizatoriskie standarti saskaņā ar integrētās drošības principu, atļaujot īpašu cilvēka pārraudzību, lai nodrošinātu to noturību pret neaizsargātību, ko var izmantot ārēji uzbrukumi, kiberuzbrukumi un digitālā ietekme, kas vērsta pret datiem, modeli vai pamatinfrastruktūru — gan programmatūru, gan aparatūru, kā arī to atbilstību augstākajiem iespējamajiem uzticamības standartiem, aktīvu novērošanu un uzraudzību attiecībā uz operatīvo datu vākšanu, glabāšanu un izmantošanu visā sistēmas dzīves ciklā; uzsver MI algoritmu pārredzamības un pārskatatbildības nozīmi; norāda uz to, cik svarīga ir algoritmu pārredzamības un algoritmu izmantošanas pārredzamības nodalīšana; uzsver, ka MI sistēmām un lietojumprogrammām, kuras paredzētas datu ieguvei un sintezēšanai, kā arī rezultātu ekstrapolēšanai no tiem, lai tos izmantotu lēmumos par aizsardzības un valsts drošības jautājumiem, ir jābūt konkrētai darbības jomai un jāatbilst pašreizējā tiesiskā regulējuma noteikumiem par datu apkopošanu un apstrādi; uzsver, ka MI lietojumprogrammām, kas izstrādātas izlūkdatu apstrādei aizsardzības darbību ietvaros, būtu jāatbilst datu apstrādes standartiem, lai nepieļautu nejaušas novērošanas riskus vai individuālo tiesību pārkāpumus; uzskata, ka augsta riska MI darbinātu tehnoloģiju lietojumprogrammu, piemēram, sejas atpazīšanas, gadījumā, kam ES līmenī nav noteikta tiesiskā regulējuma, Savienībai ir jānodrošina, lai to izstrāde un izvēršana būtu tiesiska, samērīga un ievērotu personu tiesības; uzsver, ka valstu kompetentām tiesībaizsardzības iestādēm, izstrādājot un lietojot MI iespējotas sistēmas un tehnoloģijas sabiedriskās kārtības uzturēšanai, lai mazinātu kriminoloģiskās prognozēšanas nesamērīgos riskus; atzīst, ka galvenais eiroatlantikas drošības garants ir NATO, un aicina paplašināt sadarbību NATO aliansē, lai izstrādātu kopīgus standartus un MI aizsardzības sistēmu sadarbspēju; uzsver, ka transatlantiskajām attiecībām ir izšķiroša nozīme kopīgu vērtību aizsardzībā un nākotnes un jaunu apdraudējumu novēršanā;

15. uzsver, ka ir nepieciešams pieņemt skaidrus uzticamības, drošības un drošuma noteikumus un prasības ar pienācīgu sertifikāciju MI sistēmām drošības un aizsardzības jomā, ieviest pārredzamības kritērijus dažādajos posmos (proti, izstrādē, ražošanā un darbībā) un īstenot nepārtrauktu novērošanu, veikt regulārus testus un pārbaudes visā aprites ciklā; uzsver, ka ir jānodrošina atbilstība piemērojamiem standartiem un iegūtajiem sertifikātiem, ja mākslīgais intelekts maina, piemēram, mašīnmācīšanās procesā, to sistēmu funkcionalitāti un uzvedību, kurās tas ir integrēts, lai nodrošinātu pilnīgu izsekojamību, izskaidrojamību un pārskatatbildību lēmumiem, kas pieņemti, iesaistot mākslīgo intelektu un tā darbības rezultātus, kā arī jēgpilnu cilvēka kontroli gadījumos, kad šādas sistēmas varētu nogalināt cilvēkus;

16. aicina Komisiju savā rūpniecības politikā integrēt kiberdrošības spēju veidošanu, lai garantētu drošu, noturīgu un stabilu MI darbinātu un robotikas sistēmu izstrādi un lietošanu; aicina Komisiju izskatīt iespēju izmantot uz blokķēdi balstītus kiberdrošības protokolus un lietojumprogrammas, lai uzlabotu MI infrastruktūras noturīgumu, uzticamību un stabilitāti ar nepastarpinātiem datu šifrēšanas modeļiem; mudina Eiropas ieinteresētās personas izpētīt un izstrādāt progresīvas iespējas, kas palīdzētu atklāt bojātas un ļaunprātīgas MI darbinātas un robotikas sistēmas, kuras varētu apdraudēt Savienības un iedzīvotāju drošību;

17. uzsvēra, ka visām MI sistēmām aizsardzības jomā jābūt konkrētam un skaidri definētam misiju satvaram, tādējādi saglabājot ietekmi atklāt un atvienot vai deaktivizēt pielietojamās sistēmas, ja tās pārvietojas ārpus cilvēku noteiktā un uzdotā misiju satvara vai iesaistās jebkādā saasinošā vai neparedzētā darbībā; uzskata, ka MI iespējotas sistēmas, produkti un tehnoloģijas, kas paredzētas militārām vajadzībām, būtu jāaprīko ar "melno kasti", lai reģistrētu visus mašīnas veiktos datu darījumus;

18. uzsver, ka visa atbildība un pārskatatbildību par lēmumu projektēt, izstrādāt, lietot un izmantot mākslīgā intelekta sistēmas ir jāuzņemas cilvēkiem, jo cilvēkam ir jēgpilni jākontrolē visas ieroču sistēmas un jānosaka lēmums izmantot spēku, pildot jebkuru MI iespējotas ieroču sistēmas lēmumu, kam var būt letālas sekas; uzsver, ka cilvēka efektīva kontrole būtu jāsaglabā attiecībā uz MI iespējotu sistēmu vadību un kontroli saskaņā ar principu par cilvēka īstenota procesa kontroli un cilvēka īstenota procesa kontroli militārās vadības līmenī; uzsver, ka MI iespējotām sistēmām jāļauj armiju militārajai vadībai pilnībā uzņemties atbildību un pārskatatbildību par letāla spēka izmantošanu un veikt nepieciešamos lēmumus par nāvējošas vai liela mēroga postošas darbības veikšanu, izmantojot šādas sistēmas, un šādus lēmumus nevar uzticēt mašīnām, jo tiem ir jābalstās uz nodalīšanu, samērīgumu un piesardzību; uzsver, ka ir jāizstrādā skaidri un izsekojami atļauju un pārskatatbildības satvari viedo ieroču un citu MI darbinātu sistēmu pielietošanai, izmantojot unikālus lietotāja raksturlielumus, piemēram, biometriskās specifikācijas, lai tos varētu lietot tikai pilnvarots personāls;

19. aicina Komisiju sadarboties ar dalībvalstu kompetentajām iestādēm un citām ieinteresētajām personām, kuras piedalās MI darbinātu sistēmu, produktu un tehnoloģiju izstrādē un izvēršanā, lai izveidotu drošu, stabilu un noturīgu satvaru, saskaņā ar ko tiek kopīgots, uzraudzīts un pārbaudīts MI darbinātu sistēmu pirmkods, lai samazinātu iespējamas novirzes no pārvaldības principiem un ētikas satvara, kas ir pamatā MI tehnoloģijai drošības un aizsardzības jomā; ierosina Komisijai, ka Savienībai ir jāsaglabā īpašumtiesības uz Savienības finansētu MI darbinātu sistēmu, produktu un tehnoloģiju pētniecības intelektuālo īpašumu drošības un aizsardzības jomā;

20. uzsver, ka Savienībai ir jāveicina labāka izpratne par MI robotikas un autonomijas militāro ietekmi, priekšrocībām, iespējām un trūkumiem, ietverot Eiropas aizsardzības nozares potenciālu un strādājot kopā ar militārajiem ierēdņiem; uzskata, ka Savienībai ir jāveicina vajadzīgo prasmju un zināšanu apgūšana par tehnoloģiju izstrādes procesiem un darbības metodēm visā piegādes ķēdē un par to militāro spēju pilnu dzīves ciklu, kas saistītas ar MI; uzsver, ka ir steidzami jāpanāk lielāka Eiropas stratēģiskā un tehnoloģiskā neatkarība MI darbinātu sistēmu jomā, ietverot kritisko infrastruktūru, uz ko tā paļaujas;

21. uzskata, ka ir vajadzīga labāka dalībvalstu un Komisijas sadarbība, lai Savienībā nodrošinātu saskaņotus pārrobežu noteikumus nolūkā sekmēt Eiropas rūpniecības nozaru sadarbību un ļaut izstrādāt un izvērst MI darbinātas tehnoloģijas, kas atbilst noteiktajiem drošuma un drošības standartiem, un ētikas satvaru, kurš reglamentē MI tehnoloģijas izstrādi un lietošanu;

22. atzīst, ka mūsdienu hibrīdkaru un progresīvo karu kontekstā informācijas apjoms un ātrums krīzes agrīnajos posmos var cilvēkiem analītiķiem būt pārmērīgs un ka MI sistēma varētu apstrādāt informāciju, lai nodrošinātu, ka lēmumus pieņemošie cilvēki atbilstīgā laikposmā ņem vērā visu informāciju, lai būtu iespējami ātra reaģēšana;

23. uzsver, ka ir ļoti svarīgi veikt ieguldījumus cilvēkkapitālā mākslīgā intelekta vajadzībām, veicinot nepieciešamo izglītošanu un uz ētiku balstītu apmācību drošības un aizsardzības MI tehnoloģiju jomā, kā arī īpašu uzmanību pievēršot pusautonomu un autonomu operatīvo sistēmu ētikai un balstoties uz cilvēku pārskatatbildību; jo īpaši uzsver, ka ir svarīgi nodrošināt pienācīgas prasmes un apmācību ētikas speciālistiem šajā jomā; aicina Komisiju pēc iespējas drīz iepazīstināt ar savu 2020. gada 19. februāra Baltajā grāmatā par mākslīgo intelektu paziņoto pastiprināto prasmju programmu;

24. uzsver, ka kvantu skaitļošana varētu nodrošināt revolucionāras konflikta situāciju izmaiņas, kādas nav pieredzētas kopš atomieroču radīšanas, tādēļ mudina Savienību un dalībvalstis piešķirt prioritāti kvantu skaitļošanas tehnoloģiju turpmākai izstrādei; atzīst, ka agresija, tostarp uzbrukumi kritiskai infrastruktūrai ar kvantu skaitļošanas palīdzību, radīs konfliktu vidi, kurā lēmumu pieņemšanas laiks būs ievērojami samazināts, proti, no dienām un stundām uz minūtēm un sekundēm, liekot dalībvalstīm izveidot spējas sevis aizsargāšanai un apmācīt gan lēmumu pieņēmējus, gan militārpersonas efektīvi reaģēt šādos termiņos;

25. uzsver, ka ir nepieciešams pārvarēt pašreizējo sadrumstalotību Savienībā attiecībā uz valstu tiesību aktiem, pētniecību, inovāciju un speciālajām zināšanām mākslīgā intelekta jomā, kas apdraud iekšējā tirgus darbību un mērķi nodrošināt uzticamu un drošu mākslīgā intelekta attīstību Eiropā; šajā sakarībā atzinīgi vērtē ar mākslīgo intelektu saistītu projektu iekļaušanu Eiropas rūpniecības attīstības programmā (EDIDP); uzskata, ka topošais Eiropas Aizsardzības fonds (EAF) un Pastāvīgā strukturētā sadarbība (PESCO) arī piedāvā labi pielāgotas sistēmas turpmākiem ar MI saistītiem projektiem, kas palīdzētu labāk racionalizēt Savienības centienus šajā jomā, un vienlaikus palīdz sasniegt ES mērķi stiprināt cilvēktiesības, starptautiskās tiesības un daudzpusējus risinājumus; uzsver, ka ar MI saistīti projekti būtu jāsaskaņo ar plašākām Savienības civilajām programmām par MI; norāda, ka saskaņā ar Eiropas Komisijas Balto grāmatu MI būtu jāizveido izcilības un testēšanas centri, kas pievērstos MI pētniecībai un izstrādei drošības un aizsardzības jomā, nosakot stingras specifikācijas attiecībā uz privātu ieinteresēto personu dalību un ieguldījumiem;

26. uzsver, ka Savienībai ir jātiecas uz stratēģisku noturību, lai tā vairs nekad nebūtu nesagatavota krīzes situācijai, un jo īpaši uzsver, ka ļoti būtiski tas ir attiecībā uz mākslīgo intelektu un tā lietojumprogrammām aizsardzības un drošības jomā; uzsver, ka būtu jāpārstrādā MI sistēmu piegādes ķēdes aizsardzības un drošības jomā, kuras var izraisīt tehnoloģisku atkarību, un ka šāda atkarība būtu pakāpeniski jānovērš; prasa palielināt ieguldījumus Eiropas aizsardzības MI un svarīgajā tās pamatā esošajā infrastruktūrā;

27. uzsver, ka, lai izstrādātu MI, kas ievēro pamattiesības un atbalsta sabiedrības intereses, Savienībā privātu un publisku struktūru starpā ir stratēģiski jāapkopo un jākopīgo dati, kā arī jāstiprina Savienības MI ekosistēma, kurā iesaistītas publiskās, privātās un pilsoniskās sabiedrības ieinteresētās personas; aicina Komisiju veicināt dialogu, ciešāku sadarbību un sinerģiju starp dalībvalstīm, pētniekiem, akadēmiskajām aprindām, pilsoniskās sabiedrības dalībniekiem un privāto sektoru, jo īpaši vadošajām uzņēmējsabiedrībām un uzņēmumiem, un militāro sektoru, lai nodrošinātu iekļaujošus politikas veidošanas procesus ar aizsardzību saistīta MI regulējuma jomā, maksimāli izmantotu MI potenciālu, vienlaikus veicinot labāku izpratni par riskiem un ieguvumiem, kā arī nodrošinot maksimālu darbības drošību;

28. uzsver, ka saistībā ar plaši izplatīto dezinformācijas karu, ko jo īpaši virza dalībnieki ārpus Eiropas, MI tehnoloģijām var būt ētiski nelabvēlīga ietekme, izmantojot neobjektivitāti datos un algoritmos vai apzināti mainot mācīšanās datus no trešās valsts puses, un tās var arī tikt pakļautas cita veida bīstamām ļaunprātīgām manipulācijām neparedzamā veidā un ar neaprēķināmām sekām; palielinās nepieciešamība turpināt Savienībā ieguldīt pētniecībā, analīzē, inovācijās un pārrobežu un starpnozaru zināšanu nodošanā nolūkā izstrādāt MI tā, lai tas skaidri izskaustu jebkāda veida profilēšanu, aizspriedumus un diskrimināciju un varētu efektīvi palīdzēt apkarot viltus ziņas un dezinformāciju, vienlaikus ievērojot datu privātumu un Eiropas tiesisko regulējumu;

29. uzsver, ka ir svarīgi izstrādāt ētikas rīcības kodeksu, kas būtu pamatā bruņotu MI darbinātu sistēmu izmantošanai militārās operācijās un kas būtu līdzīgs spēkā esošajam tiesiskajam regulējumam, kurš aizliedz izmantot ķīmiskos un bioloģiskos ieročus; uzskata, ka Komisijai būtu jāsāk izstrādāt standartus par MI darbinātu ieroču sistēmu izmantošanu karā saskaņā ar starptautiskajām humanitārajām tiesībām un Savienībai būtu jāpanāk šādu standartu starptautisku pieņemšanu; uzskata, ka Savienībai starptautiskos forumos ir jāveido MI diplomātijas attiecības ar līdzīgi domājošiem partneriem, piemēram, G7, G20 un ESAO;

30. pieņem zināšanai Komisijas 2020. gada 19. februāra Balto grāmatu par mākslīgo intelektu un pauž nožēlu, ka nav ņemti vērā militārie aspekti; aicina Komisiju un PV/AP iesniegt ― arī kā daļu no vispārējas pieejas ― nozaru MI stratēģiju, kas paredzēta ar aizsardzību saistītām darbībām Savienībā un nodrošina gan iedzīvotāju tiesību, gan Savienības stratēģisko interešu ievērošanu, kā arī kurā būtu jāierosina konsekventa regulatīvā pieeja, sākot ar MI iespējotām sistēmām, un beidzot ar to izmantošanu militārām vajadzībām, un izveidot augsta līmeņa ekspertu grupu drošības un aizsardzības jautājumos mākslīgā intelekta augsta līmeņa ekspertu grupas ietvaros izveidot drošības un aizsardzības darba grupu, kam būtu jārisina tieši politikas un ieguldījumu jautājumi, kā arī MI ētikas aspekti drošības un aizsardzības jomā; aicina Padomi, Komisiju un PV/AP šajā nolūkā iesaistīties strukturētā dialogā ar Parlamentu.


INFORMĀCIJA PAR PIEŅEMŠANU
ATZINUMU SNIEDZOŠAJĀ KOMITEJĀ

Pieņemšanas datums

22.6.2020

 

 

 

Galīgais balsojums

+:

–:

0:

60

7

2

Komitejas locekļi, kas bija klāt galīgajā balsošanā

Alviina Alametsä, Maria Arena, Petras Auštrevičius, Traian Băsescu, Lars Patrick Berg, Anna Bonfrisco, Reinhard Bütikofer, Fabio Massimo Castaldo, Susanna Ceccardi, Włodzimierz Cimoszewicz, Katalin Cseh, Tanja Fajon, Anna Fotyga, Michael Gahler, Kinga Gál, Sunčana Glavak, Raphaël Glucksmann, Klemen Grošelj, Bernard Guetta, Márton Gyöngyösi, Sandra Kalniete, Karol Karski, Dietmar Köster, Stelios Kouloglou, Andrius Kubilius, Ilhan Kyuchyuk, David Lega, Miriam Lexmann, Nathalie Loiseau, Antonio López-Istúriz White, Claudiu Manda, Lukas Mandl, Thierry Mariani, David McAllister, Vangelis Meimarakis, Sven Mikser, Francisco José Millán Mon, Javier Nart, Gheorghe-Vlad Nistor, Urmas Paet, Kostas Papadakis, Tonino Picula, Manu Pineda, Kati Piri, Giuliano Pisapia, Diana Riba i Giner, María Soraya Rodríguez Ramos, Nacho Sánchez Amor, Isabel Santos, Jacek Saryusz-Wolski, Andreas Schieder, Radosław Sikorski, Sergei Stanishev, Tineke Strik, Hermann Tertsch, Hilde Vautmans, Harald Vilimsky, Idoia Villanueva Ruiz, Thomas Waitz, Witold Jan Waszczykowski, Charlie Weimers, Isabel Wiseler-Lima, Željana Zovko

Aizstājēji, kas bija klāt galīgajā balsošanā

Katarina Barley, Nicolas Bay, Arnaud Danjean, Katrin Langensiepen, Hannah Neumann, Mick Wallace

 


ATZINUMU SNIEDZOŠĀS KOMITEJAS
GALĪGAIS BALSOJUMS PĒC SARAKSTA

60

+

EPP

Traian Băsescu, Arnaud Danjean, Michael Gahler, Kinga Gál, Sunčana Glavak, Sandra Kalniete, Andrius Kubilius, David Lega, Miriam Lexmann, Antonio López-Istúriz White, Lukas Mandl, David McAllister, Vangelis Meimarakis, Francisco José Millán Mon, Gheorghe-Vlad Nistor, Radosław Sikorski, Isabel Wiseler-Lima, Željana Zovko

S&D

Maria Arena, Katarina Barley, Włodzimierz Cimoszewicz, Tanja Fajon, Raphaël Glucksmann, Dietmar Köster, Claudiu Manda, Sven Mikser, Tonino Picula, Kati Piri, Giuliano Pisapia, Nacho Sánchez Amor, Isabel Santos, Andreas Schieder, Sergei Stanishev

RENEW

Petras Auštrevičius, Katalin Cseh, Klemen Grošelj, Bernard Guetta, Ilhan Kyuchyuk, Nathalie Loiseau, Javier Nart, Urmas Paet, María Soraya Rodríguez Ramos, Hilde Vautmans

ID

Anna Bonfrisco, Susanna Ceccardi

VERTS

Alviina Alametsä, Reinhard Bütikofer, Katrin Langensiepen, Hannah Neumann, Diana Riba i Giner, Tineke Strik, Thomas Waitz

ECR

Anna Fotyga, Karol Karski, Jacek Saryusz-Wolski, Hermann Tertsch, Witold Jan Waszczykowski, Charlie Weimers

NI

Fabio Massimo Castaldo, Márton Gyöngyösi

 

7

-

GUE

Stelios Kouloglou, Manu Pineda, Idoia Villanueva Ruiz, Mick Wallace

ID

Nicolas Bay, Thierry Mariani

NI

Kostas Papadakis

 

2

0

ID

Lars Patrick Berg, Harald Vilimsky

 

Izmantoto apzīmējumu skaidrojums:

+ : par

- : pret

0 : atturas

 


 

IEKŠĒJĀ TIRGUS UN PATĒRĒTĀJU AIZSARDZĪBAS KOMITEJAS ATZINUMS (8.7.2020)

<CommissionInt>Juridiskajai komitejai</CommissionInt>


<Titre>ar ieteikumiem Komisijai par mākslīgā intelekta, robotikas un saistīto tehnoloģiju ētisko aspektu satvaru</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Atzinuma sagatavotāja: <Depute>Alexandra Geese</Depute>

(Iniciatīva – Reglamenta 47. pants)

(*) Iesaistītā komiteja — Reglamenta 57. pants

 

IEROSINĀJUMI

Iekšējā tirgus un patērētāju aizsardzības komiteja aicina par jautājumu atbildīgo Juridisko komiteju:

 rezolūcijas priekšlikumā, ko tā pieņems, iekļaut šādus ierosinājumus:

 

A. tā kā ētikas priekšraksti, piemēram, augsta līmeņa ekspertu grupas mākslīgā intelekta jautājumos pieņemtie principi, ir uzskatāmi par labu sākumpunktu, bet ar tiem nepietiek, lai nodrošinātu, ka uzņēmumi rīkosies taisnīgi un garantēs efektīvu patērētāju aizsardzību;

 

Darbības joma

1. īpaši norāda, cik svarīgi ir īstenot tādu ES tiesisko regulējumu, ar kuru galvenokārt reglamentē mākslīgā intelekta (MI), robotikas un saistīto tehnoloģiju ētiskos aspektus, gadījumos, kad patērētāji Savienībā ir algoritmiskās sistēmas lietotāji vai tā viņiem tiek piemērota, vai viņi ir tās mērķauditorija, vai viņus uz to novirza, neatkarīgi no to struktūru iedibinājuma vietas, kuras attiecīgo sistēmu izstrādā, pārdod vai izmanto; turklāt uzskata, ka paredzētie noteikumi būtu jāpiemēro visiem izstrādātājiem un visā vērtību ķēdē, proti, attiecīgo tehnoloģiju un to komponentu izstrādē, ieviešanā un izmantošanā, un ir jāgarantē augsts patērētāju aizsardzības līmenis; atkārtoti norāda, cik svarīgas ir Līgumos minētās Savienības vērtības attiecībā uz personas datu aizsardzības un nepārprotamas un apzinātas piekrišanas nozīmību, un ierosina šajos noteikumos ņemt vērā pieredzi, kas ir gūta, īstenojot Regulu (ES) 2016/679[19] (VDAR), kas tiek uzskatīta par globālu mērauklu; uzskata, ka Savienībā iedibinātam juridiskajam pārstāvim, kuram varētu adresēt pieprasījumus, piemēram, lai nodrošinātu patērētāju tiesisko aizsardzību, ir svarīga nozīme turpmākā ES tiesiskā regulējuma īstenošanā;

 

2. konstatē, ka ES tiesiskais regulējums ir jāpiemēro algoritmiskām sistēmām, tostarp MI, lietiskā interneta, mašīnmācīšanās, noteikumos balstītu sistēmu, automatizēto lēmumu pieņemšanas procesu un robotikas jomā; turklāt norāda, ka varētu izstrādāt standartizētas ikonas, kas palīdzētu izskaidrot šīs sistēmas patērētājiem katru reizi, kad tās ir sarežģītas vai ir izveidotas, lai pieņemtu lēmumus, kas būtiski ietekmē viņu dzīvi;

 

3. uzsver, ka ES tiesiskajā regulējumā ir jāparedz antropocentriska pieeja un jāveicina tādu sistēmu izstrāde, kuras jau sākotnēji satur Eiropas ētiskās vērtības; uzskata, ka ES tiesiskais regulējums, kurā galvenā vērība ir pievērsta Līgumā minētajām Savienības vērtībām, būtu uzskatāms par pievienoto vērtību, kas Eiropai sniegtu unikālas konkurences priekšrocības un būtisku ieguldījumu Savienības iedzīvotāju un uzņēmumu labjutībā un labklājībā, kā arī stiprinātu iekšējo tirgu; uzsver, ka MI ētiskais satvars rada pievienoto vērtību arī no inovāciju iekšējā tirgū veicināšanas viedokļa;

 

4. norāda, ka ar Lēmumu Nr. 768/2008/EK[20] ieviestais tiesiskais regulējums paredz ražotāju, importētāju un izplatītāju saskaņotu pienākumu sarakstu, mudina izmantot standartus un paredz vairākus kontroles līmeņus atkarībā no produkta bīstamības; uzskata, ka šāds regulējums būtu jāpiemēro arī MI iegultajiem produktiem;

 

5. uzsver, ka, turpmāk izstrādājot regulējumu, ir jāpiemēro diferencēta, uz risku balstīta pieeja, pamatojoties uz kuru, var izstrādāt un ieviest drošas un uzticamas sistēmas un kura ir jāīsteno saskaņā ar precīziem kritērijiem un radītājiem, un pēc kuras ir jāveic objektīvs juridiskais novērtējums, kura pamatā būtu iespējamais gan indivīdam, gan sabiedrībai kopumā nodarītais kaitējums vai to tiesību pārkāpums, ņemot vērā algoritmiskās sistēmas īpašo izmantošanas kontekstu; vērš uzmanību uz to, ka juridiskajām saistībām un sertifikācijas prasībām, ceļoties konstatētajam riska līmenim, arī ir pakāpeniski jāpalielinās; uzsver, ka zemākajās riska kategorijās papildu juridiskās saistības noteikt nedrīkst; konstatē, ka algoritmiskās sistēmas, kas var kaitēt privātpersonai vai izraisīt iespējamu tās tiesību pārkāpumu vai ietekmēt viņa piekļuvi publiskām priekšrocībām, par zemākā riska kategorijas sistēmām uzskatītas netiek; konstatē, ka šai uz risku balstītajai pieejai ir jāatbilst skaidriem un pārredzamiem noteikumiem, ar kuriem tiek nodrošināta pietiekama juridiskā noteiktība un vienlaikus — atbilstība nākotnes prasībām; prasa īstenot vienotu riska klasifikācijas sistēmu un ar to saistītās juridiskās saistības, lai nodrošinātu dalībvalstu vienlīdzīgus konkurences apstākļus un nepieļautu iekšējā tirgus sadrumstalotību; uzsver, ka konkrētas sistēmas riska novērtējums ir regulāri jāpārvērtē;

 

6. atgādina, ka Komisijai būtu jāizskata spēkā esošais ES tiesiskais regulējums un tā piemērošana, tostarp patērētāju tiesību acquis, tiesību akti par produktatbildību, tiesību akti par produktu drošumu un tirgus uzraudzības tiesību akti, lai atklātu likuma robus, kā arī spēkā esošos likumā noteiktos pienākumus; uzskata, ka tas ir nepieciešams, lai pārliecinātos, vai piemērojamais ES tiesiskais regulējums spēj reaģēt uz MI, robotikas un saistīto tehnoloģiju parādīšanos un vai tas spēj nodrošināt augstu patērētāju aizsardzības līmeni;

 

Datu pārvaldība

7. uzsver, cik svarīgs ir ES ētiskais un tiesiskais regulējums, tostarp jo īpaši normas, saskaņā ar kurām ir nepieciešami augstas kvalitātes dati, lai apmācītu algoritmiskās sistēmas attiecībā uz to izmantošanas mērķi; šajā sakarībā uzsver nepieciešamību nodrošināt izmantoto apmācības datu reprezentativitāti un, ja iespējams, nodrošināt datu kopu un datu un apkopošanas normu neobjektivitātes novēršanu, lai uzlabotu algoritmisko sistēmu veikumu un palielinātu patērētāju uzticēšanos un apmierinātību; uzsver, ka šīm datu kopām ir jābūt pārbaudāmām tādas revīzijas ceļā, ko veiktu kompetentās iestādes, ikreiz, kad tās tiktu pieaicinātas nodrošināt minēto kopu atbilstību iepriekš minētajiem principiem;

 

Patērētāju aizsardzība: algoritmu pārredzamība un izskaidrojamība

8. uzsver, ka patērētāju uzticēšanās ir būtiska no tāda MI, robotikas un saistīto tehnoloģiju izstrādes un ieviešanas viedokļa, kas pēc sava rakstura var būt saistītas ar risku, ja šo tehnoloģiju pamatā ir nepārredzami algoritmi un neprecizitātes saturošas datu kopas; uzskata, ka patērētājiem ir tiesības tikt pienācīgi un savlaicīgi informētiem saprotamā, standartizētā, precīzā un pieejamā veidā par algoritmisko sistēmu esamību, “spriešanas” loģiku un iespējamo iznākumu un ietekmi uz patērētājiem, par to, kā sazināties ar cilvēku, kuram ir lēmumu pieņemšanas pilnvaras, un par to, kā sistēmas lēmumus var pārbaudīt, konstruktīvi apstrīdēt un izlabot; atgādina, ka cilvēkiem vienmēr jāspēj atcelt automatizēti pieņemtos lēmumus; uzskata, ka patērētāji ir jāaizsargā arī tā, ka viņiem tiek piešķirtas tiesības izslēgt vai ierobežot MI sistēmu, kad vien iespējams, izmantojot personalizāciju; uzsver proporcionalitātes nozīmi šāda pārredzamības satvara izstrādē, lai izvairītos no nevajadzīga sloga radīšanas jaunuzņēmumiem un maziem un vidējiem uzņēmumiem (MVU), kas pieder pie zema riska kategorijas;

 

9. uzsver nepieciešamību efektīvi risināt problēmas, ko rada algoritmiskās sistēmas, un nodrošināt, ka patērētājiem ir attiecīgās tiesības un viņi ir pienācīgi aizsargāti; uzsver, ka ir jāraugās tālāk par tradicionālajiem informēšanas un izpaušanas principiem, kas ir patērētāju acquis pamatā, jo būs nepieciešamas stingrākas patērētāju tiesības un precīzi ierobežojumi attiecībā uz algoritmisko sistēmu izstrādi un izmantošanu, lai nodrošinātu, ka tehnoloģija palīdz uzlabot patērētāju dzīvi un attīstās, ievērojot pamattiesības un patērētāju tiesības, un Eiropas vērtības;

 

10. uzskata, ka ir ļoti nepieciešama vērtību ziņā jutīga projektēšanas pieeja, kas radītu patērētāju plaša sabiedriskā atbalsta MI priekšnoteikumus; uzskata, ka MI ir jābalsta uz ētikas vērtībām — taisnīgumu, precizitāti, konfidencialitāti un pārredzamību, kas šajā kontekstā nozīmē to, ka sistēmas darbības nedrīkst ģenerēt netaisnīgi neobjektīvus iznākumus;

 

11. atgādina, cik svarīgi ir patērētājiem nodrošināt efektīvu tiesiskās aizsardzības līdzekļu pieejamību, un aicina dalībvalstis un valsts tirgus uzraudzības iestādes nodrošināt pieejamas, izmaksu ziņā pieejamas, neatkarīgas un efektīvas procedūrām un pārskatīšanas struktūras, ar kurām garantē, ka tieši cilvēki objektīvi izskata visas sūdzības par patērētāju tiesību pārkāpumiem, kas ir pieļauti, izmantojot algoritmiskās sistēmas, neatkarīgi no tā, vai tās pauž publiskā vai privātā sektora dalībnieki; mudina nodrošināt, ka strīdu izšķiršanas un kolektīvās tiesiskās aizsardzības mehānismi saskaņā ar Eiropas Parlamenta un Padomes Direktīvu par pārstāvības prasībām patērētāju kolektīvo interešu aizsardzībai un Direktīvas 2009/22/EK[21] atcelšanu ir pieejami, lai apstrīdētu tādas sistēmas ieviešanu vai nepārtrauktu izmantošanu, kas rada patērētāju tiesību pārkāpšanas risku, vai lai tiesību pārkāpumus novērstu; aicina Komisiju nodrošināt, ka valstu un Eiropas patērētāju organizācijām ir pietiekams finansējums, lai palīdzētu patērētājiem izmantot savas tiesības uz tiesiskās aizsardzības līdzekļiem gadījumos, kad ar lēmumiem, kuru pamatā ir MI lietotnes, tiek pārkāptas patērētāju tiesības;

 

12. uzsver, ka gadījumos, kad nauda, kuru piešķir no publiskiem avotiem, būtiski veicina algoritmiskās sistēmas izstrādi vai īstenošanu, papildus publiska iepirkuma un publiskiem līgumslēgšanas standartiem, programma, ģenerētie dati, ciktāl tie nav personas dati, un apmācītais modelis pēc noklusējuma varētu būt publiski pieejami, vienojoties ar izstrādātāju, lai garantētu pārredzamību, uzlabotu kiberdrošību un ļautu tos atkārtoti izmantot, tādējādi veicinot inovāciju; uzsver, ka šādā veidā var pilnībā atraisīt vienotā tirgus potenciālu, izvairoties no tirgus sadrumstalotības;

 

Iekšējais tirgus:  sabiedrības informēšana un izglītošana

13. īpaši norāda uz to, ka ir svarīgi nodrošināt, lai, izstrādājot jebkuru turpmāko ES tiesisko regulējumu, tiktu pienācīgi ņemtas vērā un atspoguļotas visu patērētāju, tostarp marginalizēto vai neaizsargātības situācijā esošo patērētāju, piemēram, personu ar invaliditāti, intereses; konstatē, ka, lai analizētu algoritmisko sistēmu ietekmi uz patērētājiem, piekļuve datiem būtu jānodrošina arī attiecīgajiem rīcībspēkiem, piemēram, neatkarīgajiem pētniekiem, plašsaziņas līdzekļiem un pilsoniskās sabiedrības organizācijām, ja iespējams, izmantojot lietotņu saskarnes (API), vienlaikus pilnībā ievērojot Savienības datu aizsardzību un privātumu reglamentējošos tiesību aktus un komercnoslēpumu reglamentējošo regulējumu; atgādina, cik svarīga ir patērētāju izglītošana, lai viņi būtu labāk informēti un kvalificēti saskarsmē ar algoritmiskajām sistēmām nolūkā viņus pasargāt no iespējamiem riskiem un nodrošināt viņu tiesību ievērošanu; uzskata, ka MI, lietiskajam internetam un citām jaunajām tehnoloģijām ir milzīgs potenciāls patērētājiem sniegt iespējas izmantot vairākas ērtības, kas viņu ikdienas dzīves atvieglotu daudzējādos veidos, un nodrošināt labāku produktu piedāvājumu un pakalpojumu klāstu, vienlaikus patērētājiem radot arī priekšrocības, jo minētās parādības veicina tirgus labāku uzraudzību, kamēr vien spēkā ir visi piemērojamie principi, nosacījumi (tostarp pārredzamība un revidējamība) un normas;

 

14. īpaši norāda uz to, cik svarīgi ir panākt vispārējās digitālās pratības augstu līmeni un cik svarīga ir apmācība, ar kuras palīdzību panāk augstu šīs jomas speciālistu kvalifikāciju, kā arī šādas kvalifikācijas savstarpējas atzīšanas visā Savienībā nodrošināšana; izceļ vajadzību pēc tā, lai dažādas izstrādātāju un inženieru grupas strādātu kopā ar galvenajiem sabiedrības rīcībspēkiem, lai nepieļautu to, ka MI algoritmos, sistēmās un lietotnēs nejauši tiek iekļauti ar dzimumu un kultūru saistīti aizspriedumi; atbalsta tādu izglītības programmu un sabiedrības informēšanas pasākumu izstrādi, kas aptvertu MI ietekmi uz sabiedrību, tiesībām un ētiku;

 

15. aicina Komisiju veicināt un finansēt tāda antropocentriska MI, robotikas un saistīto tehnoloģiju izstrādi, kas risinātu vides un klimata problēmas un ar nodokļu, iepirkuma vai citu stimulu palīdzību nodrošinātu pamattiesību vienlīdzīgas izmantošanas iespējas un vienlīdzīgu atsaukšanos uz tām;

 

16. uzsver, ka MI un algoritmiskajām sistēmām ir jābūt juridiski atbilstīgām, stabilām, uzticamām un drošām pēc noklusējuma; aicina Komisiju nodrošināt, ka Savienības regulatīvā pieeja algoritmiskajām sistēmām ietver atbilstīgus pasākumus, ar kuriem nodrošina, ka šīs sistēmas tiek neatkarīgi kontrolētas un pārraudzītas;

 

Tirgus uzraudzība

17. aicina izveidot Eiropas Zinātības centru, kas stiprinātu Savienības spējas un pēc iespējas vairāk izmantotu esošās struktūras, nolūkā veicināt ar algoritmiskajām sistēmām saistītas informācijas apmaiņu starp dalībvalstu iestādēm un atbalstītu vienotas izpratnes veidošanu vienotajā tirgū, dalībvalstu iestādēm sniedzot norādījumus, atzinumus un zinātību, uzraugot attiecīgo Savienības tiesību aktu īstenošanu, risinot iespējamos patērētāju aizsardzības jautājumus, nosakot labākās prakses standartus un attiecīgā gadījumā sniedzot ieteikumus par regulatīvu pasākumu veikšanu; turklāt prasa, lai ieinteresēto personu organizācijas, piemēram, patērētāju aizsardzības organizācijas, šo struktūru pienācīgi konsultētu un tādējādi nodrošinātu patērētāju plašu pārstāvību; uzskata, ka, ņemot vērā algoritmisko sistēmu nesamērīgo ietekmi uz sievietēm un minoritātēm, šādas struktūras lēmumu pieņemšanas līmeņiem ir jābūt daudzveidīgiem un dzimuma ziņā līdzsvarotiem; uzsver, ka dalībvalstīm savu valsts tirgus uzraudzības stratēģiju kontekstā ir jāizstrādā saskaņotas MI riska pārvaldības stratēģijas;

 

18. prasa, lai Eiropas Komisija ierosinātu datu izsekojamības pasākumus un, to darot, ņemtu vērā vajadzību gan pēc datu iegūšanas likumības, gan patērētāju un pamattiesību aizsardzības; vienlaikus uzsver, ka datu kopas, algoritmi un procesi, ko izmanto algoritmisko sistēmu izstrādē un ieviešanā, tostarp datu vākšanā un datu marķēšanā, būtu jādokumentē saskaņā ar nozares standartiem; konstatē, ka ir būtiski, lai riska novērtējuma dokumentācija, programmatūras dokumentācija, algoritmi un MI, robotikas un saistīto tehnoloģiju izmantotās vai radītās datu kopas būtu pieejamas un izskaidrojamas tirgus uzraudzības iestādēm, vienlaikus nodrošinot atbilstību Savienības tiesību aktiem un komercnoslēpuma neizpaušanas pienākuma izpildi; turklāt konstatē, ka šāda dokumentācija ir jāglabā no tādu personu puses, kas ir iesaistītas dažādos algoritmisko sistēmu izstrādes posmos; konstatē, ka šajā sakarā tirgus uzraudzības iestādēm būtu jāpiešķir papildu prerogatīvas; uzskata, ka varētu būt nepieciešama spēkā esošā tirgus uzraudzības regulējuma pārbaude, lai izvairītos no tā novecošanas un nodrošinātu, ka ar to no ētikas viedokļa tiek pienācīgi reaģēts uz MI, robotikas un saistīto tehnoloģiju parādīšanos;

 

19. prasa, lai katra dalībvalsts izraudzītos kompetento valsts iestādi, kas uzraudzītu ar algoritmiskajām sistēmām saistīto normu piemērošanu, un piešķirtu tai pietiekamu finansējumu; uzsver, ka ir jāstiprina valstu tirgus uzraudzības iestāžu jauda, prasme un kompetence MI jomā, kā arī zināšanas par MI radītajiem specifiskajiem riskiem;

 

20. prasa nodrošināt dalībvalstu iestāžu spēcīgu koordināciju un izveidot Eiropas Algoritmisko sistēmu tirgus uzraudzības padomi, kuru veidotu valstu iestādes un kas nodrošinātu efektīvu uzraudzību, vienlīdzīgus konkurences apstākļus Eiropas mērogā un nepieļautu iekšējā tirgus sadrumstalotību;

 

21. uzteic MI augsta līmeņa ekspertu grupas gūtos vērtīgos rezultātus, jo īpaši “Uzticama mākslīgā intelekta ētikas vadlīnijas”; ierosina, lai šī grupa, kuras sastāvā ir akadēmisko aprindu, pilsoniskās sabiedrības un nozares pārstāvji, kā arī Eiropas Mākslīgā intelekta alianse, varētu sniegt zinātību Eiropas Algoritmisko sistēmu tirgus uzraudzības konsultatīvajai padomei;

 

22. konstatē, ka jo īpaši uzņēmumu un patērētāju attiecību jomā sistēmām ir jābūt vērstām uz lietotāju un izstrādātām tā, lai visi cilvēki varētu izmantot MI produktus vai pakalpojumus neatkarīgi no viņu vecuma, dzimuma, spējām vai īpašībām; konstatē, ka šīs tehnoloģijas pieejamība personām ar invaliditāti ir īpaši svarīga; konstatē, ka MI sistēmas nedrīkst izmantot, piemērojot universālas panacejas pieeju visos gadījumos, un tajās ir jāapsver visplašākajam iespējamam lietotāju lokam paredzētie vispārējie izstrādes principi, ievērojot attiecīgos pieejamības standartus. uzsver, ka tādējādi cilvēki varēs vienlīdzīgi piekļūt esošajām un tapšanas stadijā esošajām datorizētajām cilvēku darbībām un palīgtehnoloģijām un aktīvi tajās piedalīties.


INFORMĀCIJA PAR PIEŅEMŠANU
ATZINUMU SNIEDZOŠAJĀ KOMITEJĀ

Pieņemšanas datums

7.7.2020

 

 

 

Galīgais balsojums

+:

–:

0:

39

1

4

Komitejas locekļi, kas bija klāt galīgajā balsošanā

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Aizstājēji, kas bija klāt galīgajā balsošanā

Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin

 


ATZINUMU SNIEDZOŠĀS KOMITEJAS
GALĪGAIS BALSOJUMS PĒC SARAKSTA

39

+

EPP

S&D

RENEW

GREENS/EFA

ECR

EUL/NGL

NI

Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, MariaManuel LeitãoMarques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

Andrus Ansip, VladMarius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie YonCourtin

David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kimvan Sparrentak

Adam Bielan, Carlo Fidanza, Eugen Jurzyca, Beata Mazurek

Kateřina Konečná, AnneSophie Pelletier

Marco Zullo

 

1

-

ID

Hynek Blaško

 

4

0

ID

Alessandra Basso, Markus Buchheit, Virginie Joron, JeanLin Lacapelle

 

Izmantoto apzīmējumu skaidrojums:

+ : par

- : pret

0 : atturas


 

TRANSPORTA UN TŪRISMA KOMITEJAS ATZINUMS (16.7.2020)

<CommissionInt>Juridiskajai komitejai</CommissionInt>


<Titre>ar ieteikumiem Komisijai par mākslīgā intelekta, robotikas un saistīto tehnoloģiju ētisko aspektu satvaru</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Atzinumu sagatavoja: <Depute>Valter Flego</Depute>(*) Iesaistītā komiteja — Reglamenta 57. pants

 

 

 (Iniciatīva – Reglamenta 47. pants)

IEROSINĀJUMI

Transporta un tūrisma komiteja aicina par jautājumu atbildīgo Juridisko komiteju rezolūcijas priekšlikumā, ko tā pieņems, iekļaut šādus ierosinājumus:

A. tā kā mākslīgais intelekts (MI) ir stratēģiski svarīga tehnoloģija transporta nozarei un paredzams, ka tas sniegs labumu iedzīvotājiem un sabiedrībai, uzlabojot dzīves kvalitāti, paaugstinot visu transporta veidu drošības līmeni un radot jaunas nodarbinātības iespējas un ilgtspējīgākus uzņēmējdarbības modeļus; tā kā MI var būtiski pārveidot sabiedrību, jo īpaši ja tas būs plaši piedāvāts un pieejams;

B. tā kā MI potenciālu transporta nozarē var pilnībā izmantot tikai tad, ja lietotāji apzinās iespējamos ieguvumus un problēmas, ko rada šāda tehnoloģija; tā kā šis jautājums ir jārisina ar izglītību un apmācību, tostarp attiecībā uz digitālās iekļaušanas veicināšanu, un jāīsteno tādas Savienības līmeņa informācijas kampaņas, ar kurām precīzi atspoguļo visus MI attīstības aspektus;

C. tā kā Eiropas pieejai MI, robotikai un saistītajām tehnoloģijām ir jābūt saskaņā ar ētikas principiem, lai nodrošinātu, ka MI, robotika un saistītās tehnoloģijas ir orientētas uz cilvēku, uzlabo cilvēku labklājību, drošību, sabiedrības labklājību un vidi, risina attiecīgās ētikas dilemmas, pilnībā ievēro Savienības pamattiesības, vērtības un principus un pilnībā atbilst Savienības tiesību aktiem par privātumu un datu aizsardzību; tā kā ar šo pieeju būs jārisina arī jautājumi par algoritmiskajās sistēmās izmantoto datu kopu kvalitāti, kā arī par pašiem algoritmiem un datu un apkopošanas standartiem;

D. tā kā uzticama MI pamatā jābūt četriem ētikas principiem: cilvēka autonomijas ievērošana, kaitējuma novēršana, taisnīgums un izskaidrojamība; tā kā šo ētikas principu ievērošanai ir jāpieņem konkrēti noteikumi ES transporta nozarē;

E. tā kā cilvēka kļūdu dēļ vēl arvien notiek aptuveni 95 % no visiem ceļu satiksmes negadījumiem Savienībā; tā kā Savienības mērķis bija līdz 2020. gadam samazināt Savienībā notikušajos ceļu satiksmes negadījumos bojāgājušo skaitu par 50 % salīdzinājumā ar 2010. gadu, bet, ņemot vērā lēno progresu, tā atsāka centienus saistībā ar Ceļu satiksmes drošības politikas satvaru 2021.–2030. gadam — turpmākie pasākumi virzībā uz t. s. “nulles redzējumu”; tā kā šajā sakarā ar MI, automatizāciju un citām jaunajām tehnoloģijām ir lielas iespējas uzlabot ceļu satiksmes drošību, potenciāli samazinot cilvēka kļūdu gadījumus, un šajā ziņā tās ir ļoti svarīgas;

F. tā kā MI, automatizācija un citas jaunas tehnoloģijas arī var palīdzēt samazināt satiksmes sastrēgumus un siltumnīcefekta gāzu un gaisu piesārņojošo vielu emisijas;

G. tā kā darbs pie ētiski atbildīga, uz cilvēku orientēta un tehnoloģiski stabila MI, robotikas un saistītajām tehnoloģijām transporta nozarē sniedz Savienības uzņēmumiem, tostarp MVU, uzņēmējdarbības iespējas kļūt par pasaules līderiem šajā jomā;

H. tā kā šādas jaunas uzņēmējdarbības iespējas var veicināt Savienības ražojošās nozares atgūšanos pēc pašreizējās veselības un ekonomikas krīzes un paplašināt MI tehnoloģijas izmantošanu transporta jomā; tā kā šādas iespējas radīs jaunas darbvietas, jo MI un saistīto tehnoloģiju ieviešana var paaugstināt uzņēmumu ražīgumu un veicināt efektivitātes pieaugumu; tā kā inovācijas programmas šajā jomā var veicināt reģionālo klasteru uzplaukumu;

I. tā kā šāda Eiropas pieeja MI, robotikas un saistīto tehnoloģiju izstrādei transporta nozarē var palielināt Savienības ekonomikas konkurētspēju pasaulē un stratēģisko autonomiju;

J. tā kā tādās nozarēs kā, piemēram, sabiedriskais transports, MI sistēmas intelektiskām transporta sistēmām var izmantot, lai samazinātu rindas, optimizētu maršrutus, ļautu personām ar invaliditāti būt neatkarīgākām un palielinātu energoefektivitāti, tādējādi sekmējot dekarbonizācijas pasākumus un samazinot ietekmi uz vidi,

1. uzsver MI, robotikas un saistīto tehnoloģiju potenciālu attiecībā uz visiem autonomajiem autoceļu, dzelzceļa, ūdens un gaisa transporta veidiem, kā arī attiecībā uz kravu novirzīšanas uz citiem transporta veidiem un vairākveidu pārvadājumu veicināšanu, jo šādas tehnoloģijas var palīdzēt atrast optimālu transporta veidu kombināciju preču un pasažieru pārvadāšanai; turklāt uzsver, ka tās var padarīt transportu, loģistiku un satiksmes plūsmas efektīvākas un visus transporta veidus drošākus, viedākus un videi draudzīgākus; norāda, ka ētisku pieeju MI var uzskatīt arī par agrīnās brīdināšanas sistēmu, jo īpaši attiecībā uz transporta drošību un efektivitāti;

2 uzsver, ka globālā konkurence starp uzņēmumiem un ekonomikas reģioniem nozīmē, ka Savienībai ir jāveicina investīcijas un jāstiprina transporta nozares uzņēmumu starptautiskā konkurētspēja, izveidojot tādu vidi, kas ir labvēlīga MI risinājumu un turpmāku inovāciju izstrādei un pielietošanai, un kurā Savienības uzņēmumi var kļūt par pasaules līderiem MI tehnoloģiju izstrādē;

3. uzsver, ka ES transporta nozarei ir nepieciešams atjaunināts tiesiskais regulējums attiecībā uz šādām jaunām tehnoloģijām un to izmantošanu transporta nozarē, kā arī skaidra ētikas sistēma uzticama MI izstrādei, tostarp aptverot drošības, drošuma, cilvēka autonomijas ievērošanas, pārraudzības un atbildības aspektus, kas palielinās ieguvumus, ko varēs izmantot visi un kas būs svarīgi, lai veicinātu investīcijas pētniecībā un inovācijā, prasmju attīstībā un MI ieviešanā publiskajos pakalpojumos, MVU, jaunuzņēmumos un citos uzņēmumos, vienlaikus nodrošinot arī datu aizsardzību un sadarbspēju, turklāt neradot nevajadzīgu administratīvo slogu uzņēmumiem un patērētājiem; uzsver, ka ir ļoti svarīgi nodrošināt, lai jebkāda tiesiskā regulējuma atjaunināšana attiecībā uz šīm jaunajām tehnoloģijām vienmēr būtu balstīta uz reālu vajadzību un atbilstu labāka regulējuma principam, un šajā sakarā:

a) aicina Komisiju nodrošināt skaidru ētikas principu satvaru MI, robotikas un saistīto tehnoloģiju izstrādei, ieviešanai un izmantošanai transporta nozarē; jebkādas MI, robotikas un saistītās tehnoloģijas transporta nozarē jāizstrādā, jāievieš un jāizmanto saskaņā ar minētajiem ētikas principiem;

b) iesaka izstrādāt pamatnostādnes ar MI nodrošināto tehnoloģiju saskaņotai riska klasifikācijai visiem transporta veidiem, aptverot transportlīdzekļu funkcijas, kas piešķirtas cilvēkiem un MI, un precizējot atbildības jomas un prasības attiecībā uz drošību;

c) aicina Komisiju izpētīt iespēju izmantot esošo Eiropas tirgus uzraudzības struktūru arī attiecībā uz algoritmiskajām sistēmām, tostarp ar tām saistītos datu aizsardzības noteikumus, sniedzot norādījumus, atzinumus un speciālās zināšanas dalībvalstu iestādēm, tostarp par sadarbspēju;

d) aicina Komisiju izveidot MI riska klasifikācijas shēmu intelektiskām transporta sistēmām, rīkojoties saskaņā ar augsta līmeņa ekspertu grupas novērtējumu, lai labāk reaģētu uz transporta nozares jaunajām vajadzībām;

e) aicina Komisiju īpašu uzmanību veltīt MVU situācijai un turpmāk tiesību aktus izstrādāt tā, lai uzlabotu šo uzņēmumu iespējas izstrādāt un lietot MI tehnoloģiju;

f) uzskata, ka ir jāsniedz detalizēta informācija galalietotājiem par transporta sistēmu un uz MI balstītu transportlīdzekļu darbību;

4. uzsver, ka Eiropas pieejai MI tehnoloģijai būtu jānodrošina cilvēku uzticēšanās, jākalpo sabiedrības interesēm un jāstiprina kopīga sociālā atbildība; uzskata, ka uzticama, ētiski atbildīga un tehniski stabila MI izstrāde ir svarīga tādas ilgtspējīgas un viedas mobilitātes veicināšanai, kas ir droša un pieejama; šajā sakarā aicina Komisiju turpināt veicināt MI ieviešanu transporta nozarē un nolūkā nodrošināt Savienības pamattiesību ievērošanu nekavējoties un ciešā sadarbībā ar visām ieinteresētajām personām transporta nozarē ierosināt atbilstošas izmaiņas ES tiesību aktos;

5. uzsver, ka MI izstrādei un ieviešanai jāsekmē droši un pieejami transporta pakalpojumi;

6. iesaka izstrādāt uzticama MI ētikas Savienības mēroga standartus visiem transporta veidiem, tostarp autobūves nozarei, attiecībā uz saistītās tehnikas drošību, sadarbspēju, tehnisko noturību, remontējamību un reciklējamību, tostarp risināt problēmas, kas saistītas ar resursu efektivitāti, privātumu, datu aizsardzību un pārredzamību, kā arī ar MI nodrošinātu transportlīdzekļu un ar tiem saistītu produktu un pakalpojumu testēšanu;

7. aicina Komisiju cieši sadarboties ar dalībvalstīm, lai Savienībā izstrādātu, īstenotu un piemērotu uzticama MI standartus; norāda, ka Savienībai ir potenciāls kļūt par pasaules līderi, veicinot sociāli atbildīgu un ilgtspējīgu pieeju MI tehnoloģijai un tās izmantošanai;

8. aicina Komisiju izpētīt iespēju uzticēt vienai vai vairākām attiecīgām esošām Savienības līmeņa aģentūrām, iestādēm vai struktūrām uzraudzības, izpildes un sankciju mehānismu īstenošanu un noskaidrot, kā esošos uzraudzības un kontroles instrumentus transporta nozarē var aprīkot un izmantot rīcībai, lai nodrošinātu pārraudzību Savienības līmenī un ļautu Komisijai rīkoties, ja transporta nozarē izmantota MI sistēma pārkāpj pamattiesības vai Eiropas ētikas un drošuma satvaru;

9. aicina Komisiju turpināt atbalstīt uzticamu MI sistēmu izstrādi, lai padarītu transportu drošāku, efektīvāku, piekļūstamāku, cenas ziņā pieejamāku un iekļaujošāku, tostarp personām ar ierobežotām pārvietošanās spējām, jo īpaši personām ar invaliditāti, ņemot vērā Eiropas Parlamenta un Padomes Direktīvu (ES) 2019/882[22] un Savienības tiesību aktus par pasažieru tiesībām;

10. vērš uzmanību uz augsto pievienoto vērtību, ko autonomie transportlīdzekļi sniedz personām ar ierobežotām pārvietošanās spējām, jo šādi transportlīdzekļi ļauj tām efektīvāk piedalīties individuālā autotransporta satiksmē un tādējādi atvieglo viņu ikdienas dzīvi;

 

11. uzsver pieejamības nozīmi, jo īpaši, izstrādājot MaaS (mobilitāte kā pakalpojums) sistēmas;

 

12. uzsver, ka datu zinātnei ir izšķiroša nozīme nediskriminējošu MI sistēmu izstrādē un bojātu datu izmantošanas novēršanā; turklāt iesaka ievērot datu apstrādes procedūras, kas atbilst VDAR un ar kurām ievēro konfidencialitātes un nediskriminācijas principus;

 

13. atzīmē, ka MI sistēmas varētu palīdzēt ievērojami samazināt ceļu satiksmes negadījumos bojāgājušo skaitu, piemēram, uzlabojot reaģēšanas laiku un sekmējot labāku noteikumu ievērošanu; tomēr uzskata, ka ar autonomo transportlīdzekļu izmantošanu nebūs iespējams novērst visus negadījumus, un uzsver, ka tas par arvien svarīgāku uzdevumu padara MI lēmumu izskaidrojamības nodrošināšanu, lai tādējādi padarītu izprotamus MI lēmumu trūkumus un neparedzētas sekas;

 

14. uzskata, ka vienmēr jābūt iespējai galalietotājiem un citām ieinteresētajām personām netehniskā valodā izskaidrot MI lēmumus, kā arī jebkurus svarīgus datus, kas liek pieņemt attiecīgos lēmumus;

 

15. norāda, ka MI izstrāde un īstenošana transporta nozarē nebūs iespējama bez modernas infrastruktūras, kas ir būtiska intelektisko transporta sistēmu daļa; uzsver, ka pastāvošās attīstības līmeņa atšķirības starp dalībvalstīm rada risku, ka vismazāk attīstītajiem reģioniem un to iedzīvotājiem tiks liegtas autonomas mobilitātes attīstības sniegtās priekšrocības; aicina novērtēt darba tirgus nākotnes problēmas, ko rada MI tehnoloģiju attīstība transporta nozarē, un pienācīgi finansēt infrastruktūras modernizāciju Savienībā, tostarp tās integrāciju 5G tīklā.


INFORMĀCIJA PAR PIEŅEMŠANU
ATZINUMU SNIEDZOŠAJĀ KOMITEJĀ

Pieņemšanas datums

14.7.2020

 

 

 

Galīgais balsojums

+:

–:

0:

49

0

0

Komitejas locekļi, kas bija klāt galīgajā balsošanā

Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski

Aizstājēji, kas bija klāt galīgajā balsošanā

Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti


ATZINUMU SNIEDZOŠĀS KOMITEJAS
GALĪGAIS BALSOJUMS PĒC SARAKSTA

49

+

ECR Group

Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski

GUE/NGL Group

Leila Chaibi, Kateřina Konečná, Elena Kountoura

ID Group

Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo

NI

Dorien Rookmaker, Mario Furore,

PPE Group

Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian-Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Elżbieta Katarzyna Łukacijewska

Renew Group

José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan-Christoph Oetjen, Dominique Riquet

S&D Group

Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi

Verts/ALE Group

Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay-Grunenberg, Tilly Metz

 

0

-

 

 

 

0

0

 

 

 

Izmantoto apzīmējumu skaidrojums:

+ : par

- : pret

0 : atturas


 

PILSOŅU BRĪVĪBU, TIESLIETU UN IEKŠLIETU KOMITEJAS ATZINUMS (22.9.2020)

<CommissionInt>Juridiskajai komitejai</CommissionInt>


<Titre>ar ieteikumiem Komisijai par mākslīgā intelekta, robotikas un saistīto tehnoloģiju ētisko aspektu satvaru</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Atzinuma sagatavotāja (*): <Depute>Assita Kanko</Depute>

(*) Iesaistītā komiteja — Reglamenta 57. pants

 

 

(Iniciatīva – Reglamenta 47. pants)

 

 

IEROSINĀJUMI

Pilsoņu brīvību, tieslietu un iekšlietu komiteja aicina par jautājumu atbildīgo Juridisko komiteju rezolūcijas priekšlikumā, ko tā pieņems, iekļaut šādus ierosinājumus:

 ņemot vērā Līguma par Eiropas Savienību (LES) 2. un 3. pantu,

 ņemot vērā Līguma par Eiropas Savienības darbību (LESD) 10., 19., 21. un 167. pantu,

 ņemot vērā LESD 20. un 227. pantā un Eiropas Savienības Pamattiesību hartas (“Harta”) 44. pantā noteiktās tiesības iesniegt lūgumrakstu,

 ņemot vērā Hartas 21. un 22. pantu,

 ņemot vērā LES preambulu,

 ņemot vērā Eiropas Padomes Vispārējo konvenciju par nacionālo minoritāšu aizsardzību, Cilvēktiesību un pamatbrīvību aizsardzības konvencijas Protokolu Nr. 12 un Eiropas reģionālo vai minoritāšu valodu hartu,

 ņemot vērā Padomes 2000. gada 29. jūnija Direktīvu 2000/43/EK, ar ko ievieš vienādas attieksmes principu pret personām neatkarīgi no rasu vai etniskās piederības[23] (Rasu vienlīdzības direktīva),

 ņemot vērā Padomes 2000. gada 27. novembra Direktīvu 2000/78/EK, ar ko nosaka kopēju sistēmu vienlīdzīgai attieksmei pret nodarbinātību un profesiju[24] (Direktīva par vienlīdzīgu attieksmi nodarbinātības jomā),

 ņemot vērā Eiropas Parlamenta un Padomes 2016. gada 27. aprīļa Regulu (ES) 2016/679 par fizisku personu aizsardzību attiecībā uz personas datu apstrādi un šādu datu brīvu apriti un ar ko atceļ Direktīvu 95/46/EK (Vispārīgā datu aizsardzības regula)[25] un Eiropas Parlamenta un Padomes 2016. gada 27. aprīļa Direktīvu (ES) 2016/680 par fizisku personu aizsardzību attiecībā uz personas datu apstrādi, ko veic kompetentās iestādes, lai novērstu, izmeklētu, atklātu noziedzīgus nodarījumus vai sauktu pie atbildības par tiem vai izpildītu kriminālsodus, un par šādu datu brīvu apriti, ar ko atceļ Padomes Pamatlēmumu 2008/977/TI[26],

 ņemot vērā Komisijas 2019. gada 11. decembra paziņojumu Eiropas Parlamentam, Padomei, Eiropas Ekonomikas un sociālo lietu komitejai un Reģionu komitejai “Eiropas zaļais kurss”,

 ņemot vērā 2017. gada 16. februāra rezolūciju ar ieteikumiem Komisijai par Civiltiesību noteikumiem par robotiku[27],

 ņemot vērā ESAO Padomes 2019. gada 22. maijā pieņemto ieteikumu par mākslīgo intelektu,

A. tā kā t. s. mākslīgā intelekta (MI), robotikas un saistīto tehnoloģiju izstrādi un projektēšanu veic cilvēki un to veiktās izvēles nosaka tehnoloģiju potenciālu izmantošanai sabiedrības labā;

B. tā kā algoritmiskajai pārskatatbildībai vajadzētu nozīmēt tādu tehnisku un operatīvu pasākumu īstenošanu, kas nodrošina pārredzamību, skaidri noteiktas atbildības ķēdes un nediskrimināciju automatizētu lēmumu pieņemšanā vai personas uzvedības iespējamību aprēķinos; tā kā pārredzamībai būtu jādod personām jēgpilna informācija par to, kā algoritms darbojas, tā nozīmīgumu un paredzamajām sekām; tā kā teiktais nozīmē, ka būtu jāietver informācija par datiem, ko izmanto MI apmācībai, un jāļauj iedzīvotājiem izprast un uzraudzīt viņus ietekmējošus lēmumus;

C.  tā kā pastāv nopietnas bažas par to, ka pašreizējais ES tiesiskais regulējums, tostarp patērētāju tiesību acquis, produktu drošuma un tirgus uzraudzības tiesību akti, kā arī diskriminācijas novēršanas tiesību akti ne vienmēr atbilst mērķim efektīvi novērst riskus, ko rada MI, robotika un saistītās tehnoloģijas;

D. tā kā MI, robotikai un saistītajām tehnoloģijām var būt nopietna ietekme uz indivīdu, grupu un visas sabiedrības materiālajām un nemateriālajām precēm, un šis individuālais un kolektīvais kaitējums ir jāatspoguļo tiesību aktos;

E. tā kā pārvaldības jautājumi saistībā ar MI ieviešanu publiskajā sektorā ir pienācīgi jāņem vērā attiecībā uz tā ietekmi uz demokrātiju, jo īpaši demokrātisko leģitimitāti, pārskatatbildību, jēgpilnu sabiedrības iesaisti un pārraudzību;

F. tā kā datu analīze un MI arvien vairāk ietekmē iedzīvotājiem pieejamo informāciju; tā kā šādas tehnoloģijas, ja tās izmanto nepareizi, var apdraudēt pamattiesības uz informāciju, kā arī plašsaziņas līdzekļu brīvību un plurālismu;

G. tā kā ētikas norādījumi, piemēram, Mākslīgā intelekta augsta līmeņa ekspertu grupas pieņemtie principi, ir uzskatāmi par labu sākumpunktu, bet ar tiem nepietiek, lai nodrošinātu, ka uzņēmumi rīkosies taisnīgi un garantēs efektīvu personu aizsardzību,

1. uzsver, ka iedzīvotāji, publiskais un privātais sektors, akadēmiskās un zinātniskās aprindas MI potenciālu un tā pavērtās iespējas varēs izmantot pilnībā vien tad, ja — attiecībā uz visiem iesaistītajiem dalībniekiem panākot stingru pamattiesību un pastāvošo ES datu aizsardzības tiesību aktu ievērošanu un juridisko noteiktību — tiks nodrošināta sabiedrības uzticēšanās šīm tehnoloģijām; uzsver, ka personas datu apstrādi var veikt tikai saskaņā ar kādu no juridiskajiem pamatiem, kas noteikti Regulas (ES) 2016/679 6. pantā; uzskata, ka pārredzamība un pienācīga informācijas sniegšana attiecīgajai auditorijai ir būtiska, lai veicinātu sabiedrības uzticēšanos un individuālo tiesību aizsardzību;

2. uzsver, ka atbilstība spēkā esošajiem datu aizsardzības tiesību aktiem kopā ar stingriem zinātniskiem, ētiskiem un juridiskiem standartiem un demokrātiskās uzraudzības metodēm ir būtiski faktori, lai panāktu uzticēšanos MI risinājumiem un to uzticamību; turklāt uzsver, ka informācija, ko atklāj MI, nenodrošina objektīvu pārskatu par nevienu jautājumu un ir vien tik uzticama, cik to pieļauj izmantotie dati; uzsver, ka prognozējošā analīze, kas balstīta uz MI, var piedāvāt tikai statistisko iespējamību un ne vienmēr var precīzi prognozēt personas uzvedību; tāpēc uzsver, ka datu vākšanas pārvaldībā un šādas MI analīzes rezultātu interpretācijā vajadzīgi stingri zinātniskie, ētiskie un tiesiskie standarti;

3. uzskata, ka MI, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas un izmantošanas ētikas principu sistēmai būtu pilnībā jāievēro ES Pamattiesību harta un tādējādi jārespektē cilvēka cieņa, autonomija un pašnoteikšanās, jānovērš kaitējums, jāveicina taisnīgums, iekļaušana un pārredzamība, jānovērš aizspriedumi un diskriminācija, arī attiecībā uz minoritāšu grupām, un jāievēro principi attiecībā uz izmantoto tehnoloģiju negatīvo eksternalitāšu ierobežošanu, tehnoloģiju izskaidrojamību un garantiju, ka tehnoloģijas ir radītas, lai kalpotu cilvēkiem, nevis viņus aizstātu vai lemtu viņu vietā, ar galīgo mērķi visiem nodrošināt arvien cilvēciskāku labbūtību;

4. uzsver asimetriju starp tiem, kas izmanto MI tehnoloģijas, un tiem, kas ir šo tehnoloģiju objekti; šajā sakarā uzsver, ka iedzīvotāju uzticēšanos MI var veidot tikai uz jau izstrādes stadijā noteikta un iebūvēta ētiskuma sistēmas, kas nodrošina, ka ikviens iedarbināts MI pilnībā ievēro Eiropas Savienības Pamattiesību hartu, Savienības tiesību aktus un Līgumus un atbilst tiem; uzskata, ka tam būtu jāatbilst piesardzības principam, kas ir ES tiesību aktu pamatā, un tam vajadzētu būt ikviena MI regulējuma centrā; šajā sakarā prasa izveidot skaidru un saskaņotu pārvaldības modeli, kas ļautu uzņēmumiem un novatoriem turpināt attīstīt MI, robotiku un saistītās tehnoloģijas;

5. aicina Eiropas Savienību un dalībvalstis kā ētisku prasību veicināt sabiedrības informētību par riskiem un iespējām, ko rada MI izmantošana;

6. uzskata, ka pašreizējais Savienības tiesiskais regulējums, jo īpaši attiecībā uz aizsardzību, privātumu un personas datiem, būs pilnībā jāpiemēro MI, robotikai un saistītajām tehnoloģijām un būs regulāri jāpārskata, jāpārbauda un vajadzības gadījumā jāatjaunina, lai efektīvi novērstu riskus, ko rada MI, robotika un saistītās tehnoloģijas, un šajā sakarā varētu gūt labumu no tā, ka to papildina ar stingriem vadošiem ētikas principiem; norāda, ka gadījumos, kad būtu pāragri pieņemt tiesību aktus, būtu jāizmanto ieteikuma tiesību sistēma;

7. sagaida, ka Komisija nākamajā tiesību akta priekšlikumā iekļaus spēcīgu ētisko satvaru kā turpmākus pasākumus pēc Baltās grāmatas par mākslīgo intelektu, tostarp attiecībā uz drošumu, atbildību, pamattiesībām, kas maksimāli palielina MI tehnoloģiju iespējas un samazina ar tām saistītos riskus; sagaida, ka gaidāmajā tiesību akta priekšlikumā tiks iekļauti politikas risinājumi attiecībā uz galvenajiem atzītajiem MI riskiem, tostarp attiecībā uz lielo datu ētisku vākšanu un izmantošanu, algoritmiskās pārredzamības jautājumu un algoritmos iekļautajiem aizspriedumiem; aicina Komisiju izstrādāt kritērijus un rādītājus MI tehnoloģijas marķēšanai, lai veicinātu pārredzamību, izskaidrojamību un pārskatatbildību un stimulētu izstrādātāju papildu piesardzības pasākumus; uzsver, ka ir jāiegulda līdzekļi, lai integrētu netehniskās disciplīnas, kas pielāgotas sociālajam kontekstam MI pētījumos un pētniecībā;

8. atgādina, ka MI atkarībā no izstrādes, izmantošanas un piemērošanas veida var radīt un pastiprināt aizspriedumus, tostarp ar pamatā esošajām datu kopām raksturīgajiem aizspriedumiem, un tā rezultātā radīt dažādus automatizētas diskriminācijas veidus, tostarp netiešu diskrimināciju, jo īpaši attiecībā uz personu grupām ar līdzīgām īpašībām; aicina Komisiju un dalībvalstis veikt visus iespējamos pasākumus, lai izvairītos no šādiem aizspriedumiem un nodrošinātu pamattiesību pilnīgu aizsardzību;

9. atzīmē, ka MI, robotikas un saistīto tehnoloģiju joma ir pārsteidzoši viendabīga un tajā trūkst daudzveidības; atzīst, ka ir jānodrošina, lai komandas, kas projektē, izstrādā, testē, uztur, ievieš un iegādājas šīs sistēmas, atspoguļotu to izmantošanas un sabiedrības kopumā daudzveidību un nodrošinātu, ka aizspriedumi negribot iesakņojas šajās tehnoloģijās;

10. uzskata, ka efektīvu pārrobežu sadarbību un ētikas standartus var nodrošināt tikai tad, ja visas ieinteresētās personas apņemas nodrošināt cilvēka subjektību un virsvadību, tehnisko stabilitāti un drošumu, pārredzamību un pārskatatbildību, daudzveidību, nediskrimināciju un taisnīgumu, sabiedrības un vides labbūtību un ievērot iedibinātos privātuma, datu pārvaldības un datu aizsardzības principus, jo īpaši tos, kas noteikti Regulā (ES) 2016/679 (VDAR);

11. prasa izmantot uz risku balstītu un uz nākotni vērstu pieeju MI, robotikas un saistīto tehnoloģiju regulēšanai, tostarp tehnoloģiski neitrālus standartus visās nozarēs, vajadzības gadījumā piemērojot nozarei specifiskus standartus; pauž stingru pārliecību, ka, lai izvairītos no sadrumstalotības, visiem, kas vēlas izstrādāt vai izmantot MI lietojumus Savienībā, būtu jāpiemēro darbotiesspējīgs ES mēroga ētiskais satvars; aicina Savienību veicināt spēcīgu un pārredzamu sadarbību un zināšanu apmaiņu starp publisko un privāto sektoru, lai radītu paraugpraksi un identificētu augsta riska MI lietojumus;

12. atbalsta brīvprātīgu korporatīvo digitālo atbildību; Savienībai būtu jāatbalsta korporācijas, kuras savos uzņēmumos izvēlas izmantot digitālās tehnoloģijas un MI ētiski; Savienībai būtu jāmudina korporācijas kļūt proaktīvām, izveidojot platformu, kurā uzņēmumi varētu dalīties pieredzē par ētisku digitalizāciju, kā arī koordinējot iesaistīto uzņēmumu darbības un stratēģijas;

13. uzsver, ka savstarpēji savienotu MI un robotikas tīklu aizsardzība ir svarīga un ka ir jāveic stingri pasākumi, lai novērstu drošības pārkāpumus, datu noplūdi, datu “saindēšanu”, kiberuzbrukumus un personas datu ļaunprātīgu izmantošanu, un ka tādēļ attiecīgajām aģentūrām, struktūrām un iestādēm gan Eiropas, gan valstu līmenī būs jāstrādā kopā un jāsadarbojas ar šo tehnoloģiju galalietotājiem; aicina Komisiju un dalībvalstis nodrošināt, ka MI tehnoloģiju izstrādē un ieviešanā vienmēr tiek ievērotas Eiropas vērtības un pamattiesības, lai nodrošinātu ES digitālās infrastruktūras drošību un noturību;

14. šajā sakarā norāda uz noteikumiem, kas paredzēti Eiropas Parlamenta un Padomes Regulā (EK) Nr. 2019/881 par ENISA un Kiberdrošības aktā, jo īpaši norāda uz ENISA lomu, veicinot sabiedrības informētību un izglītojošas kampaņas, kas vērstas uz tiešajiem lietotājiem, tostarp par iespējamiem kiberdraudiem un noziedzīgām darbībām tiešsaistē, un veicinot būtiskus datu aizsardzības pasākumus; šajā sakarā atzīst šīs ES aģentūras pievienoto vērtību;

15. uzsver, ka MI ļaunprātīga izmantošana var apdraudēt mūsu demokrātiju vērtības un Eiropas Savienības pilsoņu pamattiesības; aicina Komisiju ierosināt sistēmu, kas sodītu tos, kuri, izmantojot šo tehnoloģiju, ar dezinformācijas kampaņām kropļo realitātes uztveri vai kuri izraisa kiberuzbrukumus, lai grautu digitālo kiberdrošību;

16. norāda, ka MI, robotika un saistītās tehnoloģijas tiesībaizsardzības un robežkontroles jomā varētu uzlabot sabiedrības drošumu un drošību, taču ir vajadzīga arī plaša un stingra sabiedrības kontrole un visaugstākais iespējamais pārredzamības līmenis gan attiecībā uz atsevišķu lietojumu riska novērtējumu, gan vispārēju pārskatu par MI, robotikas un saistīto tehnoloģiju izmantošanu tiesībaizsardzības un robežkontroles jomā; uzskata, ka šīs tehnoloģijas rada ievērojamu ētiskuma apdraudējumu, kas ir pienācīgi jānovērš, ņemot vērā iespējamo nelabvēlīgo ietekmi uz privātpersonām, jo īpaši uz viņu tiesībām uz privātumu, datu aizsardzību un nediskrimināciju; uzsver, ka to nepareiza lietošana var tieši apdraudēt demokrātiju un ka to ieviešanā un izmantošanā ir jāievēro proporcionalitātes un nepieciešamības principi, Pamattiesību harta, kā arī attiecīgie Savienības sekundārie tiesību akti, piemēram, ES datu aizsardzības noteikumi; uzsver, ka MI nekad nevajadzētu aizstāt cilvēkus spriedumu pasludināšanā; lēmumiem, piemēram, atbrīvošanai pret drošības naudu vai probācijai, uzklausīšanai tiesā vai lēmumiem, kuru pamatā ir tikai automatizēta apstrāde, kas rada tiesiskas sekas attiecībā uz fiziskām personām vai kas tās būtiski ietekmē, vienmēr ir jāietver jēgpilns novērtējums un cilvēka spriedums;

17. brīdina, ka sakarā ar tiesībaizsardzības iestāžu pieņemto lēmumu un pasākumu, tostarp datu apstrādes un MI, iejaukšanos cilvēku dzīvē un tiesībās ir vajadzīga maksimāla piesardzība, lai novērstu nelikumīgu diskrimināciju un vēršanos pret konkrētām personām vai personu grupām uz tāda pamata kā rase, ādas krāsa, etniskā vai sociālā izcelsme, ģenētiskās īpašības, valoda, reliģija vai ticība, politiski vai jebkuri citi uzskati, īpašums, izcelsme, invaliditāte, vecums, dzimums, dzimuma izpausme vai identitāte, seksuālā orientācija, uzturēšanās statuss, veselība vai piederība pie nacionālas minoritātes, kas bieži tiek pakļauta etniskajai profilēšanai vai intensīvākai tiesību piemērošanas politikai, kā arī pret personām, kurām ir īpašas iezīmes; aicina pienācīgi apmācīt datu primāros vācējus un no MI iegūtās sensitīvās informācijas lietotājus;

18. norāda, ka šo tehnoloģiju sniegtā iespēja izmantot personas datus un nepersondatus kategorizācijas un mikrotargetinga piemērošanai cilvēkiem, personu neaizsargātības identificēšanai vai precīzu prognozējošu zināšanu izmantošanai ir jālīdzsvaro ar efektīvi piemērotu datu aizsardzības un privātuma principiem, piemēram, datu minimizāciju, tiesībām iebilst pret profilēšanu un kontrolēt savus datus, tiesībām saņemt skaidrojumu par lēmumu, kas pieņemts, izmantojot automatizētu apstrādi un integrētu privātuma aizsardzību, kā arī ar samērīguma, nepieciešamības un ierobežošanas principiem, ņemot vērā precīzi noteiktu nolūku; norāda, ka — lai gan daži kriminoloģiskās prognozēšanas modeļi ir labvēlīgāki privātumam nekā citi, piemēram, gadījumos, kad tiek veiktas iespējamības prognozes par vietām vai notikumiem, nevis par atsevišķām personām — ir pierādījies, ka kriminoloģiskās prognozēšanas sistēmas ir pārlieku policejiskas, jo tās balstās uz pastāvošiem aizspriedumiem, piemēram, rasu profilēšanu, vai migrantu vai darba šķiru izcelsmi, pat tad, ja tas nav nekādā sakarā ar faktisko noziedzības līmeni;

19. uzsver, ka iedzīvotājiem ir tiesības uzticēties pašu un citu izmantotajai tehnoloģijai; uzsver, ka MI un robotika nav imūni pret kļūdām, un tādēļ uzsver, cik svarīgas ir tiesības uz paskaidrojumu gadījumos, kad personas tiek pakļautas algoritmiskai lēmumu pieņemšanai, kā arī uzsver, ka algoritmiem jābūt pārredzamiem, jo pārredzamība attiecībā uz algoritma pamatā esošo loģiku ir ļoti svarīga tiem, kurus tas skar, lai pilnībā aizsargātu viņu pamattiesības; uzskata, ka likumdevējiem ir jāapsver sarežģītais atbildības jautājums un ka visos MI lietojumos atbildībai vienmēr jāgulstas uz fizisku vai juridisku personu;

20. uzsver, ka MI, robotika un saistītās tehnoloģijas ir globālas tehnoloģijas un ka šie standarti ir jāpieņem visā pasaulē, lai nodrošinātu, ka to turpmākā attīstība ir saskaņota ar Eiropas vērtībām un ētikas standartiem; aicina Komisiju iesaistīties MI diplomātijā starptautiskos forumos ar līdzīgi domājošiem partneriem, piemēram, Amerikas Savienotajām Valstīm, G7, G20 un ESAO, lai noteiktu kopējus ētikas standartus un pamatnostādnes MI, robotikas un saistīto tehnoloģiju izstrādei;

21. uzsver, ka ir jāievieš skaidra sistēma MI izmantošanai sociālo plašsaziņas līdzekļu platformās, kā arī pārredzamības prasības attiecībā uz izmantotajiem algoritmiem un to kalibrēšanu, lai novērstu pārmērīgu satura izņemšanu un jebkāda veida interneta filtrēšanu vai cenzūru;

22. atzīmē, ka MI var izmantot, lai manipulētu ar sejas un audiovizuāliem raksturlielumiem, ko bieži dēvē par dziļviltojumiem; atgādina, ka šo metodi var izmantot arī, lai manipulētu ar vēlēšanām, izplatītu dezinformāciju un veiktu citas nevēlamas darbības; tādēļ aicina Komisiju izmantot savu ētikas satvaru, lai uzliktu pienākumu attiecībā uz visiem dziļviltojumiem vai citiem reālistiski veidotiem sintētiskiem video, paziņot, ka tie nav oriģināli, un ieviest stingrus ierobežojumus, ja tos izmanto vēlēšanu vajadzībām;

23. ierosina izveidot zināšanu centru, kas apvienotu akadēmiskās aprindas, pētniekus, rūpniecības pārstāvjus un individuālos ekspertus Savienības līmenī kā šādas struktūras neatņemamu daļu vai saistītu ar to, lai veicinātu zināšanas un tehnisko pratību un atvieglotu sadarbību visā ES un ārpus tās;

24. atgādina valodu un kultūru daudzveidības nozīmi; tādēļ aicina Komisiju izmantot savu ētikas satvaru, lai nepieļautu, ka MI samazina šo daudzveidību, un turpināt piedāvāt piekļuvi plašam satura klāstam, kas pārmērīgi nepārstāvētu vienu valodu un/vai kultūras modeli, un nosodīt jebkādus algoritmu mēģinājumus, kas ierobežotu šo daudzveidību un piedāvātu tikai saturu, kurš atbilst dažiem jau pastāvošiem modeļiem vai varētu darboties kā “atbalss kamera”, kas liegtu piekļuvi lielākai daudzveidībai;

25. iesaka Komisijai pierādīt, ka tā patiešām ir pārskatījusi, novērtējusi un pielāgojusi savu koordinēto MI plānu, lai pievērstos MI nopietnajai ietekmei uz pamattiesībām, un izklāstīt, kā šādi riski tiks mazināti ES likumdošanas pieejā un dalībvalstu nacionālo stratēģiju īstenošanā.


INFORMĀCIJA PAR PIEŅEMŠANU
ATZINUMU SNIEDZOŠAJĀ KOMITEJĀ

Pieņemšanas datums

22.9.2020

 

 

 

Galīgais balsojums

+:

–:

0:

55

5

7

Komitejas locekļi, kas bija klāt galīgajā balsošanā

Magdalena Adamowicz, Malik Azmani, Katarina Barley, Pernando Barrena Arza, Pietro Bartolo, Nicolas Bay, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Patrick Breyer, Saskia Bricmont, Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Damien Carême, Anna Júlia Donáth, Lena Düpont, Cornelia Ernst, Laura Ferrara, Nicolaus Fest, Jean-Paul Garraud, Maria Grapini, Sylvie Guillaume, Andrzej Halicki, Balázs Hidvéghi, Evin Incir, Sophia in ‘t Veld, Patryk Jaki, Lívia Járóka, Marina Kaljurand, Assita Kanko, Fabienne Keller, Peter Kofod, Moritz Körner, Alice Kuhnke, Jeroen Lenaers, Juan Fernando López Aguilar, Nuno Melo, Roberta Metsola, Nadine Morano, Javier Moreno Sánchez, Maite Pagazaurtundúa, Nicola Procaccini, Paulo Rangel, Diana Riba i Giner, Ralf Seekatz, Michal Šimečka, Birgit Sippel, Sylwia Spurek, Tineke Strik, Ramona Strugariu, Annalisa Tardino, Tomas Tobé, Dragoş Tudorache, Milan Uhrík, Tom Vandendriessche, Bettina Vollath, Jadwiga Wiśniewska, Elena Yoncheva

Aizstājēji, kas bija klāt galīgajā balsošanā

Delara Burkhardt, Gwendoline Delbos-Corfield, Kostas Papadakis, Kris Peeters, Anne-Sophie Pelletier, Sira Rego, Rob Rooken, Paul Tang, Tomáš Zdechovský

Aizstājēji (209. panta 7. punkts), kas bija klāt galīgajā balsošanā

Isabel Benjumea Benjumea

 


ATZINUMU SNIEDZOŠĀS KOMITEJAS
GALĪGAIS BALSOJUMS PĒC SARAKSTA

55

+

EPP

Magdalena Adamowicz, Isabel Benjumea Benjumea, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Lena Düpont, Andrzej Halicki, Balázs Hidvéghi, Lívia Járóka, Jeroen Lenaers, Nuno Melo, Roberta Metsola, Nadine Morano, Kris Peeters, Paulo Rangel, Ralf Seekatz, Tomas Tobé, Tomáš Zdechovský

S&D

Katarina Barley, Pietro Bartolo, Delara Burkhardt, Maria Grapini, Sylvie Guillaume, Evin Incir, Marina Kaljurand, Juan Fernando López Aguilar, Javier Moreno Sánchez, Birgit Sippel, Sylwia Spurek, Paul Tang, Bettina Vollath, Elena Yoncheva

RENEW

Malik Azmani, Anna Júlia Donáth, Sophia In 'T Veld, Fabienne Keller, Moritz Körner, Maite Pagazaurtundúa, Michal Šimečka, Ramona Strugariu, Dragoş Tudorache

ID

Peter Kofod

GREENS/EFA

Patrick Breyer, Saskia Bricmont, Damien Carême, Gwendoline Delbos-Corfield, Alice Kuhnke, Diana Riba I Giner, Tineke Strik

ECR

Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Assita Kanko, Nicola Procaccini, Jadwiga Wiśniewska

NI

Laura Ferrara

 

5

-

EUL/NGL

Pernando Barrena Arza, Cornelia Ernst, Anne-Sophie Pelletier, Sira Rego

NI

Kostas Papadakis

 

7

0

ID

Nicolas Bay, Nicolaus Fest, Jean-Paul Garraud, Annalisa Tardino, Tom Vandendriessche

ECR

Rob Rooken

NI

Milan Uhrík

 

Izmantoto apzīmējumu skaidrojums:

+ : par

- : pret

0 : atturas


 

NODARBINĀTĪBAS UN SOCIĀLO LIETU KOMITEJAS ATZINUMS (7.9.2020)

<CommissionInt>Ārlietu komitejai</CommissionInt>


<Titre>ar ieteikumiem Komisijai par mākslīgā intelekta, robotikas un saistīto tehnoloģiju ētisko aspektu satvaru</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Atzinumu sagatavoja: <Depute>Lina Gálvez Muñoz</Depute>

(Iniciatīva – Reglamenta 47. pants)

IEROSINĀJUMI

Nodarbinātības un sociālo lietu komiteja aicina par jautājumu atbildīgo Ārlietu komiteju, rezolūcijas priekšlikumā, ko tā pieņems, iekļaut šādus ierosinājumus:

A. tā kā mākslīgā intelekta (MI), robotikas un saistīto tehnoloģiju izmantošana ikdienas dzīvē un darbavietā pastāvīgi pieaug, tādējādi būtiski pārveidojot pašreizējās sociālekonomiskās struktūras; tā kā MI ir jāsniedz labums iedzīvotājiem un sabiedrībai, uzlabojot dzīves kvalitāti, radot jaunas nodarbinātības iespējas un uzlabojot Savienības konkurētspēju; tā kā MI ir būtiska digitālās ekonomikas daļa un tam ir potenciāls veicināt labklājību un atvieglot pāreju uz ilgtspējīgu ekonomiku, ja to izmanto prasmīgi;

B. tā kā MI ir uzskatāms par sistēmu, kura ir iezīmīga ar intelektisku rīcību, jo tā analizē savu apkārtējo vidi un ar zināmu autonomiju veic darbības, ar kurām tā sasniedz konkrētus mērķus; tā kā MI sistēmas var būt balstītas tikai uz programmatūru, darbojoties virtuālā vidē, piemēram, kā balss asistenti, attēlu analīzes programmatūra, meklētājprogrammas, runas un sejas atpazīšanas sistēmas, vai tās var būt iestrādātas tehniskās ierīcēs, piemēram, progresīvos robotos, autonomajos automobiļos, bezpilota lidaparātos vai lietiskā interneta lietojumprogrammās;[28]

C. tā kā MI ir stratēģiska prioritāte, kuras pilnu potenciālu var sasniegt tikai tad, ja lietotāji un patērētāji apzinās iespējamos ieguvumus un problēmas, ko tas rada; tā kā uzņēmumi, kā arī darba ņēmēji un to pārstāvji bieži vien nav informēti ne par MI lietojumiem, ne par to pamatā esošajām funkcijām un datiem; tā kā ir fiksēti gadījumi, kad MI lietojumi pārkāpj spēkā esošos noteikumus, piemēram, datu aizsardzību;

D. tā kā MI var radīt ekonomiskus un sociālus ieguvumus, kā arī jaunas iespējas uzņēmumiem un darba ņēmējiem, vienlaikus radot virkni ētisku, juridisku un ar nodarbinātību saistītu problēmu; tā kā MI izmantošana darba vietā var veicināt iekļaujošu darba tirgu un ietekmēt arodveselību un drošību un vienlaikus to var izmantot arī, lai uzraudzītu, izvērtētu, prognozētu un vadītu darba ņēmēju sniegumu, tieši un netieši ietekmējot viņu karjeru; tā kā, izmantojot MI, ir pozitīvi jāietekmē darba apstākļi un tā pamatā ir jābūt cilvēktiesību ievērošanai, kā arī Savienības pamattiesību un vērtību ievērošanai; tā kā MI ir jābūt vērstam uz cilvēku, jāuzlabo cilvēku un sabiedrības labklājība un jāveicina godīga un taisnīga pārkārtošanās;

E. tā kā MI ir būtiska ietekme uz darba tirgu[29]; tā kā tas var aizstāt darba ņēmējus, kuri veic vienas un tās pašas darbības, atvieglot cilvēka un iekārtas sadarbīgās darba sistēmas, palielināt konkurētspēju un labklājību un radīt jaunas kvalificēto darba ņēmēju darba iespējas; tā kā nodarbinātības vide strauji attīstās un tiek lēsts, ka 65 % no šodienas bērniem strādās pilnīgi jauna veida darba vietās, un tā kā darba ņēmēji ir jāpārkvalificē un ir jāuzlabo viņu iemaņas, jo īpaši attiecībā uz digitālajām prasmēm, lai nodrošinātu, ka neviens netiek atstāts novārtā un ka ir pietiekams kvalificētā darbaspēka piedāvājums[30];

F. tā kā saskaņā ar Eiropas Profesionālās izglītības attīstības centra datiem aptuveni 43 % Savienības pieaugušo darbinieku savā darba vietā ir saskārušies ar jaunām tehnoloģijām; tā kā aptuveni septiņiem no desmit Savienības darba ņēmējiem ir nepieciešamas vismaz nelielas digitālās prasmes, lai veiktu savu darbu;[31] tā kā vidēji aptuveni ceturtajai daļai Savienības iedzīvotāju nav nekādu digitālo prasmju vai to līmenis ir zems; tā kā digitālajai plaisai ir īpaši sociāli ekonomiskie, dzimuma, vecuma, ģeogrāfiskie un pieejamības aspekti, kas ir jārisina; tā kā 42 % darba ņēmēju uzņēmumos, kas savos uzņēmējdarbības procesos izmanto MI, uzskata, ka šādas darbības rada ētikas jautājumus, kas ir jārisina; tā kā 28 % darba devēju uzskata, ka MI piemērošana nav attīstījusies pilnā mērā, jo šī joma nav reglamentēta no ētikas viedokļa;[32]

G. tā kā Covid-19 pandēmija lika saprast, cik svarīgi ir digitāli risinājumi, tostarp tāldarbs, kā arī tā tehniskās un sociālās sekas; tā kā Savienības līmenī kopēju noteikumu attiecībā uz MI piemērošanu darba vietā, kas varētu radīt tirgus izkropļojumus un neizdevīgus konkurences apstākļus, nav; tā kā MI ir jāpiemēro atbilstošs tiesiskais regulējums;

H. Ekonomiskās sadarbības un attīstības organizācija (ESAO) ir izstrādājusi MI veltītas rekomendācijas[33];

I. tā kā Eiropas Savienības Padome attiecībā uz MI mudina veicināt ētisku un uz cilvēku vērstu pieeju[34];

J. tā kā sociālie partneri Savienības līmenī noslēdza pamatnolīgumu par digitalizāciju, kurā cita starpā ir iekļauta nodaļa “Mākslīgais intelekts un principa “cilvēks kontrolē” nodrošināšana”[35];

K. tā kā dažas dalībvalstis jau ir izveidojušas īpašas struktūras, kas uzrauga un novērtē MI ietekmi darba vietā;

L. tā kā centieni novērst ar dzimumu saistītus aizspriedumus un nevienlīdzību digitālajā nozarē ir nepietiekami; tā kā dzimumu atšķirības saglabājas visās digitālo tehnoloģiju jomās un jo īpaši MI jomā, tādējādi tuvākajā nākotnē digitālajā nozarē nostiprinot vīriešu aizspriedumu trajektoriju,

1. uzsver nepieciešamību rūpīgi izvērtēt iespējas un problēmas, ko MI lietojumi rada privātos un valsts uzņēmumos, kā arī valsts pārvaldē saistībā ar darba vietām un darba ņēmējiem, tostarp to ietekmi uz darba un privātās dzīves līdzsvaru, darba organizāciju un darbplūsmām; uzskata par nepieciešamu nodrošināt, lai sociālais dialogs netiktu ignorēts un lai jau no lēmumu pieņemšanas procesa paša sākuma notiktu apspriešanās ar darba ņēmējiem un viņu pārstāvjiem un viņi saņemtu pietiekami daudz informācijas; uzsver, ka MI ieviešanai ir jābūt pārredzamai un ka MI sistēmas darbavietā darba ņēmēju privātumu un cieņu pārkāpt nedrīkst;

2. norāda, ka pirms MI sistēmu izstrādes, ieviešanas un īstenošanas ir jāveic visaptverošs riska novērtējums par to ietekmi uz pamattiesībām un darba apstākļiem, tostarp no arodveselības un darba drošības, kā arī to sociālo seku viedokļa; novērtējumos ir jāietver riski, kas ir saistīti ar cilvēku lēmumu pieņemšanu un sociālo diskrimināciju, kā arī tajos ir jāizvērtē jaunparādījušies arodriski;

3. norāda, ka MI risinājumi var uzlabot darba apstākļus un dzīves kvalitāti, tostarp uzlabot darba un privātās dzīves līdzsvaru un nodrošināt labāku pieejamību personām ar invaliditāti, paredzēt darba tirgus attīstību un atbalstīt cilvēkresursu pārvaldību, lai novērstu cilvēknosacītus aizspriedumus, taču tie var radīt bažas arī attiecībā uz privātumu un arodveselību un drošību, piemēram, tiesības atslēgties no darba, un novest pie darba ņēmēju nesamērīgas un nelikumīgas uzraudzības un novērošanas, aizskarot viņu cieņu un privātumu, kā arī aizspriedumainu algoritmu dēļ, tostarp no dzimuma vai rases un etniskā viedokļa[36], un neaizsargātas grupas apdalošu algoritmu dēļ izraisīt diskriminējošu attieksmi, tajā skaitā darbā pieņemšanas procesos; turklāt pauž bažas par to, ka MI var apdraudēt cilvēku brīvību un autonomiju un veicināt darba ņēmēju garīgās veselības problēmas, piemēram, izdegšanu, tehnoloģisku stresu, psiholoģisko pārslodzi un nogurumu; uzsver, ka MI risinājumiem darbavietā ir jābūt pārredzamiem, taisnīgiem un ar tiem ir jāvar novērst jebkādu negatīvu ietekmi uz darba ņēmējiem;

4. uzsver, ka kompetentajām iestādēm vajadzētu būt piekļuvei visai informācijai par apmācībā izmantotajiem datiem, statistikas modeļiem un teorētiskajiem principiem, kas ir saistīti ar MI risinājumiem, kā arī par to rezultātu empīrisko derīgumu;

5. uzskata, ka MI var palīdzēt labāk izmantot personu ar invaliditāti prasmes un kompetences un ka MI izmantošana darba vietā var veicināt iekļaujošus darba tirgus un augstākus nodarbinātības rādītājus personām ar invaliditāti;

6. uzsver, ka jaunās tehnoloģiskās iespējas, piemēram, MI, un darba efektivitātes novērtējums nedrīkst novest pie nevienlīdzīgām tehnoloģiski uzlabotām spējām un dehumanizētas digitālās vides nākotnē; uzsver, ka inovācijas ētikā ir jāievēro humānisma pieeja;

7. uzskata, ka lietotāji, tostarp darba ņēmēji un patērētāji, ir jāinformē obligāti par to, kad sistēma izmanto MI, jo īpaši attiecībā uz personalizētiem produktiem vai pakalpojumiem, un viņi ir jāinformē konstruktīvā, viegli saprotamā un pieejamā veidā par visiem ētiskajiem aspektiem, kas skar attiecībā uz viņiem izmantotos MI lietojumus, lai viņi varētu pieņemt uz informāciju balstītus lēmumus; uzsver, ka ir svarīgi izprast, kā algoritmi apstrādā un izvērtē datus un kā minētos procesus var ierobežot vai apturēt; uzsver, ka ir jāattīsta kompetence, nodrošinot darba ņēmēju un viņu pārstāvju apmācību un izglītību attiecībā uz MI darbavietā, lai labāk izprastu MI risinājumu ietekmi;

8. uzsver, ka pieteikuma iesniedzēji un darba ņēmēji ir pienācīgi jāinformē rakstveidā par MI izmantošanu darbā pieņemšanas procedūrās un citos ar cilvēkresursiem saistītos lēmumos un par to, kā šajā gadījumā var pieprasīt cilvēka veiktu pārskatīšanu, lai iekārtas pieņemto lēmumu atceltu;

9. uzsver nepieciešamību nodrošināt, lai produktivitātes pieaugums, ko rada MI un robotikas izstrāde un izmantošana, būtu izdevīgs ne tikai uzņēmumu īpašniekiem un akcionāriem, bet arī uzņēmumiem un strādājošajiem, jo ar to ir jāuzlabo darba un nodarbinātības apstākļi, tostarp darba algas un ekonomiskā izaugsme un attīstība, kā arī, lai minētais produktivitātes pieaugums būtu izdevīgs sabiedrībai kopumā, jo īpaši gadījumos, kad ieguvumi tiek gūti uz darbvietu rēķina; aicina dalībvalstis rūpīgi pētīt MI iespējamo ietekmi uz darba tirgu un sociālā nodrošinājuma sistēmām un izstrādāt stratēģijas, ar kurām nodrošina ilgtermiņa stabilitāti, reformējot nodokļus un iemaksas, kā arī citus pasākumus mazāku valsts ieņēmumu gadījumā;

10. uzsver uzņēmumu ieguldījumu nozīmi formālā un ikdienējā apmācībā un mūžizglītībā, lai atbalstītu taisnīgu pāreju uz digitālo ekonomiku; šajā sakarībā uzsver, ka uzņēmumiem, kas izmanto MI, ir pienākums nodrošināt pienācīgu pārkvalifikāciju un kvalifikācijas celšanu visiem attiecīgajiem darbiniekiem, lai viņi varētu iemācīties izmantot digitālos rīkus un strādāt ar kobotiem un citām jaunām tehnoloģijām, tādējādi pielāgojoties mainīgajām darba tirgus vajadzībām un arī turpmāk nodrošinot savu nodarbinātību;

11. attiecībā uz jaunām tehnoloģijām, kuru pamatā ir MI, prasa piemērot piesardzības principu; uzsver pamatprincipu, ka cilvēkiem vienmēr ir jākontrolē iekārtas un MI un ka MI lēmumu pieņemšanai ir jābūt pārskatatbildīgai, apstrīdamai un attiecīgā gadījumā atgriezeniskai; uzsver, ka ir jāievēro MI drošuma un drošības standarti, un uzsver, ka šajā sakarībā ir svarīgi veikt regulāras pārbaudes un kontroli, lai novērstu MI kļūdainu darbību; atgādina, ka ir skaidri jānosaka atbildība par MI izmantošanu gan gadījumos, kad ir noticis nelaimes gadījums darbā, gan gadījumos, kad kaitējums ir nodarīts trešām personām;

12. uzsver, ka MI visā sistēmas ekspluatācijas ciklā, jo īpaši tad, ja to izmanto darba vietā, ir jābūt vērstam uz cilvēku, pārredzamam, fiziski un tehniski drošam un tam ir jāatbilst pamattiesībām un piemērojamiem normatīvajiem aktiem, tostarp Vispārīgajai datu aizsardzības regulai (VDAR); prasa izstrādāt stabilu sertifikācijas sistēmu, kuras pamatā būtu testēšanas procedūras un piesardzības princips, pateicoties kuriem, uzņēmumi varētu pierādīt, ka to MI produkti atbilst pamattiesībām un Savienības standartiem;

13. atgādina, ka Savienības nodarbinātības un sociālās jomas acquis pilnībā attiecas uz MI, un aicina Komisiju un dalībvalstis nodrošināt pienācīgu izpildi un novērst visas iespējamās likumdošanas nepilnības; konstatē, ka Savienība, veicinot sociāli atbildīgu MI izmantošanu, var kļūt par pasaules vadošo rīcībspēku;

14. uzsver, cik svarīga ir kopēja Eiropas pieeja attiecībā uz MI ētiskajiem aspektiem; uzsver, ka jebkuram tiesiskajam regulējumam šajā jomā ir jābūt atbilstošam un balstītam uz visaptverošu ietekmes novērtējumu, lai nekavētu turpmāku inovāciju un darbvietu radīšanu; šajā sakarībā aicina izstrādāt MI ētisko aspektu Eiropas tiesisko regulējumu, kas būtu samērīgs un kurā īpaša vērība būtu pievērsta darba pasaulei, tostarp darba ņēmēju tiesībām un darba apstākļiem; uzskata, ka īpaša uzmanība ir jāpievērš jauniem darba veidiem, piemēram, darbam darba grupās un platformās, kas izriet no jauno tehnoloģiju izmantošanas šajā kontekstā; uzskata, ka tiesiskajā regulējumā, kura mērķis ir reglamentēt tāldarba apstākļus visā Savienībā un nodrošināt pienācīgus darba un nodarbinātības apstākļus digitālajā ekonomikā, ir jāņem vērā arī MI ietekme; aicina Komisiju šajā sakarībā apspriesties ar sociālajiem partneriem, MI izstrādātājiem, pētniekiem un citām ieinteresētajām personām;

15. uzsver, ka MI un jebkādi ar to saistīti tiesību akti nekādā veidā nedrīkst ietekmēt dalībvalstīs un Savienības līmenī atzīto pamattiesību īstenošanu, tostarp tiesības vai brīvību streikot vai veikt citu darbību, kas ir raksturīga attiecīgās dalībvalsts darba attiecību sistēmā, saskaņā ar valsts tiesību aktiem un/vai praksi, vai ietekmēt tiesības apspriest, noslēgt un izpildīt koplīgumus vai īstenot kolektīvu rīcību saskaņā ar valsts tiesību aktiem un/vai praksi;

16. uzsver, ka īpaša uzmanība ir jāpievērš datiem, kas ir savākti darba vietā ar MI palīdzību, jo īpaši, ja tos izmanto, pieņemot lēmumus par cilvēkresursiem; aicina sociālos partnerus MI ieviešanu kopīgi analizēt un uzraudzīt uzņēmumu līmenī; aicina Komisiju un sociālos partnerus analizēt nepieciešamību pēc īpašām normām par datu aizsardzību attiecībā uz MI izmantošanu darba vietā; uzsver, ka darba ņēmēji ir savu datu īpašnieki — pat pēc darba tiesisko attiecību beigām;

17. uzskata, ka jaunajā Prasmju programmā Eiropai ir jārisina problēmas, kas ir saistītas ar kvalifikāciju un zināšanu pielāgošanu un iegūšanu, ņemot vērā ekoloģisko un digitālo pārkārtošanos, tostarp MI ētiskos aspektus; uzsver, ka MI ētiskie aspekti un prasmju attīstība ētikas nolūkā ir jāiekļauj visās izglītības un apmācības programmās, kas ir paredzētas izstrādātājiem un cilvēkiem, kuri strādā ar MI; atgādina, ka izstrādātājiem, programmētājiem, lēmumu pieņēmējiem un uzņēmumiem, kas darbojas MI jomā, ir jāapzinās sava ētiskā atbildība; par ne mazāk svarīgu uzskata nepieciešamību nodrošināt, lai tiešajiem lietotājiem un patērētājiem tiktu sniegta visaptveroša informācija un lai šajā sakarībā regulāra informācijas apmaiņa notiktu starp visām attiecīgajām ieinteresētajām personām;

18. atgādina, cik svarīga ir izglītība un nepārtraukta mācīšanās, lai iegūtu un pilnveidotu digitālajā laikmetā nepieciešamo kvalifikāciju un risinātu digitālās atstumtības problēmu; aicina dalībvalstis ieguldīt augstas kvalitātes atsaucīgas un iekļaujošas izglītības, arodapmācības un mūžizglītības sistēmās, kā arī pārkvalificēšanās un kvalifikācijas celšanas politikā attiecībā uz darba ņēmējiem nozarēs, kuras MI var ietekmēt negatīvi; uzsver, ka pašreizējam un turpmākajam darbaspēkam ir jānodrošina nepieciešamās rakstītpratības, rēķinpratības un digitālās prasmes, kā arī kompetence zinātnē, tehnoloģijā, inženierzinātnēs un matemātikā (STEM) un transversālas vispārīgās prasmes, piemēram, kritiskā domāšana, radošums un uzņēmējdarbība; uzsver, ka šajā sakarībā īpaša uzmanība ir jāpievērš nelabvēlīgā situācijā esošu grupu iekļaušanai;

19. uzsver, ka MI dzimumu nevienlīdzību un stereotipus pastiprināt nedrīkst, ar algoritmiem analogos neobjektivitātes un aizspriedumus pārveidojot par digitāliem aizspriedumiem;

20. uzsver nepieciešamību nodrošināt, ka MI izstrādē, ieviešanā un izmantošanā tiktu iesaistīti cilvēki ar dažādu izcelsmi, tostarp sievietes, jaunieši, krāsu cilvēki un personas ar invaliditāti; atgādina, ka uz MI balstītām tehnoloģijām darba vietā ir jābūt pieejamām visiem, pamatojoties uz principu “izstrādāts visiem”;

21. konstatē, ka piekļuve MI risinājumiem ir cieši saistīta ar piekļuvi ātrdarbīgam internetam un tādēļ platjoslas pārklājumam vajadzētu būt prioritātei, lai izvairītos no diskriminācijas un nevienlīdzīgas piekļuves šīm tehnoloģijām;

22. konstatē, ka MI risinājumu iespējas balstās uz “lielajiem datiem”, un ir vajadzīga datu kritiskā masa, lai apmācītu algoritmus un pilnveidotu rezultātus; šajā sakarībā atzinīgi vērtē Komisijas priekšlikumu Savienībā izveidot kopēju datu telpu, lai stiprinātu datu apmaiņu un atbalstītu pētniecību, pilnībā ievērojot Eiropas datu aizsardzības noteikumus.


INFORMĀCIJA PAR PIEŅEMŠANU
ATZINUMU SNIEDZOŠAJĀ KOMITEJĀ

Pieņemšanas datums

7.9.2020

 

 

 

Galīgais balsojums

+:

–:

0:

46

6

1

Komitejas locekļi, kas bija klāt galīgajā balsošanā

Atidzhe Alieva-Veli, Abir Al-Sahlani, Marc Angel, Dominique Bilde, Gabriele Bischoff, Vilija Blinkevičiūtė, Andrea Bocskor, Milan Brglez, Sylvie Brunet, David Casa, Leila Chaibi, Margarita de la Pisa Carrión, Özlem Demirel, Klára Dobrev, Jarosław Duda, Estrella Durá Ferrandis, Lucia Ďuriš Nicholsonová, Rosa Estaràs Ferragut, Nicolaus Fest, Loucas Fourlas, Cindy Franssen, Heléne Fritzon, Elisabetta Gualmini, France Jamet, Agnes Jongerius, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Katrin Langensiepen, Miriam Lexmann, Elena Lizzi, Radka Maxová, Kira Marie Peter-Hansen, Dragoș Pîslaru, Manuel Pizarro, Dennis Radtke, Elżbieta Rafalska, Guido Reil, Daniela Rondinelli, Mounir Satouri, Monica Semedo, Beata Szydło, Eugen Tomac, Romana Tomc, Yana Toom, Marie-Pierre Vedrenne, Nikolaj Villumsen, Marianne Vind, Maria Walsh, Stefania Zambelli, Tomáš Zdechovský

Aizstājēji, kas bija klāt galīgajā balsošanā

Lina Gálvez Muñoz, Eugenia Rodríguez Palop


ATZINUMU SNIEDZOŠĀS KOMITEJAS
GALĪGAIS BALSOJUMS PĒC SARAKSTA

46

+

ECR

Lucia Ďuriš Nicholsonová, Elżbieta Rafalska, Beata Szydło, Margarita de la Pisa Carrión

GUE/NGL

Leila Chaibi, Özlem Demirel, Eugenia Rodríguez Palop, Nikolaj Villumsen

NI

Daniela Rondinelli

PPE

Andrea Bocskor, David Casa, Jarosław Duda, Rosa Estaràs Ferragut, Loucas Fourlas, Cindy Franssen, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Miriam Lexmann, Dennis Radtke, Eugen Tomac, Romana Tomc, Maria Walsh, Tomáš Zdechovský

Renew

Abir Al-Sahlani, Atidzhe Alieva-Veli, Sylvie Brunet, Dragoș Pîslaru, Monica Semedo, Yana Toom, Marie-Pierre Vedrenne

S&D

Marc Angel, Gabriele Bischoff, Vilija Blinkevičiūtė, Milan Brglez, Klára Dobrev, Estrella Durá Ferrandis, Heléne Fritzon, Lina Gálvez Muñoz, Elisabetta Gualmini, Agnes Jongerius, Manuel Pizarro, Marianne Vind

Verts/ALE

Katrin Langensiepen, Kira Marie Peter-Hansen, Mounir Satouri

 

6

-

ID

Dominique Bilde, Nicolaus Fest, France Jamet, Elena Lizzi, Guido Reil, Stefania Zambelli

 

1

0

Renew

Radka Maxová

 

Izmantoto apzīmējumu skaidrojums:

+ : par

- : pret

0 : atturas


 

VIDES, SABIEDRĪBAS VESELĪBAS UN PĀRTIKAS NEKAITĪGUMA KOMITEJAS ATZINUMS (16.9.2020)

<CommissionInt>Juridiskajai komitejai</CommissionInt>


<Titre>ar ieteikumiem Komisijai par mākslīgā intelekta, robotikas un saistīto tehnoloģiju ētisko aspektu satvaru</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Atzinuma sagatavotājs: <Depute>Adam Jarubas</Depute>

(Iniciatīva – Reglamenta 47. pants)

IEROSINĀJUMI

Vides, sabiedrības veselības un pārtikas nekaitīguma komiteja aicina par jautājumu atbildīgo Juridisko komiteju:

 rezolūcijas priekšlikumā, ko tā pieņems, iekļaut šādus ierosinājumus:

A. tā kā Eiropas Savienība ir dibināta, pamatojoties uz vērtībām, kas noteiktas Līguma par Eiropas Savienību 2. pantā, un ievērojot piesardzības principu, kas noteikts Līguma par Eiropas Savienības darbību 191. panta 2. punktā;

B. tā kā LESD 16. pantā ir noteikts, ka ikvienai personai ir tiesības uz savu personas datu aizsardzību; tā kā Eiropas Parlamenta un Padomes Regulas (ES) 2016/679[37] 22. pantā ir minēta situācija, kurā datus izmanto tikai automatizētai apstrādei, un atzītas datu subjekta tiesības netikt pakļautam lēmumam, kas pieņemts, balstoties tikai uz automatizētu apstrādi;

C. tā kā globālā konkurence par vadošo lomu mākslīgā intelekta (MI) attīstībā, kas ietekmēs ētisko vērtību un standartu avotu, kas ir nozares pamatā visā pasaulē, kļūst arvien spēcīgāka un Eiropas Savienībai būtu jārāda piemērs pārējai pasaulei ar atbilstošu tiesisko regulējumu, lai novērstu arī iespējamu sacensību par pēc iespējas mazāku valsts regulējumu;

D. tā kā šo globālo konkurenci nevajadzētu nodalīt no ētikas vērtībām un standartiem;

E.  tā kā pētījumu un inovāciju straujā attīstība ir pievērsusi uzmanību vairākiem būtiskiem ētikas, likumīguma un sociālajiem jautājumiem, kuri skar zinātnes un sabiedrības attiecības; tā kā šai pētniecībai un inovācijai saskaņā ar Eiropas pētniecības programmu noteikumiem ir jāatbilst ētikas principiem un attiecīgajiem valstu, Savienības un starptautiskajiem tiesību aktiem, tostarp Eiropas Savienības Pamattiesību hartai un Eiropas Cilvēktiesību un pamatbrīvību aizsardzības konvencijai;

F. tā kā lielo datu un MI tehnoloģiju integrēšana sabiedrības veselības aprūpes sistēmā un citās nozarēs ir jāapvieno ar atbilstīgiem noteikumiem, standartiem un tiesību aktiem, kas aizsargā personu pamattiesības un risina jaunās ar ētiku saistītās problēmas;

G. tā kā Savienībā salīdzinājumā ar citām pasaules daļām pašlaik pastāv ievērojami trūkumi attiecībā uz patentiem un ieguldījumiem;

H. H. tā kā mākslīgais intelekts un citi topošie digitālie risinājumi var sniegt labumu sabiedrībai tādās jomās kā zaļā pāreja, vides un bioloģiskās daudzveidības aizsardzība, lauksaimniecības efektivitātes palielināšana, atkritumu apsaimniekošana, aprites ekonomika, klimata pārmaiņu mazināšana un pielāgošanās tām, dažādu rūpniecisko procesu ekoloģizācija, enerģētikas un transporta pārvaldība un efektivitāte, ūdens un gaisa kvalitāte (piemēram, viedtīkli un elektromobilitāte), riska pārvaldība un zemes novērošana, kurās Savienības programma Copernicus cita starpā ir viena no labākajām;

I. tā kā MI var piemērot gandrīz jebkurā jomā medicīnā: biomedicīniskajā pētniecībā, par piemēru ņemot ar MI palīdzību atklāto antibiotiku halikīnu vai MI ieguldījumu jaunās vēža terapijās, palīdzību diagnosticēšanā, slimību agrīnākā noteikšanā un profilaksē ar tādām metodēm kā predikatīvā medicīna un/vai riska faktoru apzināšana, medicīniskajā izglītībā, palīdzības sniegšanā aprūpētājiem, atbalsta sniegšanā vecu cilvēku aprūpē, pacientu stāvokļa uzraudzībā, zāļu efektīvākā izstrādē, būtiskākā mērķterapijā, klīnisko lēmumu pieņemšanā, personalizētā medicīnā, psihiatriskajā diagnostikā un ārstēšanā, revolucionārās robotikas protēzēs un atbalsta sistēmās, attālinātā operatīvajā medicīnā un veselības sistēmu vispārējās efektivitātes un sadarbspējas palielināšanā;

J.  tā kā digitālajam progresam ir vajadzīga atbilstoša veselības aprūpes un administratīvā personāla apmācība un sagatavošana, lai novērstu digitālo plaisu, vienlaikus paturot prātā sabiedrības novecošanu un iespējamās problēmas veselības aprūpes sistēmās;

K. tā kā pastāv nopietnas ētiskas bažas par mašīnu autonomiju;

L. tā kā digitālā veselības aizsardzība nedrīkstētu izraisīt pilnīgu atteikšanos no cilvēku veiktas aprūpes un ierobežot ārstu un pacientu attiecības un tā kā šīm tehnoloģijām būtu jāpalīdz ārstiem efektīvāk diagnosticēt un/vai ārstēt pacientus;

M. tā kā MI tehnoloģija paātrinās rūpniecības digitālo pārveidi un būs nozīmīga digitālās ekonomikas sekmīgā attīstībā aizvien savienotākā pasaulē;

N. tā kā pašreizējā Savienības tiesiskajā regulējumā un ētikas pamatnostādnēs jau ir risinātas dažas ētikas problēmas saistībā ar MI lietotnēm, kas norādītas Komisijas Baltajā grāmatā par mākslīgo intelektu, piemēram, riska novērtēšanas procesi, kas ieviesti uz MI balstītiem veselības risinājumiem vienotajā tirgū; tā kā citas jomas atpaliek no ētikas problēmām, kas ir jāapzina un jāmazina, jo MI ir milzīga spēja apdraudēt pacientu izvēli, drošību un privātumu; tā kā ir jānosaka robežas starp medicīnas un aprūpes speciālistu lomu un iekārtu funkcijām pacientu aprūpē, tostarp izmantojot uzraudzītas robotu autonomijas principu, un tā kā ir nepieciešama gan veselības aprūpes jomā strādājošo, gan pacientu izglītošana;

O. tā kā Savienības datu aizsardzības noteikumi būtu jāpielāgo, lai ņemtu vērā aprūpes un medicīnisko robotu, kuri spēj apstrādāt ļoti sensitīvu personisko informāciju un veselības datus, arvien lielāko sarežģītību un savietojamību, un tiem būtu jāatbilst integrētas privātuma aizsardzības principam, kā noteikts Regulā (ES) 2016/679 par datu aizsardzību;

P. tā kā risinājumi, kas uzsver nepieciešamību izstrādes stratēģijas balstīt uz zinātniskajiem pētījumiem, izveidojot medicīnisko datu (piemēram neiroloģisko un kardioloģisko datu) repozitorijus, un tā kā šo pētījumu datu kopīgošana var sniegt reālus sociālos ieguvumus sabiedrības drošības un veselības kontekstā;

Q. tā kā MI var dot labumu sabiedrībai pārtikas nekaitīguma jomā, cita starpā samazinot pesticīdu izmantošanu, atbalstot precīzo lauksaimniecību vai plašākā nozīmē – lauksaimniecību 2.0, kurā Savienība ir viena no vadošajām MI lietotnēs (piemēram, automatizētām iekārtām laikapstākļu prognozēšanai vai slimību identificēšanai), kas ļaus efektīvāku ražošanu apvienot ar augstākiem vides standartiem un resursu labāku izmantošanu, jo īpaši teritorijās, kurās ūdens resursi ir ierobežoti un klimata pārmaiņām ir smaga ietekme, jo tam būtu jāatbilst zaļā kursa prioritātēm;

R. tā kā minētā regulējuma darbības jomai jābūt atbilstīgai, samērīgai un vispusīgi novērtētai; tā kā tai būtu jāaptver plašs klāsts tehnoloģiju un saistīto komponentu, tostarp jāaptver arī algoritmi, programmatūra un MI izmantotie vai ģenerētie dati; tā kā ir vajadzīga mērķtiecīga pieeja, kas balstās uz augsta riska jēdzienu, lai novērstu nākotnes inovāciju kavēšanos MI lietotņu sniegto ieguvumu nodrošināšanā iedzīvotājiem, piemēram, veselības aprūpes, vides aizsardzības un pārtikas kvalitātes jomā;

S. tā kā ir svarīgi apzināt efektīvus veidus, kā nodrošināt uzticamas digitālās tehnoloģijas, lai būtu iespējams izmantot to sniegtos ieguvumus, vienlaikus aizsargājot pamattiesības un atbalstot neformālu, atvērtu, iecietīgu un taisnīgu sabiedrību attīstību; tā kā tas ir sevišķi svarīgi hibrīdu cilvēka/mākslīgā intelekta sistēmu gadījumā;

T. tā kā robotizētas ierīces padara neskaidrākas robežas starp cilvēkiem un tehnoloģiskiem objektiem; tā kā tām ir ne tikai ētiski izvērtējama ietekme uz sabiedrību, bet tās arī liek apšaubīt pat ētiskās sistēmas, uz kuru pamata šāda ietekme ir jāizvērtē; tā kā saskaņā ar Pasaules zinātnisko zināšanu un tehnoloģiju ētikas komisijas (COMEST) ziņojumu īpaša uzmanība jāpievērš medicīnisko robotu, māsu aizstājēju robotu, vecu cilvēku aprūpes robotu un pavadošo robotu lietošanai;

U. tā kā strauji pieaug sociālo robotu un pavadošo robotu izmantošana veselības aprūpes jomā un jo īpaši veco ļaužu aprūpē; tā kā vecu cilvēku aprūpes roboti un pavadošie roboti var uzņemties funkcionālu un emocionālu lomu; tā kā šiem robotiem var būt nozīme vecu cilvēku vientulības mazināšanā, ar demenci saistītas uzvedības novēršanā, neirodeģeneratīvo slimību pacientu kognitīvo darbību stimulēšanā vai tādu īpašu ikdienas uzdevumu veikšanā, kurus veciem cilvēkiem ir grūti veikt; tā kā pavadošie roboti tādējādi var izraisīt nepatiesas, iedomātas un vienpusējas jūtas, maldinot vecus cilvēkus un apejoties ar viņiem, kā ar bērniem;

V. tā kā pavadošos robotus arvien vairāk var izmantot seksuāliem mērķiem; tā kā īpaši satraucoša ētiska ietekme ir tādu seksa robotu lietošanai, kuri izskatās kā bērni vai kuri ir ieprogrammēti vardarbībai,

MI tiesiskais un ētiskais regulējums

1. uzsver, ka Savienībai ir jāveic visi nepieciešamie pasākumi, lai garantētu, ka tās ētiskās vērtības, kas noteiktas tās tiesību aktu kopumā, iedarbīgi attiecas uz visām mākslīgā intelekta jomām tās teritorijā, un veicinātu tās standartus visā pasaulē; šajā saistībā uzsver, ka MI tehnoloģijas attīstībai vienmēr ir jāsniedz ieguvumi cilvēkiem;

2. uzsver, ka Savienībai ir jāīsteno visi vajadzīgie pasākumi, lai palielinātu sabiedrības uzticēšanos MI, robotikas un saistīto tehnoloģiju attīstībai un īstenošanai; ņemot vērā būtisko ietekmi, kas šīm tehnoloģijām var būt uz iedzīvotājiem; aicina Komisiju ievērot ētikas pamatnostādnes MI uzticamības panākšanai un ierosināt atbilstīgus pasākumus, lai nodrošinātu, ka šīs tehnoloģijas nerada iedzīvotājiem netaisnīgi aizspriedumainus rezultātus;

3. uzsver, ka uz tiesību aktiem balstīta Savienības uzticēšanās MI ekosistēma vides aizsardzības, veselības aprūpes vai pārtikas nekaitīguma jomā, ko paplašina Savienības MI ētikas sistēma, stiprinās juridisko noteiktību un prognozējamību, veicinās ieinteresēto personu iesaisti, palielinās nodoto datu apjomu un ieviešanu tirgū, nodrošinās apjomradītus ietaupījumus un atbalstīs izcilības ekosistēmu šajās nozarēs; uzskata, ka tas stiprinās Savienības MI nozares globālo konkurētspēju un potenciālu veicināt Savienības vērtības un standartus;

4. norāda, ka, tā kā juridiskie noteikumi labāk atbilst pašreizējām rūpīgi definētajām problēmām, kā arī ņemot vērā MI straujo attīstību, kas izraisa nenoteiktību par to, kas būs turpmāk, kopīga, likumīgi labi pamatota, izpildāma Savienības MI ētikas sistēma paplašinās ekosistēmu Komisijas Baltajā grāmatā definēto uzticēšanās ekosistēmu visām ieinteresētajām personām, īpaši vides aizsardzībā, sabiedrības veselības aizsardzībā, veselīgākas vides, labāku veselības aprūpes resursu un pakalpojumu vai pārtikas nekaitīguma lietotņu radīšanā, tādējādi atbalstot izcilības ekosistēmu juridiskās noteiktības un prognozējamības jomā, nodrošinot iedarbīgu reaģēšanu uz problēmām, kas vēl nav definētas tiesu zālēs, vadības sanāksmēs vai zinātniskajās laboratorijās;

5. norāda, ka MI definēšanai ir nepieciešams papildu darbs; tādēļ uzsver, cik svarīga ir antropocentriska pieeja un regulāra MI progresa un ētikas regulējuma pārskatīšana, lai veicinātu proaktīvu regulējumu un garantētu tā piemērojamību visu laiku un jaunu attīstību; uzsver, ka pastāv dažādi risku līmeņi, kas laika gaitā attīstās, tehnoloģijām kļūstot aizvien progresīvākām; uzsver, ka ir nepieciešams samērīgs tiesiskais regulējums, kam būtu jāattīstās atbilstoši tehnoloģiju attīstības ātrumam; norāda, ka Copernicus programma var funkcionēt kā paraugprakse kvalitatīvu lielu datu kopu izstrādē izmantošanai MI modeļos;

6. uzsver, ka ir vajadzīgs tiesiskais regulējums, kas nosaka ētikas principus, kuri jāpiemēro šīs tehnoloģijas projektēšanai, izstrādei, ieviešanai un darbībai, sākot no piekļuves datiem līdz pat rezultātu stingrai uzraudzībai;

7. uzsver, ka ir jārod līdzsvarota pieeja regulējumam, pirmkārt un galvenokārt nodrošinot, ka netiek apdraudētas mūsu vērtības, vienlaikus izvairoties no nevajadzīga administratīvā sloga radīšanas, jo īpaši MVU un jaunuzņēmumiem; šajā sakarībā uzsver, ka globālajā konkurencē MI jomā ne vienmēr tiek ievēroti tādi paši ētikas principi kā Savienībā; uzsver, ka MI un ar to saistītās tehnoloģijas nevajadzētu pakļaut tikai „vieglai” pašregulācijai; uzskata, ka ir būtiski, lai Savienības tiesiskais regulējums būtu samērīgs un atbalstošs; norāda, ka daudzas trešās valstis strādā pie savām ētikas sistēmām un ka ir vairāki pasaules līmeņa priekšlikumi; apzinās, ka ētisko principu galvenie sarežģījumi ir saistīti ar šādu principu piemērošanu, nevis ar to esību;

8. atbalsta viedokli, ka septiņas attiecībā uz MI izvirzītās prasības, kas noteiktas augsta līmeņa ekspertu grupas MI jautājumos ētikas pamatnostādnēs par uzticamu MI, veido stabilus pamatelementus kopīgai Savienības MI ētikas sistēmai ar pienācīgu juridisko pamatojumu, cita starpā pievēršoties MI lietotņu ētiskajiem aspektiem vides, veselības un pārtikas aizsardzības jomā; aicina uzlabot tiesību aktu kopumu pārredzamības, izsekojamības un cilvēka veiktas uzraudzības jomā, kas tika norādītas kā jomas, kurās nepieciešams turpmāks uzlabojums atsauksmēs par pamatnostādnēm, ko sniegušas 350 organizācijas; turklāt mudina izveidot Savienības MI ētikas sistēmu, ievērojot atvērtību pret citu tādu starptautisko partneru darbu, kuriem ir kopīgas Savienības vērtības, piemēram, ANO, Eiropas Padome ar savām 2019. gada „Mākslīgā intelekta un datu aizsardzības pamatnostādnēm”[38], Eiropas Ētikas hartu par mākslīgā intelekta izmantošanu tiesu sistēmās un tā juridiskās pētniecības centra darbu, ad hoc komitejas mākslīgā intelekta jautājumos (CAHAI), Mākslīgā intelekta principiem[39], ko ESAO dalībnieki parakstīja 2019. gada maijā, un G20 ministru paziņojumu par digitālo ekonomiku, kurā ir ietverti G20 autonomās ekonomikas principi, un IEEE Globālā autonomo un intelektisko sistēmu ētikas iniciatīvu[40];

9.  stingri atbalsta Komisijas centienus izveidot kopēju Savienības MI ētikas sistēmu, lai novērstu trūkumus, ko rada MI iekšējā tirgus sadrumstalotība, tostarp pētniecībā, inovācijās un zinātībā vides, sabiedrības veselības aprūpes un pārtikas nekaitīguma lietotnēs, un izvairītos no MI dubultstandartiem dalībvalstīs attiecībā uz Savienībā un ārpus tās izstrādātiem MI, cita starpā tādās jomās kā patērētāju datu pārvaldība, aizsardzība un privātums viedtīklos, atkritumu apsaimniekošana, vienlīdzīga piekļuve pakalpojumiem un tehnoloģijām, pacientu un ārstu attiecību standarti, datu aizsardzības un privātuma tiesību akti, ietverot to mijiedarbību pētnieciskās darbībās un zāļu izstrādē, civiltiesiskā atbildība ar MI atbalstītā sabiedrības veselības aprūpē, civiltiesiskā atbildība attiecībā uz autonomiem transportlīdzekļiem vai mašīnām; norāda, ka dalībvalstu tiesību aktos nav saskaņotu atbildības noteikumu, kas būtu piemērojami nodarītajiem kaitējumam vai traumām, ko varētu radīt digitālās un uzvedības tehnoloģijas; aicina pienācīgi juridiski pamatot un pozicionēt šādu Savienības MI ētikas sistēmu;

10. šajā saistībā atgādina, ka Eiropas Parlamenta 2017. gada 16. februāra rezolūcijā par Civiltiesību noteikumiem par robotiku[41] Komisija tika aicināta izraudzīties Eiropas mākslīgā intelekta aģentūru, kas cita starpā visā Savienībā nodrošinātu saskaņotu pieeju, izstrādātu kopīgus kritērijus un pieteikumu iesniegšanas procesu saistībā ar Eiropas ētiskās atbilstības sertifikātu piešķiršanu un kas strādātu pie jaunām iespējām un problēmām, jo īpaši tām, kurām ir pārrobežu raksturs un kuras izriet no pašreizējās tehnoloģiju attīstības; aicina Komisiju apsvērt, vai esošās Savienības struktūras un iestādes ir pietiekamas šo uzdevumu veikšanai, vai arī ir jāizveido jauna mākslīgā intelekta struktūra;

11. uzskata, ka visām gan Savienībā, gan ārpus tās izstrādātajām MI lietotnēm ir jānodrošina vienāda līmeņa aizsardzība Savienībā tāpat, kā tas ir visu pārējo tehnoloģiju gadījumā, ietverot efektīvu tiesisko aizsardzību pusēm, kuras MI sistēmas ir skārušas negatīvā veidā, turklāt ir jāļauj turpināt attīstīties tehnoloģiju inovācijām; tāpat uzskata, ka šai MI riska jomai ir ļoti svarīga nozīme, piemēram, attiecībā uz veselības aprūpes pakalpojumiem, transportam, kurā iesaistīti autonomie transportlīdzekļi, un pārtikas nekaitīgumam; aicina skaidri sadalīt pienākumus, tiesības un saistības starp ekonomikas dalībniekiem, kas ir iesaistīti MI lietotņu piegādē, lai katru pienākumu attiecinātu uz dalībnieku(-iem), kas vislabāk spēj risināt jebkādus iespējamos riskus neatkarīgi no tā, vai tas ir izstrādātājs, izvērsējs, ražotājs, izplatītājs vai importētājs, pakalpojumu sniedzējs, profesionāls vai privāts lietotājs, un šajā sakarībā aicina atbilstīgi pārskatīt attiecīgos ES tiesību aktus, piemēram, direktīvu attiecībā uz atbildību par produktiem un par dalībvalstu aktu tuvināšanu; atbalsta Komisijas nostāju, kas pausta Baltajā grāmatā, proti, ka MI sistēmu sarežģītības dēļ, lai nodrošinātu efektīvu aizsardzības un kompensēšanas līmeni, var nākties pielāgot pierādīšanas pienākumu, ko paredz valstu noteikumi par atbildību tāda kaitējuma gadījumā, kuru radījusi MI lietotņu darbība; uzskata, ka skaidrība attiecībā uz juridisko atbildību MI nozarē stiprinās Savienības tiesību aktos noteikto ētisko vērtību piemērošanu, juridisko noteiktību un prognozējamību, kā arī sabiedrības atbalstu, tādējādi palīdzot attīstīties Savienības MI izcilības ekosistēmai, kura apvienotu ieguldītājus un palielinātu ieviešanu tirgū;

12. uzsver, ka daudzi no priekšlikumiem, kurus izstrādājušas trešās valstis un starptautiskās organizācijas, koncentrējas uz kopīgiem principiem vai jēdzieniem attiecībā uz MI, piemēram, orientēšanos uz cilvēku, uzticamību, cilvēka autonomijas ievērošanu, kaitējuma novēršanu, līdztiesību un principu „nevienu neatstāt novārtā”, kā arī skaidrību; uzskata, ka būtu ļoti vēlama starptautiska ētikas sistēma, kura attiektos uz šādiem principiem; pauž bažas par MI progresu un inovācijām, kas nerīkošanās gadījumā izraisīs sociālo nevienlīdzību; tādēļ aicina Komisiju un dalībvalstis īstenot vajadzīgos pasākumus, lai nevienu neatstātu novārtā pārejā uz digitālu Eiropu un lai nodrošinātu taisnīgu, cenas ziņā pieejamu un vienlīdzīgu piekļuvi šīm inovācijām, jo īpaši tādās jomās kā veselības aprūpe;

13. iesaka uz risku balstīto pieeju papildināt ar algoritmu ietekmes novērtējumu, iegūstot informāciju, piemēram, no regulējuma ietekmes analīzes (RIA), VDAR riska novērtēšanas procedūras un cilvēktiesību ietekmes novērtējuma (HRIA) un rezultātus darot publiski pieejamus;

14. atzinīgi vērtē to, ka Komisijas 2020. gada 19. februāra Baltajā grāmatā[42] definētajā uz risku balstītās pieejas metodikā veselības aprūpe, transports un enerģētika automātiski ir atzītas par augsta riska nozarēm, šajās nozarēs papildus spēkā esošajiem Savienības noteikumiem ieviešot MI prasības, izņemot gadījumus, kad MI izmantošanas veids nav saistīts ar būtisku risku; uzsver, ka Savienības MI ētikas sistēmai būtu jo īpaši jāpievēršas iepriekš minētajām augsta riska nozarēm;

15. aicina izstrādāt skaidras, objektīvas un pārredzamas Savienības līmeņa procedūras, lai izveidotu publiski pieejamu MI augsta riska lietotņu katalogu, kas ietvertu periodiskas pārskatīšanas un atjaunināšanas mehānismu; aicina apsvērt pierādīšanas pienākumu šādās procedūrās visu MI lietotņu un visu nozaru gadījumā piemērot struktūrai, kas vēlas izstrādāt vai izvērst MI sistēmu, lai saglabātu šā kataloga atvērtību pret inovācijām un novērstu to, ka netiek ņemts vērā risks, ka MI lietotnes var klasificēt kā lietotnes, kuras nav saistītas ar augstu risku;

16. uzskata, ka pastāv aizspriedumu un diskriminācijas risks saistībā ar augsta riska mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādi, izvēršanu un izmantošanu, ietverot programmatūru, algoritmus un šādu tehnoloģiju izmantotos vai ģenerētos datus; atgādina, ka visos gadījumos šādām tehnoloģijām vienmēr būtu jāievēro cilvēka cieņa un jānodrošina vienlīdzīga attieksme pret visiem; uzskata, ka šādus iespējamus aizspriedumus varētu novērst, paredzot noteikumus par datu apstrādi un nosakot atbilstīgus aizsardzības pasākumus pret aizspriedumiem un diskrimināciju sociālu, ekonomisku, etnisku, rases, seksuālu, dzimuma, invaliditātes vai citu faktoru dēļ; brīdina, ka pastāv risks, ka var tikt ļaunprātīgi izmantotas MI diagnostikas lietotnes, un aicina ieviest MI spēju un motivācijas aizsardzības pasākumus;

17 atzinīgi vērtē brīvprātīgo marķēšanas iniciatīvu attiecībā uz MI, kas nav saistīts ar augstu risku;

18. iesaka īstenot pasākumus, kas motivē visu MI ētikas ieinteresēto personu iesaisti no privātā sektora, patērētāju grupām un akadēmiskajām aprindām, lai izstrādātu ētikas kodeksu, kurš būtu pielāgots tehnoloģiju, sociālajai un politiskajai attīstībai;

19. norāda, ka lēmumu pieņemšanas vajadzībām roboti izmanto algoritmus, kas veido vērtību un ētikas sistēmu daļu, un ka to ieviešanai ir būtiska ētiska ietekme uz veselības aprūpi un sociālajām attiecībām; pauž īpašas bažas par pavadošo robotu izmantošanu pedofilijas un seksuālas vardarbības nolūkos; uzskata, ka, izstrādājot robotikas tehnoloģijas, būtu jāņem vērā ētiski apsvērumi; aicina šo ierīču izstrādes gaitā paredzēt ētiskus apsvērumus, pamatojoties uz tādu pieeju kā uz vērtībām jūtīgs dizains, jo īpaši attiecībā uz vecu cilvēku aprūpes robotiem un pavadošajiem robotiem; uzsver, ka šī pieeja būtu jāpielāgo arī tā, lai ņemtu vērā dzīvnieku labturību;

20. uzsver, ka papildus skaidrām regulatīvajām prasībām par pārskatatbildību un atbildību ir arī jānodrošina algoritmu pārredzamība, lai būtu iespējams izsekot, kurā brīdī „tika pieļauta kļūda” un lai eksperti varētu laikus iejaukties; uzskata, ka algoritmu pārredzamībai ir izšķiroša nozīme, lai būtu iespējams novērst situācijas, kurās medicīniskus lēmumus pieņem „melnās kastes” vidē; uzsver, ka melnās kastes algoritmi, kas pieņem neizskaidrojamus lēmumus, nav pieļaujami nevienā nozarē, turklāt gadījumos, kad MI lēmumu pieņemšana ietekmē lēmumus par dzīvību vai nāvi, algoritmu kļūdām var būt ļoti smagas sekas; aicina Komisiju un dalībvalstis uzsākt dialogu ar galvenajām ieinteresētajām personām no tādām jomām kā medicīna, IT, matemātika, fizika, medicīnas datu tehnoloģijas, klīniskā psiholoģija, bioinženierija un farmācija, lai izveidotu dialoga platformas un novērtētu ārstu un pacientu attiecību un medicīniskās aprūpes bez cilvēka līdzdalības ietekmi;

21. aicina izstrādāt Savienības pamatiniciatīvas, kas veicinātu interpretējamus algoritmus, izskaidrojamu MI (xMI), simboliski pamatotu MI un baltās kastes MI testēšanas paņēmienus, norādot, ka šīs tehnoloģijas var apvienot ar dziļiem neitrāliem tīkliem, un norādot to juridiskās, ētiskās un nereti arī darījumdarbības priekšrocības, kā arī kas veicinātu metodes tādu risku noteikšanai, kuri ir saistīti ar dažādām tehnoloģiju iespējām, cita starpā izmantojot AK Informātikas komisāra biroja (ICO) pieredzi un Alan Turing vārdā nosauktā institūta pamatnostādnes „Skaidrojums par lēmumiem, ko pieņem MI”, tādējādi norādot, ka pat ļoti sarežģītas neitrālās MI sistēmas ir iespējams pienācīgi interpretēt;

22. aicina nodrošināt pārredzamību, atbildību, revidējamību, prognozējamību un pārskatatbildību, jo iedzīvotāji, pacienti un lietotāji būtu jāinformē par to, ka viņi sadarbojas ar sistēmu, kura izmanto mākslīgo intelektu, skaidri un saprotami izskaidrojot izmantotos datus, algoritma darbību, tās mērķi, rezultātus un iespējamos apdraudējumus; uzsver, ka pārredzamība un skaidrība ir svarīgi priekšnoteikumi, lai nodrošinātu uzticēšanos šīm tehnoloģijām; uzskata, ka skaidrojums būtu jāpapildina ar revidējamību un izsekojamību, jo šo principu ievērošana ir veids, kā nodrošināt pārskatatbildību; norāda, ka MI lietotņu veiktspēja var pārsniegt cilvēku veiktspēju konkrētu un īpašu uzdevumu veikšanā, savukārt var nespēt veikt vispārēju analīzi; aicina nodrošināt cilvēku veiktu uzraudzību, profesionālo atbildību un sistēmu prognozējamību ar iespēju atcelt MI sistēmas darbības;

23. uzskata, ka ikvienai fiziskai vai juridiskai personai jābūt iespējai prasīt atlīdzinājumu par augsta riska MI, robotikas vai saistītas tehnoloģijas pieņemtu lēmumu, kas šai personai kaitē, un ka ikvienam MI pieņemtam lēmumam būtu jāpiemēro cilvēka veikta stingra pārbaude un pienācīgs process; ierosina paredzēt aizsardzības pasākumus saistībā ar augsta riska mākslīgā intelekta, robotikas vai saistīto tehnoloģiju ieviešanu saskaņā ar publiskās varas lēmumu regulējumu, tostarp tiesiskā regulējuma periodisku novērtējumu un iespējamu pārskatīšanu, lai ņemtu vērā tehnoloģiju attīstību, ierosina noteikt saistošas pamatnostādnes par atbilstības novērtēšanas metodiku, kas ir jāievēro valstu uzraudzības iestādēm, un paredzot nesaistošas pamatnostādnes, kuras paredzētas izstrādātājiem, izvērsējiem un lietotājiem;

24. atzinīgi vērtē Eiropas Datu stratēģiju, ar kuru risina turpmākās Savienības problēmas šajā jomā un cenšas atrast iespējas Eiropā konkurences priekšrocībām jaunajā uz datiem balstītajā ekonomikā, jo īpaši to  decentralizēto nepersondatu augošajā nozarē, kuri tiek gūti no rūpniecības, uzņēmējdarbības un publiskā sektora un no robežierīcēm pie tīkla, un ir sagaidāms, ka šī nozare 2025. gadā veidos 80 % no 175 zetabaitiem un izmainīs pašreizējās proporcijas;

25. aicina nodrošināt pietiekamu finansējumu Savienības MI transformācijai; atbalsta Komisijas Baltajā grāmatā noteiktos vērienīgos mērķus nākamajos 10 gados Savienībā piesaistīt MI publiskā un privātā sektora ieguldījumus 200 miljardu EUR apmērā; atzinīgi vērtē uzmanību, kas pievērsta MI ekosistēmu deficītam mazāk attīstītos reģionos un MVU un jaunuzņēmumu vajadzībām; aicina Komisiju apzināt publiskās infrastruktūras trūkumus un veicināt MI finansēšanu klimata pārmaiņu mazināšanas un pielāgošanās, atjaunojamās enerģijas un veselības jomā, kā arī veicināt ģeogrāfiski līdzsvarotu piekļuvi visam MI finansējumam, tostarp MVU un jaunuzņēmumiem; uzsver, ka jaunie Savienības mērķi nedrīkst mazināt Savienības iesaistīšanos tās prioritātēs, piemēram, KLP, kohēzijas politikā, Eiropas zaļajā kursā un Eiropas Savienības Atveseļošanas instrumentā, Covid–19 atveseļošanas plānā;

26 aicina Komisiju veicināt un finansēt tāda antropocentriska mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādi, kas risinātu vides un klimata problēmas un ar nodokļu, zaļā publiskā iepirkuma vai citu stimulu palīdzību nodrošinātu vienlīdzīgu pamattiesību ievērošanu un izmantošanas iespējas;

MI oglekļa pēda:

27. norāda, ka Komisija savā 2020. gada 19. februārī publicētajā tiesību aktu kopumā digitālajā jomā norāda, ka IKT pašreiz veido no 5 % līdz 9 % no globālā elektroenerģijas patēriņa un 2 % no CO2 emisijām, ka nākamajos gados turpinās strauji palielināties nosūtīto un saglabāto datu apjoms un ka šajā sakarībā ir jārod risinājumi; turklāt norāda, ka Kopīgā pētniecības centra 2018. gada pētījumā „Mākslīgais intelekts — Eiropas perspektīva” tiek lēsts, ka datu centri un datu nosūtīšana varētu veidot 3 līdz 4 % no visa enerģijas patēriņa Savienībā;

28. atzinīgi vērtē to, ka digitālā vienotā tirgus stratēģijā Eiropai ir ierosināti zaļās pārveides pasākumi digitālajām nozarēm;

29. uzsver, ka, neraugoties uz mašīnu dziļās mācīšanās un MI pašreizējo lielo oglekļa pēdu, šīs tehnoloģijas var palīdzēt samazināt IKT nozares pašreizējo vides pēdas nospiedumu un attīstīt MI, robotiku, automatizētus lēmumus un mašīnmācīšanos; uzsver, ka šīm un citām pienācīgi regulētām saistītajām tehnoloģijām vajadzētu būt izšķirīgiem veicinātājiem, lai sasniegtu Eiropas zaļā kursa, ANO ilgtspējīgas attīstības mērķus un Parīzes nolīguma mērķus daudzās dažādās nozarēs, un tām būtu jāveicina tādas politikas ietekme, kas nodrošina vides aizsardzību, piemēram, attiecībā uz atkritumu samazināšanu un vides degradāciju;

30. aicina Komisiju veikt pētījumu par MI tehnoloģiju oglekļa pēdas ietekmi un par pozitīvo un negatīvo ietekmi, ar ko saistīta patērētāju pāreja uz MI tehnoloģiju;

31. norāda, ka, ņemot vērā MI lietotņu pieaugošo izstrādi, kam nepieciešami analītiski algoritmiskie, uzglabāšanas un enerģijas resursi, MI sistēmu ietekme uz vidi būtu jānovērtē visā to dzīves ciklā;

MI ietekme uz veselības nozari un pacientu tiesībām:

32. atzīst nozīmīgo lomu, kas MI var būt veselības nozarē, un uzsver, ka MI lietotņu veselības aprūpes jomā mērķim vienmēr jābūt šo lietotņu iespēju palielināšanai, piemēram, lai uzlabotu atsevišķu pacientu veselību, kā arī dalībvalstu sabiedrības veselības aprūpes sistēmu darbību, nepazeminot ētikas standartus un neapdraudot iedzīvotāju privātumu vai drošību;

33. atzinīgi vērtē apņemšanos, ko Komisija paudusi Baltajā grāmatā, proti, izskatīt drošības un atbildības problēmas, kuras ir raksturīgas veselības aprūpes nozarei, piemēram, MI sistēmas, kas sniedz specializētu medicīnisko informāciju ārstiem vai tieši pacientam, un MI sistēmas, kuras pašas tieši pacientam veic medicīniskas darbības; aicina tāpat atbilstīgi pārbaudīt citas uzskaitītās nozares, kuras automātiski ir atzītas par augsta riska nozarēm;

34. uzskata, ka tādās jomās kā veselības aprūpe atbildība galu galā ir jāuzņemas fiziskai vai juridiskai personai; uzsver, ka ir nepieciešami izsekojami un publiski pieejami apmācības dati algoritmu vajadzībām;

35. aicina Komisiju uzsākt atvērtu un pārredzamu nozaru dialogu, prioritāti piešķirot veselības aprūpei, lai pēc tam nāktu klajā ar rīcības plānu nolūkā atvieglot MI izstrādi, testēšanu un ieviešanu pētniecībā un inovācijās, kā arī tā plašu izmantošanu sabiedrības veselības aprūpes pakalpojumos;

36. brīdina par mēģinājumiem mašīnām piedēvēt „personību”, kas varētu izraisīt to, ka ārstēšanas kļūdu gadījumā tiek atcelta cilvēka atbildība;

37. stingri atbalsta Komisijas ierosinātās Eiropas veselības datu telpas[43] izveidi, kuras mērķis ir veicināt veselības datu apmaiņu un atbalstīt pētniecību saskaņā ar datu aizsardzības nosacījumiem, ietverot datu apstrādi ar MI tehnoloģijām, un kura stiprina un paplašina veselības datu izmantošanu un atkārtotu izmantošanu; aicina paplašināt veselības datu pārrobežu apmaiņu, to saikni un izmantošanu, balstoties uz drošiem, apvienotiem repozitorijiem, konkrētiem veselības informācijas veidiem, piemēram, Eiropas veselības datiem (EHR), genomu informāciju un digitāliem veselības attēliem, lai sekmētu Savienības mēroga sadarbspējīgus reģistrus vai datubāzes tādās nozarēs kā pētniecība, zinātne un veselības aprūpe;

38. uzsver, ka pacientiem būtu jāzina, kad un kā viņi sadarbojas ar cilvēku profesionāli un kad tas nenotiek; uzstāj, ka pacientiem jābūt iespējai lemt par šādu sadarbību un jāsaņem līdzvērtīga standarta alternatīvs piedāvājums;

39. uzskata, ka jo īpaši veselības nozarē mobilās lietotnes var palīdzēt novērot slimības un robotu klātbūtne ir lietderīga, lai atbalstītu ārstu vai veselības aprūpes palīgu darbu ar mērķi uzlabot diagnožu noteikšanu un ārstēšanu, vienlaicīgi nodrošinot, ka medicīnas praksi un pacientu aprūpes praksi īsteno cilvēki;

40. aicina nodrošināt e-veselības lietotņu standartizētu sadarbspēju Savienības līmenī un izveidot kopīgu Eiropas datu piekļuvi receptēm, diagnozēm un medicīniskiem ziņojumiem, kas būtu vienkārši pieejama visiem Savienības iedzīvotājiem visās dalībvalstīs;

41. atkārtoti norāda, ka šo tehnoloģiju sniegtajām iespējām un tām piemītošajiem riskiem ir globāla dimensija, kam nepieciešama konsekventa un saskaņota pieeja starptautiskā līmenī; aicina Komisiju iesaistīties divpusējā un daudzpusējā darbā, lai atbalstītu un nodrošinātu, ka pastāv atbilstība ētikas principiem;

42. uzsver MI sniegtos ieguvumus slimību profilaksē, ārstēšanā un kontrolē, kā piemēru minot to, ka MI prognozēja Covid–19 epidēmiju pirms PVO; mudina Komisiju pienācīgi nodrošināt ECDC ar tiesisko regulējumu un resursiem, lai neatkarīgi no dalībvalstīm apkopotu vajadzīgos anonimizētus pasaules veselības datus, cita starpā risinot Covid-19 pandēmijas atklātos jautājumus;

43. norāda, ka tas, ka publiskā sektora iestādes Covid–19 pandēmijas un citu iespējamu veselības ārkārtas situāciju laikā izmanto izsekošanas un kontaktēšanās izsekošanas tehnoloģijas, varētu būt pretrunā datu aizsardzībai; šajā saistībā atgādina par Komisijas 2020. gada 17. aprīļa paziņojumu par norādījumiem par lietotnēm izmantošanai cīņā pret Covid-19 pandēmiju, kas attiecas uz datu aizsardzību[44] un nepieciešamību nodrošināt samērīgumu, laika ierobežojumu, atbilstību Eiropas vērtībām un cilvēka cieņas un pamattiesību ievērošanu;

44. uzskata, ka MI un robotika var ievērojami uzlabot medicīnisko ierīču vadību un atvieglot veselības aprūpes speciālistu ikdienas darbu; uzskata, ka ļoti svarīgām medicīniskajām ierīcēm ir jānodrošina rezerves sistēma, lai uzraudzītu un nodrošinātu ierīces funkcionalitāti iespējamas iejaukšanās gadījumā, un ka ir jāņem vērā un jāsamazina iespējamie kiberdraudi šādu ierīču vadībai; uzsver, ka papildu hakeriem un ārējiem draudiem kiberdraudus var radīt arī cilvēku pieļautas kļūdas vai sistēmas kļūdas un ka ir jāparedz atbilstīgas un funkcionējošas rezerves sistēmas; turklāt uzskata, ka Savienībai būtu jāizveido MI rezerves izstrādes ceļvedis, lai risinātu iespējamos problēmjautājumus saistībā ar MI sistēmu vadības kļūdām;

45. norāda, ka Eiropas Parlamenta un Padomes Regulā (ES) 2017/745[45] noteiktie drošības standarti var nebūt pietiekami MI sistēmu problēmu risināšanai; aicina Komisiju uzraudzīt problēmas šajā jomā un vajadzības gadījumā iesniegt priekšlikumus;

46. uzsver, ka ir jānodrošina MI darbinātu medicīnisku ierīču atbilstība Regulas (ES) 2017/745 drošības un veiktspējas prasībām; aicina Komisiju un dalībvalstis nodrošināt, lai Regula (ES) 2017/745 tiktu īstenota attiecībā uz šīm tehnoloģijām; uzskata, ka ir vajadzīgas jaunas pamatnostādnes un specifikācijas attiecībā uz programmatūras, MI un mašīnu dziļās mācīšanās darbinātu ierīču drošības un efektivitātes novērtēšanu visā lietošanas ciklā;

47. aicina EMA un valstu kompetentajām iestādēm zāļu jomā nodrošināt skaidrākas juridiskās pilnvaras un pietiekamu finansējumu, lai zāļu dzīves ciklā atbalstītu ar MI saistītos inovāciju un sabiedrības veselības aspektus, jo īpaši lai vāktu un analizētu reālās pasaules veselības datus, kas var nodrošināt papildu pierādījumus par zālēm, lai atbalstītu izpēti un izstrādi un optimizētu pašreizējo zāļu drošu un efektīvu izmantošanu pacientu un Eiropas veselības aprūpes sistēmu interesēs;

48. uzstāj, ka ne apdrošināšanas sabiedrībām, ne arī cita veida pakalpojumu sniedzējiem nevajadzētu atļaut izmantot e–veselības datus nolūkā noteikt diskriminējošas cenas, ņemot vērā to, ka tas būtu pretrunā pamattiesībām baudīt visaugstāko sasniedzamo veselības standartu;

MI un datu aizsardzība

49.  atzinīgi vērtē Komisijas nesen publicēto Regulas (ES) 2016/679 pārskatīšanu[46], norāda, ka dalībvalstu tiesību aktos ir izmantota atšķirīga pieeja, īstenojot atkāpes no vispārējā aizlieguma apstrādāt īpašu kategoriju personas datus attiecībā uz specifikāciju un aizsardzības pasākumu līmeni, tostarp veselības aizsardzības nolūkos; tādēļ norāda, ka galu galā tieši cilvēkiem jābūt atbildīgiem par lēmumu pieņemšanu, jo īpaši nozarēs, kurās pastāv lieli apdraudējumi un riski, piemēram, veselības aprūpes nozarē;

50. atzinīgi vērtē Komisijas nodomu uzraudzīt Regulas (ES) 2016/679 piemērošanu jaunām tehnoloģijām, tostarp iespējamās turpmākās iniciatīvās mākslīgā intelekta jomā un saskaņā ar datu stratēģiju, un atbalsta Komisijas aicinājumu Eiropas Datu aizsardzības kolēģijai izdot pamatnostādnes par Regulas (ES) 2016/679 piemērošanu zinātniskās pētniecības, MI, blokķēdes un citu iespējamu tehnoloģiju attīstības jomā;

51. aicina stiprināt iedzīvotāju un pacientu izvēles iespējas attiecībā uz viņu personas datiem un nodrošināt Savienības tiesiskā regulējuma pilnīgu izpildi un vienotu interpretāciju datu aizsardzības un privātuma jomā, īpaši attiecībā uz veselības aprūpes MI lietotnēm un saistītiem sensitīviem datiem, nostiprināt „tiesības būt aizmirstam”, kas ir paredzētas Eiropas Parlamenta un Padomes Regulas (ES) 2016/679 (Vispārīgā datu aizsardzības regula (VDAR), un nostiprināt minētās regulas  22. pantā paredzētās „tiesības uz izskaidrojumu”, kā arī augstākas interpretācijas prasības attiecībā uz augsta riska MI;

52. uzsver, ka MI ētikas regulējumā būtu jāiekļauj tiesības personām, uz kurām attiecas šādi lēmumi, saņemt paskaidrojumu par lēmumu, kura pamatā ir automatizēta apstrāde;

53. aicina panākt atbilstīgu līdzsvaru starp privātumu un datu aizsardzību un datu lietderīgumu; uzskata, ka ir svarīgi, lai zinātnes progress nodrošinātu iespēju pietiekami padziļināti un detalizēti kopīgot un apstrādāt veselības datus; aicina nodrošināt datu anonimizāciju, vienlaikus izvairoties no pārmērīgas datu minimizācijas; aicina Savienības līmenī ieviest sadarbspējīgas un piemērotas datubāzes, reģistrus un repozitorijus, lai atvieglotu veselības datu izmantošanu veselības aprūpes, vides un pārtikas nekaitīguma nozarēs;

54. uzsver nepieciešamību nodrošināt, ka tiek aizsargāti veselības dati un dati, kas attiecas uz neaizsargātām grupām, un norāda, ka, ciktāl MI lietotnes apstrādā veselības datus, pamatojoties uz datu subjekta piekrišanu, ir jāievēro Regulas (ES) 2016/679 7. pantā paredzētie nosacījumi;

55. uzsver, ka ģenerētie dati nekādā veidā nedrīkst veicināt nekādu diskrimināciju; prasa nodrošināt, ka datu vākšana un pieejamība vienmēr atbilst Savienības tiesiskajam regulējumam;

56. norāda, ka datu ļaunprātīgai grozīšanai un manipulācijai, kā arī iespējamai uzlaušanai vai datu zādzībai veselības aprūpes nozarē var būt īpaši smagas sekas un ka tos var izmantot, lai personai nodarītu kaitējumu, celtu neslavu vai iedzīvotos uz personas rēķina; uzsver, ka attiecīgajiem tīkliem būtu jānosaka augstākie kiberdrošības standarti;

MI ietekme uz darba un sociālo vidi:

57. norāda, ka ESAO ētikas sistēmā ir ņemti vērā darba tirgus satricinājumi; uzsver, ka automatizācija apvienojumā ar MI palielinās ražīgumu un tādējādi palielinās rezultātu; norāda, ka tāpat kā iepriekšējo tehnoloģisko revolūciju laikā dažas darbvietas tiks aizstātas; uzsver, ka robotikas un MI pastiprinātai izmantošanai būtu arī jāsamazina kaitīgu un bīstamu apstākļu ietekme uz cilvēkiem, kā arī jāpalīdz radīt vairāk kvalitatīvu un pienācīgu darbvietu un jāuzlabo produktivitāte; norāda uz ESAO darbu, kas uzsver, ka automatizācija var dot sabiedrībai iespēju samazināt nostrādāto stundu skaitu, tādējādi uzlabojot darba ņēmēju dzīves apstākļus un veselību;

58. turklāt vērš uzmanību uz ESAO ieteikumiem ar aicinājumu valdībām cieši sadarboties ar ieinteresētajām personām, lai veicinātu MI atbildīgu izmantošanu darbā, uzlabotu darba ņēmēju drošību un darba kvalitāti un censtos nodrošināt, ka MI ieguvumi tiek plaši un taisnīgi sadalīti; šajā sakarībā uzsver, ka dažādas izstrādātāju un inženieru komandas, kas strādā kopā ar galvenajām ieinteresētajām personām, var palīdzēt novērst ar dzimumu un kultūru saistītus aizspriedumus un nodrošināt, ka MI algoritmos, sistēmās un lietotnēs tiek ievērota darba ņēmēju fiziskā un garīgā labklājība;

59. uzsver, ka MI lietotņu izstrāde varētu samazināt izmaksas un palielināt pieejamo pakalpojumu apjomu, piemēram, veselības aprūpes pakalpojumus, sabiedrisko transportu un lauksaimniecību 2.0, padarot to pieejamu cenas ziņā lielākai daļai sabiedrības; uzsver, ka MI lietotnes var arī novest pie bezdarba pieauguma, spiediena uz sociālās aprūpes sistēmām un nabadzības saasināšanās; saskaņā ar Līguma par Eiropas Savienību 3. pantā apstiprinātajām vērtībām uzsver nepieciešamību pielāgot Savienības MI pārveidi sociālekonomiskajām iespējām, atbilstīgai sociālajai aizsardzībai, izglītībai un alternatīvu darbvietu radīšanai; aicina izveidot Savienības MI pielāgošanās fondu, balstoties uz Eiropas Globalizācijas pielāgošanās fonda (EGF) vai pašreiz izveidojamā Taisnīgas pārkārtošanās fonda pieredzi;

60. uzsver arī sociālā dialoga nozīmi, lai darba ņēmējiem nodrošinātu taisnīgu un iekļaujošu pāreju uz jaunām darba realitātēm, ko ietekmē MI, un to, ka uzņēmumiem ir jāiegulda darbaspēka apmācībā un pārkvalifikācijā;

61. aicina dalībvalstis saskaņot vides aizsardzības, veselības un pārtikas nekaitīguma speciālistu izglītību ar MI attīstību un palielināt informētību par riskiem un ētikas problēmām, kas saistītas MI;

62. atzinīgi vērtē prasības, kas ierosinātas Baltajā grāmatā attiecībā uz augsta riska MI apmācības datiem un kas attiecas arī uz drošību, proti, pietiekami plašiem datiem, lai ietvertu visus attiecīgos scenārijus nolūkā novērst bīstamas situācijas, piemēram, diskrimināciju, un pietiekami reprezentatīviem datiem, lai labi atspoguļotu sociālo vidi, kurā MI izmantos;

63. uzsver, ka publiskajam sektoram būtu jākoncentrē uzmanība uz sociālo problēmu risināšanu, nevis MI apgūšanas veicināšanu šīs jomas labā; aicina uzlabot Savienības publiskā iepirkuma noteikumus un pamatnostādnes, ietverot Eiropas Savienības zaļo publisko iepirkumu, lai attiecīgo konkursa piedāvājumu novērtēšanas procedūru gaitā tiktu ņemts vērā, vai konkrētajam jautājumam ir vajadzīga MI sistēmas lietotne, un būtu iespējama alternatīva piegādes pieeja gadījumos, kad novērtējums pierāda, ka šāds ar MI nesaistīts risinājums ir labāks veids, kā risināt konkrēto sociālo problēmu;


INFORMĀCIJA PAR PIEŅEMŠANU
ATZINUMU SNIEDZOŠAJĀ KOMITEJĀ

Pieņemšanas datums

10.9.2020

 

 

 

Galīgais balsojums

+:

–:

0:

77

2

2

Komitejas locekļi, kas bija klāt galīgajā balsošanā

Nikos Androulakis, Bartosz Arłukowicz, Margrete Auken, Simona Baldassarre, Marek Paweł Balt, Traian Băsescu, Aurelia Beigneux, Monika Beňová, Sergio Berlato, Alexander Bernhuber, Malin Björk, Simona Bonafè, Delara Burkhardt, Pascal Canfin, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Nathalie Colin-Oesterlé, Miriam Dalli, Esther de Lange, Christian Doleschal, Marco Dreosto, Bas Eickhout, Eleonora Evi, Agnès Evren, Fredrick Federley, Pietro Fiocchi, Andreas Glück, Catherine Griset, Jytte Guteland, Teuvo Hakkarainen, Martin Hojsík, Pär Holmgren, Jan Huitema, Yannick Jadot, Adam Jarubas, Petros Kokkalis, Athanasios Konstantinou, Ewa Kopacz, Joanna Kopcińska, Ryszard Antoni Legutko, Peter Liese, Sylvia Limmer, Javi López, César Luena, Fulvio Martusciello, Liudas Mažylis, Joëlle Mélin, Tilly Metz, Silvia Modig, Dolors Montserrat, Alessandra Moretti, Dan-Ștefan Motreanu, Ville Niinistö, Ljudmila Novak, Jutta Paulus, Stanislav Polčák, Jessica Polfjärd, Luisa Regimenti, Frédérique Ries, María Soraya Rodríguez Ramos, Sándor Rónai, Rob Rooken, Silvia Sardone, Christine Schneider, Günther Sidl, Ivan Vilibor Sinčić, Linea Søgaard-Lidell, Nicolae Ştefănuță, Nils Torvalds, Edina Tóth, Véronique Trillet-Lenoir, Alexandr Vondra, Mick Wallace, Pernille Weiss, Michal Wiezik, Tiemo Wölken, Anna Zalewska

Aizstājēji, kas bija klāt galīgajā balsošanā

Michael Bloss, Manuel Bompard, Christel Schaldemose

 


ATZINUMU SNIEDZOŠĀS KOMITEJAS
GALĪGAIS BALSOJUMS PĒC SARAKSTA

77

+

#PPE#

Bartosz Arłukowicz, Alexander Bernhuber, Traian Băsescu, Nathalie Colin-Oesterlé, Christian Doleschal, Agnès Evren, Adam Jarubas, Ewa Kopacz, Peter Liese, Fulvio Martusciello, Liudas Mažylis, Dolors Montserrat, Dan-Ștefan Motreanu, Ljudmila Novak, Jessica Polfjärd, Stanislav Polčák, Christine Schneider, Edina Tóth, Pernille Weiss, Michal Wiezik, Esther de Lange

S&D

Nikos Androulakis, Marek Paweł Balt, Monika Beňová, Simona Bonafè, Delara Burkhardt, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Miriam Dalli, Jytte Guteland, César Luena, Javi López, Alessandra Moretti, Sándor Rónai, Christel Schaldemose, Günther Sidl, Tiemo Wölken

Renew

Pascal Canfin, Fredrick Federley, Andreas Glück, Martin Hojsík, Jan Huitema, Frédérique Ries, María Soraya Rodríguez Ramos, Linea Søgaard-Lidell, Nils Torvalds, Véronique Trillet-Lenoir, Nicolae Ştefănuță

ID

Simona Baldassarre, Aurelia Beigneux, Marco Dreosto, Catherine Griset, Joëlle Mélin, Luisa Regimenti, Silvia Sardone

Verts/ALE

Margrete Auken, Michael Bloss, Bas Eickhout, Pär Holmgren, Yannick Jadot, Tilly Metz, Ville Niinistö, Jutta Paulus

ECR

Sergio Berlato, Pietro Fiocchi, Joanna Kopcińska, Ryszard Antoni Legutko, Alexandr Vondra, Anna Zalewska

GUE/NGL

Malin Björk, Manuel Bompard, Petros Kokkalis, Silvia Modig, Mick Wallace

NI

Eleonora Evi, Athanasios Konstantinou

 

2

-

ID

Sylvia Limmer

ECR

Rob Rooken

 

2

0

ID

Teuvo Hakkarainen

NI

Ivan Vilibor Sinčić

 

Izmantoto apzīmējumu skaidrojums:

+ : par

- : pret

0 : atturas


 

KULTŪRAS UN IZGLĪTĪBAS KOMITEJAS ATZINUMS (3.9.2020)

<CommissionInt>Juridiskajai komitejai</CommissionInt>


<Titre>ar ieteikumiem Komisijai par mākslīgā intelekta, robotikas un saistīto tehnoloģiju ētisko aspektu satvaru</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Atzinumu sagatavoja: <Depute>Łukasz Kohut</Depute>

(Iniciatīva – Reglamenta 47. pants)

IEROSINĀJUMI

Kultūras un izglītības komiteja aicina par jautājumu atbildīgo Juridisko komiteju, rezolūcijas priekšlikumā, ko tā pieņems, iekļaut šādus ierosinājumus:

- rezolūcijas priekšlikumā, ko tā pieņems, iekļaut šādus ierosinājumus:

1. atgādina, ka mākslīgā intelekta (MI) izstrādei, ieviešanai un izmantošanai kultūras un radošajās nozarēs, kā arī izglītības, plašsaziņas līdzekļu, jaunatnes un informācijas politikas jomā ne tikai ir milzīgs potenciāls, bet tās ir radījušas un turpinās radīt plašu ētikas jautājumu loku, kas ir jāatrisina; uzsver, ka Savienībai būtu jāuzņemas vadošā loma tāda MI ieviešanas procesā, kurš būtu ētisks un atbilstu Eiropas vērtībām, un nodrošinātu cilvēka cieņas un pamattiesību aizsardzību demokrātiskā, taisnīgā un ilgtspējīgā Eiropā; aicina ES iestādes sākt ilgtermiņa pārdomas par MI ietekmi uz mūsu demokrātiskajām debatēm, mūsu sabiedrībām un cilvēka kā tāda būtību, lai varētu radīt priekšnoteikumus tādas MI tehnoloģijas ieviešanai, kas respektē mūsu brīvību un netraucē jauninājumus un neierobežo vārda brīvību;

2. ir stingri pārliecināts, ka ir jāpārbauda, kā cilvēktiesību regulējumi un pienākumi var kļūt par rīcības un politikas vadmotīvu attiecībā uz jaunajām un tapšanas stadijā esošajām digitālajām tehnoloģijām, lai garantētu to antropocentrisko pieeju un to nodrošināto ieguvumu pieejamību visiem; atzīst vajadzību nodrošināt, ka MI izstrāde, ieviešana un izmantošana būtu brīva no diskriminācijas, profilēšanas aizspriedumiem un atspoguļotu visus būtiskos sabiedrības elementus;  atzīst, ka MI un automatizācija var ietekmēt globalizēto ekonomiku, kas varētu pastiprināt pastāvošo nevienlīdzību;

3. uzsver, ka ir nepieciešams izstrādāt konkrētiem apstākļiem pielāgotus kritērijus MI izstrādei, ieviešanai un izmantošanai izglītībā, plašsaziņas līdzekļos, jaunatnes lietās, pētniecībā un kultūras un radošajās nozarēs, izstrādājot standartus un nosakot principus ētiski atbildīgam un akceptētam MI tehnoloģiju lietojumam šajās jomās, tostarp precīzu atbildības režīmu par MI lietošanas rezultātā radītajiem izstrādājumiem; uzsver, ka šie kritērijiem ir jābūt pielāgojamiem un pastāvīgi koriģējamiem atbilstoši MI tehnoloģiju attīstībai tā, lai MI potenciālu palīdzētu atraisīt pilnībā, darot to atbildīgā veidā; jo īpaši uzsver vajadzību novērst bažas par izmantotāju personas datu vākšanu un par privātuma pārkāpumiem, kā arī atbildības jautājumus gadījumos, kad automatizētie procesi rada nevēlamas sekas; atgādina — lai nodrošinātu šādu kritēriju stabilu pamatu, ir jāpieprasa, lai tiktu ievēroti principi par sistēmas atbilstību tās specifikācijām, pārredzamību, labticību un taisnīgumu, apspriežoties ar kompetentajām ētikas komitejām, kuru uzdevums ir palīdzēt noteikt pamatu saskaņā ar Eiropas Savienības kultūras vērtībām un tiesiskā regulējuma noteikumiem; konstatē, ka MI sistēmas ir balstītas uz programmatūru un apliecina inteliģentu uzvedību, pamatojoties uz to vides analīzi; uzsver, ka šīs analīzes pamatā ir statistikas modeļi, kuru neatņemama daļa ir kļūdas; uzsver, ka ir nepieciešams nodrošināt, lai tiktu ieviestas sistēmas un metodes, pateicoties kurām, var pārbaudīt algoritmu, algoritmu izskaidrot un izmantot aizsardzības līdzekļus; uzsver, ka ir nepieciešams nodrošināt saistošus noteikumus, lai garantētu pārredzamības, pārskatatbildības un nediskriminācijas principu saglabāšanu; atgādina par 2019. gada ētikas vadlīnijām attiecībā uz uzticamu MI un septiņas galvenās prasības, ar kurām nodrošina MI uzticamību;

4. konstatē, ka ikvienam bērnam ir tiesības uz visu līmeņu augstvērtīgu publisko izglītību; tādēļ prasa, lai tiktu izstrādātas, ieviestas un izmantotas tādas MI sistēmas, ar kurām sekmē un nodrošina kvalitatīvus izglītības instrumentus visos līmeņos, un uzsver, ka jaunu MI sistēmu ieviešana skolās nedrīkstētu radīt plašāku digitālo plaisu sabiedrībā;

5. norāda, ka skolās un universitātēs arvien vairāk tiek ieviestas individualizētas MI mācību sistēmas, kas pakāpeniski maina skolotāju lomu mācību procesā; uzsver, ka šī lomas izmaiņa būtu pamatīgi jāizvērtē, atbilstīgi jāatspoguļo programmā un tā ir jānostiprina ar antropocentriskām vērtībām; atzīst milzīgo potenciālu, kāds MI un robotikai var būt attiecībā uz izglītību; norāda, ka MI personalizētas mācību sistēmas nedrīkst aizstāt izglītības attiecības, kurās iesaistīti skolotāji, un ka nedrīkst atstāt novārtā tradicionālos izglītības veidus, vienlaikus norādot, ka ir jāsniedz finansiāls, tehnoloģisks un izglītojošs atbalsts, tostarp specializēta apmācība informācijas un komunikāciju tehnoloģiju jomā, skolotājiem, kuri vēlas iegūt atbilstošas prasmes, lai pielāgotos tehnoloģiskajām pārmaiņām un ne tikai izmantotu MI potenciālu, bet arī izprastu tā ierobežojumus;

6. uzsver, ka gadījumos, kad iespējamo studentu atlases procedūrās tiek izmantota mašīnmācīšanās, ir jāīsteno atbilstošas drošības garantijas, tostarp, informējot reflektantus par šādām procedūrām un tiesībām, kas viņiem ir šajā sakarībā; konstatē, ka attiecīgie algoritmi ir jāpilnveido, izmantojot plašus datu kopumus, lai novērstu to, ka tie netaisnīgi diskriminē atsevišķas grupas; uzskata, ka attiecīgajiem lēmumiem, kas tiek pieņemti ar automātisko procesu palīdzību, ir jābūt izskaidrojamiem, tostarp vajadzības gadījumā noraidītajiem studentiem;

7. prasa Savienības līmenī izstrādāt MI, robottehnikas un saistīto tehnoloģiju stratēģiju, lai pārveidotu un atjauninātu mūsu izglītības sistēmas, sagatavotu mūsu izglītības iestādes visos līmeņos un panāktu, ka skolotājiem un skolēniem ir nepieciešamās prasmes un spējas; uzskata, ka ir nepieciešams izglītības ētikas regulējums; iesaka, lai ētikas regulējuma izstrādes procesā tiktu iesaistīta pilsoniskās sabiedrība, universitātes, arodbiedrības un darba devēju apvienības; konstatē, ka MI sistēmās, kas ir izstrādātas, ieviestas un izmantotas Savienībā, ir jāatspoguļo kultūras dažādība un to daudzvalodība; uzsver nozīmi, kāda ir īpašajam atbalstam, kas būtu jāsniedz nelabvēlīgā stāvoklī esošām personām un personām ar invaliditāti, kas izstrādā tehnoloģijas un tās izmanto;

8. uzskata, ka īpaša uzmanība ir jāpievērš un aizsardzība jāsniedz nepilngadīgo tiesību ievērošanai, ņemot vērā īpašo izglītības ietekmi uz viņu nākotni, konkrētāk pievēršot uzmanību tiesībām uz privātumu un piekļuvi pilnvērtīgai izglītībai, lai nodrošinātu katrā gadījumā vienādas iespējas; uzsver, ka izglītības iestādēm izglītības nolūkā ir jāizmanto tikai tādas MI sistēmas, kas ir auditētas un sertificētas kā ētiskas, labvēlīgas un atbilstošas cilvēktiesību principiem; aicina Komisiju un dalībvalstis sekmēt sadarbību starp publisko sektoru un privāto sektoru, un akadēmiskajām aprindām, lai pastiprinātu zināšanu apriti un publiskos avotus;

9. konstatē, ka ir jāprecizē mākslas un kultūras, un radošo darbu jēdziens, kā arī cilvēku kā radītāju un mākslinieku loma; uzsver, ka digitalizācijas un jauno tehnoloģiju sniegtās iespējas nedrīkst izraisīt vispārēju darbvietu zudumu kultūras un radošajās nozarēs, atstāt novārtā oriģinālu saglabāšanu un mazināt tradicionālo piekļuvi kultūras mantojumam, kas būtu vienlīdz jāveicina;

10. atzīst MI aizvien lielāko potenciālu informācijas, plašsaziņas līdzekļu un tiešsaistes platformu jomā, tostarp kā spēcīgu dezinformācijas apkarošanas līdzekli; tomēr pauž bažas par iespēju MI izmantot ļaunprātīgi, lai manipulētu ar sabiedrisko domu tiešsaistē; uzsver, ka, ja tas netiks reglamentēts, MI tehnoloģijām var arī būt ētiski negatīvas sekas, jo tiktu izmantota datu un algoritmu neobjektivitāte, kas var izraisīt dezinformācijas izplatīšanos, radot informācijas burbuļus un izmantojot MI algoritmu neobjektivitāti; atgādina, ka pienācīga izglītība ir nepieciešams nosacījums, lai aizsargātu pilsoņu tiesības attiecībā uz informācijas, uzskatu un vārda brīvību, aicina plašsaziņas līdzekļu jomā ētiski izmantot MI tehnoloģijas; brīdina par tehnoloģijas līdzekļiem īstenotas cenzūras risku un vajadzību pēc ētikas regulējuma, ar kuru aizsargā runas brīvību;

11. uzskata, ka noteikta veida MI izmantošana, piemēram, seju atpazīšanas, emociju un uzvedības noteikšanas sistēmas, var nelabvēlīgi ietekmēt plašsaziņas līdzekļu un žurnālistu kā demokrātijas uzraugu lomu; tādēļ uzsver, ka šādu sistēmu izmantošana publiskā telpā, būtu jāierobežo vai jāaizliedz ,kad vien tas ir nepieciešams; uzsver, ka ir nepieciešams turpināt cīņu pret viltus ziņām, tostarp tādām metodēm kā „dziļviltojumi” (deepfakes), pret cenzūru un automatizētu uzraudzību;

12. uzsver vajadzību pēc sabiedrības informētības un tās locekļu izpratnes veidošanas MI lomas un ietekmes jautājumos formālās un neformālās izglītības ceļā, tostarp cilvēces pētījumus, piemēram, par algoritmu izmantošanu un to ietekmi tostarp uz darbvietām un privātumu, kā arī spējām saprast nozīmi, kāda informātikas sistēmām ir datu atlasē, interpretācijā, glabāšanā un noformēšanā; iestājas par digitālās pratības rīku izveidi visos izglītības līmeņos un tādēļ aicina dalībvalstis un ES iestādes ieguldīt līdzekļus informācijas un plašsaziņas līdzekļu lietotprasmē, izglītībā un apmācībā; uzskata, ka informācijas un plašsaziņas līdzekļu lietošanas kompetence ir izšķiroši svarīga visiem iedzīvotājiem, tostarp neaizsargātajām sociālajām grupām, lai spētu kritiski novērtēt un izprast jaunās norises, tostarp izpratni par MI darbību un ar to saistītajiem aizspriedumiem, tādējādi izstrādājot jaunus kritiskās domāšanas veidus; iesaka Komisijai sekmēt ar MI, robotikas un tehnoloģiju saistītus izglītības risinājumus un pieaugušo izglītību;

13. norāda uz to, cik svarīga ir algoritmu pārredzamības un algoritmu izmantošanas pārredzamības nodalīšana; uzsver, cik svarīgi ir nodrošināt pārredzamību un pārskatatbildību attiecībā uz algoritmiem, ko izmanto video koplietošanas platformas, kā arī audiovizuālās platformas,s lai nodrošinātu piekļuvi kultūras un valodu ziņā daudzveidīgam saturam un izvairītos no konkrētas priekšrokas došanas; uzskata, ka ikviens lietotājs būtu pienācīgi jāinformē , ja, iesakot saturu un atvieglinot attiecīgā lietotāja izvēli, tiek izmantots algoritms, un lietotājam būtu jāspēj tas optimizēt atbilstoši savai izvēlei, un šādi algoritmi nedrīkst ierobežot lietotāja izvēli; uzskata, ka ikvienam lietotājam ir jāvar arī MI satura ieteikumus atslēgt; uzsver, ka šādi algoritmi būtu jāizstrādā tā, lai tajos tiktu atspoguļota mūsu sabiedrību kulturālā dažādība, nodrošinot patiesu kultūras atvērtību un garantējot radošās darbības brīvību; uzstāj, ka MI iegūtos lietotāju datus, piemēram, kultūras izvēles vai izglītības rezultātus, izpaust nedrīkst, ja par to netiek informēts to īpašnieks;

14. konstatē, ka sports tehnoloģiskiem jauninājumiem ir bijis atvērts vienmēr; tomēr uzskata, ka MI tehnoloģiju izmantošana, kas ātri izplatās arī sporta sacensībās, arvien vairāk rada jautājumus par godīgu konkurenci sportā, jo komandas, kuru rīcībā ir vislielākie finanšu resursi, var iegādāties vislabāko tehnoloģiju un tādējādi, iespējams, iegūt arī netaisnīgas priekšrocības; uzsver, ka ir stingri jānovēro šāda veida attīstība un ka šajā jomā ir vajadzīgs tiesiskais regulējums, kas reglamentētu ētiskos un antropocentriskos kritērijus, kuri ir jāievēro MI tehnoloģiju izstrādē un lietošanā; prasa nodrošināt pilnīgu sportā izmantoto algoritmu un tehnoloģiju pārredzamību, lai panāktu godīgas konkurences nosacījumus;

 


INFORMĀCIJA PAR PIEŅEMŠANU
ATZINUMU SNIEDZOŠAJĀ KOMITEJĀ

Pieņemšanas datums

31.8.2020

 

 

 

Galīgais balsojums

+:

–:

0:

28

0

2

Komitejas locekļi, kas bija klāt galīgajā balsošanā

Isabella Adinolfi, Christine Anderson, Ilana Cicurel, Gilbert Collard, Gianantonio Da Re, Laurence Farreng, Tomasz Frankowski, Romeo Franz, Hannes Heide, Irena Joveva, Petra Kammerevert, Niyazi Kizilyürek, Predrag Fred Matić, Dace Melbārde, Victor Negrescu, Peter Pollák, Marcos Ros Sempere, Andrey Slabakov, Massimiliano Smeriglio, Michaela Šojdrová, Sabine Verheyen, Salima Yenbou, Milan Zver

Aizstājēji, kas bija klāt galīgajā balsošanā

Isabel Benjumea Benjumea, Christian Ehler, Ibán García Del Blanco, Bernard Guetta, Marcel Kolaja, Elżbieta Kruk, Martina Michels

 


 

ATZINUMU SNIEDZOŠĀS KOMITEJAS
GALĪGAIS BALSOJUMS PĒC SARAKSTA

28

+

PPE

Isabel Benjumea Benjumea, Christian Ehler, Tomasz Frankowski, Peter Pollák, Michaela Šojdrová, Sabine Verheyen, Milan Zver

S&D

Ibán García del Blanco, Hannes Heide, Petra Kammerevert, Predrag Fred Matić, Victor Negrescu, Marcos Ros Sempere, Massimiliano Smeriglio

RENEW

Ilana Cicurel, Laurence Farreng, Bernard Guetta, Irena Joveva

ID

Gilbert Collard

VERTS/ALE

Romeo Franz, Marcel Kolaja, Salima Yenbou

ECR

Elżbieta Kruk, Dace Melbārde, Andrey Slabakov

GUE/NGL

Niyazi Kizilyürek, Martina Michels

NI

Isabella Adinolfi

 

0

-

-

-

 

2

0

ID

Christine Anderson, Gianantonio Da Re

 

Izmantoto apzīmējumu skaidrojums:

+ : par

- : pret

0 : atturas


INFORMĀCIJA PAR PIEŅEMŠANU ATBILDĪGAJĀ KOMITEJĀ

Pieņemšanas datums

1.10.2020

 

 

 

Galīgais balsojums

+:

–:

0:

20

0

4

Komitejas locekļi, kas bija klāt galīgajā balsošanā

Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, Raffaele Stancanelli, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos

Aizstājēji, kas bija klāt galīgajā balsošanā

Patrick Breyer, Evelyne Gebhardt

 


ATBILDĪGĀS KOMITEJAS GALĪGAIS BALSOJUMS PĒC SARAKSTA

20

+

EPP

Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos

S&D

Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken

RENEW

Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara

VERTS/ALE

Patrick Breyer, Marie Toussaint

ECR

Angel Dzhambazki, Raffaele Stancanelli

NI

Mislav Kolakušić

 

0

-

 

 

 

 

 

4

0

ID

Gunnar Beck, Jean Paul Garraud, Gilles Lebreton

GUE/NGL

Manon Aubry

 

Izmantoto apzīmējumu skaidrojums:

+ : par

- : pret

0 : atturas

[1] OV L 252, 8.10.2018., 1. lpp.

[2] OV L 180, 19.7.2000., 22. lpp.

[3] OV L 303, 2.12.2000., 16. lpp.

[4] OV L 119, 4.5.2016., 1. lpp.

[5] OV L 119, 4.5.2016., 89. lpp.

[6] OV L 123, 12.5.2016., 1. lpp.

[7] OV C 252, 18.7.2018., 239. lpp.

[8] OV C 307, 30.8.2018., 163. lpp.

[9] OV C 433, 23.12.2019., 86. lpp.

[10] Pieņemtie teksti, P8_TA(2018)0332.

[11] Pieņemtie teksti, P8_TA(2019)0081.

[12] Komisijas paziņojums Eiropas Parlamentam, Padomei, Eiropas Ekonomikas un sociālo lietu komitejai un Reģionu komitejai „Eiropas Datu stratēģija” COM(2020)0066.

[13] Attiecībā uz transportlīdzekļu automatizētu vadīšanu ir ierosināti seši vadīšanas automatizācijas līmeņi, pieņemotSAE starptautisko standartu J3016, kas pēdējo reizi tika atjaunināts 2018. gadā un tika pārsaukts par standartu J3016_201806. https://www.sae.org/standards/content/j3016_201806/

[14]  Eiropas Parlamenta un Padomes Regula (ES) 2016/679 (2016. gada 27. aprīlis) par fizisku personu aizsardzību attiecībā uz personas datu apstrādi un šādu datu brīvu apriti un ar ko atceļ Direktīvu 95/46/EK (Vispārīgā datu aizsardzības regula) (OV L 119, 4.5.2016., 1. lpp.).

[15]  Eiropas Parlamenta un Padomes Direktīva 2002/58/EK (2002. gada 12. jūlijs) par personas datu apstrādi un privātās dzīves aizsardzību elektronisko komunikāciju nozarē (Direktīva par privāto dzīvi un elektronisko komunikāciju) (OV L 201, 31.7.2002., 37. lpp.).

[16] Definīcija, kas ir sniegta Eiropas Komisijas paziņojumā COM(2018) 237 final, 25.04.2018., 1. lpp., pielāgots.

[17] Iegūta no rūpniecisko robotu definīcijas ISO 8373.

[18] Eiropas Parlamenta un Padomes Direktīva (ES) 2019/1937 (2019. gada 23. oktobris) par to personu aizsardzību, kuras ziņo par Savienības tiesību aktu pārkāpumiem (OV L 305, 26.11.2019., 17. lpp.).

[19]  Eiropas Parlamenta un Padomes 2016. gada 27. aprīļa Regula (ES) 2016/679 par fizisku personu aizsardzību attiecībā uz personas datu apstrādi un šādu datu brīvu apriti un ar ko atceļ Direktīvu 95/46/EK (Vispārīgā datu aizsardzības regula) (OV L 119, 4.5.2016., 1. lpp.).

[20]  Eiropas Parlamenta un Padomes 2008. gada 9. jūlija Lēmums Nr. 768/2008/EK par produktu tirdzniecības vienotu sistēmu un ar ko atceļ Padomes Lēmumu 93/465/EEK (OV L 218, 13.8.2008., 82. lpp.).

[21]  COD (2018)0089, publicēšanas stadijā.

[22]  Eiropas Parlamenta un Padomes 2019. gada 17. aprīļa Direktīva (ES) 2019/882 par produktu un pakalpojumu piekļūstamības prasībām (OV L 151, 7.6.2019., 70. lpp.).

[23] OV L 180, 19.7.2000., 22. lpp.

[24] OV L 303, 2.12.2000., 16. lpp.

[25] OV L 119, 4.5.2016., 1. lpp.

[26] OV L 119, 4.5.2016., 89. lpp.

[27] OV C 252, 18.7.2018., 239. lpp.

[28] Komisijas paziņojums “Mākslīgais intelekts Eiropai”, COM(2018) 237 final

[29] STOA, “The ethics of artificial intelligence: issues and initiatives” (Mākslīga intelekta ētika: problēmjautājumi un iniciatīvas), 2020. gada marts

[30] Eiropas Parlaments “Encouraging STEM studies for the labour market” (“STEM pētījumu veicināšana darba tirgum”), 2015. gada marts

[31] Eiropas Profesionālās izglītības attīstības centrs, “Eiropas prasmju un nodarbinātības pētījums”

[32] Capgemini pētniecības institūts, “Kāpēc organizācijas gūs labumu no ētikas jautājumu MI jomā risināšanas”, 2019. gada jūlijs

[33] ESAO, “Mākslīgā intelekta padomes ieteikums”, 2019. gads, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449.

[34] Eiropas Savienības Padome “Padomes secinājumi par Eiropas digitālās nākotnes veidošanu”, 2020. gada jūnijs.

[35] Eiropas sociālo partneru pamatnolīgums par digitalizāciju, 2020. gada jūnijs.

[36] Eiropas Parlaments: “Education and employment of women in science, technology and the digital economy, including AI and its influence on gender equality” (“Sieviešu izglītība un nodarbinātība zinātnē, tehnoloģijās un digitālajā ekonomikā, tostarp MI jautājumos, un MI ietekme uz dzimumu līdztiesību”) 2020. gada aprīlis

[37] Eiropas Parlamenta un Padomes 2016. gada 27. aprīļa Regula (ES) 2016/679 par fizisku personu aizsardzību attiecībā uz personas datu apstrādi un šādu datu brīvu apriti un ar ko atceļ Direktīvu 95/46/EK (Vispārīgā datu aizsardzības regula) (OV L 119, 4.5.2016., 1. lpp.).

[38] 1https://rm.coe.int/guidelines-on-artificial-intelligence-and-data-protection/168091f9d8

[39] 2https://legalinstruments.oecd.org/api/print?ids=648=en

[40] 3https://ethicsinaction.ieee.org

[41] OV C 252, 18.7.2018., 239. lpp.

[42] Baltā grāmata par mākslīgo intelektu. Eiropeiska pieeja — izcilība un uzticēšanās COM(2020)0065.

[43]  Komisijas paziņojums Eiropas Parlamentam, Padomei, Eiropas Ekonomikas un sociālo lietu komitejai un Reģionu komitejai „Eiropas Datu stratēģija” COM(2020)0066.

[44] OV C 124I , 17.4.2020., 1. lpp.

[45] Eiropas Parlamenta un Padomes 2017. gada 5. aprīļa Regula (ES) 2017/745, kas attiecas uz medicīniskām ierīcēm, ar ko groza Direktīvu 2001/83/EK, Regulu (EK) Nr. 178/2002 un Regulu (EK) Nr. 1223/2009 un atceļ Padomes Direktīvas 90/385/EEK un 93/42/EEK (OV L 117, 5.5.2017., 1. lpp.).

[46] Komisijas paziņojums Eiropas Parlamentam un Padomei „Datu aizsardzība kā iedzīvotāju tiesību nodrošināšanas un ES digitālās pārkārtošanās pīlārs – Vispārīgās datu aizsardzības regulas piemērošanas divi gadi” (COM(2020) 264 final).

Pēdējā atjaunošana: 2020. gada 19. oktobrisJuridisks paziņojums - Privātuma politika