Procedūra : 2020/2012(INL)
Procedūros eiga plenarinėje sesijoje
Dokumento priėmimo eiga : A9-0186/2020

Pateikti tekstai :

A9-0186/2020

Debatai :

PV 19/10/2020 - 15
PV 19/10/2020 - 18
CRE 19/10/2020 - 15
CRE 19/10/2020 - 18

Balsavimas :

PV 20/10/2020 - 17
PV 20/10/2020 - 21

Priimti tekstai :

P9_TA(2020)0275

<Date>{08/10/2020}8.10.2020</Date>
<NoDocSe>A9-0186/2020</NoDocSe>
PDF 657kWORD 221k

<TitreType>PRANEŠIMAS</TitreType>

<Titre>su rekomendacijomis Komisijai dėl dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų sistemos </Titre>

<DocRef>(2020/2012(INL))</DocRef>


<Commission>{JURI}Teisės reikalų komitetas</Commission>

Pranešėjas: <Depute>Ibán García Del Blanco</Depute>

Nuomonės referentai (*):

Urmas Paet, Užsienio reikalų komitetas

Alexandra Geese, Vidaus rinkos ir vartotojų apsaugos komitetas

Valter Flego, Transporto ir turizmo komitetas

Assita Kanko, Piliečių laisvių, teisingumo ir vidaus reikalų komitetas

(*) Susijusių komitetų procedūra. Darbo tvarkos taisyklių 57 straipsnis

(Iniciatyva. Darbo tvarkos taisyklių 47 straipsnis)

PAKEITIMAI
PASIŪLYMAS DĖL EUROPOS PARLAMENTO REZOLIUCIJOS
 PASIŪLYMO DĖL REZOLIUCIJOS PRIEDAS REKOMENDACIJOS DĖL PRAŠOMO PATEIKTI PASIŪLYMO TURINIO
 A. PRAŠOMO PATEIKTI PASIŪLYMO PRINCIPAI IR TIKSLAI
 B. PRAŠOMO PATEIKTI PASIŪLYMO DĖL TEISĖKŪROS PROCEDŪRA PRIIMAMO AKTO TEKSTAS
 AIŠKINAMOJI DALIS
 UŽSIENIO REIKALŲ KOMITETO NUOMONĖ
 VIDAUS RINKOS IR VARTOTOJŲ APSAUGOS KOMITETO NUOMONĖ
 TRANSPORTO IR TURIZMO KOMITETO NUOMONĖ
 PILIEČIŲ LAISVIŲ, TEISINGUMO IR VIDAUS REIKALŲ KOMITETO NUOMONĖ
 UŽIMTUMO IR SOCIALINIŲ REIKALŲ KOMITETO NUOMONĖ
 APLINKOS, VISUOMENĖS SVEIKATOS IR MAISTO SAUGOS KOMITETO NUOMONĖ
 KULTŪROS IR ŠVIETIMO KOMITETO NUOMONĖ
 INFORMACIJA APIE PRIĖMIMĄ ATSAKINGAME KOMITETE
 GALUTINIS VARDINIS BALSAVIMAS ATSAKINGAME KOMITETE

PASIŪLYMAS DĖL EUROPOS PARLAMENTO REZOLIUCIJOS

su rekomendacijomis Komisijai dėl dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų sistemos

(2020/2012(INL))

Europos Parlamentas,

 atsižvelgdamas į Sutarties dėl Europos Sąjungos veikimo 225 straipsnį,

 atsižvelgdamas į Sutarties dėl Europos Sąjungos veikimo 114 straipsnį,

 atsižvelgdamas į Europos Sąjungos pagrindinių teisių chartiją,

 atsižvelgdamas į 2018 m. rugsėjo 28 d. Tarybos reglamentą (ES) 2018/1488 dėl Europos našiosios kompiuterijos bendrosios įmonės sukūrimo[1],

 atsižvelgdamas į 2000 m. birželio 29 d. Tarybos direktyvą 2000/43/EB, įgyvendinančią vienodo požiūrio principą asmenims nepriklausomai nuo jų rasės arba etninės priklausomybės[2] (Rasinės lygybės direktyva),

 atsižvelgdamas į 2000 m. lapkričio 27 d. Tarybos Direktyvą 2000/78/EB, nustatančią vienodo požiūrio užimtumo ir profesinėje srityje bendruosius pagrindus[3] (Vienodo požiūrio užimtumo srityje direktyva),

 atsižvelgdamas į 2016 m. balandžio 27 d. Europos Parlamento ir Tarybos reglamentą (ES) 2016/679 dėl fizinių asmenų apsaugos tvarkant asmens duomenis ir dėl laisvo tokių duomenų judėjimo ir kuriuo panaikinama Direktyva 95/46/EB (Bendrasis duomenų apsaugos reglamentas)[4] (BDAR), ir į 2016 m. balandžio 27 d. Europos Parlamento ir Tarybos direktyvą (ES) 2016/680 dėl fizinių asmenų apsaugos kompetentingoms institucijoms tvarkant asmens duomenis nusikalstamų veikų prevencijos, tyrimo, atskleidimo ar baudžiamojo persekiojimo už jas arba bausmių vykdymo tikslais ir dėl laisvo tokių duomenų judėjimo ir kuria panaikinamas Tarybos pamatinis sprendimas 2008/977/TVR[5],

 atsižvelgdamas į 2016 m. balandžio 13 d. Tarpinstitucinį susitarimą dėl geresnės teisėkūros[6],

 atsižvelgdamas į 2018 m. birželio 6 d. pasiūlymą dėl Europos Parlamento ir Tarybos reglamento dėl 2021–2027 m. Skaitmeninės Europos programos sudarymo (COM(2018)0434),

 atsižvelgdamas į 2019 m. gruodžio 11 d. Komisijos komunikatą Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui „Europos žaliasis kursas“ (COM(2019)0640),

 atsižvelgdamas į 2020 m. vasario 19 d. Komisijos komunikatą Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui „Dirbtinis intelektas. Europos požiūris į kompetenciją ir pasitikėjimą“ (COM(2020)0065),

 atsižvelgdamas į 2020 m. vasario 19 d. Komisijos komunikatą Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui „Europos duomenų strategija“ (COM(2020)0066),

 atsižvelgdamas į 2020 m. vasario 19 d. Komisijos komunikatą Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui „Europos skaitmeninės ateities formavimas“ (COM(2020)0067),

 atsižvelgdamas į 2020 m. birželio mėn. Europos Sąjungos Tarybos išvadas dėl Europos skaitmeninės ateities kūrimo,

 atsižvelgdamas į savo 2017 m. vasario 16 d. rezoliuciją su rekomendacijomis Komisijai dėl robotikai taikomų civilinės teisės nuostatų[7],

 atsižvelgdamas į savo 2017 m. birželio 1 d. rezoliuciją dėl Europos pramonės skaitmeninimo[8],

 atsižvelgdamas į savo 2018 m. rugsėjo 12 d. rezoliuciją dėl autonominių ginklų sistemų[9],

 atsižvelgdamas į savo 2018 m. rugsėjo 11 d. rezoliuciją dėl kalbų lygybės skaitmeniniame amžiuje[10],

 atsižvelgdamas į savo 2019 m. vasario 12 d. rezoliuciją dėl visapusiškos Europos pramonės politikos dirbtinio intelekto ir robotikos srityje[11],

 atsižvelgdamas į Komisijos sudarytos Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais 2019 m. balandžio 8 d. ataskaitą „Patikimo dirbtinio intelekto etikos gairės“,

 atsižvelgdamas į informacinius pranešimus ir tyrimus, parengtus Mokslo ir technologijų ateities komisijos (STOA) prašymu, vadovaujant Mokslinio perspektyvų tyrimo skyriui, priklausančiam Europos Parlamento tyrimų tarnybai, t. y. „O jeigu algoritmai galėtų laikytis etikos principų?“, „Dirbtinis intelektas ante portas: teisiniai ir etiniai pasvarstymai“, „Algoritmų atskaitomybės ir skaidrumo valdymo sistema“, „Ar turėtume bijoti dirbtinio intelekto?“ ir „Dirbtinio intelekto etika: iššūkiai ir iniciatyvos“,

 atsižvelgdamas į Europos Tarybos Tautinių mažumų apsaugos pagrindų konvenciją, Žmogaus teisių ir pagrindinių laisvių apsaugos konvencijos protokolą Nr. 12 ir Europos regioninių arba mažumų kalbų chartiją,

 atsižvelgdamas į 2019 m. gegužės 22 d. priimtą EBPO tarybos rekomendaciją dėl dirbtinio intelekto,

 atsižvelgdamas į Darbo tvarkos taisyklių 47 ir 54 straipsnius,

 atsižvelgdamas į Užsienio reikalų komiteto, Vidaus rinkos ir vartotojų apsaugos komiteto, Transporto ir turizmo komiteto, Piliečių laisvių, teisingumo ir vidaus reikalų komiteto, Užimtumo ir socialinių reikalų komiteto, Aplinkos, visuomenės sveikatos ir maisto saugos komiteto ir Kultūros ir švietimo komiteto nuomones,

 atsižvelgdamas į Teisės reikalų komiteto pranešimą (A9-0186/2020),

Įvadas

A. kadangi dirbtinį intelektą, robotiką ir susijusias technologijas kuria, diegia ir naudoja žmonės ir jų sprendimus lemia potenciali tokių technologijų nauda visuomenei;

B. kadangi dirbtinis intelektas, robotika ir susijusios technologijos, galintys suteikti galimybių įmonėms ir naudos piliečiams ir daryti tiesioginį poveikį visiems mūsų visuomenės aspektams, įskaitant pagrindines teises, socialinius ir ekonominius principus bei vertybes, taip pat daryti ilgalaikę įtaką visoms veiklos sritims, skatinami ir kuriami greitai;

C. kadangi dirbtinis intelektas, robotika ir susijusios technologijos iš esmės pakeis darbo rinką ir darbo vietas; kadangi šios technologijos turi potencialo pakeisti pasikartojančius veiksmus atliekančius darbuotojus, palengvinti žmogaus ir mašinos bendradarbiavimu grindžiamų darbo sistemų veikimą, užtikrinti didesnį konkurencingumą ir gerovę bei kurti naujas darbo galimybes kvalifikuotiems darbuotojams, kartu keldami didelių iššūkių, susijusių su darbo jėgos reorganizavimu;

D. kadangi dirbtinio intelekto, robotikos ir susijusių technologijų plėtra gali taip pat prisidėti siekiant Europos žaliojo kurso tvarumo tikslų daugelyje skirtingų sektorių; kadangi skaitmeninės technologijos gali padidinti politikos sričių poveikį, kiek tai susiję su aplinkos apsauga; kadangi jos taip pat gali padėti sumažinti eismo spūstis ir išmetamų šiltnamio efektą sukeliančių dujų ir oro teršalų kiekį;

E. kadangi tokiuose sektoriuose, kaip viešasis transportas, dirbtinio intelekto remiamos intelektinės transporto sistemos gali būti naudojamos siekiant sumažinti spūsčių skaičių, optimizuoti maršrutų parinkimą, sudaryti sąlygas neįgaliesiems būti labiau nepriklausomiems, ir padidinti energijos vartojimo efektyvumą, taip prisidedant prie pastangų mažinti priklausomybę nuo iškastinio kuro ir aplinkosauginį pėdsaką;

F. kadangi šios technologijos sukuria naujų verslo galimybių, kurios gali prisidėti prie Sąjungos pramonės atsigavimo po dabartinės sveikatos ir ekonomikos krizės, jei jomis bus aktyviau naudojamasi, pvz., transporto pramonėje; kadangi dėl tokių galimybių gali atsirasti naujų darbo vietų, nes šių technologijų diegimas turi potencialo padidinti įmonių produktyvumą ir prisidėti prie didesnio efektyvumo; kadangi šios srities inovacijų programos gali sudaryti sąlygas regioniniams klasteriams klestėti;

G. kadangi Sąjungai ir jos valstybėms narėms tenka ypatinga atsakomybė naudoti ir skatinti dirbtinį intelektą bei didinti jo pridėtinę vertę, taip pat užtikrinti, kad dirbtinio intelekto technologijos būtų saugios ir prisidėtų prie piliečių gerovės kūrimo ir bendrojo intereso tenkinimo, nes jos gali labai padėti siekti bendro tikslo – gerinti piliečių gyvenimą ir skatinti gerovę Sąjungoje, padėdamos kurti geresnes strategijas ir inovacijas daugelyje sričių ir sektorių; kadangi, norint panaudoti visą dirbtinio intelekto potencialą ir užtikrinti, kad naudotojai būtų informuoti apie dirbtinio intelekto technologijų teikiamą naudą ir jų keliamus iššūkius, dirbtinio intelekto ar skaitmeninio raštingumo klausimą būtina įtraukti į švietimo ir mokymo procesą, įskaitant skaitmeninės įtraukties skatinimą, taip pat rengti Sąjungos lygmens informavimo kampanijas, kurių metu būtų preciziškai paaiškinami visi dirbtinio intelekto kūrimo aspektai;

H. kadangi bendros Sąjungos nuostatos, reglamentuojančios dirbtinio intelekto, robotikos ir susijusių technologijų kūrimą, diegimą ir naudojimą (dirbtinio intelekto reguliavimo sistema), turėtų suteikti galimybę piliečiams dalytis jų teikiamais privalumais ir kartu apsaugoti juos nuo tokių technologijų galimai keliamos rizikos, taip pat skatinti tokių technologijų patikimumą Sąjungoje ir už jos ribų; kadangi ši sistema turėtų būti grindžiama Sąjungos teise ir vertybėmis ir remtis skaidrumo ir paaiškinamumo, sąžiningumo, atskaitomybės ir atsakomybės principais;

I. kadangi tokia reguliavimo sistema yra labai svarbi siekiant išvengti vidaus rinkos susiskaidymo, kurį lemia skirtingi nacionaliniai teisės aktai, ir padės skatinti labai reikalingas investicijas, plėtoti duomenų infrastruktūrą ir remti mokslinius tyrimus; kadangi ją turėtų sudaryti bendros teisinės prievolės ir etikos principai, išdėstyti prašomame pasiūlyme dėl reglamento, kuris pateikiamas šios rezoliucijos priede; kadangi ši sistema turėtų būti sukurta remiantis geresnio reglamentavimo gairėmis;

J. kadangi Sąjungoje galioja griežta teisinė sistema, kuria siekiama užtikrinti, inter alia, asmens duomenų ir privatumo apsaugą bei nediskriminavimą, skatinti lyčių lygybę, aplinkos apsaugą ir vartotojų teises; kadangi tokia teisinė sistemą, apimanti platų horizontaliųjų ir sektorių teisės aktų rinkinį, įskaitant galiojančias gaminių saugos ir atsakomybės taisykles, ir toliau bus taikoma dirbtiniam intelektui, robotikai ir susijusioms technologijoms, tačiau siekiant atspindėti skaitmeninę pertvarką ir spręsti naujus uždavinius, susijusius su dirbtinio intelekto naudojimu, gali reikėti atlikti tam tikrus specialių teisinių priemonių pakeitimus;

K. kadangi kyla abejonių dėl to, kad dabartinė Sąjungos teisinė sistema, įskaitant vartotojų apsaugos teisę bei užimtumo ir socialinę acquis, duomenų apsaugos teisės aktus, gaminių saugos ir rinkos priežiūros teisės aktus, taip pat kovos su diskriminacija teisės aktus, gali nebebūti tinkama siekiant veiksmingai spręsti su dirbtinio intelekto, robotikos ir susijusių technologijų keliama rizika susijusius klausimus;

L. kadangi, greta esamų teisės aktų pritaikymo, su dirbtinio intelekto technologijomis susiję teisiniai ir etiniai klausimai turėtų būti sprendžiami taikant veiksmingą, išsamią ir perspektyvią reguliavimo pagal Sąjungos teisę sistemą, kuri atspindėtų Sutartyse ir Pagrindinių teisių chartijoje įtvirtintus Sąjungos principus ir vertybes ir kuria turėtų būti atsisakoma perteklinio reglamentavimo ir tik panaikinamos esamos teisinės spragos, taip pat didinamas teisinis tikrumas įmonėms ir piliečiams, visų pirma nustatant privalomas priemones, kurios užkirstų kelią praktikai, neabejotinai kenkiančiai pagrindinėms teisėms ir laisvėms;

M. kadangi bet kokioje naujoje reguliavimo sistemoje reikia atsižvelgti į visus susijusius interesus; kadangi nuodugnus bet kokios naujos reguliavimo sistemos padarinių visiems veikėjams poveikio vertinimas turėtų būti būtina tolesnių teisėkūros veiksmų sąlyga; kadangi lemiamas mažųjų ir vidutinių įmonių (MVĮ) ir startuolių vaidmuo, ypač Sąjungos ekonomikoje, pagrindžia griežtai proporcingą požiūrį, kuris suteikia joms galimybę plėstis ir diegti inovacijas;

 

N. kadangi dirbtinis intelektas, robotika ir susijusios technologijos gali sukelti rimtų pasekmių materialiai ir nematerialiai asmenų, grupių ir visos visuomenės neliečiamybei ir dėl galimos pavienės ir kolektyvinės žalos turi būti imtasi atsakomųjų teisėkūros priemonių;

O. kadangi, siekiant laikytis Sąjungos dirbtinio intelekto reguliavimo sistemos, gali reikėti priimti konkrečias Sąjungos transporto sektoriaus taisykles;

P. kadangi dirbtinio intelekto technologijos yra strategiškai svarbios transporto sektoriui, dėl jų, be kita ko, didėja visų transporto rūšių sauga ir prieinamumas, kuriamos naujos užimtumo galimybės ir tvaresni verslo modeliai; kadangi Sąjungos požiūris į dirbtinio intelekto, robotikos ir susijusių technologijų plėtrą transporto srityje gali padidinti Sąjungos ekonomikos konkurencingumą pasaulyje ir jos strateginį savarankiškumą;

Q. kadangi 95 proc. visų eismo įvykių Sąjungoje vis dar susiję su žmogaus klaidomis; kadangi Sąjunga buvo išsikėlusi tikslą iki 2020 m. 50 proc. sumažinti kasmetinių žūčių keliuose skaičių, palyginti su 2010 m., o pažangai sustojus savo pastangas atnaujino parengdama 2021–2030 m. Sąjungos kelių eismo saugumo politikos programą „Tolesni žingsniai siekiant visiškai saugaus eismo vizijos“; kadangi šiuo atžvilgiu dirbtinis intelektas, automatizavimas ir kitos naujos technologijos turi didelį potencialą ir yra gyvybiškai svarbios didinant kelių eismo saugumą sumažindami žmogaus klaidų tikimybę;

R. kadangi Sąjungos dirbtinio intelekto reguliavimo sistema taip pat turėtų atspindėti poreikį užtikrinti, kad būtų paisoma darbuotojų teisių; kadangi reikėtų atsižvelgti į 2020 m. birželio mėn. Europos socialinių partnerių pagrindų susitarimą dėl skaitmeninimo;

S. kadangi Sąjungos dirbtinio intelekto reguliavimo sistemos taikymo sritis turėtų būti tinkama, proporcinga ir kruopščiai įvertinta; kadangi ji turėtų apimti įvairias technologijas ir jų komponentus, įskaitant algoritmus, programinę įrangą ir jų naudojamus arba sukurtus duomenis, todėl būtina taikyti rizika grindžiamą tikslinį požiūrį, kad būtų išvengta trukdžių diegiant būsimas inovacijas ir nereikalingos naštos sukūrimo, visų pirma MVĮ; kadangi dirbtinio intelekto, robotikos ir susijusių technologijų valdomų taikomųjų programų įvairovė apsunkina galimybę rasti vieną sprendimą, tinkantį visam rizikos spektrui;

T. kadangi duomenų analizė ir dirbtinis intelektas daro vis didesnį poveikį piliečiams prieinamai informacijai; kadangi tokios technologijos, jeigu jomis naudojamasi netinkamai, gali kelti pavojų pagrindinėms teisėms į saviraiškos laisvę ir informaciją, taip pat žiniasklaidos laisvei ir pliuralizmui;

U. kadangi Sąjungos dirbtinio intelekto reguliavimo sistemos geografinė aprėptis turėtų apimti visus Sąjungoje sukurtų, įdiegtų arba naudojamų dirbtinio intelekto, robotikos ir susijusių technologijų komponentus, įskaitant atvejus, kai dalis tokių technologijų gali būti už Sąjungos ribų arba nėra susieta su konkrečia vieta;

V. kadangi Sąjungos dirbtinio intelekto reguliavimo sistema turėtų apimti visus atitinkamus etapus, t. y. atitinkamų technologijų ir jų sudedamųjų dalių kūrimą, diegimą ir naudojimą, todėl reikia deramai atsižvelgti į atitinkamas teisines prievoles ir etikos principus, ir joje turėtų būti nustatytos sąlygos, kuriomis užtikrinama, kad kūrėjai, diegėjai ir naudotojai visapusiškai laikytųsi tokių prievolių ir principų;

W. kadangi norint laikytis suderinto požiūrio į etikos principus, taikomus dirbtiniam intelektui, robotikai ir susijusioms technologijoms, reikia užtikrinti, kad Sąjungoje būtų vienodai suprantamos sąvokos, kurios yra šių technologijų pagrindas, ir tokios sąvokos kaip algoritmai, programinė įranga, duomenys ar biometrinis atpažinimas;

X. kadangi Sąjungos lygmens veiksmai yra pagrįsti poreikiu vengti reglamentavimo skirtumų arba įvairių nacionalinių reglamentavimo nuostatų, kai nėra bendro standarto, ir užtikrinti, kad kuriant, diegiant ir naudojant didelės rizikos dirbtinį intelektą, robotiką ir susijusias technologijas būtų vienodai taikomi teisės aktuose įtvirtinti bendri etikos principai; kadangi tais atvejais, kai kyla didelė rizika, reikia taikyti aiškias taisykles;

Y. kadangi bendri etikos principai yra veiksmingi tik tada, kai jie yra įtvirtinti ir teisėje ir kai nustatomi subjektai, atsakingi už atitikties užtikrinimą, vertinimą ir stebėseną;

Z. kadangi etinės gairės, pvz., Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais priimti principai, yra tinkamas išeities taškas, tačiau jomis negali būti užtikrinama, kad kūrėjai, diegėjai ir naudotojai elgtųsi sąžiningai ir garantuotų veiksmingą asmenų apsaugą; kadangi tokios gairės yra dar svarbesnės kalbant apie didelės rizikos dirbtinį intelektą, robotiką ir susijusias technologijas;

AA. kadangi kiekviena valstybė narė turėtų paskirti nacionalinę priežiūros instituciją, atsakingą už didelės rizikos dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo atitikties Sąjungos dirbtinio intelekto reguliavimo sistemai užtikrinimą, vertinimą ir stebėseną; kadangi tokia institucija taip pat turėtų sudaryti sąlygas diskusijoms ir keitimuisi nuomonėmis glaudžiai bendradarbiaujant su atitinkamais suinteresuotaisiais subjektais ir pilietine visuomene; kadangi nacionalinės priežiūros institucijos turėtų bendradarbiauti tarpusavyje;

AB. kadangi, siekiant užtikrinti suderintą požiūrį visoje Sąjungoje ir optimalų bendrosios skaitmeninės rinkos veikimą, reikėtų įvertinti Komisijos ir (arba) bet kurios atitinkamos Sąjungos institucijos, įstaigos, organo ir agentūros, kurie gali būti paskirti atsakingais šioje srityje, Sąjungos lygmeniu vykdomą koordinavimą atsižvelgiant į naujas galimybes ir iššūkius, visų pirma tarpvalstybinio pobūdžio, kylančius dėl vykstančių technologinių pokyčių; kadangi šiuo tikslu Komisijai turėtų būti pavesta rasti tinkamą sprendimą dėl tokio koordinavimo Sąjungos lygmeniu struktūros;

Į žmogų orientuotas ir žmogaus sukurtas dirbtinis intelektas

1. mano, kad, nedarant poveikio konkretiems sektoriams taikomiems teisės aktams, būtina veiksminga ir suderinta reguliavimo sistema, grindžiama Sąjungos teise, Europos Sąjungos pagrindinių teisių chartija (toliau – Chartija) ir tarptautine žmogaus teisių teise ir taikytina visų pirma didelės rizikos technologijoms, siekiant visoje Sąjungoje nustatyti vienodus standartus ir veiksmingai apsaugoti Sąjungos vertybes;

2. mano, kad bet kokia nauja dirbtinio intelekto reguliavimo sistema, apimanti teisines prievoles ir etikos principus, taikomus kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, turėtų visapusiškai atitikti Chartiją, taigi turėtų būti gerbiamas žmogaus orumas, savarankiškumas ir asmens apsisprendimas, užkertamas kelias žalai, skatinamas sąžiningumas, įtrauktis ir skaidrumas, naikinamas šališkumas ir diskriminacija, įskaitant kovą su mažumų diskriminacija, taip pat turėtų būti laikomasi ir paisoma principų, pagal kuriuos ribojamas neigiamas naudojamos technologijos išorinis poveikis, užtikrinamas technologijos paaiškinamumas ir garantuojama, kad technologijos teiktų naudą žmonėms, o ne juos pakeistų arba priimtų sprendimus vietoje jų, siekiant galutinio tikslo kiekvienam žmogui užtikrinti didesnę gerovę;

3. pabrėžia asimetriją tarp dirbtinio intelekto technologijas naudojančių subjektų ir tų subjektų, kurie su jomis sąveikauja ir kuriems jos taikomos; atsižvelgdamas į tai, pabrėžia, kad piliečių pasitikėjimas dirbtiniu intelektu gali būti grindžiamas tik standartizuotosios etikos ir integruotosios etikos reguliavimo sistema, kuria užtikrinama, kad bet koks pradėtas naudoti dirbtinis intelektas visapusiškai paisytų ir laikytųsi Sutarčių, Chartijos ir antrinės Sąjungos teisės; mano, kad laikantis tokio požiūrio kaip pagrindo turėtų būti užtikrinama atitiktis atsargumo principui, kuriuo grindžiami Sąjungos teisės aktai, ir tai turėtų būti bet kokios dirbtinio intelekto reguliavimo sistemos pagrindas; šiuo atžvilgiu ragina sukurti aiškų ir nuoseklų valdymo modelį, kuris sudarytų sąlygas įmonėms ir inovatoriams toliau kurti dirbtinį intelektą, robotiką ir susijusias technologijas;

4. mano, kad bet kokie teisėkūros veiksmai dirbtinio intelekto, robotikos ir susijusių technologijų klausimais turėtų atitikti būtinumo ir proporcingumo principus;

5.  mano, kad toks požiūris sudarys sąlygas įmonėms pateikti rinkai novatoriškus produktus ir suteikti naujų galimybių, kartu užtikrinant Sąjungos vertybių apsaugą, skatinant kurti dirbtinio intelekto sistemas, apimančias integruotosios Sąjungos etikos principus; mano, kad tokia vertybėmis grindžiama reguliavimo sistema sukurtų pridėtinę vertę, suteikdama Sąjungai unikalų konkurencinį pranašumą, ir reikšmingai prisidėtų prie Sąjungos piliečių ir įmonių gerovės bei klestėjimo, skatindama vidaus rinkos plėtojimą; pabrėžia, kad tokia dirbtinio intelekto sistema taip pat suteiks pridėtinę vertę skatinant inovacijų diegimą rinkoje; mano, kad, pvz., transporto sektoriuje šis požiūris suteikia Sąjungos įmonėms galimybę tapti pasauliniais lyderiais šioje srityje;

6. pažymi, kad Sąjungos teisinė sistema turėtų būti taikoma dirbtiniam intelektui, robotikai ir susijusioms technologijoms, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas;

7. pažymi, kad dirbtiniu intelektu, robotika ir susijusiomis technologijomis grindžiamos galimybės priklauso nuo didžiųjų duomenų ir kad norint lavinti algoritmus bei tobulinti rezultatus būtina kritinė duomenų masė; šiuo požiūriu teigiamai vertina Komisijos pasiūlymą sukurti bendrą Sąjungos duomenų erdvę, siekiant stiprinti duomenų mainus ir remti mokslinius tyrimus visapusiškai laikantis Europos duomenų apsaugos taisyklių;

8. mano, kad dabartinė Sąjungos teisinė sistema, visų pirma susijusi su apsauga ir privatumu bei asmens duomenimis, turės būti visapusiškai taikoma dirbtiniam intelektui, robotikai ir susijusioms technologijoms, ji turės būti reguliariai peržiūrima, tikrinama ir prireikus atnaujinama, siekiant veiksmingai kovoti su rizika, kurią kelia šios technologijos, todėl galėtų būti tikslinga ją papildyti tvirtais pagrindiniais etikos principais; atkreipia dėmesį į tai, kad tais atvejais, kai būtų per anksti priimti teisės aktus, reikėtų pasitelkti privalomos teisinės galios neturinčias priemones;

9. tikisi, kad Komisija, atsižvelgdama į Baltąją knygą dėl dirbtinio intelekto, patikimą etinį požiūrį įtrauks į prašomą pasiūlymą dėl teisėkūros procedūra priimamo akto, kuris pateikiamas šios rezoliucijos priede, įskaitant saugumo, atsakomybės ir pagrindinių teisių aspektus, kuriais sukuriamos didžiausios įmanomos galimybės ir kuo labiau sumažinama dirbtinio intelekto technologijų keliama rizika; tikisi, kad prašomame pasiūlyme dėl teisėkūros procedūra priimamo akto bus numatyti politiniai sprendimo būdai, skirti pagrindinei pripažintai dirbtinio intelekto keliamai rizikai pašalinti, be kita ko, įskaitant etišką didžiųjų duomenų rinkimą ir naudojimą, algoritmų skaidrumo ir algoritminio šališkumo problemą; ragina Komisiją parengti dirbtinio intelekto technologijos ženklinimo kriterijus ir rodiklius siekiant skatinti skaidrumą, paaiškinamumą ir atskaitomybę, taip pat skatinti kūrėjus imtis papildomų atsargumo priemonių; pabrėžia, kad reikia investuoti į netechninių disciplinų integravimą į dirbtinio intelekto tyrimus ir mokslinius tyrimus, atsižvelgiant į socialinį kontekstą;

10. mano, kad dirbtinis intelektas, robotika ir susijusios technologijos turi būti pritaikyti prie žmonių poreikių laikantis principo, pagal kurį jų kūrimas, diegimas ir naudojimas visada turėtų būti naudingi žmonėms, o ne atvirkščiai, ir jais turėtų būti siekiama didinti gerovę ir asmens laisvę, taip pat išsaugoti taiką, užkirsti kelią konfliktams ir stiprinti tarptautinį saugumą, kartu kuo labiau didinant jų teikiamą naudą ir užkertant kelią su jais susijusiai rizikai bei ją mažinant;

11. pareiškia, kad kuriant, diegiant ir naudojant didelės rizikos dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant atvejus, kai tai daro žmogus, bet jais neapsiribojant, turėtų būti visada vadovaujamasi etikos principais ir visais atvejais projektuojant turėtų būti užtikrinama pagarba ir sudaromos sąlygos žmogiškajam veiksniui ir demokratinei priežiūrai, taip pat numatoma galimybė prireikus susigrąžinti žmogaus vykdomą kontrolę, įgyvendinant tinkamas kontrolės priemones;

Rizikos vertinimas

12. pabrėžia, kad bet kokiu būsimu reguliavimo aktu turėtų sudaryti sąlygas laikytis diferencijuoto ir į ateitį orientuoto rizika grindžiamo požiūrio į dirbtinio intelekto, robotikos ir susijusių technologijų reguliavimą, įskaitant technologijų atžvilgiu neutralius standartus visuose sektoriuose, prireikus nustatant konkretiems sektoriams skirtus standartus; pažymi, jog siekiant užtikrinti vienodą rizikos vertinimo sistemos įgyvendinimą ir susijusių teisinių prievolių laikymąsi, kad būtų galima sudaryti vienodas sąlygas valstybėse narėse ir užkirsti kelią vidaus rinkos susiskaidymui, reikia išsamaus ir kumuliacinio didelės rizikos sektorių ir didelės rizikos naudojimo būdų ar paskirčių sąrašo; pabrėžia, kad toks sąrašas turi būti reguliariai iš naujo vertinamas, ir pažymi, kad, atsižvelgiant į kintantį šių technologijų pobūdį, ateityje gali reikėti iš naujo įvertinti, kaip atliekamas jų rizikos vertinimas;

13. mano, kad nustatant, ar dirbtinis intelektas, robotika ir susijusios technologijos turėtų būti laikomi keliančiais didelę riziką ir todėl jiems turėtų būti taikomas privalomo teisinių prievolių ir etikos principų laikymosi reikalavimas, kaip nustatyta dirbtinio intelekto reguliavimo sistemoje, visada turėtų būti atliekamas nešališkas, reguliuojamas ir išorinis ex ante vertinimas, grindžiamas konkrečiais ir apibrėžtais kriterijais;

14. atsižvelgdamas į tai, mano, kad dirbtinis intelektas, robotika ir susijusios technologijos turėtų būti laikomi keliančiais didelę riziką, jei jų kūrimas, diegimas ir naudojimas kelia didelį pavojų, kad asmenys gali būti sužaloti ar kad jiems ar visuomenei gali būti padaryta žala pažeidžiant Sąjungos teisėje nustatytas pagrindines teises ir saugos taisykles; mano, kad atliekant vertinimą, ar dirbtinio intelekto technologijos kelia tokią riziką, reikėtų atsižvelgti į sektorių, kuriame jos kuriamos, diegiamos ar naudojamos, jų konkretų naudojimą ar paskirtį ir sužalojimo ar žalos, kurios galima tikėtis, sunkumą; pirmasis ir antrasis kriterijai, t. y. sektorius ir konkretus naudojimas ar paskirtis, turėtų būti vertinami kaip kumuliaciniai kriterijai;

15. pabrėžia, kad šių technologijų rizikos vertinimas turėtų būti atliekamas remiantis išsamiu ir kumuliaciniu didelės rizikos sektorių ir didelės rizikos naudojimo būdų bei paskirčių sąrašu; yra tvirtai įsitikinęs, kad Sąjungoje šių technologijų rizikos vertinimas turėtų būti nuoseklus, ypač kai jos vertinamos atsižvelgiant į tai, ar jos atitinka dirbtinio intelekto reguliavimo sistemą ir ar laikomasi visų kitų taikomų konkretiems sektoriams skirtų teisės aktų;

16. mano, kad šis rizika grindžiamas požiūris turėtų būti parengtas taip, kad būtų kuo labiau sumažinta administracinė našta įmonėms, ypač MVĮ, naudojant esamas priemones; tokios priemonės apima duomenų apsaugos poveikio vertinimo sąrašą, pateiktą Reglamente (ES) 2016/679, tačiau juo neapsiriboja;

Saugos priemonės, skaidrumas ir atskaitomybė

17. primena, kad vartotojų teisė į informaciją yra įtvirtinta kaip vienas pagrindinių Sąjungos teisės principų, ir pabrėžia, kad dėl to ji turėtų būti visapusiškai įgyvendinta dirbtinio intelekto, robotikos ir susijusių technologijų srityje; mano, kad ši teisė visų pirma turėtų apimti skaidrumą, susijusį su sąveika su dirbtinio intelekto sistemomis, įskaitant automatizavimo procesus, ir su jų veikimo būdu, pajėgumais (pvz., informacijos filtravimo ir pateikimo būdais), tikslumu ir apribojimais; mano, kad tokia informacija turėtų būti teikiama nacionalinėms priežiūros institucijoms ir nacionalinėms vartotojų apsaugos institucijoms;

18. pabrėžia, kad kuriant ir įgyvendinant šias technologijas, kurios gali būti rizikos šaltinis, jei jos pagrįstos neskaidriais algoritmais ir šališkais duomenų rinkiniais, yra labai svarbus vartotojų pasitikėjimas; mano, kad vartotojai turi turėti teisę būti suprantamu, savalaikiu, standartizuotu, tiksliu ir prieinamu būdu informuojami apie algoritmų sistemų egzistavimą, pagrindimą, galimus rezultatus ir poveikį vartotojams, apie tai, kaip susisiekti su sprendimus priimančiu asmeniu ir kaip galima patikrinti, veiksmingai užginčyti ir ištaisyti sistemos sprendimus; atsižvelgdamas į tai pabrėžia, kad reikia apsvarstyti informavimo ir informacijos atskleidimo principus, kuriais grindžiama vartotojų acquis, ir jų laikytis; mano, kad galutiniams naudotojams būtina pateikti išsamią informaciją apie transporto sistemų ir dirbtino intelekto remiamų transporto priemonių veikimą;

19. pažymi, jog labai svarbu, kad algoritmai ir duomenų rinkiniai, naudojami arba kuriami dirbtinio intelekto, robotikos ir susijusių technologijų, būtų paaiškinami ir tais atvejais, kai tai tikrai būtina ir visiškai laikomasi Sąjungos teisės aktų dėl duomenų apsaugos, privatumo, intelektinės nuosavybės teisių ir komercinių paslapčių, būtų prieinami valdžios institucijoms, pvz., nacionalinėms priežiūros institucijoms ir rinkos priežiūros institucijoms; be to, pažymi, kad laikantis kuo aukštesnių taikytinų pramonės standartų tokius dokumentus turėtų saugoti subjektai, kurie dalyvauja skirtinguose didelės rizikos technologijų kūrimo etapuose; pažymi, kad rinkos priežiūros institucijos gali turėti papildomų prerogatyvų šioje srityje; atsižvelgdamas į tai, pabrėžia teisėtos apgrąžos inžinerijos vaidmenį; mano, kad gali reikėti išnagrinėti galiojančius rinkos priežiūros teisės aktus siekiant užtikrinti, jog etiniu požiūriu jie atitiktų dirbtinio intelekto, robotikos ir susijusių technologijų atsiradimą;

20. ragina reikalauti, kad didelės rizikos technologijų kūrėjai ir diegėjai, kai tai nurodoma rizikos vertinime, valdžios institucijoms pateiktų atitinkamus naudojimo ir projektavimo dokumentus bei saugos instrukcijas, įskaitant, kai tai tikrai būtina ir visapusiškai laikantis Sąjungos teisės aktų dėl duomenų apsaugos, privatumo, intelektinės nuosavybės teisių ir komercinių paslapčių, pradinį kodą, kūrimo priemones ir sistemos naudojamus duomenis; pažymi, kad nustačius tokią prievolę būtų galima įvertinti jų atitiktį Sąjungos teisei ir etikos principams, ir šiuo atžvilgiu atkreipia dėmesį į teisėto nacionalinės bibliotekos leidinių deponavimo pavyzdį; atkreipia dėmesį į svarbų algoritmų skaidrumo ir algoritmų naudojimo skaidrumo skirtumą;

21. taip pat pažymi, kad, siekiant gerbti žmogaus orumą, savarankiškumą ir saugumą, reikėtų tinkamai atsižvelgti į gyvybiškai svarbius ir pažangius medicinos prietaisus ir į tai, kad nepriklausomos patikimos institucijos turi išlaikyti būtinas priemones, kad galėtų teikti paslaugas šiuos prietaisus turintiems asmenims, kai pirminis kūrėjas ar diegėjas jų nebetiekia; tokios paslaugos, pvz., apimtų techninę priežiūrą, taisymą ir patobulinimus, įskaitant programinės įrangos atnaujinimus, kuriais pašalinamos triktys ir trūkumai;

22. tvirtina, kad didelės rizikos dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, naudojamus ar kuriamus tokių technologijų, neatsižvelgiant į jų kūrimo, diegimo ir naudojimo sritį, turėtų būti kuriami juos projektuojant saugiu, atsekamu, techniškai tvariu, patikimu, etišku būdu, taikant teisiškai privalomas nuostatas, ir jiems turėtų būti taikoma nepriklausoma kontrolė ir priežiūra; visų pirma mano, kad visi dirbtinio intelekto produktų ir paslaugų kūrimo ir tiekimo grandinių dalyviai turėtų būti teisiškai atsakingi, ir pabrėžia, kad reikalingi mechanizmai, kuriais būtų užtikrinta atsakomybė ir atskaitomybė;

23. pabrėžia, kad reguliavimo nuostatos ir gairės, susijusios su paaiškinamumu, patikrinamumu, atsekamumu ir skaidrumu, taip pat, kai to reikalaujama atsižvelgiant į rizikos vertinimą ir tikrai būtina, visapusiškai laikantis Sąjungos teisės aktų dėl duomenų apsaugos, privatumo, intelektinės nuosavybės teisių ir komercinių paslapčių, valdžios institucijų prieiga prie technologijų, duomenų ir kompiuterinių sistemų, kuriomis grindžiamos tokios technologijos, yra labai svarbios siekiant užtikrinti piliečių pasitikėjimą šiomis technologijomis, net jei paaiškinamumo lygis dėl šių technologijų sudėtingumo yra sąlyginis; pabrėžia, kad ne visada įmanoma paaiškinti, kodėl modelis lėmė tam tikrą rezultatą ar sprendimą, ir šiuo atveju tam tikras pavyzdys – vadinamieji juodosios dėžės algoritmai; todėl mano, kad šių principų laikymasis yra išankstinė sąlyga siekiant užtikrinti atskaitomybę;

24. mano, kad piliečiai, įskaitant vartotojus, turėtų būti informuojami, kai sąveikauja su dirbtinį intelektą naudojančia sistema, ypač siekiant pritaikyti produktą ar paslaugą asmeniniams jų naudotojų poreikiams, ir tai, ar ir kaip jie gali išjungti ar apriboti personalizavimą;

25. šiuo atžvilgiu pažymi, jog norint, kad būtų pasitikima dirbtiniu intelektu, robotika ir susijusiomis technologijomis, jie turi būti techniškai tvarūs ir tikslūs;

26. pabrėžia, kad tarpusavyje susietų dirbtinio intelekto ir robotikos tinklų apsauga yra svarbi ir turi būti imtasi griežtų priemonių siekiant užkirsti kelią saugumo pažeidimams, duomenų nutekėjimui, duomenų užkrėtimui, kibernetiniams išpuoliams ir netinkamam asmens duomenų naudojimui; siekiant šio tikslo reikia, jog atitinkamos agentūros, įstaigos ir institucijos Europos ir nacionaliniu lygmenimis dirbtų kartu ir bendradarbiautų su galutiniais šių technologijų naudotojais; ragina Komisiją ir valstybes nares užtikrinti, kad kuriant ir diegiant dirbtinio intelekto technologijas visada būtų laikomasi Sąjungos vertybių ir gerbiamos pagrindinės teisės, siekiant užtikrinti Sąjungos skaitmeninės infrastruktūros saugumą ir atsparumą;

Nešališkumas ir nediskriminavimas

27. primena, kad dirbtinis intelektas, priklausomai nuo to, kaip jis kuriamas ir naudojamas, gali sukurti ir sustiprinti šališkumą, be kita ko, pagrindiniams duomenų rinkiniams būdingą šališkumą, ir taip lemti įvairių formų automatizuotą diskriminaciją, įskaitant netiesioginę diskriminaciją, visų pirma susijusią su panašių savybių turinčių asmenų grupėmis; ragina Komisiją ir valstybes nares imtis visų įmanomų priemonių siekiant išvengti tokio šališkumo ir užtikrinti visapusišką pagrindinių teisių apsaugą;

28. yra susirūpinęs dėl šališkumo ir diskriminacijos rizikos kuriant, diegiant ir naudojant didelės rizikos dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas; primena, kad visais atvejais jais turėtų būti užtikrinama atitiktis Sąjungos teisei, taip pat gerbiamos žmogaus teisės ir orumas, asmens savarankiškumas ir apsisprendimas, taip pat garantuojamas vienodas požiūris į visus ir nediskriminavimas;

29. pabrėžia, kad dirbtinio intelekto technologijos turėtų būti sukurtos taip, kad būtų gerbiamos ir saugomos Sąjungos vertybės ir prisidedama prie jų propagavimo, taip pat saugoma fizinė ir psichinė neliečiamybė, išlaikoma Sąjungos kultūrų ir kalbų įvairovė ir padedama tenkinti pagrindinius poreikius; pabrėžia, kad reikia vengti bet kokio naudojimo, kuris gali lemti nepriimtiną tiesioginę ar netiesioginę prievartą, kelti grėsmę psichologiniam savarankiškumui ir psichinei sveikatai arba lemti nepagrįstą priežiūrą, apgaulę ar neleistiną manipuliavimą;

30. yra tvirtai įsitikinęs, kad turėtų būti griežtai laikomasi Chartijoje įtvirtintų pagrindinių žmogaus teisių, siekiant užtikrinti, kad dėl šių besiformuojančių technologijų neatsirastų apsaugos spragų;

31. patvirtina, kad galimas šališkumas ir diskriminavimas pasitelkiant programinę įrangą, algoritmus ir duomenis gali padaryti akivaizdžią žalą asmenims ir visuomenei, todėl į juos reikėtų atkreipti dėmesį skatinant rengti strategijas ir jomis dalijantis, kad būtų su tuo kovojama, pvz., šalinant duomenų rinkinių šališkumą mokslinių tyrimų ir plėtros srityje, taip pat sukuriant duomenų tvarkymo taisykles; mano, kad taikant šį metodą programinė įranga, algoritmai ir duomenys gali tapti ištekliumi kovojant su šališkumo ir diskriminacijos reiškiniais tam tikrose situacijose ir teigiama socialinių pokyčių jėga;

32. teigia, kad etinės sąžiningumo, tikslumo, konfidencialumo ir skaidrumo vertybės turėtų būti šių technologijų pagrindas, o tai reiškia, kad jų veikla turi būti tokia, kad negalėtų sukurti šališkų rezultatų;

33. pabrėžia dirbtinio intelekto, robotikos ir susijusių technologijų naudojamų duomenų rinkinių kokybės svarbą, priklausomai nuo jų konteksto, ypač atsižvelgiant į mokymosi duomenų reprezentatyvumą, duomenų rinkinių šališkumo šalinimą, taip pat naudojamus algoritmus ir duomenų bei agregavimo standartus; pabrėžia, kad šiuos duomenų rinkinius turėtų tikrinti nacionalinės priežiūros institucijos, kai joms reikia užtikrinti šių rinkinių atitiktį pirmiau nurodytiems principams;

34. pabrėžia, kad, atsižvelgiant į plačiai paplitusį dezinformacijos karą, kurį visų pirma kelia ne Europos subjektai, dirbtinio intelekto technologijos gali turėti etiniu požiūriu neigiamą poveikį, trečiajai šaliai išnaudojant duomenų ir algoritmų šališkumą arba tyčia keičiant savimokos duomenis, taip pat jos gali būti veikiamos kitų formų pavojingų piktavališkų manipuliacijų nenuspėjamais būdais ir su neprognozuojamomis pasekmėmis; todėl Sąjungai vis labiau reikia toliau investuoti į mokslinius tyrimus, analizę, inovacijas ir tarpvalstybinį bei tarpsektorinį žinių perdavimą, kad būtų plėtojamos dirbtinio intelekto technologijos, kurios būtų akivaizdžiai nesusijusios su jokiu profiliavimu, šališkumu ir diskriminacija ir galėtų veiksmingai prisidėti prie kovos su melagingomis naujienomis ir dezinformacija, sykiu gerbiant duomenų privatumą ir Sąjungos teisinę sistemą;

35. primena, kad svarbu užtikrinti asmenims veiksmingas teisių gynimo priemones, ir ragina valstybes nares užtikrinti, kad būtų galima naudotis prieinamomis, įperkamomis, nepriklausomomis ir veiksmingomis procedūromis ir peržiūros mechanizmais siekiant garantuoti nešališką visų skundų dėl piliečių turimų teisių, pvz., vartotojų ar pilietinių teisių, pažeidimų naudojant algoritmų sistemas peržiūrą, kurią atliktų žmogus, neatsižvelgiant į tai, ar tokius skundus pateikė viešojo, ar privačiojo sektoriaus subjektai; pabrėžia Europos Parlamento ir Tarybos direktyvos dėl atstovaujamųjų ieškinių siekiant apsaugoti kolektyvinius vartotojų interesus, kuria panaikinama Direktyva 2009/22/EB, projekto, dėl kurio 2020 m. birželio 22 d. buvo pasiektas politinis susitarimas, svarbą, turint omenyje būsimas bylas siekiant užginčyti dirbtinio intelekto sistemos, galinčios pažeisti vartotojų teises, diegimą ar nuolatinį naudojimą arba ištaisyti teisių pažeidimą; prašo Komisijos ir valstybių narių užtikrinti, kad nacionalinės ir Sąjungos vartotojų organizacijos turėtų pakankamą finansavimą, kad galėtų padėti vartotojams pasinaudoti savo teise į teisinės gynybos priemonę tais atvejais, kai pažeidžiamos jų teisės;

36. atsižvelgdamas į tai, mano, kad bet kuris fizinis ar juridinis asmuo turėtų galėti kreiptis dėl žalos atlyginimo, susijusio su dirbtinio intelekto, robotikos ar susijusios technologijos jo nenaudai priimtu sprendimu, kuriuo pažeidžiama Sąjungos ar nacionalinė teisė;

37 mano, kad vartotojai taip pat galėtų kreiptis į nacionalines priežiūros institucijas, kaip pirmąjį kontaktinį subjektą įtariamų Sąjungos reguliavimo sistemos pažeidimų atvejais, prašydami apginti jų teises, kad būtų užtikrintas veiksmingas minėtos sistemos įgyvendinimas;

Socialinė atsakomybė ir lyčių pusiausvyra

38. pabrėžia, kad socialiniu požiūriu atsakingas dirbtinis intelektas, robotika ir susijusios technologijos turi padėti rasti sprendimus, kuriais siekiama apsaugoti ir skatinti pagrindines teises ir mūsų visuomenės vertybes, pvz., demokratiją, teisinę valstybę, įvairią ir nepriklausomą žiniasklaidą, objektyvią ir laisvai prieinamą informaciją, sveikatos apsaugą ir ekonominę gerovę, lygias galimybes, darbuotojų ir socialines teises, kokybišką švietimą, vaikų apsaugą, kultūrų ir kalbų įvairovę, lyčių lygybę, skaitmeninį raštingumą, inovacijas ir kūrybiškumą; primena, jog būtina užtikrinti, kad būtų tinkamai atsižvelgiama į visų piliečių, įskaitant marginalizuotus arba pažeidžiamoje padėtyje esančius asmenis, pvz., neįgaliuosius, interesus ir jiems būtų atstovaujama;

39. pabrėžia, kad svarbu pasiekti aukšto lygio bendrą skaitmeninį raštingumą ir rengti šios srities aukštos kvalifikacijos specialistus, taip pat visoje Sąjungoje užtikrinti tokių kvalifikacijų tarpusavio pripažinimą; pažymi, kad būtina turėti skirtingas kūrėjų ir inžinierių grupes, kurios dirbtų kartu su pagrindiniais visuomenės veikėjais, siekiant išvengti netyčinio šališkumo lyčių ir kultūrų atžvilgiu įtraukimo į dirbtinio intelekto algoritmus, sistemas ir taikomąsias programas; pritaria švietimo programų kūrimui ir visuomenės informavimo veiklai, susijusiai su socialiniu, teisiniu ir etiniu dirbtinio intelekto poveikiu;

40. pabrėžia, kad labai svarbu garantuoti minties ir saviraiškos laisvę ir taip užtikrinti, kad šios technologijos neskatintų neapykantą kurstančių kalbų ar smurto, todėl mano, kad pagal pagrindinius Sąjungos principus trukdymas naudotis skaitmeniniu būdu įgyvendinamai saviraiškos laisvei arba jos ribojimas yra neteisėtas, išskyrus atvejus, kai naudojimasis šia pagrindine teise apima neteisėtus veiksmus;

41. pabrėžia, kad dirbtinis intelektas, robotika ir susijusios technologijos gali padėti mažinti socialinę nelygybę, ir tvirtina, kad Europos modelis, kuriuo siekiama skatinti jų kūrimą, turi būti grindžiamas piliečių pasitikėjimu ir didesne socialine sanglauda;

42. pabrėžia, kad diegiant bet kokią dirbtinio intelekto sistemą neturėtų būti nepagrįstai ribojama naudotojų prieiga prie viešųjų paslaugų, pvz., socialinės apsaugos; todėl ragina Komisiją įvertinti, kaip būtų galima pasiekti šį tikslą;

43. pabrėžia, kokie svarbūs atsakingi mokslinai tyrimai ir plėtra, siekiant kuo labiau išnaudoti visą dirbtinio intelekto, robotikos ir susijusių technologijų potencialą piliečių ir visuomenės labui; ragina sutelkti Sąjungos ir jos valstybių narių išteklius siekiant kurti ir remti atsakingas inovacijas;

44. pabrėžia, kad technologiniai įgūdžiai bus vis svarbesni ir todėl reikės nuolat atnaujinti mokymo programas, visų pirma skirtas būsimoms kartoms, ir skatinti dabartinių darbo rinkos dalyvių profesinį perkvalifikavimą; atsižvelgdamas į tai, tvirtina, kad inovacijos ir mokymai turėtų būti skatinami ne tik privačiajame, bet ir viešajame sektoriuje;

45. primygtinai tvirtina, kad kuriant, diegiant ir naudojant šias technologijas jokie asmenys neturėtų patirti sužalojimo ir jiems, visuomenei ar aplinkai neturėtų būti sukelta jokios žalos ir kad atitinkamai šių technologijų kūrėjai, diegėjai ir naudotojai turėtų būti laikomi atsakingais už tokį sužalojimą ar žalą pagal atitinkamas Sąjungos ir nacionalines atsakomybės taisykles;

46. ragina valstybes nares įvertinti, ar darbo vietų praradimas dėl šių technologijų diegimo turėtų lemti tinkamą viešąją politiką, pvz., darbo laiko sutrumpinimą;

47. teigia, kad, siekiant sudaryti sąlygas plačiam visuomenės pritarimui dirbtiniam intelektui, robotikai ir susijusioms technologijoms, labai reikalingas Sąjungos vertybėmis ir etikos principais pagrįstas projektavimo metodas; mano, kad šis požiūris, pagal kurį siekiama kurti patikimą, etiškai atsakingą ir techniškai patvarų dirbtinį intelektą, yra svarbus veiksnys siekiant tvaraus, pažangaus, saugaus ir prieinamo judumo;

48. atkreipia dėmesį į didelę autonominių transporto priemonių pridėtinę vertę riboto judumo asmenims, nes tokios transporto priemonės leidžia tokiems asmenims veiksmingiau naudotis asmeniniu kelių transportu ir taip palengvina jų kasdienį gyvenimą; pabrėžia prieinamumo svarbą, ypač kuriant paslauginio judumo (angl. Mobility as a Service, MaaS) sistemas;

49. ragina Komisiją toliau remti patikimo dirbtinio intelekto sistemų kūrimą, kad transportas taptų saugesnis, veiksmingesnis, prieinamesnis, įperkamesnis ir įtraukesnis, be kita ko, riboto judumo asmenims, ypač neįgaliesiems, atsižvelgiant į Europos Parlamento ir Tarybos direktyvą (ES) 2019/882 ir į Sąjungos teisės aktus dėl keleivių teisių;

50. mano, kad dirbtinis intelektas gali būti naudingas siekiant geriau panaudoti neįgaliųjų įgūdžius ir kompetencijas ir kad dirbtinio intelekto taikymas darbo vietose gali padėti užtikrinti darbo rinkų įtraukumą ir didesnį neįgaliųjų užimtumo lygį;

Aplinka ir tvarumas

51. teigia, kad valdžios institucijos ir verslo įmonės turėtų naudoti dirbtinį intelektą, robotiką ir susijusias technologijas taip, kad jie būtų naudingi žmonėms ir planetai, padėtų siekti darnaus vystymosi, aplinkos išsaugojimo, neutralaus poveikio klimatui ir žiedinės ekonomikos tikslų; kuriant, diegiant ir naudojant šias technologijas turėtų būti padedama siekti žaliosios pertvarkos, tausojama aplinka ir dedamos pastangos kuo labiau sumažinti aplinkai per visą jų eksploatavimo ciklą ir visoje jų tiekimo grandinėje daromą žalą bei ją pašalinti, laikantis Sąjungos teisės;

52. atsižvelgiant į didelį dirbtinio intelekto, robotikos ir susijusių technologijų poveikį aplinkai, ankstesnės dalies tikslais, kai reikia ir tinkama, konkretaus sektoriaus institucijos galėtų įvertinti šių technologijų kūrimo, diegimo ir naudojimo poveikį aplinkai per visą jų eksploatavimo ciklą; toks vertinimas galėtų apimti reikalingų medžiagų gavybos poveikio įvertinimą, energijos suvartojimą ir išmetamą šiltnamio efektą sukeliančių dujų kiekį, susijusį su jų kūrimu, diegimu ir naudojimu;

53. siūlo kuriant atsakingus pažangiausius dirbtinio intelekto sprendimus ištirti, skatinti ir kuo labiau padidinti dirbtinio intelekto, robotikos ir susijusių technologijų potencialą, atsakingai vykdant mokslinius tyrimus ir plėtrą, o tam reikia sutelkti Sąjungos ir jos valstybių narių išteklius;

54. pabrėžia, kad šių technologijų kūrimas, diegimas ir naudojimas suteikia galimybių skatinti Jungtinių Tautų nustatytus darnaus vystymosi tikslus, pasaulinę energetikos pertvarką ir priklausomybės nuo iškastinio kuro mažinimą;

55. mano, kad socialinės atsakomybės, lyčių pusiausvyros, aplinkos apsaugos ir tvarumo tikslais neturėtų būti pažeidžiami šiose srityse taikomi bendrieji ir sektorių įsipareigojimai; mano, kad turėtų būti nustatytos neprivalomos įgyvendinimo gairės, skirtos kūrėjams, diegėjams ir naudotojams, ypač didelės rizikos technologijų atveju, ir susijusios su jų atitikties šiam reglamentui ir šių tikslų pasiekimo vertinimo metodika;

56. ragina Sąjungą skatinti ir finansuoti į žmogų sutelkto dirbtinio intelekto, robotikos ir susijusių technologijų, kurie padėtų spręsti aplinkos ir klimato uždavinius ir užtikrintų pagrindinių teisių laikymąsi, kūrimą taikant mokestines, viešųjų pirkimų ar kitas paskatas;

57. pabrėžia, kad, nepaisant dabartinio didelio anglies pėdsako kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant automatizuotus sprendimus ir mašinų mokymąsi, šios technologijos gali padėti sumažinti dabartinį IRT sektoriaus aplinkosauginį pėdsaką; pabrėžia, kad šios ir kitos tinkamai reglamentuojamos susijusios technologijos turėtų būti esminiai veiksniai, kuriuos pasitelkus būtų įgyvendinami Žaliojo kurso tikslai, JT darnaus vystymosi tikslai ir Paryžiaus susitarimas daugelyje skirtingų sektorių, taip pat jie turėtų padidinti politikos, kuria užtikrinama aplinkos apsauga, pvz., politikos, taikomos atliekų mažinimo ir kovos su aplinkos būklės blogėjimu srityse, poveikį;

58. ragina Komisiją atlikti tyrimą dėl dirbtinio intelekto technologijų anglies pėdsako poveikio ir įvertinti vartotojų perėjimo prie dirbtinio intelekto technologijų naudojimo teigiamą ir neigiamą poveikį;

59. pažymi, kad, atsižvelgiant į vis didesnę dirbtinio intelekto taikomųjų programų, kurioms reikalingi kompiuteriniai, saugojimo ir energijos ištekliai, plėtrą, dirbtinio intelekto sistemų poveikis aplinkai turėtų būti vertinamas per visą jų eksploatavimo ciklą;

60. mano, kad tokiose srityse kaip sveikata atsakomybę galiausiai turi prisiimti fizinis ar juridinis asmuo; pabrėžia, kad algoritmams apmokyti reikalingi atsekami ir viešai prieinami duomenys;

61. tvirtai remia Komisijos pasiūlymą sukurti Europos sveikatos duomenų erdvę[12], kuria siekiama skatinti keitimąsi sveikatos srities duomenimis ir remti mokslinius tyrimus, visapusiškai laikantis duomenų apsaugos nuostatų, įskaitant duomenų tvarkymą naudojant dirbtinio intelekto technologijas, ir kuria stiprinamas ir išplečiamas sveikatos srities duomenų naudojimas ir pakartotinis naudojimas; ragina didinti tarpvalstybinio keitimosi sveikatos srities duomenimis apimtį, jų susiejimą ir naudojimą pasitelkiant bendras saugias duomenų saugyklas, konkrečios rūšies informaciją apie sveikatą, pvz., Europos sveikatos įrašus, genominę informaciją ir skaitmeninius medicininius vaizdus, siekiant supaprastinti Sąjungos masto sąveikius registrus ar duomenų bazes mokslinių tyrimų, mokslo ir sveikatos srityse;

62. atkreipia dėmesį į dirbtinio intelekto naudą ligų prevencijos, gydymo ir kontrolės srityje – kaip pavyzdį galima paminėti, kad dirbtinis intelektas nuspėjo COVID-19 epidemiją anksčiau, nei PSO; primygtinai ragina Komisiją parengti Europos ligų prevencijos ir kontrolės centrui skirtą tinkamą reguliavimo sistemą ir skirti deramai išteklių, kad būtų galima rinkti reikalingus anoniminius duomenis realiuoju laiku visame pasaulyje, nepriklausomai ir derinant pastangas su valstybėmis narėmis, be kita ko, siekiant spręsti su COVID-19 pandemijos sukelta krize susijusius iššūkius;

Privatumas ir biometrinis atpažinimas

63. pažymi, kad sparčiai didėja duomenų, įskaitant asmens duomenis, pvz., biometrinius duomenis, kurie gaunami kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, kūrimo ir naudojimo mastas, todėl pabrėžia, kad pagal Sąjungos teisę būtina gerbti piliečių teises į privatumą ir asmens duomenų apsaugą ir užtikrinti jų vykdymą;

64. atkreipia dėmesį į tai, kad šių technologijų suteikiamą galimybę naudoti asmens ir ne asmens duomenis siekiant kategorizuoti asmenis ir itin tiksliai auditorijai adresuoti pranešimus, nustatyti asmenų pažeidžiamumą arba panaudoti tikslias prognozavimo žinias turi atsverti veiksmingai įgyvendinami duomenų apsaugos ir privatumo principai, pvz., duomenų kiekio mažinimo principai, teisė prieštarauti profiliavimui ir kontroliuoti savo duomenų naudojimą, teisė gauti sprendimo, grindžiamo automatizuotu duomenų tvarkymu, paaiškinimą, integruotoji privatumo apsauga, taip pat proporcingumo, būtinumo ir griežtai apibrėžto tikslo ribojimo pagal Bendrąjį duomenų apsaugos reglamentą principai;

65. pabrėžia, kad tais atvejais, kai valdžios institucijos esminiais visuomenės intereso tikslais naudoja nuotolinio atpažinimo technologijas, pvz., biometrinių savybių atpažinimą, visų pirma veido atpažinimą, jos visada turėtų būti naudojamos atskleidžiant informaciją, proporcingai, tikslingai ir apsiribojant konkrečiais tikslais, ribotą laiką ir laikantis Sąjungos teisės, tinkamai atsižvelgiant į žmogaus orumą, savarankiškumą ir Chartijoje išdėstytas pagrindines teises; tokio naudojimo kriterijams ir apribojimams turėtų būti taikoma teisminė peržiūra ir demokratinė kontrolė, taip pat turėtų būti atsižvelgiama į jo psichologinį ir socialinį bei kultūrinį poveikį pilietinei visuomenei;

66. pažymi, kad, nors dirbtinio intelekto, robotikos ir susijusių technologijų diegimas viešosios valdžios sprendimų priėmimo srityje teikia naudos, tačiau galimas ir sunkus piktnaudžiavimas, pvz., masinis stebėjimas, prognozavimo strategijos ir teisių į tinkamą procesą pažeidimai;

67. mano, kad technologijos, kuriomis galima priimti automatizuotus sprendimus ir taip pakeisti valdžios institucijų priimamus sprendimus, turėtų būti vertinamos labai atsargiai, ypač teisingumo ir teisėsaugos srityse;

68. mano, kad valstybės narės turėtų naudotis tokiomis technologijomis tik tuo atveju, jei yra išsamių įrodymų apie jų patikimumą ir jeigu yra įmanoma žmogaus atliekama prasminga peržiūra arba tokia peržiūra yra sistemingai atliekama tais atvejais, kai iškyla pavojus pagrindinėms laisvėms; pabrėžia, jog svarbu, kad nacionalinės valdžios institucijos atliktų griežtą poveikio pagrindinėms teisėms vertinimą, kai minėtais atvejais naudojamos dirbtinio intelekto sistemos, ypač kai tos technologijos įvertinamos kaip didelės rizikos technologijos;

69. mano, kad bet koks sprendimas, priimtas naudojant dirbtinį intelektą, robotiką ar susijusias technologijas, kai įgyvendinamos viešosios valdžios prerogatyvos, turėtų būti užtikrinamas prasmingas žmogaus įsikišimas ir tinkamas procesas, ypač kai tos technologijos įvertinamos kaip didelės rizikos technologijos;

70. mano, kad dėl technologinės pažangos neturėtų būti naudojamasi dirbtiniu intelektu, robotika ir susijusiomis technologijomis siekiant leisti joms autonomiškai priimti viešojo sektoriaus sprendimus, kurie turi tiesioginį ir didelį poveikį piliečių teisėms ir pareigoms;

71. pažymi, kad dirbtinis intelektas, robotika ir susijusios technologijos teisėsaugos ir sienų kontrolės srityje galėtų padidinti visuomenės saugą ir saugumą, tačiau taip pat turėtų būti vykdoma visapusiška ir griežta visuomenės kontrolė ir užtikrinamas kuo didesnis skaidrumas tiek atskirų taikomųjų programų rizikos vertinimo, tiek bendros dirbtinio intelekto, robotikos ir susijusių technologijų naudojimo teisėsaugos ir sienų kontrolės srityje apžvalgos požiūriu; mano, kad šios technologijos kelia didelę etinę riziką, į kurią reikia tinkamai atsižvelgti, turint omenyje galimą neigiamą poveikį asmenims, ypač jų teisėms į privatumą, duomenų apsaugą ir nediskriminavimą; pabrėžia, kad netinkamai jas naudojant gali kilti tiesioginė grėsmė demokratijai ir kad jas diegiant ir naudojant turi būti laikomasi proporcingumo ir būtinumo principų, Pagrindinių teisių chartijos, taip pat atitinkamų Sąjungos antrinės teisės aktų, pvz., duomenų apsaugos taisyklių; pabrėžia, kad priimant sprendimus dirbtinis intelektas niekada neturėtų pakeisti žmonių; mano, kad sprendimai, pvz., dėl užstato ar lygtinio paleidimo, kurie paskelbiami teisme, arba sprendimai, grindžiami tik automatizuotu duomenų tvarkymu, sukeliantys teisines pasekmes asmenims arba turintys jiems didelį poveikį, visada turi būti priimami atliekant prasmingą vertinimą ir žmogui priimant sprendimą;

Geras administravimas

72. pabrėžia, kad tinkamas dirbtinio intelekto, robotikos ir susijusių technologijų, ypač didelės rizikos technologijų, kūrimo, diegimo ir naudojimo valdymas, be kita ko, taikant priemones, kuriomis daugiausia dėmesio skiriama atskaitomybei ir galimos šališkumo bei diskriminacijos rizikos šalinimui, gali padidinti piliečių saugumą ir pasitikėjimą šiomis technologijomis;

73. mano, kad Komisijos ir (arba) kitų susijusių institucijų, įstaigų, tarnybų ar agentūrų, kurios gali būti paskirtos šiai užduočiai vykdyti šiame kontekste, koordinuojama bendra šių technologijų valdymo sistema, kurią turi įgyvendinti kiekvienos valstybės narės nacionalinės priežiūros institucijos, užtikrintų nuoseklų Europos požiūrį ir užkirstų kelią bendrosios rinkos susiskaidymui;

74. pažymi, kad kuriant dirbtinį intelektą, robotiką ir susijusias technologijas duomenys naudojami dideliu mastu ir kad tokių duomenų tvarkymas, dalijimasis jais, prieiga prie jų ir jų naudojimas turi būti reglamentuojami laikantis teisės aktų bei juose nustatytų kokybės, vientisumo, sąveikumo, skaidrumo, saugumo, privatumo ir kontrolės reikalavimų;

75. primena, kad prieiga prie duomenų yra svarbi skaitmeninės ekonomikos augimo dalis; todėl pabrėžia, kad duomenų sąveikumas, apribojant tikimybę, kad infrastruktūra bus naudojama neefektyviai, atlieka svarbų vaidmenį užtikrinant sąžiningas rinkos sąlygas ir skatinant vienodas galimybes skaitmeninėje bendrojoje rinkoje;

76. pabrėžia, kad reikia užtikrinti tinkamą asmens duomenų, ypač duomenų apie pažeidžiamas grupes, pvz., neįgaliuosius, pacientus, vaikus, pagyvenusius, mažumoms priklausančiais asmenis, migrantus ir kitas grupes, kurioms gresia atskirtis, ir iš šių grupių gautų duomenų apsaugą;

77. pažymi, kad dirbtinio intelekto, robotikos ir susijusių technologijų kūrimas, diegimas ir naudojimas valdžios institucijose dažnai yra perduodamas privačiojo sektoriaus subjektams; mano, kad tai jokiu būdu neturėtų pakenkti visuomenės vertybių ir pagrindinių teisių apsaugai; mano, kad, kai taikytina, viešojo pirkimo sąlygos turėtų atspindėti valdžios institucijoms nustatytus etinius standartus;

Vartotojai ir vidaus rinka

78. pabrėžia, jog svarbu, kad dirbtinio intelekto reglamentavimo sistema būtų taikoma tais atvejais, kai vartotojai Sąjungoje yra algoritmų sistemos naudotojai, jiems ji taikoma, jiems ketinama ją taikyti arba jie yra į ją orientuojami, neatsižvelgiant į sistemą kuriančių, parduodančių arba naudojančių subjektų įsisteigimo vietą; be to, mano, kad siekiant teisinio tikrumo tokioje sistemoje išdėstytos taisyklės turėtų būti taikomos visiems kūrėjams ir visoje vertės grandinėje, būtent kuriant, diegiant ir naudojant atitinkamas technologijas ir jų komponentus, ir jomis turėtų būti užtikrintas aukštas vartotojų apsaugos lygis;

79. pažymi, kad dirbtinis intelektas, robotika ir atitinkamos technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, ir tokios sritys kaip daiktų internetas, mašinų mokymasis, taisyklėmis grindžiamos sistemos arba automatizuoti bei remiami sprendimų priėmimo procesai yra neatsiejamai susiję; be to, pažymi, kad galėtų būti parengtos standartizuotos piktogramos, kurios padėtų vartotojams paaiškinti tas sistemas, kai jos yra sudėtingos arba apima sprendimus, kurie daro didelę įtaką jų gyvenimui;

80. primena, kad Komisija turėtų išnagrinėti dabartinę teisinę sistemą ir jos taikymą, įskaitant vartotojų teisės acquis, atsakokybę už produktus reglamentuojančius teisės aktus ir rinkos priežiūros teisės aktus, siekiant nustatyti teisines spragas, taip pat galiojančius reguliavimo įsipareigojimus; mano, kad tai būtina siekiant nustatyti, ar dabartinė teisinė sistema gali atremti dirbtinio intelekto, robotikos ir susijusių technologijų atsiradimo keliamus iššūkius ir ar ji gali užtikrinti aukšto lygio vartotojų apsaugą;

81. pabrėžia, kad būtina veiksmingai spręsti dirbtinio intelekto, robotikos ir susijusių technologijų keliamus uždavinius ir užtikrinti, kad vartotojai būtų įgalinti ir tinkamai apsaugoti; pabrėžia, kad būtina neapsiriboti tradiciniais informavimo ir informacijos atskleidimo principais, kuriais remiantis buvo sukurtas vartotojų acquis, nes reikės stipresnių vartotojų teisių ir aiškių dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo apribojimų, siekiant užtikrinti, kad technologijos prisidėtų prie vartotojų gyvenimo gerinimo ir būtų vystomos atsižvelgiant į pagrindines ir vartotojų teises bei Sąjungos vertybes;

82. atkreipia dėmesį į tai, kad Sprendimu Nr. 768/2008/EB nustatyta teisine sistema sukuriamas suderintas gamintojų, importuotojų ir platintojų įsipareigojimų sąrašas, skatinama naudoti standartus ir numatomi keli kontrolės lygiai, atsižvelgiant į produkto pavojingumą; mano, kad ši sistema taip pat turėtų būti taikoma produktams su integruota dirbtinio intelekto technologija;

83. pažymi, kad siekiant išnagrinėti dirbtinio intelekto, robotikos ir susijusių technologijų poveikį vartotojams, prieiga prie duomenų, visapusiškai laikantis Sąjungos teisės, pvz., susijusios su duomenų apsauga, privatumu ir komercinėmis paslaptimis, galėtų būti suteikta ir nacionalinėms kompetentingoms institucijoms; primena, kad svarbu šviesti vartotojus, kad jie būtų geriau informuoti ir kvalifikuoti naudotis dirbtiniu intelektu, robotika ir susijusiomis technologijomis, siekiant apsaugoti juos nuo galimos rizikos ir apsaugoti jų teises; 

84. ragina Komisiją pasiūlyti duomenų atsekamumo priemones, atsižvelgiant tiek į duomenų gavimo teisėtumą, tiek į vartotojų teisių ir pagrindinių teisių apsaugą, kartu visapusiškai laikantis Sąjungos teisės aktų, pvz., susijusių su duomenų apsauga, privatumu, intelektinės nuosavybės teisėmis ir komercinėmis paslaptimis;

85. pažymi, kad šios technologijos turėtų būti orientuotos į vartotoją ir sukurtos taip, kad visi žmonės galėtų naudotis dirbtinio intelekto produktais ar paslaugomis, nepriklausomai nuo amžiaus, lyties, gebėjimų ar savybių; pabrėžia, kad ypač svarbu, kad šios technologijos būtų prieinamos neįgaliesiems; pažymi, kad neturėtų būti taikomas universalaus sprendimo principas ir turėtų būti apsvarstyti kuo platesniam spektrui vartotojų skirti tinkamumo visiems principai, kuriais būtų atsižvelgiama į atitinkamus prieinamumo standartus; pabrėžia, kad tai suteiks žmonėms vienodą prieigą ir galimybę aktyviai dalyvauti esamoje ir besiformuojančioje kompiuterinėje žmogaus veikloje ir pagalbinių technologijų atžvilgiu;

86. pabrėžia, kad tais atvejais, kai lėšomis, gaunamomis iš valstybinių šaltinių, ženkliai prisidedama prie dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ar naudojimo, šalia atvirų viešųjų pirkimų konkursų ir atvirų sutarčių sudarymo standartų būtų galima apsvarstyti galimybę, susitarus su kūrėju, savaime skelbti kodą, generuojamus duomenis – jei tai nėra asmens duomenys – ir apmokytą modelį, kad būtų užtikrintas skaidrumas, sustiprintas kibernetinis saugumas ir pakartotinis naudojimas, siekiant skatinti inovacijas; pabrėžia, kad taip galima išnaudoti visas bendrosios rinkos teikiamas galimybes išvengiant rinkos susiskaidymo;

87.  mano, kad dirbtinis intelektas, robotika ir susijusios technologijos turi didžiulį potencialą suteikti vartotojams galimybę naudotis kai kuriais patogumais daugelyje savo gyvenimo sričių ir kartu geresniais produktais ir paslaugomis, taip pat gauti naudos iš geresnės rinkos priežiūros, jei toliau būtų taikomi visi galiojantys principai, sąlygos, įskaitant skaidrumą ir patikrinamumą, ir nuostatai;

Saugumas ir gynyba

88. pabrėžia, kad Europos Sąjungos ir jos valstybių narių saugumo ir gynybos politika grindžiama Europos Sąjungos pagrindinių teisių chartijoje ir Jungtinių Tautų Chartijoje įtvirtintais principais ir bendru visuotinių vertybių – pagarbos neliečiamoms ir neatimamoms žmogaus teisėms, žmogaus orumui, laisvei, demokratijai, lygybei ir teisinei valstybei – supratimu; pabrėžia, kad visuose su gynyba susijusiuose Sąjungos veiksmuose turi būti paisoma šių visuotinių vertybių, kartu skatinant taiką, saugumą ir pažangą Europoje ir pasaulyje;

89. palankiai vertina tai, kad 2019 m. Jungtinių Tautų konvencijos dėl tam tikrų įprastinių ginklų (CCW) aukštųjų susitariančiųjų šalių susitikime buvo patvirtinta 11 pagrindinių autonominių ginklų sistemų kūrimo ir naudojimo principų; vis dėlto apgailestauja dėl to, kad nepavyko susitarti dėl teisiškai privalomos priemonės, kuria būtų reglamentuojami mirtini autonominiai ginklai, ir veiksmingo vykdymo užtikrinimo mechanizmo; palankiai vertina ir palaiko Komisijos aukšto lygio ekspertų grupės dirbtinio intelekto klausimais 2019 m. balandžio 9 d. paskelbtas „Patikimo dirbtinio intelekto etikos gaires“ ir jos poziciją dėl autonominių mirtinų ginklų sistemų; primygtinai ragina valstybes nares parengti nacionalines mirtinų autonominių ginklų apibrėžimo ir statuso strategijas, siekiant parengti išsamią Sąjungos lygmens strategiją, ir drauge su Sąjungos vyriausiuoju įgaliotiniu ir Komisijos pirmininko pavaduotoju ir Taryba skatinti diskusijas dėl autonominių mirtinų ginklų sistemų pagal Jungtinių Tautų CCW sistemą ir kituose atitinkamuose forumuose ir siekti, kad būtų nustatytos tarptautinės normos, susijusios su visiškai autonominių, pusiau autonominių ir nuotoliniu būdu valdomų mirtinų ginklų sistemų kūrimo ir naudojimo etiniais ir teisiniais parametrais; primena šiuo klausimu priimtą savo 2018 m. rugsėjo 12 d. rezoliuciją dėl autonominių mirtinų ginklų sistemų ir dar kartą ragina skubiai parengti ir patvirtinti bendrąją poziciją dėl autonominių mirtinų ginklų sistemų, kad, atsižvelgiant į pasaulio iškiliausių dirbtinio intelekto tyrėjų atvirame laiške 2015 m. pateiktą pareiškimą, tarptautiniu mastu būtų uždrausta kurti, gaminti ir naudoti autonomines mirtinų ginklų sistemas, kuriomis galima vykdyti puolimus be prasmingos žmogaus vykdomos kontrolės, nesilaikant žmogaus dalyvavimo procese principo; palankiai vertina Tarybos ir Parlamento susitarimą Europos gynybos fondo lėšomis nefinansuoti veiksmų, kuriais siekiama kurti mirtinus autonominius ginklus „be galimybės žmonėms prasmingai kontroliuoti atrankos ir jėgos panaudojimo sprendimus, priimamus vykdant atakas“; mano, kad negali būti pamiršti kitų dirbtinio intelekto prietaikų gynyboje, pvz., žvalgyboje, stebėjime ir išžvalgyme, ar kibernetinėse operacijose etiniai aspektai ir kad reikia atkreipti ypatingą dėmesį į bepiločių orlaivių kūrimą ir naudojimą karinėse operacijose;

90 pabrėžia, kad naujos gynybos ir saugumo sektoriaus technologijos, kurioms netaikomi tarptautinės teisės aktai, turėtų būti vertinamos remiantis žmogiškumo principu ir bendrosiomis moralės normomis;

91. rekomenduoja, kad Sąjungos sistema, kuria reglamentuojamas dirbtinio intelekto sistemų naudojimas gynybos srityje tiek kovos, tiek nekovinėmis sąlygomis, atitiktų visus taikytinus teisinius režimus, visų pirma tarptautinę humanitarinę teisę ir tarptautinę žmogaus teisių teisę, taip pat Sąjungos teisę, principus ir vertybes, turint mintyje techninių ir saugumo infrastruktūrų skirtumus visoje Sąjungoje;

92. pripažįsta, kad, kitaip nei gynybos pramonines bazes, ypatingos svarbos dirbtinio intelekto inovacijas galėtų kurti mažosios valstybės narės, todėl pagal standartizuotą BSGP požiūrį turėtų būti užtikrinama, kad nebūtų išstumiamos mažesnės valstybės narės ir MVĮ; pabrėžia, kad bendri ES dirbtinio intelekto pajėgumai, suderinti su valstybių narių veiklos koncepcijomis, gali padėti panaikinti techninį atotrūkį, dėl kurio atitinkamų technologijų, pramonės srities ekspertinių žinių arba gebėjimų diegti dirbtinio intelekto sistemas savo gynybos ministerijose neturinčios valstybės galėtų atsilikti;

93. mano, kad dabartinė ir būsima su saugumu ir gynyba susijusi veikla Sąjungos sistemoje bus grindžiama dirbtiniu intelektu, robotika, autonomiškumu ir panašiomis technologijomis ir kad patikimas ir stabilus dirbtinis intelektas, kuriuo galima pasikliauti, galėtų prisidėti prie modernaus ir efektyvaus karinio pajėgumo; todėl Sąjunga turi imtis vadovaujamo vaidmens saugumo ir gynybos srityje naudojamų dirbtinio intelekto sistemų mokslinių tyrimų ir plėtros srityje; mano, kad dirbtiniu intelektu grindžiamų prietaikų naudojimas saugumo ir gynybos srityje galėtų duoti daug tiesioginės naudos operacijų vadovui, pvz., užtikrinti aukštesnės kokybės surinktus duomenis, didesnį informuotumą apie padėtį, spartesnį sprendimų priėmimą, dėl geresnės kabelių sistemos sumažėjusią netiesioginės žalos riziką, pajėgų apsaugą vietoje, taip pat didesnį karinės įrangos patikimumą, taigi, mažesnį pavojų žmonėms ir riziką, kad bus aukų; pabrėžia, kad, siekiant užtikrinti Europos strateginį savarankiškumą pajėgumų ir operacijų srityse, būtina gynybos srityje kurti patikimas dirbtinio intelekto technologijas; primena, kad dirbtinio intelekto sistemos taip pat tampa pagrindiniais kovos su tiek internete, tiek neprisijungus prie interneto kylančiomis grėsmėmis saugumui, tokiomis kaip kibernetinis ir hibridinis karas, elementais; sykiu atkreipia dėmesį į visą nereglamentuojamo dirbtinio intelekto naudojimo keliamą riziką ir su juo susijusius iššūkius; pažymi, kad dirbtinis intelektas gali būti paveiktas manipuliavimo, klaidų ir netikslumų;

94. pabrėžia, kad dirbtinio intelekto technologijos iš esmės yra dvejopo naudojimo – karinių ir civilinių technologijų mainai duoda naudos kuriant dirbtinį intelektą su gynyba susijusios veiklos srityje; pabrėžia, kad su gynyba susijusios veiklos srityje naudojamas dirbtinis intelektas yra kompleksinė perversminė technologija, kurios plėtra gali suteikti galimybių užtikrinti Sąjungos konkurencingumą ir strateginį savarankiškumą;

95. pripažįsta, kad šių dienų hibridinio ir pažangaus karo aplinkybėmis informacijos kiekis ir greitis ankstyvaisiais krizės etapais informacijos analitikams gali būti pernelyg dideli ir kad dirbtinio intelekto sistema galėtų apdoroti šią informaciją, kad, siekdami greitai reaguoti, sprendimus priimantys žmonės reikiamu metu galėtų sekti visą turimą informaciją;

96. pabrėžia, kad svarbu investuoti į žmogiškojo kapitalo, susijusio su dirbtiniu intelektu, vystymą, skatinant reikiamus įgūdžius ir švietimą su saugumu ir gynyba susijusių dirbtinio intelekto technologijų srityje ir itin daug dėmesio skiriant žmogaus atskaitomybe grindžiamų pusiau autonominių ir autonominių operacijų sistemų etikos aspektams dirbtinio intelekto pasaulyje; ypač pabrėžia, jog svarbu užtikrinti, kad etikos specialistai šioje srityje turėtų tinkamų įgūdžių ir būtų tinkamai apmokyti; ragina Komisiją kuo greičiau pateikti „Įgūdžių stiprinimo darbotvarkę“, apie kurią paskelbta 2020 m. vasario 19 d. baltojoje knygoje dėl dirbtinio intelekto;

97. pabrėžia, kad kvantinė kompiuterija galėtų būti revoliucingiausias pokytis konfliktų srityje nuo atominio ginklo atsiradimo laikų, todėl primygtinai ragina užtikrinti, kad tolesnė kvantinės kompiuterijos technologijų plėtra būtų vienas iš Sąjungos ir valstybių narių prioritetų; pripažįsta, kad dėl pasitelkiant kvantinę kompiuteriją rengiamų agresijos veiksmų, įskaitant išpuolius prieš ypatingos svarbos infrastruktūros objektus, susiklostys tokia konfliktų aplinka, kurioje sprendimams priimti skirtas laikas drastiškai sutrumpės nuo dienų ir valandų iki minučių ir sekundžių, todėl valstybės narės bus priverstos plėtoti apsisaugojimo pajėgumus ir mokyti tiek sprendimus priimančius asmenis, tiek kariškius veiksmingai reaguoti per tokį trumpą laiką;

98. ragina daugiau investuoti į Europos gynybos srityje naudojamą dirbtinį intelektą ir į ypatingos svarbos infrastruktūrą, skirtą jam palaikyti;

99. primena, kad dauguma dabartinių įtakingų karinių subjektų visame pasaulyje jau deda dideles pastangas dirbtinio intelekto karinio aspekto mokslinių tyrimų ir plėtros srityje; mano, kad Sąjunga turi užtikrinti, kad neatsiliktų šioje srityje;

100. ragina Komisiją, siekiant užtikrinti, kad būtų kuriamos ir diegiamos saugios, atsparios ir patikimos dirbtiniu intelektu grindžiamos ir robotinės sistemos, savo pramonės politikoje įtvirtinti kibernetinio saugumo pajėgumo stiprinimo aspektą; ragina Komisiją išnagrinėti galimybę naudoti blokų grandine grindžiamus kibernetinio saugumo protokolus ir prietaikas, kad būtų galima, naudojantis duomenų šifravimo be tarpininkų modeliais, didinti dirbtinio intelekto infrastruktūros atsparumą, patikimumą ir stabilumą; ragina Europos suinteresuotuosius subjektus tirti ir projektuoti pažangias funkcijas, kurios padėtų aptikti sugadintas ir kenksmingas dirbtiniu intelektu grindžiamas ir robotikos sistemas, galinčias pakenkti Sąjungos ir jos piliečių saugumui;

101. pabrėžia, kad visos gynybos srityje naudojamos dirbtinio intelekto sistemos turi turėti konkretų ir aiškiai apibrėžtą misijos pagrindą, pagal kurį žmogus turi galimybę aptikti ir atjungti arba dezaktyvuoti įdiegtas sistemas, jei šios veiktų ne pagal žmogaus nurodymu apibrėžtą ir nustatytą misijos pagrindą arba imtųsi bet kokių eskalacinių ar nenumatytų veiksmų; mano, kad dirbtinio intelekto sistemos, produktai ir technologijos, skirti kariniam naudojimui, turėtų turėti „juodąją dėžę“, kurioje būtų registruojamos visos mašinos atliekamos duomenų operacijos;

102. pabrėžia, kad visa atskaitomybė ir atsakomybė už sprendimą projektuoti, plėtoti, diegti ir naudoti dirbtinio intelekto sistemas turi tekti operatoriams (žmonėms), nes žmogus turi prasmingai stebėti ir kontroliuoti bet kokią ginklų sistemą ir sąmoningai priimti sprendimą panaudoti jėgą vykdydamas bet kokį dirbtiniu intelektu grindžiamų ginklų sistemų sprendimą, kuris gali turėti mirtinų pasekmių; pabrėžia, kad žmogaus vykdoma kontrolė turėtų ir toliau būti veiksminga dirbtiniu intelektu pagrįstų sistemų valdymo ir kontrolės srityje, laikantis žmogaus dalyvavimo procese ir žmogaus atliekamo proceso valdymo principų karinės vadovybės lygmenyje; pabrėžia, kad dirbtiniu intelektu grindžiamos sistemos turi sudaryti sąlygas karinei vadovybei prisiimti visą atsakomybę ir užtikrinti visišką atskaitomybę už mirtinos jėgos naudojimą, taip pat disponuoti reikiamo masto diskrecija priimant sprendimus dėl tokių sistemų vykdomų mirtinų ar didelio masto niokojančių veiksmų, kurios negalima suteikti mašinoms, nes tokie sprendimai turi būti grindžiami gebėjimo atskirti, proporcingumo ir atsargumo principais; pabrėžia būtinybę sukurti aiškias ir atsekamas leidimų dislokuoti pažangius ginklus ir kitas dirbtiniu intelektu grindžiamas sistemas suteikimo ir atskaitomybės už jų dislokavimą sistemas naudojantis tokiomis unikaliomis naudotojų ypatybėmis kaip biometrinės specifikacijos, kad tokias sistemas galėtų dislokuoti tik įgaliotas personalas;

Transportas

103. atkreipia dėmesį į dirbtinio intelekto, robotikos ir susijusių technologijų naudojimo visose autonominėse kelių, geležinkelių, vandens ir oro transporto priemonėse potencialą, taip pat galimybes skatinti perėjimą prie kitų transporto rūšių ir intermodalumą, nes tokios technologijos gali padėti rasti optimalų krovininio ir keleivinio vežimo transporto rūšių derinį; be to, atkreipia dėmesį į jų potencialą didinti transporto, logistikos ir eismo srautų efektyvumą ir visų rūšių transportą padaryti saugesnį, pažangesnį ir ekologiškesnį; atkreipia dėmesį į tai, kad etinis požiūris į dirbtinį intelektą taip pat gali būti laikomas ankstyvojo perspėjimo sistema, ypač atsižvelgiant į transporto saugą ir veiksmingumą;

pabrėžia, kad pasaulinė įmonių ir ekonominių regionų konkurencija reiškia, jog Sąjunga turi skatinti investicijas ir stiprinti tarptautinį transporto sektoriuje veikiančių įmonių konkurencingumą, sukurdama dirbtinio intelekto sprendimams ir tolesnėms inovacijoms plėtoti ir taikyti palankią aplinką, kurioje Sąjungoje įsisteigusios įmonės galėtų tapti pasaulinio masto lyderėmis dirbtinio intelekto technologijų kūrimo srityje;

105. pabrėžia, kad Sąjungos transporto sektoriui reikia atnaujintos reguliavimo sistemos, susijusios su tokiomis besiformuojančiomis technologijomis ir jų naudojimu transporto sektoriuje, ir aiškios etinės sistemos patikimam dirbtiniam intelektui, įskaitant saugos, saugumo, pagarbos žmogaus autonomiškumui, priežiūros ir atsakomybės aspektus, dėl kurių padidės nauda, kuria dalijasi visi, ir kurios bus labai svarbios skatinant viešojo administravimo įstaigų, MVĮ, pradedančiųjų įmonių ir verslo įmonių investicijas į mokslinius tyrimus ir inovacijas, įgūdžių ugdymą ir dirbtinio intelekto diegimą, kartu užtikrinant duomenų apsaugą bei sąveikumą ir neužkraunant nereikalingos administracinės naštos įmonėms ir naudotojams;

106. pažymi, kad dirbtinio intelekto transporto sektoriuje plėtra ir įgyvendinimas nebus galimi be šiuolaikinės infrastruktūros – esminės intelektinių transporto sistemų dalies; pabrėžia, jog dėl nuolatinių valstybių narių išsivystymo lygio skirtumų kyla grėsmė, kad autonominio judumo vystymosi nauda nebus pasiekiama mažiausiai išsivysčiusiems regionams ir jų gyventojams; ragina deramai finansuoti transporto infrastruktūros Sąjungoje modernizavimą, įskaitant jos integravimą į 5G tinklą;

107. rekomenduoja nustatyti visų rūšių transportui, įskaitant automobilių pramonę, skirtus patikimus Sąjungos masto standartus, ir dirbtiniu intelektu pagrįstų transporto priemonių ir susijusių produktų bei paslaugų bandymų standartus;

108. pažymi, kad dirbtinio intelekto sistemos galėtų padėti gerokai sumažinti žūčių keliuose skaičių, pavyzdžiui, dėl geresnio reagavimo laiko ir geresnio taisyklių laikymosi; vis dėlto mano, kad naudojant autonomines transporto priemones nebus išvengta nelaimingų atsitikimų, ir pabrėžia, kad dėl to tampa vis svarbiau paaiškinti dirbtinio intelekto sprendimus, siekiant pateisinti dirbtinio intelekto sprendimų trūkumus ir nenumatytas pasekmes;

Užimtumas, darbuotojų teisės, skaitmeniniai įgūdžiai ir darbo vieta

109. pažymi, kad dirbtinį intelektą, robotiką ir susijusias technologijas taikant darbo vietoje gali būti prisidėta prie darbo rinkų įtraukumo bei daromas poveikis darbuotojų saugai ir sveikatai, tačiau tai taip pat gali būti naudojama darbuotojų veiklos rezultatams stebėti, vertinti, prognozuoti ir orientuoti, įskaitant tiesiogines ir netiesiogines pasekmes jų karjerai; kadangi dirbtinis intelektas turėtų teigiamai veikti darbo sąlygas ir būti grindžiamas pagarba žmogaus ir pagrindinėms teisėms bei Sąjungos vertybėms; kadangi dirbtinis intelektas turėtų būti orientuotas į žmogų, stiprinti žmonių ir visuomenės gerovę bei prisidėti prie sąžiningos ir teisingos pertvarkos; kadangi tokios technologijos turėtų teigiamai veikti darbo sąlygas ir būti grindžiamas pagarba žmogaus ir pagrindinėms teisėms bei Sąjungos vertybėms;

110. akcentuoja būtinybę ugdyti kompetenciją užtikrinant darbuotojų ir jų atstovų mokymą bei švietimą dirbtinio intelekto darbo vietoje klausimais, kad būtų geriau suprantamas dirbtinio intelekto sprendimų poveikis; pabrėžia, kad, jeigu dirbtinis intelektas naudojamas vykdant įdarbinimo procedūras ir priimant kitus su žmogiškaisiais ištekliais susijusius sprendimus, kandidatai ir darbuotojai turi būti deramai raštu apie tai informuojami, taip pat kad jiems turi būti paaiškinama, kaip tokiu atveju kreiptis dėl persvarstymo dalyvaujant žmogui, siekiant, kad būtų atšauktas automatizuotomis priemonėmis priimtas sprendimas;

111. akcentuoja būtinybę užtikrinti, kad dėl dirbtinio intelekto ir robotikos vystymo bei naudojimo padidėjęs našumas būtų naudingas ne tik įmonių savininkams ir akcininkams, bet ir – sudarant geresnes darbo ir įdarbinimo sąlygas, įskaitant darbo užmokestį, ekonominį augimą ir vystymąsi – įmonėms ir darbuotojams bei tarnautų visuomenei apskritai, ypač kai šis padidėjimas pasiekiamas darbo vietų sąskaita; ragina valstybes nares atidžiai išnagrinėti galimą dirbtinio intelekto poveikį darbo rinkai ir socialinės apsaugos sistemoms bei parengti strategijas, kaip užtikrinti ilgalaikį stabilumą reformuojant mokesčių ir įmokų tvarką bei – mažesnių viešųjų pajamų atveju – kitas priemones;

112. akcentuoja įmonių investicijų į formalųjį mokymą ir savaiminį mokymąsi bei mokymąsi visą gyvenimą svarbą, siekiant remti teisingą perėjimą prie skaitmeninės ekonomikos; atsižvelgdamas į tai pabrėžia, jog dirbtinį intelektą diegiančios įmonės yra atsakingos už deramą visų susijusių darbuotojų perkvalifikavimą ir kvalifikacijos kėlimą, kad jie išmoktų naudotis skaitmeninėmis priemonėmis ir galėtų dirbti su robotais, kurių veikimas grindžiamas bendradarbiavimu (angl. co-bot), ir kitomis naujomis technologijomis ir taip prisitaikę prie kintančių darbo rinkos poreikių išsaugotų darbo vietą;

113. mano, kad ypatingas dėmesys turėtų būti teikiamas naujoms darbo formoms, pvz., nenuolatiniam darbui, kuris grindžiamas dalyvavimu įgyvendinant konkrečius atskirus projektus, ir platformų darbui, kurios yra naujų technologijų taikymo šiame kontekste rezultatas;  pabrėžia, kad reglamentuojant nuotolinio darbo sąlygas visoje Sąjungoje bei užtikrinant deramas darbo ir įsidarbinimo sąlygas skaitmeninėje ekonomikoje taip pat turi būti atsižvelgiama į dirbtinio intelekto poveikį; ragina Komisiją šiuo klausimu konsultuotis su socialiniais partneriais, dirbtinio intelekto kūrėjais, mokslo darbuotojais ir kitomis suinteresuotosiomis šalimis;

114. pabrėžia, jog dėl dirbtinio intelekto, robotikos ir susijusių technologijų jokiu būdu negali nukentėti naudojimasis pagrindinėmis teisėmis, pripažįstamomis valstybių narių ir Sąjungos lygmenimis, įskaitant teisę ar laisvę streikuoti arba imtis kitų veiksmų, kuriuos apima konkrečios valstybių narių darbo santykių sistemos, apibrėžtos pagal nacionalinę teisę ir (arba) praktiką, arba teisė derėtis, sudaryti kolektyvines sutartis ir užtikrinti, kad jos būtų vykdomos, ar imtis kolektyvinių veiksmų laikantis nacionalinės teisės ir (arba) praktikos;

115. pakartoja, kad svarbų vaidmenį ugdant skaitmeniniam amžiui reikiamas kvalifikacijas ir kovojant su skaitmenine atskirtimi atlieka švietimas ir nuolatinis mokymasis; ragina valstybes nares investuoti į aukštos kokybės, poreikiais grindžiamas ir įtraukias švietimo, profesinio mokymo ir mokymosi visą gyvenimą sistemas bei sektorių, kurie gali patirti itin neigiamą dirbtinio intelekto poveikį, darbuotojų perkvalifikavimo ir kvalifikacijos kėlimo politiką; akcentuoja būtinybę užtikrinti, kad esami ir būsimi darbuotojai įgytų reikiamų raštingumo, gebėjimo skaičiuoti ir skaitmeninių įgūdžių bei kompetencijų gamtos mokslų, technologijų, inžinerijos ir matematikos srityse, taip pat tokių universalių socialinių emocinių įgūdžių, kaip kritinis mąstymas, kūrybiškumas ir verslumas; pabrėžia, kad šiuo požiūriu ypatingas dėmesys turi būti teikiamas nepalankioje padėtyje esančių grupių atstovų įtraukčiai;

116. primena, kad, vadovaujantis universalumo principu, dirbtinis intelektas, robotika ir susijusios technologijos, naudojamos darbo vietoje, turi būti prieinamos visiems;

Švietimas ir kultūra

117. pabrėžia, kad būtina parengti dirbtinio intelekto kūrimo, diegimo ir naudojimo kriterijus, atsižvelgiant į jų poveikį švietimo, žiniasklaidos, jaunimo, mokslinių tyrimų ir kultūros bei kūrybos sektoriams, ir nustatyti etikos požiūriu atsakingo ir priimtino dirbtinio intelekto technologijų naudojimo šiose srityse gaires ir principus, įskaitant aiškią atsakomybės už produktus, sukuriamus naudojant dirbtinį intelektą, tvarką;

118. pažymi, kad visi vaikai turi teisę į kokybišką viešąjį visų lygmenų švietimą; todėl ragina kurti, diegti ir naudoti kokybiškas dirbtinio intelekto sistemas, kurias taikant visais lygmenimis būtų skatinamos ir prieinamos kokybiškos švietimo priemonėms visiems, ir pabrėžia, kad dėl naujų dirbtinio intelekto sistemų diegimo mokyklose visuomenėje neturėtų didėti skaitmeninė atskirtis; pripažįsta, kad didžiulis dirbtinio intelekto ir robotikos potencialas gali būti naudingas švietimui; atkreipia dėmesį, kad personalizuotos dirbtiniu intelektu pagrįstos mokymo sistemos negali pakeisti pedagoginių santykių, kuriuose dalyvauja mokytojai, ir nereikėtų pamiršti tradicinių švietimo formų, kartu nurodydamas, kad mokytojams, siekiantiems įgyti tinkamų įgūdžių, kad galėtų prisitaikyti prie technologinių pokyčių ir ne tik pasinaudoti visu dirbtinio intelekto potencialu, bet ir suprasti jo ribas, turi būti teikiama finansinė, technologinė ir pedagoginė parama, įskaitant specializuotus informacinių ir ryšių technologijų srities mokymus; ragina parengti Sąjungos lygmens dirbtinio intelekto, robotikos ir susijusių technologijų strategiją siekiant padėti pertvarkyti ir atnaujinti mūsų švietimo sistemas, parengti mūsų visų lygmenų švietimo įstaigas ir užtikrinti, kad mokytojai ir mokiniai turėtų reikiamus įgūdžius bei gebėjimus;

119. pabrėžia, kad švietimo įstaigos turėtų siekti naudoti ugdymo tikslais dirbtinio intelekto sistemas, kurioms išduotas Europos atitikties etikos principams sertifikatas;

120. pabrėžia, kad skaitmeninimo ir naujų technologijų teikiamos galimybės neturi lemti bendro darbo vietų praradimo kultūros ir kūrybos sektoriuose, atsisakymo saugoti originalus ar tradicinės prieigos prie kultūros paveldo sumenkinimo – priešingai, tai turėtų būti lygiai taip pat skatinama; pažymi, kad Sąjungoje sukuriamos, diegiamos ir naudojamos dirbtinio intelekto sistemos turi atspindėti jos kultūrinę įvairovę ir daugiakalbystę;

121. pripažįsta, kad didėja dirbtinio intelekto potencialas informacijos, žiniasklaidos ir interneto platformų srityse, taip pat kaip priemonė laikantis Sąjungos teisės nuostatų kovoti su dezinformacija; pabrėžia, kad, jei jis nebus reglamentuojamas, jis gali turėti etikos požiūriu neigiamą poveikį, nes naudojantis duomenų ir algoritmų iškraipymais gali būti platinama dezinformacija ir kuriami vadinamieji informacijos burbulai; pabrėžia algoritmų, kuriuos naudoja dalijimosi vaizdo įrašais platformos ir srautinio siuntimo platformos, skaidrumo ir atskaitomybės svarbą, siekiant užtikrinti prieigą prie kultūriniu ir kalbiniu požiūriu įvairaus turinio;

Nacionalinės priežiūros institucijos

122. atkreipia dėmesį į pridėtinę vertę, kurią teikia kiekvienoje valstybėje narėje paskirta nacionalinė priežiūros institucija, atsakinga už teisinių prievolių ir etikos principų laikymosi užtikrinimą, vertinimą ir stebėseną kuriant, diegiant ir naudojant didelės rizikos dirbtinį intelektą, robotiką ir susijusias technologijas, taip prisidedant prie šių technologijų atitikties teisiniams ir etiniams reikalavimams;

123. pažymi, kad turi būti reikalaujama, kad šios institucijos, nekartodamos tų pačių užduočių, bendradarbiautų su valdžios institucijomis, atsakingomis už sektorių teisės aktų įgyvendinimą, kad būtų nustatytos etiniu požiūriu didelės rizikos technologijos, siekiant prižiūrėti būtinų ir tinkamų priemonių įgyvendinimą, kai nustatomos tokios technologijos;

124. nurodo, kad siekiant užtikrinti darnią tarpvalstybinę veiklą tokios institucijos turėtų palaikyti ryšius ne tik tarpusavyje, bet ir su Europos Komisija ir kitomis atitinkamomis Sąjungos institucijomis, įstaigomis, organais ir agentūromis;

125. siūlo, kad atsižvelgiant į tokį bendradarbiavimą, būtų nustatyti bendri kriterijai ir paraiškų teikimo procesas, susiję su Europos atitikties etikos principams sertifikato išdavimu, be kita ko, gavus technologijų, kurios nelaikomos didelės rizikos technologijomis, kūrėjo, diegėjo ar naudotojo prašymą patvirtinti teigiamą atitinkamos nacionalinės priežiūros institucijos atliktą atitikties vertinimą;

126. ragina tokioms institucijoms pavesti skatinti reguliarius mainus su pilietine visuomene ir inovacijas Sąjungoje, teikiant pagalbą atitinkamiems tyrėjams, kūrėjams ir kitiems susijusiems suinteresuotiesiems subjektams ir mažiau skaitmeniniu požiūriu brandžioms įmonėms, visų pirma mažosioms ir vidutinėms įmonėms arba startuoliams; ypač siekiama didinti informuotumą ir remti kūrimą, diegimą, mokymą ir talentų įgijimą, kad būtų galima užtikrinti veiksmingą technologijų perdavimą ir prieigą prie technologijų, projektų, rezultatų ir tinklų;

127. ragina, kad kiekviena valstybė narė pakankamai finansuotų savo paskirtas nacionalines priežiūros institucijas, ir pabrėžia, kad reikia stiprinti nacionalinių rinkos priežiūros institucijų gebėjimus, įgūdžius ir kompetenciją, taip pat žinias apie specifinę dirbtinio intelekto, robotikos ir susijusių technologijų riziką;

Sąjungos lygmens koordinavimas

128. pabrėžia, kad svarbu užtikrinti Sąjungos lygmens koordinavimą, kurį vykdytų Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir agentūros, kurie gali būti paskirti šiomis aplinkybėmis, kad būtų išvengta susiskaidymo ir užtikrintas nuoseklus požiūris visoje Sąjungoje; mano, kad koordinuojant daugiausia dėmesio turėtų būti skiriama kiekvienos valstybės narės nacionalinių priežiūros institucijų įgaliojimams ir veiksmams, kaip nurodyta ankstesniame poskirsnyje, taip pat tų institucijų keitimuisi geriausia patirtimi ir indėliui į bendradarbiavimą mokslinių tyrimų ir technologinės plėtros srityje visoje Sąjungoje; ragina Komisiją įvertinti ir rasti tinkamiausią tokio koordinavimo struktūros sprendimą; atitinkamų esamų Sąjungos institucijų, įstaigų, organų ir agentūrų pavyzdžiai yra ENISA, EDAPP ir Europos ombudsmenas;

129. mano, kad toks koordinavimas, taip pat Europos atitikties etikos principams sertifikatas, ne tik būtų naudingi Sąjungos pramonės plėtrai ir inovacijoms šioje srityje, bet ir padidintų mūsų piliečių informuotumą apie šioms technologijoms būdingas galimybes ir riziką;

130. siūlo sukurti ekspertų centrą, kuriame Sąjungos lygmeniu dirbtų mokslininkai, tyrėjai, pramonės atstovai ir pavieniai ekspertai, siekiant skatinti keitimąsi žiniomis ir technine kompetencija ir palengvinti bendradarbiavimą Sąjungoje ir už jos ribų; be to, ragina, kad šis ekspertų centras įtrauktų suinteresuotąsias organizacijas, pvz., vartotojų apsaugos organizacijos, kad būtų užtikrintas platus vartotojų atstovavimas; mano, kad dėl neproporcingo algoritmų sistemų poveikio moterims ir mažumoms tokios struktūros sprendimų priėmimo lygmenys turėtų būti skirtingi ir užtikrinti lyčių lygybę; pabrėžia, kad valstybės narės, atsižvelgdamos į savo nacionalines rinkos priežiūros strategijas, turi parengti dirbtinio intelekto rizikos valdymo strategijas;

131.  siūlo, kad Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir agentūros, kurie gali būti paskirti tokiomis aplinkybėmis, nacionalinėms priežiūros institucijoms teiktų visą būtiną pagalbą, susijusią su jų, kaip pirmųjų kontaktinių centrų, vaidmeniu tais atvejais, kai įtariama, kad pažeidžiamos Sąjungos dirbtinio intelekto reguliavimo sistemoje nustatytos teisinės prievolės ir etikos principai, įskaitant nediskriminavimo principą; ji taip pat turėtų teikti reikiamą pagalbą nacionalinėms priežiūros institucijoms tais atvejais, kai jos atlieka atitikties vertinimus, kad paremtų piliečių teisę užginčyti sprendimą ir ginti savo teises, visų pirma remdamos, kai taikytina, konsultacijas su kitomis Sąjungos kompetentingomis institucijomis, ypač su Vartotojų apsaugos bendradarbiavimo tinklu ir nacionalinėmis vartotojų apsaugos įstaigomis, pilietinės visuomenės organizacijomis ir socialiniais partneriais, esančiais kitose valstybėse narėse;

132. pripažįsta vertingą Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais, kurią sudaro akademinės bendruomenės, pilietinės visuomenės ir pramonės, taip pat Europos dirbtinio intelekto aljanso atstovai, darbą, visų pirma jos parengtas „Patikimo dirbtinio intelekto etikos gaires“, ir siūlo, kad ši grupė teiktų ekspertines žinias Komisijai ir (arba) atitinkamoms Sąjungos institucijoms, įstaigoms, organams ir agentūroms, kurios gali būti paskirtos šiomis aplinkybėmis;

133. šiuo atžvilgiu palankiai vertina tai, kad į Europos gynybos pramonės plėtros programą (EGPPP) įtraukti su dirbtiniu intelektu susiję projektai; mano, kad būsimasis Europos gynybos fondas (EGF) ir nuolatinis struktūrizuotas bendradarbiavimas (PESCO) taip pat gali suteikti struktūrą būsimiems su dirbtiniu intelektu susijusiems projektams, kurie galėtų padėti geriau racionalizuoti Sąjungos pastangas šioje srityje ir kartu skatinti siekti Sąjungos tikslo stiprinti žmogaus teises, tarptautinę teisę ir daugiašalius sprendimus; pabrėžia, kad su dirbtiniu intelektu susiję projektai turėtų būti derinami su platesnio masto dirbtiniam intelektui skirtomis Sąjungos civilinėmis programomis; pažymi, kad pagal 2020 m. vasario 19 d. Europos Komisijos baltąją knygą dėl dirbtinio intelekto kompetencijos ir bandymų centrai, kuriuose daugiausia dėmesio būtų skiriama saugumo ir gynybos srityje naudojamo dirbtinio intelekto moksliniams tyrimams ir plėtrai, turėtų būti steigiami laikantis griežtų specifikacijų, kuriomis būtų grindžiamas privačių suinteresuotųjų subjektų dalyvavimas ir investicijos;

134. atkreipia dėmesį į 2020 m. vasario 19 d. Komisijos baltąją knygą dėl dirbtinio intelekto ir apgailestauja, kad nebuvo atsižvelgta į karinius aspektus; ragina Komisiją ir Sąjungos vyriausiąjį įgaliotinį ir Komisijos pirmininko pavaduotoją, laikantis bendro požiūrio, pateikti sektorinę dirbtinio intelekto strategiją, skirtą su gynyba susijusiai veiklai Sąjungos sistemoje, kuria būtų užtikrinama pagarba piliečių teisėms ir Sąjungos strateginiams interesams ir kuri būtų grindžiama nuosekliu požiūriu, apimančiu ciklą nuo dirbtinio intelekto sistemų sukūrimo pradžios iki jų panaudojimo kariniais tikslais, ir Aukšto lygio ekspertų grupėje dirbtinio intelekto klausimais įsteigti Saugumo ir gynybos darbo grupę, kuri konkrečiai spręstų politikos ir investicijų klausimus, taip pat nagrinėtų dirbtinio intelekto saugumo ir gynybos srityje etikos aspektus; ragina Tarybą, Komisiją ir Komisijos pirmininko pavaduotoją ir Sąjungos vyriausiąjį įgaliotinį šiuo tikslu pradėti struktūrinį dialogą su Parlamentu.

Europos atitikties etikos principams sertifikavimas

135. siūlo, Sąjungos lygmeniu koordinuojant veiksmus, nustatyti bendrus kriterijus ir paraiškų teikimo procedūrą, taikomus siekiant gauti Europos atitikties etikos principams sertifikatą, be kita ko, gavus bet kurio technologijų, kurios nelaikomos didelės rizikos technologijomis, kūrėjo, diegėjo ar naudotojo prašymą patvirtinti teigiamą atitinkamos nacionalinės priežiūros institucijos atliktą atitikties vertinimą;

136. mano, kad toks Europos atitikties etikos principams sertifikatas skatintų laikytis integruotosios etikos nuostatų visoje dirbtinio intelekto ekosistemų tiekimo grandinėje; todėl siūlo nustatyti, kad didelės rizikos technologijoms šis sertifikatas būtų privalomas, jei norima, kad jos atitiktų dirbtinio intelekto, robotikos ir susijusių technologijų srities viešųjų pirkimų procedūrų reikalavimus;

Tarptautinis bendradarbiavimas

137. laikosi nuomonės, kad veiksmingą tarpvalstybinį bendradarbiavimą ir etikos standartų laikymąsi galima užtikrinti tik tuo atveju, jei visi suinteresuotieji subjektai įsipareigotų užtikrinti žmogiškojo veiksnio paisymą ir priežiūrą, techninį patikimumą ir saugą, skaidrumą ir atskaitomybę, įvairovę, nediskriminavimą ir teisingumą, visuomenės ir aplinkos gerovę, taip pat nustatytų privatumo, duomenų valdymo ir duomenų apsaugos principų, ypač įtvirtintų Europos Parlamento ir Tarybos reglamente (ES) 2016/679, laikymąsi;

138. pabrėžia, kad Sąjungos teisinės prievolės ir etikos principai, taikomi šių technologijų kūrimui, diegimui ir naudojimui, galėtų paversti Europą dirbtinio intelekto sektoriaus pasauline lydere, todėl reikėtų, bendradarbiaujant su tarptautiniais partneriais ir toliau vykdant kritišką ir etika paremtą dialogą su trečiosiomis šalimis, įgyvendinančiomis alternatyvius dirbtinio intelekto reguliavimo, kūrimo ir diegimo modelius, propaguoti šias prievoles ir principus visame pasaulyje;

139. primena, kad su šiomis technologijomis susijusios galimybės ir rizika yra pasaulinio masto, nes šioms sistemoms naudojama programinė įranga ir duomenys dažnai yra importuojami į Sąjungą ir iš jos eksportuojami, todėl tarptautiniu lygmeniu reikia laikytis nuoseklaus bendradarbiavimo požiūrio; ragina Komisiją imtis iniciatyvos ir išsiaiškinti, kokias dvišales ir daugiašales sutartis ir susitarimus reikėtų pakeisti, kad būtų užtikrinamas nuoseklus požiūris ir skatinama visame pasaulyje laikytis Europos atitikties etikos principams modelio;

140. atkreipia dėmesį į koordinavimo Sąjungos lygmeniu pridėtinę vertę, kaip paaiškinta pirmiau;

141. ragina užtikrinti įvairių Europos dirbtinio intelekto mokslinių tyrimų centrų, taip pat kitų daugiašalių forumų, pavyzdžiui, Europos Tarybos, Jungtinių Tautų švietimo, mokslo ir kultūros organizacijos (UNESCO), Ekonominio bendradarbiavimo ir plėtros organizacijos (EBPO), Pasaulio prekybos organizacijos ir Tarptautinės telekomunikacijų sąjungos (ITU), veiksmų sinergiją ir kurti jų tinklus, kad būtų galima suderinti jų pastangas ir geriau koordinuoti dirbtinio intelekto, robotikos ir susijusių technologijų plėtrą;

142. pabrėžia, kad Sąjunga, konsultuodamasi su kariniais, pramonės, teisėsaugos, akademinės bendruomenės ir pilietinės visuomenės suinteresuotaisiais subjektais, turi būti lydere remiant daugiašalius veiksmus siekiant vykdyti diskusijas Jungtinių Tautų CCW vyriausybinėje ekspertų grupėje ir kituose atitinkamuose forumuose, kad būtų aptarta veiksminga tarptautinė reguliavimo sistema, kuria būtų užtikrinta reikšminga žmogaus vykdoma autonominių ginklų sistemų kontrolė, taip siekiant valdyti tas technologijas, nustatant aiškiai apibrėžtus lyginamaisiais standartais grindžiamus procesus ir priimant teisės aktus dėl jų etiško naudojimo, kad būtų galima suprasti susijusius etikos aspektus, sumažinti tokioms technologijoms būdingą riziką ir užkirsti kelią tokių technologijų naudojimui piktavališkais tikslais; 

143. pripažįsta NATO vaidmenį skatinant euroatlantinį saugumą ir ragina bendradarbiauti su NATO, taip siekiant nustatyti gynybos srityje naudojamų dirbtinio intelekto sistemų bendrus standartus ir užtikrinti jų sąveikumą; pabrėžia, kad, siekiant išsaugoti bendras vertybes ir kovoti su būsimomis ir naujomis grėsmėmis, transatlantiniai santykiai yra labai svarbūs;

144. pabrėžia, kad svarbu sukurti etinio elgesio kodeksą, kuriuo būtų grindžiamas ginklais paverstų dirbtinio intelekto sistemų naudojimas per karines operacijas ir kuris būtų panašus į esamą reguliavimo sistemą, kuria draudžiama naudoti cheminius ir biologinius ginklus; laikosi nuomonės, kad Komisija turėtų imtis iniciatyvos, laikantis tarptautinės humanitarinės teisės normų, parengti dirbtiniu intelektu grindžiamų ginklų sistemų naudojimo kare standartus, o Sąjunga turėtų siekti, kad tokie standartai būtų patvirtinti tarptautiniu mastu; mano, kad Sąjunga tarptautiniuose forumuose drauge su panašių pažiūrų partneriais, pavyzdžiui, Didžiuoju septynetu, Didžiuoju dvidešimtuku ir EBPO, turėtų įsitraukti į diplomatijos dirbtinio intelekto srityje veiklą;

Baigiamieji aspektai

145. atsižvelgdamas į pirmesnius svarstymus apie dirbtinio intelekto, robotikos ir susijusių technologijų etinius aspektus, daro išvadą, kad teisiniai ir etiniai aspektai turėtų būti įtvirtinti Sąjungos lygmens veiksmingoje, progresyvioje ir visapusiškoje reguliavimo sistemoje, kurią remtų nacionalinės kompetentingos institucijos, koordinuotų ir stiprintų Komisija ir (arba) visos kitos atitinkamos Sąjungos institucijos, įstaigos, organai ir tarnybos ir kuri būtų parengta atsižvelgiant į nurodytas aplinkybes ir reguliariai remiama galimo minėto kompetencijos centro, jos būtų deramai paisoma ir ji būtų sertifikuota vidaus rinkoje;

146. vadovaudamasis Sutarties dėl Europos Sąjungos veikimo 225 straipsnyje nustatyta procedūra, prašo Komisijos pateikti pasiūlymą dėl reglamento dėl dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų, remiantis Sutarties dėl Europos Sąjungos veikimo 114 straipsniu ir atsižvelgiant į pridėtame priede pateiktas išsamias rekomendacijas; pabrėžia, kad šis pasiūlymas neturėtų apriboti sektorinių teisės aktų, jame tik reikėtų aptarti nustatytas spragas;

147. rekomenduoja Europos Komisijai, pasikonsultavus su visais atitinkamais suinteresuotaisiais subjektais, peržiūrėti, jei reikia, esamus Sąjungos teisės aktus, taikomus dirbtiniam intelektui, robotikai ir susijusioms technologijoms, taip siekiant spręsti dėl jų kūrimo spartos iškylančias problemas, vadovaujantis pridėtame priede išdėstytomis rekomendacijomis, ir vengti pernelyg didelio reguliavimo, be kita ko, MVĮ;

148. mano, jog reguliarūs Sąjungos dirbtinio intelekto, robotikos ir susijusių technologijų reguliavimo sistemos vertinimas ir peržiūra bus būtini siekiant užtikrinti, kad taikytini teisės aktai atitiktų sparčią technologinę pažangą;

149. mano, jog prašomas pateikti pasiūlymas dėl teisėkūros procedūra priimamo akto turės finansinių pasekmių, jei kuriai nors Europos įstaigai būtų pavestos minėtos koordinavimo funkcijos, siekiant užtikrinti būtinas technines priemones ir žmogiškuosius išteklius, kad ji galėtų vykdyti naujai paskirtas užduotis;

150. paveda Pirmininkui perduoti šią rezoliuciją ir pridedamas išsamias rekomendacijas Komisijai ir Tarybai.

 


PASIŪLYMO DĖL REZOLIUCIJOS PRIEDAS REKOMENDACIJOS DĖL PRAŠOMO PATEIKTI PASIŪLYMO TURINIO
A. PRAŠOMO PATEIKTI PASIŪLYMO PRINCIPAI IR TIKSLAI

I. Pagrindiniai pasiūlymo principai ir tikslai yra šie:

  visais susijusių suinteresuotųjų subjektų ir visuomenės lygmenimis kurti pasitikėjimą dirbtiniu intelektu, robotika ir susijusiomis technologijomis, ypač jei jie laikomi didelės rizikos technologijomis;

  remti dirbtinio intelekto, robotikos ir susijusių technologijų kūrimą Sąjungoje, be kita ko, padedant įmonėms, startuoliams ir mažosioms ir vidutinėms įmonėms įvertinti ir tinkamai užtikrintai atsižvelgti į esamus ir būsimus reguliavimo reikalavimus ir riziką vykstant inovacijų ir verslo kūrimo procesui, taip pat tolesniu etapu, kai šias technologijas naudos specialistai ir privatūs asmenys, sumažinant kliūtis ir biurokratizmą;

  remti dirbtinio intelekto, robotikos ir susijusių technologijų diegimą Sąjungoje sukuriant tinkamą ir proporcingą reguliavimo sistemą, kurią reikėtų taikyti nedarant poveikio esamiems ar būsimiems sektoriniams teisės aktams, taip siekiant skatinti reguliavimo tikrumą ir inovacijas, kartu užtikrinant pagrindines teises ir vartotojų apsaugą;

  remti dirbtinio intelekto, robotikos ir susijusių technologijų naudojimą Sąjungoje užtikrinant, kad jie būtų kuriami, diegiami ir naudojami laikantis etikos principų;

  reikalauti užtikrinti skaidrumą ir geresnius informacijos srautus tarp piliečių ir organizacijose, kuriančiose, diegiančiose ar naudojančiose dirbtinį intelektą, robotiką ir susijusias technologijas, siekiant užtikrinti, kad šios technologijos atitiktų Sąjungos teisę, pagrindines teises ir vertybes, taip pat prašomo pateikti pasiūlymo dėl reglamento etikos principus.

II. Šį pasiūlymą sudaro šios dalys:

  Reglamentas dėl dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų, Komisijos ir (arba) kitų atitinkamų Sąjungos institucijų, įstaigų, organų ir tarnybų, kurie gali būti atitinkamai paskirti, koordinavimo vaidmuo Sąjungos lygmeniu ir Europos atitikties etikos principams sertifikavimas;

  remiamasis Europos Komisijos vaidmuo;

  priežiūros institucijos kiekvienoje valstybėje narėje vaidmuo siekiant užtikrinti, kad etikos principai būtų taikomi dirbtiniam intelektui, robotikai ir susijusioms technologijoms;

  susijusių mokslinių tyrimų ir plėtros projektų ir susijusių suinteresuotųjų subjektų, įskaitant startuolius, mažąsias ir vidutines įmones, bendroves, socialinius partnerius ir kitus pilietinės visuomenės atstovus, dalyvavimas ir konsultavimasis su jais, taip pat paramos jiems teikimas;

  priedas, kuriame nustatytas išsamus suvestinis didelės rizikos sektorių ir didelės rizikos naudojimo būdų ir paskirčių sąrašas;

III. Reglamentas dėl dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų grindžiamas šiais principais:

  dirbtinis intelektas, robotika ir susijusios technologijos yra orientuoti į žmogų, žmogaus sukurti ir žmogaus kontroliuojami;

  didelės rizikos dirbtinio intelekto, robotikos ir susijusių technologijų atitikties vertinimas yra privalomas;

  sauga, skaidrumas ir atskaitomybė;

  apsaugos nuo šališkumo ir diskriminacijos bei teisių gynimo priemonės;

  teisė į teisių gynimą;

  socialinė atsakomybė ir lyčių lygybė dirbtinio intelekto, robotikos ir susijusių technologijų srityje;

  aplinkos atžvilgiu tvarus dirbtinis intelektas, robotika ir susijusios technologijos;

  privatumo paisymas ir biometrinio atpažinimo naudojimo apribojimai;

  su dirbtiniu intelektu, robotika ir susijusiomis technologijomis susijęs geras valdymas, įskaitant tokių technologijų naudojamus arba sukurtus duomenis.

IV. Siekiant Sąjungos lygmeniu užtikrinti koordinavimą, Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir tarnybos, kurie gali būti paskirti šiomis aplinkybėmis, turėtų vykdyti šias pagrindines užduotis:

  bendradarbiauja stebint prašomo pateikti pasiūlymo dėl reglamento ir atitinkamų sektorinių Sąjungos teisės aktų įgyvendinimą;

  bendradarbiauja klausimais siekiant parengti gaires dėl nuoseklaus prašomo pateikti pasiūlymo dėl reglamento taikymo, t. y. dėl atitinkamų kriterijų taikymo dirbtiniam intelektui, robotikai ir susijusioms technologijoms, kurie laikomi didelės rizikos technologijomis, taip pat didelės rizikos sektorių ir didelės rizikos naudojimo būdų ir paskirčių sąrašo, kuris nustatomas šio reglamento priede;

  bendradarbiauja su priežiūros institucija kiekvienoje valstybėje narėje klausimais, susijusiais su Europos atitikties etikos principams sertifikato parengimu ir teisinėmis prievolėmis, kaip nustatyta prašomame pateikti pasiūlyme dėl reglamento ir atitinkamuose Sąjungos teisės aktuose, taip pat su paraiškos pateikimo proceso, kuris taikomas visiems technologijų, kurios nelaikomos didelės rizikos technologijomis, kūrėjams, diegėjams ar naudotojams, kūrimu, siekiant patvirtinti, kad jie laikosi šio prašomo pateikti pasiūlymo dėl reglamento;

  bendradarbiauja remiant tarpsektorinį ir tarpvalstybinį bendradarbiavimą vykdant reguliarius mainus su atitinkamais suinteresuotaisiais subjektais ir pilietine visuomene ES ir pasaulyje, ypač su bendrovėmis, socialiniais partneriais, tyrėjais ir kompetentingomis institucijomis, taip pat dėl techninių standartų sukūrimo tarptautiniu lygmeniu;

  bendradarbiauja su priežiūros institucija kiekvienoje valstybėje narėje klausimais, susijusiais su privalomų gairių dėl taikytinos metodikos, kurios kiekvienai priežiūros institucijai reikia laikytis vertinant atitiktį, parengimu;

  palaiko ryšius su priežiūros institucija kiekvienoje valstybėje narėje ir koordinuoja jų įgaliojimus bei užduotis;

  bendradarbiauja ugdant sąmoningumą, teikiant informaciją ir dalyvaujant mainuose su kūrėjais, diegėjais ir naudotojais visoje Sąjungoje;

  bendradarbiauja ugdant sąmoningumą, teikiant informaciją, skatinant skaitmeninį raštingumą, mokymą ir įgūdžius, taip pat dalyvaujant mainuose su projektuotojais, kūrėjais, diegėjais, piliečiais, naudotojais ir instituciniais organais visoje Sąjungoje ir tarptautiniu mastu;

  bendradarbiauja koordinuojant bendrą dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo valdymo sistemą, kurią įgyvendintų priežiūros institucija kiekvienoje valstybėje narėje;

  bendradarbiauja klausimais, susijusiais su kompetencijos centro teikiamomis paslaugomis skatinant keistis informacija ir remiant bendro suvokimo ugdymą bendrojoje rinkoje;

  bendradarbiauja klausimais, susijusiais su saugumo ir gynybos darbo grupės įsteigimu.

V. Komisija taip pat turėtų vykdyti šias užduotis:

  priimant deleguotuosius aktus rengti ir vėliau atnaujinti bendrą didelės rizikos technologijų sąrašą, kuris nustatytas Sąjungoje bendradarbiaujant su priežiūros institucija kiekvienoje valstybėje narėje;

  priimant deleguotuosius aktus atnaujinti šio reglamento priede pateiktą sąrašą.

VI. Priežiūros institucija kiekvienoje valstybėje narėje turėtų atlikti šias pagrindines užduotis:

  padėti nuosekliai taikyti reguliavimo sistemą, nustatytą prašomame pateikti pasiūlyme dėl reglamento, bendradarbiaujant su priežiūros institucija kitose valstybėse narėse, taip pat su kitomis institucijomis, atsakingomis už sektorinių teisės aktų įgyvendinimą, Komisija ir (arba) kitais atitinkamais Sąjungos institucijomis, organais, įstaigomis ir tarnybomis, kurie gali būti paskirti šiomis aplinkybėmis, t. y. dėl rizikos vertinimo kriterijų taikymo, numatytų prašomame pateikti pasiūlyme dėl reglamento, ir didelės rizikos sektorių ir didelės rizikos naudojimo būdų ar paskirties sąrašo, išdėstyto šiame priede, taip pat vykdyti šio reikalingų ir deramų priemonių įgyvendinimo priežiūrą, kai taikant tokius kriterijus nustatomos didelės rizikos technologijos;

  vertinti, ar Sąjungoje kuriamą, diegiamą ir naudojamą dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, reikia laikyti didelės rizikos technologijomis, remiantis rizikos vertinimo kriterijais, nustatytais prašome pateikti pasiūlyme dėl reglamento, ir jo priede pateiktu sąrašu;

  išduoti Europos atitikties etikos principams ir teisinėms prievolės sertifikatą, kaip nustatyta prašomame pateikti pasiūlyme dėl reglamento ir atitinkamuose Sąjungos teisės aktuose, be kita ko, ir tada, kai jie kyla iš bet kokio technologijų, kurios vertinamos kaip ne didelės rizikos technologijos, kūrėjo, diegėjo ar naudotojo, siekiančio sertifikuoti jų atitiktį prašomam pateikti pasiūlymui dėl reglamento, paraiškų pateikimo proceso;

  vertinti jų etinių principų ir teisinių prievolių laikymąsi ir jį stebėti, kaip tai nustatyta prašomame pateikti pasiūlyme dėl reglamento ir atitinkamuose Sąjungos teisės aktuose;

  prisiimti atsakomybę už dirbtinio intelekto, robotikos ir susijusių technologijų valdymo standartų nustatymą ir taikymą, be kita ko, užmezgant ir palaikant reguliarų dialogą su visais atitinkamais suinteresuotaisiais subjektais ir pilietinės visuomenės atstovais; todėl, bendradarbiaujant su Komisija ir atitinkamomis Sąjungos institucijomis, įstaigomis, organais ir tarnybomis, kurie gali būti paskirti šiomis aplinkybėmis, koordinuoti bendrą sistemą Sąjungos lygmeniu;

  ugdyti sąmoningumą, teikti informaciją apie dirbtinį intelektą, robotiką ir susijusias technologijas visuomenei, remti atitinkamų profesijų atstovų mokymą, be kita ko, teismų sistemoje, taip įgalinant piliečius ir darbuotojus, nes ugdomas jų skaitmeninis raštingumas, jiems suteikiami įgūdžiai ir priemonės, kurių reikia teisingai pertvarkai;

  būti pirmuoju kontaktiniu centru tais atvejais, kai kyla įtarimų dėl teisinių prievolių ir etikos principų, kaip išdėstyta prašomame pateikti pasiūlyme dėl reglamento, pažeidimų, ir tokiais atvejais atlikti atitikties vertinimą; kai atliekamas šis atitikties vertinimas, Komisija gali pasikonsultuoti su kitomis kompetentingomis institucijomis Sąjungoje, t. y. su Bendradarbiavimo vartotojų apsaugos srityje tinklu, nacionalinėmis vartotojų apsaugos tarnybomis, pilietinės visuomenės organizacijomis ir socialiniais partneriais, ir (arba) juos informuoti.

VII. Pagrindinis suinteresuotųjų subjektų vaidmuo turėtų būti bendradarbiauti su Komisija ir (arba) visomis kitomis Sąjungos institucijomis, įstaigomis, organais ir tarnybomis, kurie gali būti paskirti šiomis aplinkybėmis, ir priežiūros institucija kiekvienoje valstybėje narėje.

B. PRAŠOMO PATEIKTI PASIŪLYMO DĖL TEISĖKŪROS PROCEDŪRA PRIIMAMO AKTO TEKSTAS

Pasiūlymas dėl

EUROPOS PARLAMENTO IR TARYBOS REGLAMENTO

dėl dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų

Atsižvelgdami į Sutartį dėl Europos Sąjungos veikimo, ypač į jos 114 straipsnį,

atsižvelgdami į Europos Komisijos pasiūlymą,

teisėkūros procedūra priimamo akto projektą perdavus nacionaliniams parlamentams,

atsižvelgdami į Europos ekonomikos ir socialinių reikalų komiteto nuomonę,

laikydamiesi įprastos teisėkūros procedūros,

kadangi:

(1) dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas, kūrimas, diegimas ir naudojimas turėtų būti grindžiami naudos visuomenei siekiu. Tokios technologijos gali suteikti galimybių ir kelti riziką, taigi, šie klausimai turėtų būti sprendžiami ir reguliuojami išsamia Sąjungos teisės aktų sistema, atspindinčia etikos principus, kurių turi būti laikomasi nuo tokių technologijų sukūrimo ir įdiegimo iki jų naudojimo;

(2) siekiant faktiškai pasinaudoti šių technologijų teikiamomis galimybėmis ir nuosekliai spręsti su jomis susijusios rizikos klausimus, taip pat siekiant užkirsti kelią skaidymui norint išvengti reglamentavimo, Sąjungoje ir visose valstybėse narėse reikėtų vienodai laikytis tokios dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba sukuriami naudojant tokias technologijas, kūrimo, diegimo ir naudojimo reguliavimo sistemos nuostatų. Reikėtų užtikrinti, kad šiame reglamente nustatytos taisyklės visoje Sąjungoje būtų taikomos vienodai;

(3) esant tokioms aplinkybėms, dabartinė visoje Sąjungoje vyraujanti taisyklių ir praktikos įvairovė kelia didelę bendrosios rinkos susiskaidymo riziką ir didelį pavojų tiek asmenų, tiek visuomenės gerovės ir klestėjimo apsaugai, taip pat nuosekliam viso dirbtinio intelekto, robotikos ir susijusių technologijų potencialo skatinant inovacijas ir išsaugant tą gerovę ir klestėjimą tyrimui. Kūrėjų, diegėjų ir naudotojų nuomonių skirtumai dėl to, kokiu mastu šioms technologijoms būdingas etinis aspektas, gali kelti kliūčių jas laisvai kurti, diegti ar naudoti Sąjungoje, tokie skirtumai gali trukdyti sudaryti vienodas sąlygas, siekti technologinės pažangos ir vykdyti ekonominę veiklą Sąjungos lygmeniu, iškraipyti konkurenciją ir trukdyti valdžios institucijoms vykdyti savo prievoles pagal Sąjungos teisę. Be to, nesant bendros dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų reguliavimo sistemos, visiems susijusiems subjektams, t. y. kūrėjams, diegėjams ir naudotojams, kyla teisinis netikrumas;

(4) vis dėlto, prisidedant prie nuoseklaus požiūrio Sąjungos lygmeniu ir jo nustatytose ribose, šiuo reglamentu valstybėms narėms turėtų būti suteikta įgyvendinimo laisvė, be kita ko, dėl to, kaip turi būti vykdomi jų atitinkamų nacionalinių priežiūros institucijų įgaliojimai atsižvelgiant į tikslą, kurio jos turi siekti, kaip nustatyta šiame reglamente;

(5) šis reglamentas nedaro poveikio galiojantiems ar būsimiems sektorių teisės aktams. Jis turėtų būti proporcingas savo tikslui, kad nebūtų nepagrįstai varžomos inovacijos Sąjungoje, ir atitikti rizika grindžiamą požiūrį;

(6) minėtų nuostatų geografinė taikymo sritis turėtų apimti visus dirbtinio intelekto, robotikos ir susijusių technologijų komponentus jų kūrimo, diegimo ir naudojimo Sąjungoje etapais, įskaitant atvejus, kai dalis technologijų galėtų būti už Sąjungos ribų arba jos nebūtų susietos su konkrečia ar viena bendra vieta, pavyzdžiui, debesijos kompiuterijos paslaugų atveju;

(7) siekiant taikyti suvienodintą reguliavimo metodą ir suteikti teisinio tikrumo piliečiams ir įmonėms, būtina Sąjungoje vienodai suprasti tokias sąvokas kaip dirbtinis intelektas, robotika, susijusios technologijos ir biometrinis atpažinimas. Jos turėtų būti technologiškai neutralios ir prireikus persvarstomos;

(8) be to, reikia atsižvelgti į tai, kad yra technologijų, susijusių su dirbtiniu intelektu ir robotika, suteikiančių galimybę programine įranga valdyti fizinius ar virtualius procesus su įvairaus laipsnio autonomija[13]. Pavyzdžiui, automatizuoto transporto priemonių vairavimo atveju buvo pasiūlyti šeši vairavimo automatizavimo lygiai pagal SAE tarptautinį standartą J3016;

(9) kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas, turėtų būti papildomos, o ne pakeičiamos žmogaus galimybės ir užtikrinama, kad jas naudojant nebūtų pakenkta piliečių interesams, ir turėtų būti laikomasi Sąjungos teisės, pagrindinių teisių, nustatytų Europos Sąjungos pagrindinių teisių chartijoje (toliau – Chartija), nusistovėjusioje Europos Sąjungos Teisingumo Teismo praktikoje ir kituose Europos ir tarptautiniuose dokumentuose, kurie taikomi Sąjungoje;

(10) sprendimams, priimtiems naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, arba jais grindžiamiems sprendimams ir toliau turi būti taikoma prasminga žmogaus atliekama peržiūra, sprendimai, įsikišimas ir kontrolė. Dėl tokių technologijų techninio ir operacinio sudėtingumo niekada neturėtų būti užkertamas kelias jų diegėjui ar naudotojui bent jau pradėti saugų sustabdymą, jas pakeisti, sustabdyti ar grįžti prie ankstesnės padėties atkuriant saugias funkcijas tais atvejais, kai kyla pavojus, kad nebus laikomasi Sąjungos teisės ir etinių principų bei šiame reglamente nustatytų teisinių įpareigojimų;

(11) dirbtinis intelektas, robotika ir susijusios technologijos, kurių kūrimas, diegimas ir naudojimas kelia didelį pavojų, kad asmenys gali būti sužaloti ar kad jiems ar visuomenei gali būti padaryta žala pažeidžiant Sąjungos teisėje nustatytas pagrindines teises ir saugos taisykles, turėtų būti laikomi didelės rizikos technologijomis. Tam, kad jos būtų vertinamos taip, reikėtų atsižvelgti į sektorių, kuriame jos kuriamos, diegiamos ar naudojamos, jų konkretų naudojimą ar paskirtį ir sužalojimo ar žalos, kurios galima tikėtis, sunkumą. Sunkumo laipsnis turėtų būti nustatomas remiantis galimo sužalojimo ar žalos, dydžiu, nukentėjusių asmenų skaičiumi, bendra padarytų nuostolių verte ir žala visai visuomenei. Sunkūs sužalojimai ir žala yra, pavyzdžiui, vaikų, vartotojų ar darbuotojų teisių pažeidimai, dėl kurių masto, atsižvelgiant į nukentėjusių vaikų, vartotojų ar darbuotojų skaičių arba jų poveikį visai visuomenei, kyla didelis pavojus, kad bus pažeistos Sąjungos teisėje nustatytos pagrindinės teisės ir saugos taisyklės. Šiame reglamente turėtų būti pateiktas išsamus ir suvestinis didelės rizikos sektorių ir didelės rizikos naudojimo būdų bei tikslų sąrašas;

(12) šiame reglamente nustatytos prievolės, visų pirma susijusios su didelės rizikos technologijomis, neturėtų būti taikomos Sąjungoje kuriamam, diegiamam ir naudojamam dirbtiniam intelektui, robotikai ir susijusioms technologijoms, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, kurie, atlikus šiame reglamente numatytą rizikos vertinimą, yra laikomi keliančiais didelę riziką. Tokių prievolių turi būti laikomasi nedarant poveikio bendrajai pareigai, kad bet koks dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, turėtų būti kuriami, diegiami ir naudojami į žmogų orientuotu būdu ir remiantis žmogaus savarankiškumo ir žmogaus saugos principais pagal Sąjungos teisę ir visapusiškai paisant tokių pagrindinių teisių kaip žmogaus orumas, teisė į laisvę ir saugumą bei teisė į asmens neliečiamybę;

(13) didelės rizikos technologijos turėtų atitikti saugos, skaidrumo, atskaitomybės, nešališkumo ar nediskriminavimo, socialinės atsakomybės ir lyčių lygybės, teisės į žalos atlyginimą, aplinkos tvarumo, privatumo ir gero valdymo principus, nacionalinei priežiūros institucijai atlikus nešališką, objektyvų ir išorinį rizikos vertinimą pagal šiame reglamente ir jo priede pateiktame sąraše nustatytus kriterijus. Atliekant šį vertinimą turėtų būti atsižvelgiama į kūrėjo ar diegėjo nuomonę ir bet kokį įsivertinimą;

(14) Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir tarnybos, kurios gali būti paskirtos šiuo tikslu, turėtų parengti kūrėjams, diegėjams ir naudotojams skirtas neprivalomas įgyvendinimo gaires dėl atitikties šiam reglamentui metodikos. Tai darydami, jie turėtų konsultuotis su atitinkamais suinteresuotaisiais subjektais;

(15) Sąjungoje šių technologijų rizikos vertinimas turėtų būti nuoseklus, ypač kai jos vertinamos atsižvelgiant į šį reglamentą ir laikantis visų kitų taikomų konkretiems sektoriams skirtų teisės aktų. Atitinkamai nacionalinės priežiūros institucijos turėtų informuoti kitas institucijas, atliekančias rizikos vertinimus pagal konkretiems sektoriams taikomus teisės aktus, kai atlikus šiame reglamente numatytą rizikos vertinimą šios technologijos vertinamos kaip keliančios didelę riziką;

(16) kad būtų patikimas, didelės rizikos dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas, turėtų būti kuriami, diegiami ir naudojami užtikrinant saugą, skaidrumą ir atskaitomybę, remiantis patikimumo, atsparumo, saugumo, tikslumo ir klaidų nustatymo, paaiškinamumo, tikrinimo galimybės, skaidrumo ir tapatybės nustatymo saugos priemonėmis, be to, tokiu būdu, kad būtų galima laikinai išjungti atitinkamas funkcijas ar grįžti prie ankstesnės padėties atkuriant saugias funkcijas, kai nesilaikoma tų saugos priemonių. Skaidrumas turėtų būti užtikrintas suteikiant valdžios institucijoms prieigą, kai tai tikrai būtina, prie technologijų, duomenų ir kompiuterinių sistemų, kuriomis grindžiamos tokios technologijos;

(17) dirbtinio intelekto, robotikos ir susijusių technologijų, visų pirma didelės rizikos technologijų, kūrėjai, diegėjai ir naudotojai yra atsakingi už saugos, skaidrumo ir atskaitomybės principų laikymąsi tokiu mastu, kokiu jie susiję su atitinkamomis technologijomis, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas. Kūrėjai turėtų užtikrinti, kad atitinkamos technologijos būtų suprojektuotos ir sukonstruotos laikantis šiame reglamente nurodytų saugumo priemonių, o diegėjai ir naudotojai atitinkamas technologijas turėtų diegti ir naudoti visapusiškai laikydamiesi tų priemonių. Šiuo tikslu didelės rizikos technologijų kūrėjai turėtų įvertinti ir iš anksto numatyti piktnaudžiavimo, kurio galima pagrįstai tikėtis jų kuriamų technologijų atžvilgiu, riziką. Jie taip pat privalo užtikrinti, kad jų sukurtos sistemos kiek įmanoma ir naudojantis tinkamomis priemonėmis, pavyzdžiui, atsakomybės ribojimo pranešimais, nurodytų klaidų ar netikslumų tikimybę;

(18) kūrėjai ir diegėjai turėtų suteikti naudotojams galimybę susipažinti su visais tolesniais atitinkamų technologijų, visų pirma programinės įrangos, atnaujinimais pagal sutartyje aptartus arba Sąjungos ar nacionalinėje teisėje nurodytus įsipareigojimus. Be to, kai tai nurodoma rizikos vertinime, kūrėjai ir diegėjai valdžios institucijoms turėtų pateikti atitinkamus atitinkamų technologijų naudojimo dokumentus ir su tuo susijusias saugos instrukcijas, įskaitant, kai tai tikrai būtina ir visapusiškai laikantis Sąjungos teisės aktų dėl duomenų apsaugos, privatumo, intelektinės nuosavybės teisių ir komercinių paslapčių, sistemos šaltinio kodą, kūrimo priemones ir duomenis;

 (19) asmenys turi teisę tikėtis, kad technologijos, kurias jie naudoja, veiktų tinkamai ir gerbtų jų pasitikėjimą. Piliečių pasitikėjimas dirbtiniu intelektu, robotika ir susijusiomis technologijomis, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas, priklauso nuo techninių procesų suvokimo ir supratimo. Tokių procesų paaiškinamumo lygis turėtų priklausyti nuo šių techninių procesų konteksto ir klaidingų ar netikslių rezultatų padarinių rimtumo ir turi būti pakankamas, kad būtų galima juos užginčyti ir siekti žalos atlyginimo. Tikrinimo galimybė, atsekamumas ir skaidrumas turėtų padėti spręsti bet kokio galimo tokių technologijų nesuprantamumo problemą;

(20) visuomenės pasitikėjimas dirbtiniu intelektu, robotika ir susijusiomis technologijomis, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas, priklauso nuo to, kokiu mastu atitinkamomis technologijomis suteikiama galimybė jas įvertinti, patikrinti ir atsekti. Kūrėjai, kai tai būtina atsižvelgiant į jų dalyvavimo mastą, turėtų užtikrinti, kad šios technologijos būtų suprojektuotos ir sukonstruotos taip, kad būtų galima užtikrinti tokį vertinimą, tikrinimą ir atsekamumą. Tiek, kiek tai yra techniškai įmanoma, kūrėjai, diegėjai ir naudotojai turėtų užtikrinti, kad dirbtinis intelektas, robotika ir susijusios technologijos būtų diegiamos ir naudojamos visapusiškai laikantis skaidrumo reikalavimų ir sudarant sąlygas auditui ir atsekamumui;

(21) siekiant užtikrinti skaidrumą ir atskaitomybę, piliečiai turėtų būti informuojami apie tai, kad sistemoje yra naudojamas dirbtinis intelektas, kad dirbtinio intelekto sistema pritaiko produktą ar paslaugą asmeniniams jų naudotojų poreikiams, apie tai, ar jie gali išjungti ar apriboti personalizavimą, ir tada, kai jie naudoja automatizuotų sprendimo priėmimo technologiją. Be to, skaidrumo priemonės, jei tai techniškai įmanoma, turėtų būti pateikiamos kartu su aiškiais ir suprantamais paaiškinimais apie naudojamus duomenis, algoritmą, jo paskirtį, rezultatus ir galimus pavojus;

(22) programinės įrangos, algoritmų ir duomenų lemiamas šališkumas ir diskriminacija yra neteisėti ir su tuo turėtų būti kovojama reglamentuojant jų projektavimo ir diegimo procesus. Šališkumas gali kilti tiek dėl sprendimų, kurie grindžiami automatizuota sistema arba kuriuos priima tokia sistema, tiek dėl duomenų rinkinių, kuriais pagrįstas toks sprendimų priėmimas arba kuriais naudojantis apmokoma sistema;

(23) programinė įranga, algoritmai ir duomenys, naudojami arba kuriami taikant dirbtinį intelektą, robotiką ir susijusias technologijas, turėtų būti laikomi šališkais, jei, pavyzdžiui, jų rezultatai bet kurio asmens ar asmenų grupės atžvilgiu yra neoptimalūs, remiantis išankstiniu asmeniniu ar socialiniu nusistatymu ir paskesniu duomenų, susijusių su jų savybėmis, tvarkymu;

(24) laikantis Sąjungos teisės, programinė įranga, algoritmai ir duomenys, naudojami arba sukuriami taikant dirbtinį intelektą, robotiką ir susijusias technologijas, turėtų būti laikomi diskriminaciniais, jei naudojant tokias technologijas gaunami rezultatai, kurie turi neproporcingą neigiamą poveikį ir su asmeniu ar asmenų grupe elgiamasi skirtingai, be kita ko, jie patenka į nepalankią padėtį, palyginti su kitais asmenimis, dėl tokių priežasčių, kaip jų asmeninės savybės, nesant objektyvaus ar pagrįsto pateisinimo ir neatsižvelgiant į jokius reikalavimus dėl technologijų neutralumo;

(25) laikantis Sąjungos teisės, teisėti tikslai, kuriais, vadovaujantis šiuo reglamentu, galėtų būti objektyviai pateisinamas bet koks skirtingas požiūris į asmenis ar asmenų grupes, yra visuomenės saugos, saugumo ir sveikatos apsauga, nusikalstamų veikų prevencija, pagrindinių teisių ir laisvių apsauga, sąžiningas atstovavimas ir objektyvūs reikalavimai dėl profesinių pareigų;

(26) dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, turėtų padėti siekti tvarios pažangos. Tokios technologijos neturėtų prieštarauti aplinkos apsaugos ar perėjimo prie žaliosios ekonomikos tikslui. Jos galėtų atlikti svarbų vaidmenį siekiant Jungtinių Tautų nustatytų darnaus vystymosi tikslų, kad ateities kartos galėtų klestėti. Šios technologijos gali padėti stebėti tinkamą pažangą remiantis tvarumo ir socialinės sanglaudos rodikliais ir naudojant atsakingai vykdomų mokslinių tyrimų ir inovacijų priemones, kurioms reikia sutelkti Sąjungos ir jos valstybių narių išteklius siekiant remti projektus, kuriais siekiama tų tikslų, ir į juos investuoti;

(27) kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas, jokie asmenys neturėtų patirti tyčinio sužalojimo ir jiems ar visuomenei neturėtų būti sukelta jokios žalos arba toks sužalojimas ar žala neturėtų būti priimti kaip integruotieji. Todėl visų pirma didelės rizikos technologijos turėtų būti kuriamos, diegiamos ir naudojamos užtikrinant socialinę atsakomybę;

(28) taigi, kūrėjams, diegėjams ir naudotojams atsakomybė už bet kokį asmenų sužalojimą ar žalą, padarytą asmenims ir visuomenei, turėtų būti taikoma tokiu mastu, kokiu jie yra susiję su atitinkamu dirbtiniu intelektu, robotika ir susijusiomis technologijomis, ir laikantis Sąjungos ir nacionalinių taisyklių dėl atsakomybės;

(29) visų pirma, turėtų būti laikoma, kad kūrėjai, priimantys sprendimus, kuriais nustatoma ir kontroliuojama dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo eiga ar būdas, taip pat jų diegimo procese priimant sprendimus dėl diegimo ir valdant susijusią riziką bei turint naudos iš tokio naudojimo dalyvaujantys diegėjai, atliekantys kontrolės ar valdymo funkciją, paprastai turėtų būti atsakingi už tai, kad būtų išvengta tokio sužalojimo ar žalos, visų pirma atitinkamai nustatydami tinkamas priemones kūrimo proceso metu ir visapusiškai laikydamiesi tokių priemonių diegimo etapu;

(30) socialiniu požiūriu atsakingas dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, gali būti apibrėžiami kaip technologijos, kurios padeda rasti sprendimus, kuriais apsaugomi ir skatinami įvairūs su visuomene susiję tikslai, visų pirma demokratija, sveikatos apsauga ir ekonominis klestėjimas, lygios galimybės, darbuotojų ir socialinės teisės, įvairi ir nepriklausoma žiniasklaida ir objektyvi bei laisvai prieinama informacija, sudarant sąlygas viešoms diskusijoms, kokybiškam švietimui, kultūrų ir kalbų įvairovei, lyčių pusiausvyrai, skaitmeniniam raštingumui, inovacijoms ir kūrybiškumui. Šios technologijos taip pat kuriamos, diegiamos ir naudojamos tinkamai atsižvelgiant į jų galutinį poveikį fizinei ir psichinei piliečių gerovei ir neskatinant neapykantą kurstančių kalbų ar smurto. Tokių tikslų visų pirma turėtų būti siekiama naudojant didelės rizikos technologijas;

(31) dirbtinis intelektas, robotika ir susijusios technologijos taip pat turėtų būti kuriamos, diegiamos ir naudojamos siekiant remti socialinę įtrauktį, demokratiją, pliuralizmą, solidarumą, teisingumą, lygybę ir bendradarbiavimą, o jų potencialas šioje srityje turėtų būti kuo labiau padidintas ir ištirtas vykdant mokslinių tyrimų ir inovacijų projektus. Todėl Sąjunga ir jos valstybės narės turėtų sutelkti savo komunikacijos, administracinius ir finansinius išteklius tokiems projektams remti ir investuoti į juos;

(32) projektai, susiję su dirbtinio intelekto, robotikos ir susijusių technologijų potencialu sprendžiant socialinės gerovės klausimą, turėtų būti įgyvendinami remiantis atsakingai vykdomomis mokslinių tyrimų ir inovacijų priemonėmis, siekiant nuo pat pradžių užtikrinti tų projektų atitiktį etikos principams;

(33) kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, turėtų būti atsižvelgiama į jų aplinkosauginį pėdsaką. Laikantis taikytinoje Sąjungos teisėje nustatytų įpareigojimų, tokios technologijos neturėtų daryti žalos aplinkai per visą jų eksploatavimo ciklą ir visą jų tiekimo grandinę ir turėtų būti kuriamos, diegiamos ir naudojamos taip, kad būtų išsaugota aplinka, sušvelnintas ir panaikintas aplinkosauginis pėdsakas, kad būtų prisidedama prie perėjimo prie žaliosios ekonomikos ir padedama siekti neutralaus poveikio klimatui ir žiedinės ekonomikos tikslų;

(34) šio reglamento tikslais kūrėjai, diegėjai ir naudotojai turėtų būti laikomi atsakingais už bet kokią aplinkai padarytą žalą tokiu mastu, kokiu jie atitinkamai dalyvauja kuriant, diegiant ar naudojant bet kokį dirbtinį intelektą, robotiką ir susijusias technologijas, kurios laikomos keliančiomis didelę riziką, bei remiantis taikytinomis taisyklėmis dėl atsakomybės, susijusios su aplinkos apsauga;

(35) šios technologijos taip pat turėtų būti kuriamos, diegiamos ir naudojamos padedant siekti taikytinuose Sąjungos teisės aktuose nustatytų aplinkos apsaugos tikslų, pavyzdžiui, mažinti atliekų susidarymą ir anglies pėdsaką, užkirsti kelią klimato kaitai ir saugoti aplinką, o jų potencialas šioje srityje turėtų būti kuo labiau padidintas ir ištirtas vykdant mokslinių tyrimų ir inovacijų projektus. Todėl Sąjunga ir valstybės narės turėtų sutelkti savo komunikacijos, administracinius ir finansinius išteklius tokiems projektams remti ir investuoti į juos;

(36) projektai, susiję su dirbtinio intelekto, robotikos ir susijusių technologijų potencialu sprendžiant aplinkosaugos problemas, turėtų būti vykdomi remiantis atsakingai vykdomomis mokslinių tyrimų ir inovacijų priemonėmis, siekiant nuo pat pradžių užtikrinti tų projektų atitiktį etikos principams;

(37) Sąjungoje kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, turėtų būti visiškai gerbiamos piliečių teisės į privatumą ir asmens duomenų apsaugą. Visų pirma, šių technologijų kūrimas, diegimas ir naudojimas turėtų atitikti Europos Parlamento ir Tarybos reglamentą (ES) 2016/679[14] ir Europos Parlamento ir Tarybos direktyvą 2002/58/EB[15];

(38) visų pirma, naudojant nuotolinio atpažinimo technologijas, pavyzdžiui, biometrinių požymių atpažinimą, visų pirma veido atpažinimą, siekiant automatiškai nustatyti asmenų tapatybę, reikėtų tinkamai atsižvelgti į dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, naudojimo etines ribas. Kai šias technologijas naudoja valdžios institucijos esminiais visuomenės intereso tikslais, t. y. siekdamos užtikrinti asmenų saugumą ir reaguoti į nacionalines ekstremaliąsias situacijas, o ne užtikrinti turto saugumą, šios technologijos visada turėtų būti naudojamos atskleidžiant informaciją, proporcingai, tikslingai ir apsiribojant konkrečiais tikslais, ribotą laiką ir laikantis Sąjungos teisės, tinkamai atsižvelgiant į žmogaus orumą, savarankiškumą ir Chartijoje išdėstytas pagrindines teises. tokio naudojimo kriterijai ir ribos turėtų būti peržiūrimos teismine tvarka, be to, reikėtų vykdyti jų demokratinę priežiūrą bei diskutuoti dėl jų pilietinėje visuomenėje;

(39) vykdant atitinkamais standartais grindžiamą valdymą didinamas saugumas ir skatinamas piliečių pasitikėjimas dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, kūrimu, diegimu ir naudojimu;

(40) valdžios institucijos, prieš diegdamos didelės rizikos technologijas, padedančias įgyvendinti sprendimus, kurie yra priimami viešajame sektoriuje ir kurie turi tiesioginį ir didelį poveikį piliečių teisėms ir pareigoms, turėtų atlikti poveikio pagrindinėms teisėms vertinimą;

(41) kaip atitinkamo esamo valdymo standartus galima nurodyti, pavyzdžiui, Europos Komisijos įsteigtos Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais parengtas patikimo dirbtinio intelekto etikos gaires ir bet kuriuos kitus techninius standartus, pvz., tuos, kuriuos Europos lygmeniu priėmė Europos standartizacijos komitetas (CEN), Europos elektrotechnikos standartizacijos komitetas (CENELEC) ir Europos telekomunikacijų standartų institutas (ETSI), o tarptautiniu lygmeniu – Tarptautinė standartizacijos organizacija (ISO) ir Elektros ir elektronikos inžinierių institutas (IEEE);

(42) keitimasis duomenimis ir jų naudojimas tais atvejais, kai dalyvauja daug dalyvių, yra opus klausimas, todėl dirbtinio intelekto, robotikos ir susijusių technologijų kūrimas, diegimas ir naudojimas turėtų būti reglamentuojamas taikant atitinkamas taisykles, standartus ir protokolus, atspindinčius kokybės, vientisumo, saugumo, patikimumo, privatumo ir kontrolės reikalavimus. Duomenų valdymo strategijoje daugiausia dėmesio turėtų būti skiriama tokių duomenų tvarkymui, dalijimuisi jais ir prieigai prie jų, įskaitant tinkamą jų valdymą, galimybę tikrinti ir atsekamumą, ir užtikrinama tinkama duomenų, priklausančių pažeidžiamoms grupėms, įskaitant neįgaliuosius, pacientus, vaikus, mažumų atstovus ir migrantus arba kitas grupes, kurioms kyla atskirties pavojus, apsauga. Be to, prireikus kūrėjai, diegėjai ir naudotojai, vertindami duomenų rinkinius, kuriuos jie naudoja siekdami didinti savo sukurtų, diegiamų ir naudojamų technologijų patikimumą, turėtų galėti vadovautis svarbiais veiksmingumo rodikliais;

(43) valstybės narės turėtų paskirti nepriklausomą administracinę instituciją, kuri veiktų kaip priežiūros institucija. Kiekviena nacionalinė priežiūros institucija visų pirma turėtų būti atsakinga už dirbtinio intelekto, robotikos ir susijusių technologijų, kurie, atsižvelgiant į šiame reglamente nustatytus rizikos vertinimo kriterijus, laikomi keliančiais didelę riziką, nustatymą ir šių technologijų atitikties šiame reglamente nustatytiems įpareigojimams vertinimą ir stebėseną;

(44) kiekviena nacionalinė priežiūros institucija taip pat turėtų būti atsakinga už šių technologijų tinkamą valdymą, koordinuojant Komisijai ir (arba) kitoms susijusioms Sąjungos institucijoms, įstaigoms, tarnyboms ar agentūroms, kurios gali būti paskirtos šiuo tikslu. Todėl joms tenka svarbus vaidmuo skatinant Sąjungos piliečių pasitikėjimą ir didinant jų saugumą, taip pat kuriant demokratinę, pliuralistinę ir lygiateisę visuomenę;

(45) siekdamos įvertinti technologijas, kurios pagal šį reglamentą laikomos didelės rizikos technologijomis, ir stebėti jų atitiktį reglamentui, nacionalinės priežiūros institucijos, kai taikytina, turėtų bendradarbiauti su institucijomis, atsakingomis už šių technologijų vertinimą ir stebėseną bei jų atitikties sektorių teisės aktams užtikrinimą;

(46) nacionalinės priežiūros institucijos turėtų iš esmės ir reguliariai bendradarbiauti viena su kita, taip pat su Europos Komisija ir kitomis atitinkamomis Sąjungos institucijomis, įstaigomis, organais ir agentūromis, kad būtų užtikrinta darni tarpvalstybinė veikla ir sudarytos sąlygos nuosekliai kurti, diegti ir naudoti šias technologijas Sąjungoje laikantis šiame reglamente nustatytų etikos principų ir teisinių prievolių;

(47) vykdant tokį bendradarbiavimą ir siekiant visiško suderinimo Sąjungos lygmeniu, nacionalinės priežiūros institucijos turėtų padėti Komisijai parengti bendrą ir išsamų didelės rizikos dirbtinio intelekto, robotikos ir susijusių technologijų sąrašą, atitinkantį šiame reglamente ir jo priede nustatytus kriterijus. Be to, turėtų būti sukurtas Europos atitikties etikos principams sertifikato išdavimo procesas, įskaitant savanorišką paraiškų teikimo procesą visiems technologijų, kurios nelaikomos didelės rizikos technologijomis, kūrėjams, diegėjams ar naudotojams, siekiantiems patvirtinti jų atitiktį šiam reglamentui;

(48) nacionalinės priežiūros institucijos turėtų užtikrinti, kad būtų suburta kuo daugiau suinteresuotųjų subjektų, atstovaujančių, pavyzdžiui, pramonei, įmonėms, socialiniams partneriams, tyrėjams, vartotojams ir pilietinės visuomenės organizacijoms, ir sukurti pliuralistinį forumą svarstymams ir keitimuisi nuomonėmis, kad būtų parengtos išsamios ir tikslios išvados, kuriomis remiantis būtų galima nustatyti valdymo reglamentavimo gaires;

(49) nacionalinės priežiūros institucijos turėtų užtikrinti, kad būtų suburta kuo daugiau suinteresuotųjų subjektų, atstovaujančių, pavyzdžiui, pramonei, įmonėms, socialiniams partneriams, tyrėjams, vartotojams ir pilietinės visuomenės organizacijoms, ir sukurti pliuralistinį forumą svarstymams ir keitimuisi nuomonėmis, sudaryti palankesnes sąlygas suinteresuotųjų subjektų, visų pirma akademikų, mokslininkų, pramonės atstovų, pilietinės visuomenės ir pavienių ekspertų, bendradarbiavimui ir bendrai veiklai, kad būtų parengtos išsamios ir tikslios išvados, kuriomis remiantis būtų galima nustatyti valdymo reglamentavimo gaires;

(50) be to, šios nacionalinės priežiūros institucijos turėtų teikti profesines ir administracines gaires ir paramą kūrėjams, diegėjams ir naudotojams, visų pirma mažosioms ir vidutinėms įmonėms arba startuoliams, susiduriantiems su sunkumais, susijusiais su šiame reglamente nustatytų etikos principų ir teisinių prievolių laikymusi;

(51) Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir agentūros, kurie gali būti paskirti šiuo tikslu, turėtų nustatyti privalomas gaires dėl metodikos, kurią nacionalinės priežiūros institucijos turėtų naudoti atlikdamos atitikties vertinimą;

(52) teikiant pranešimus apie pažeidimus institucijos informuojamos apie galimus ir faktinius Sąjungos teisės pažeidimus, kad būtų užkirstas kelias sužalojimui, žalai ar nuostoliams, kurie kitu atveju būtų patirti. Be to, pranešimų teikimo procedūros gerina informacijos srautus įmonėse ir organizacijose, taip sumažinant riziką, kad bus kuriami turintys trūkumų ar klaidingi produktai ar paslaugos. Įmonės ir organizacijos, kuriančios, diegiančios arba naudojančios dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant duomenis, kurie naudojami arba kuriami taikant tokias technologijas, turėtų sukurti pranešimų teikimo kanalus, o asmenys, pranešantys apie pažeidimus, turėtų būti apsaugoti nuo atsakomųjų veiksmų;

(53) sparti dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, taip pat techninio mašinų mokymosi, samprotavimo procesų ir kitų technologijų, kuriomis grindžiamas toks kūrimas, plėtra yra nenuspėjama. Todėl tikslinga ir būtina nustatyti peržiūros mechanizmą, pagal kurį Komisija ne tik teiktų reglamento taikymo ataskaitas, bet ir reguliariai teiktų ataskaitas dėl galimo šio reglamento taikymo srities pakeitimo;

(54) kadangi šio reglamento tikslo, t. y. sukurti bendrą reguliavimo sistemą dėl dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų ir teisinių prievolių Sąjungoje, valstybės narės negali deramai pasiekti, o dėl šio tikslo masto arba poveikio būtų geriau jo siekti Sąjungos lygmeniu, laikydamasi Europos Sąjungos sutarties 5 straipsnyje nustatyto subsidiarumo principo Sąjunga gali patvirtinti priemones. Pagal tame straipsnyje nustatytą proporcingumo principą šiuo reglamentu neviršijama to, kas būtina nurodytam tikslui pasiekti;

(55) šiame reglamente nustatytą koordinavimą Sąjungos lygmeniu geriausiai užtikrintų Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir agentūros, kurie gali būti paskirti šiomis aplinkybėmis, kad būtų išvengta susiskaidymo ir užtikrintas nuoseklus šio reglamento taikymas. Todėl reikėtų patikėti Komisijai užduotį rasti tinkamą sprendimą dėl tokio koordinavimo Sąjungos lygmeniu struktūros, kad būtų koordinuojami valstybių narių nacionalinių priežiūros institucijų įgaliojimai ir veiksmai, visų pirma vertinant dirbtinio intelekto, robotikos ir susijusių technologijų riziką, rengiant dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo valdymo bendrąją sistemą, rengiant ir išduodant atitikties šiame reglamente nustatytiems etikos principams ir teisinėms prievolėms sertifikatus, remiant reguliarius mainus su atitinkamais suinteresuotaisiais subjektais ir pilietine visuomene bei kuriant kompetencijos centrą, Sąjungos lygmeniu sutelkiant akademikus, mokslininkus, pramonės atstovus ir pavienius ekspertus, kad būtų skatinami žinių ir techninės praktinės patirties mainai, taip pat propaguojant Sąjungos požiūrį, šiuo tikslu pasitelkiant tarptautinį bendradarbiavimą, ir užtikrinant nuoseklų pasaulinį atsaką, atsižvelgiant į šių technologijų teikiamas galimybes ir keliamą riziką.


PRIĖMĖ ŠĮ REGLAMENTĄ:

 

I skyrius

Bendrosios nuostatos

1 straipsnis

Tikslas

 

Šiuo reglamentu siekiama sukurti išsamias ir perspektyvias Sąjungos lygmens etikos principų ir teisinių prievolių, taikomų Sąjungoje kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, reglamentavimo nuostatas.

2 straipsnis

Taikymo sritis

 

Šis reglamentas taikomas Sąjungoje kuriamam, diegiamam ir naudojamam dirbtiniam intelektui, robotikai ir susijusioms technologijoms, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas.

3 straipsnis

Geografinė taikymo sritis

Šis reglamentas taikomas dirbtiniam intelektui, robotikai ir susijusioms technologijoms, kai bet kuri jų dalis kuriama, diegiama ar naudojama Sąjungoje, neatsižvelgiant į tai, ar programinė įranga, algoritmai ar duomenys, naudojami ar kuriami taikant tokias technologijas, yra už Sąjungos ribų arba nėra susieti su konkrečia geografine vieta.

4 straipsnis

Terminų apibrėžtys

Šiame reglamente vartojamų terminų apibrėžtys:

a) dirbtinis intelektas – programine įranga grindžiama arba techninėje įrangoje integruota sistema, kuri elgiasi protingai, be kita ko, rinkdama ir apdorodama duomenis, analizuodama ir interpretuodama savo aplinką bei darydama gana savarankiškus sprendimus konkretiems tikslams pasiekti[16];

b) autonomija – dirbtinio intelekto sistema, kurios veikimas grindžiamas tam tikrų įvesties duomenų interpretavimu ir naudojimusi iš anksto apibrėžtomis instrukcijomis, tačiau šiomis instrukcijomis neapsiribojant, net jei sistemos elgseną riboja ir kryptingai lemia jai iškelto tikslo įgyvendinimas bei kitos susijusios integruotosios parinktys, sprendimą dėl kurių priima jos kūrėjas;

c) robotika – technologijos, suteikiančios automatiškai valdomoms, perprogramuojamoms, daugiafunkcėms mašinoms[17] galimybę fiziniame pasaulyje atlikti tradiciškai žmonių vykdomus arba inicijuojamus veiksmus, be kito ko, taikant dirbtinį intelektą ar susijusias technologijas;

d) susijusios technologijos – technologijos, kurias naudojant programinė įranga gali iš dalies arba visiškai savarankiškai kontroliuoti fizinį arba virtualų procesą, technologijos, kuriomis galima nustatyti biometrinius, genetinius arba kitus duomenis, ir technologijos, kuriomis kopijuojamos arba kitaip naudojamos žmogaus savybės;

e) didelė rizika – su dirbtinio intelekto, robotikos ir susijusių technologijų kūrimu, diegimu ir naudojimu susijusi reikšminga rizika sužaloti asmenis arba padaryti žalos asmenims arba visuomenei, pažeidžiant Sąjungos teisėje nustatytas pagrindines teises ir saugos taisykles, atsižvelgiant į konkretų jų naudojimą arba paskirtį, sektorių, kuriame jos kuriamos, diegiamos arba naudojamos, ir sužalojimo arba žalos, kurios galima tikėtis, sunkumą;

f) kūrimas – algoritmų konstravimas ir projektavimas, programinės įrangos rašymas ir projektavimas arba duomenų rinkimas, saugojimas ir tvarkymas dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo ar mokymo tikslais arba siekiant sukurti naują taikomąją programą, skirtą esamam dirbtiniam intelektui, robotikai ir susijusioms technologijoms;

g) kūrėjas – fizinis arba juridinis asmuo, priimantis sprendimus, kuriais nustatoma ir kontroliuojama dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo eiga ar būdas;

h) diegimas – dirbtinio intelekto, robotikos ir susijusių technologijų eksploatavimas ir valdymas, taip pat jų pateikimas rinkai arba pateikimas naudotojams kitu būdu;

i) diegėjas – fizinis arba juridinis asmuo, dalyvaujantis konkrečiai diegiant dirbtinį intelektą, robotiką ir susijusias technologijas, atliekantis kontrolės ar valdymo funkciją priimant sprendimus, kontroliuojant riziką ir naudojantis šių technologijų teikiamais privalumais;

j) naudojimas – bet koks veiksmas, susijęs su dirbtiniu intelektu, robotika ir susijusiomis technologijomis, išskyrus kūrimą ar diegimą;

k) naudotojas – fizinis arba juridinis asmuo, kuris naudoja dirbtinį intelektą, robotiką ir susijusias technologijas ne kūrimo ar diegimo tikslais;

l) šališkumas – bet koks išankstinis asmeninio ar socialinio pobūdžio nusistatymas asmens ar asmenų grupės atžvilgiu remiantis jų asmeninėmis savybėmis;

m) diskriminacija – bet koks skirtingas požiūris į asmenį ar asmenų grupę remiantis pagrindu, kuris nėra objektyvus ar deramai pagrįstas, ir todėl draudžiamas pagal Sąjungos teisę;

n) sužalojimas arba žala – be kita ko, dėl neapykantą kurstančios kalbos, šališkumo, diskriminacijos ar stigmatizavimo sukeltas kūno sužalojimas arba psichinė trauma, materialinė ar nematerialinė žala, pavyzdžiui, finansiniai arba ekonominiai nuostoliai, prarasta darbo arba mokymosi galimybė, nepagrįstai apribota pasirinkimo arba saviraiškos laisvė, privatumo praradimas ir bet koks Sąjungos teisės pažeidimas, darantis žalingą poveikį asmeniui;

o) valdymas – būdas, kuriuo užtikrinama, kad kūrėjai, diegėjai ir naudotojai nusistatytų tinkamus ir pagrįstus standartus ir atitinkamus elgesio protokolus ir jų laikytųsi, remdamiesi formaliu taisyklių, procedūrų ir vertybių rinkiniu, kuris suteikia jiems galimybę tinkamai spręsti etikos klausimus, kai jie iškyla arba prieš jiems iškylant.

5 straipsnis

Dirbtiniam intelektui, robotikai ir susijusioms technologijoms taikomi etikos principai

1. Dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, Sąjungoje kuriami, diegiami ir naudojami laikantis Sąjungos teisės ir užtikrinant visapusišką pagarbą žmogaus orumui, savarankiškumui ir saugumui bei kitoms Chartijoje įtvirtintoms pagrindinėms teisėms.

2. Asmens duomenų, įskaitant asmens duomenis, gautus panaudojant ne asmens duomenis ir biometrinius duomenis, tvarkymas kuriant, diegiant ir naudojant dirbtinį intelektą, robotiką ir susijusias technologijas, vykdomas remiantis Reglamentu (ES) 2016/679 ir Direktyva 2002/58/EB.

3. Sąjunga ir jos valstybės narės skatina mokslinių tyrimų projektus, kuriais siekiama pateikti dirbtiniu intelektu, robotika ir susijusiomis technologijomis grindžiamus sprendimus, kurių tikslas – propaguoti socialinę įtrauktį, demokratiją, pliuralizmą, solidarumą, teisingumą, lygybę ir bendradarbiavimą.

II skyrius

Su didelės rizikos technologijomis susiję įsipareigojimai

6 straipsnis

Su didelės rizikos technologijomis susiję įsipareigojimai

1. Šio skyriaus nuostatos taikomos tik Sąjungoje kuriamam, diegiamam ir naudojamam dirbtiniam intelektui, robotikai ir susijusioms technologijoms, kurie laikomi didelės rizikos technologijomis, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas.

 

2. Didelės rizikos dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, kuriami, diegiami ir naudojami taip, kad nebūtų pažeisti šiame reglamente nustatyti etikos principai.

7 straipsnis

Į žmogų orientuotas ir žmogaus sukurtas dirbtinis intelektas

1. Didelės rizikos dirbtinio intelekto technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, kuriamos, diegiamos ir naudojamos taip, kad bet kuriuo metu būtų užtikrinta visapusiška žmogaus vykdoma priežiūra.

2. 1 dalyje nurodytos technologijos kuriamos, diegiamos ir naudojamos taip, kad prireikus būtų galima atgauti visišką žmogaus kontrolę, be kita ko, keičiant ar sustabdant tas technologijas.

 

8 straipsnis

Sauga, skaidrumas ir atskaitomybė

1. Didelės rizikos dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, kuriami, diegiami ir naudojami užtikrinant, kad šios technologijos būtų:

 a) kuriamos, diegiamos ir naudojamos užtikrinant atsparumą, laikantis minimaliųjų kibernetinio saugumo bazinių linijų, atitinkančių nustatytą riziką, kad jomis būtų garantuojamas tinkamas saugumo lygis, taip užkertant kelią bet kokiam techniniam pažeidžiamumui, dėl kurio jos galėtų būti panaudotos piktavališkais ar neteisėtais tikslais;

b) kuriamos, diegiamos ir naudojamos saugiai, užtikrinant, kad būtų numatytos apsaugos priemonės, kurios apimtų atsarginį planą ir veiksmus, jei kiltų pavojus saugai ar saugumui;

c) kuriamos, diegiamos ir naudojamos užtikrinant patikimą jų veiksmingumą, kurio pagrįstai tikisi naudotojas, siekiant tikslų ir vykdant veiklą, kuriai jos buvo sukurtos, be kita ko, užtikrinant, kad visos operacijos būtų atkuriamos;

d) kuriamos, diegiamos ir naudojamos užtikrinant, kad būtų tiksliai siekiama konkrečių technologijų tikslų ir vykdoma jų veikla; jei atsitiktinių netikslumų išvengti neįmanoma, sistema, naudodama atitinkamas priemones, kuo labiau atkreipia diegėjų ir naudotojų dėmesį į galimas klaidas ir netikslumus;

e) kuriamos, diegiamos ir naudojamos lengvai paaiškinama forma, užtikrinant, kad būtų galima peržiūrėti technologijų techninius procesus;

f) kuriamos, diegiamos ir naudojamos užtikrinant, kad jos informuotų naudotojus, jog jie sąveikauja su dirbtinio intelekto sistemomis, tinkamai ir visapusiškai atskleisdamos savo pajėgumus, tikslumą ir apribojimus dirbtinio intelekto kūrėjams, diegėjams ir naudotojams;

g) pagal 6 straipsnį kuriamos, diegiamos ir naudojamos taip, kad neatitikties a–g punktuose nurodytoms saugos priemonėms atveju būtų galima laikinai atjungti atitinkamas funkcijas ir grįžti į ankstesnę būseną, atkuriant saugias funkcijas. 

2. Remiantis 6 straipsnio 1 dalimi, 1 dalyje nurodytos technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar kuriami taikant tokias technologijas, kuriamos, diegiamos ir naudojamos skaidriai ir atsekamai, kad jų elementai, procesai ir etapai būtų dokumentuojami laikantis aukščiausių galimų ir taikomų standartų ir kad 14 straipsnyje nurodytos nacionalinės priežiūros institucijos galėtų įvertinti, ar tokios technologijos atitinka šiame reglamente nustatytus įpareigojimus. Visų pirma, tų technologijų kūrėjas, diegėjas ar naudotojas atsako už tai, kad būtų laikomasi 1 dalyje nustatytų saugos priemonių, ir gali tai įrodyti.

3. 1 dalyje nurodytų technologijų kūrėjas, diegėjas ar naudotojas užtikrina, kad priemones, kurių imtasi siekiant užtikrinti atitiktį 1 dalyje nustatytoms saugos priemonėms, galėtų patikrinti 14 straipsnyje nurodytos nacionalinės priežiūros institucijos arba, kai taikytina, kitos nacionalinės ar Europos sektorių priežiūros institucijos.

9 straipsnis

Nešališkumas ir nediskriminavimas

 

1. Programinė įranga, algoritmas ar duomenys, naudojami ar sukurti taikant Sąjungoje sukurtą, įdiegtą ar naudojamą didelės rizikos dirbtinį intelektą, robotiką ir susijusias technologijas, turi būti nešališki ir, nedarant poveikio 3 daliai, nediskriminuojantys dėl rasės, lyties, seksualinės orientacijos, nėštumo, negalios, fizinių ar genetinių savybių, amžiaus, priklausymo tautinei mažumai, etninės ar socialinės kilmės, kalbos, religijos ar tikėjimo, politinių pažiūrų ar pilietinio dalyvavimo, pilietybės, civilinės ar ekonominės padėties, švietimo ar teistumo.

 

2. Nukrypstant nuo 1 ir 2 dalių ir nedarant poveikio Sąjungos teisei, reglamentuojančiai kovą su neteisėta diskriminacija, bet koks skirtingas požiūris į asmenis ar asmenų grupes gali būti pateisinamas tik tuo atveju, jei esama objektyvaus, pagrįsto ir teisėto tikslo, kuris yra proporcingas ir būtinas, ir jei nėra kitos alternatyvos, dėl kurios būtų mažiau pažeidžiamas vienodo požiūrio principas.

10 straipsnis

Socialinė atsakomybė ir lyčių lygybė

Bet koks Sąjungoje kuriamas, diegiamas ir naudojamas didelės rizikos dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami naudojant tokias technologijas, turi būti kuriami, diegiami ir naudojami laikantis atitinkamos Sąjungos teisės, principų ir vertybių taip, kad nebūtų trukdoma rinkimams ir neprisidedama prie dezinformacijos sklaidos, kad būtų gerbiamos darbuotojų teisės, skatinamas kokybiškas švietimas ir skaitmeninis raštingumas, nedidinama lyčių nelygybė užkertant kelią lygioms galimybėms visiems ir nepažeidžiamos intelektinės nuosavybės teisės ir bet kokie jų apribojimai ar išimtys.

11 straipsnis

Aplinkos tvarumas

14 straipsnyje nurodytos nacionalinės priežiūros institucijos arba, atitinkamais atvejais, kitos nacionalinės ar ES priežiūros institucijos vertina didelės rizikos dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, aplinkos tvarumą, užtikrindamos, kad būtų imtasi priemonių jų bendram poveikiui, susijusiam su gamtos ištekliais, energijos vartojimu, atliekų gamyba, anglies pėdsaku, klimato kaita ir aplinkos būklės blogėjimu, sušvelninti ir ištaisyti, kad būtų užtikrinta atitiktis Sąjungos ar nacionalinės teisės aktams, taip pat bet kokiems kitiems Sąjungos prisiimtiems tarptautiniams įsipareigojimams aplinkosaugos srityje.

12 straipsnis

Privatumo ir duomenų apsaugos užtikrinimas

Biometrinių duomenų naudojimas ir rinkimas nuotolinio identifikavimo tikslais viešose vietose, pvz., biometrinis arba veido atpažinimas, kelia konkretų pavojų pagrindinėms teisėms ir turi būti diegiamas arba naudojamas tik valstybių narių valdžios institucijų esminio viešojo intereso tikslais. Minėtos institucijos užtikrina, kad pagal Sąjungos ir nacionalinę teisę, visų pirma Reglamentą (ES) 2016/679 ir Direktyvą 2002/58/EB, ir tinkamai atsižvelgiant į žmogaus orumą ir savarankiškumą bei Chartijoje nustatytas pagrindines teises, t. y. teisę į privatumą ir asmens duomenų apsaugą, toks diegimas ar naudojimas būtų atskleistas visuomenei, būtų proporcingas, tikslingas ir apribotas konkrečiais tikslais ir laiko bei vietos atžvilgiu.

 

13 straipsnis

Teisė į teisių gynimą

 Bet kuris fizinis arba juridinis asmuo turi teisę reikalauti atlyginti žalą, patirtą kuriant, diegiant ir naudojant didelės rizikos dirbtinį intelektą, robotiką ir susijusias technologijas, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba gaunami naudojant tokias technologijas, pažeidžiant Sąjungos teisę ir šiame reglamente nustatytas pareigas.

14 straipsnis

Rizikos vertinimas

1. Šiame reglamente dirbtinis intelektas, robotika ir susijusios technologijos, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami ar gaunami naudojant tokias technologijas, laikomi didelės rizikos technologijomis, kai atlikus rizikos vertinimą, grindžiamą objektyviais kriterijais, pavyzdžiui, jų konkrečiu naudojimu ar paskirtimi, sektoriumi, kuriame jie kuriami, diegiami ar naudojami, ir galimos žalos ar sužalojimų rimtumu juos kuriant, diegiant ar naudojant kyla didelis pavojus, kad pažeidžiant Sąjungos teisėje nustatytas pagrindines teises ir saugos taisykles asmenys ar visuomenė patirs žalą ar sužalojimą.

2. Nedarant poveikio taikytiniems sektoriniams teisės aktams, dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba gaunami naudojant tokias technologijas, rizikos vertinimą pagal šio straipsnio 1 dalyje nustatytus objektyvius kriterijus ir šio reglamento priede pateiktą išsamų suvestinį sąrašą atlieka 14 straipsnyje nurodytos nacionalinės priežiūros institucijos, koordinuojant Komisijai ir (arba) kitoms atitinkamoms Sąjungos institucijoms, įstaigoms, organams ir agentūroms, kurios gali būti paskirtos bendradarbiauti šiuo tikslu.

3. Bendradarbiaudama su 2 dalyje nurodytomis nacionalinėmis priežiūros institucijomis, Komisija, naudodamasi teise priimti deleguotuosius teisės aktus pagal 15a straipsnį, parengia ir vėliau atnaujina bendrą Sąjungoje nustatytų didelės rizikos technologijų sąrašą.

4. Komisija, priimdama deleguotuosius teisės aktus pagal 15a straipsnį, taip pat reguliariai atnaujina šio reglamento priede pateiktą sąrašą.

15 straipsnis

Atitikties vertinimas

1. Didelės rizikos dirbtiniam intelektui, robotikai ir susijusioms technologijoms turi būti atliekamas atitikties šio reglamento 6–12 straipsniuose nustatytiems įsipareigojimams vertinimas, taip pat turi būti vykdoma vėlesnė jų stebėsena, abu vertinimus turi atlikti 17 straipsnyje nurodytos nacionalinės priežiūros institucijos, koordinuojant Komisijai ir (arba) kitoms atitinkamoms Sąjungos institucijoms, įstaigoms, organams ir agentūroms, kurios gali būti paskirtos šiuo tikslu.

 

2. Programinė įranga, algoritmai ar duomenys, naudojami ar sukurti taikant didelės rizikos technologijas, kurios, kaip įvertinta, atitinka šio reglamento 1 dalyje nustatytus įsipareigojimus, taip pat laikomi atitinkančiais minėtus įsipareigojimus, nebent atitinkama nacionalinė priežiūros institucija nuspręstų atlikti vertinimą savo iniciatyva arba kūrėjo, diegėjo ar naudotojo prašymu.

 

3. Nedarant poveikio sektoriniams teisės aktams, Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir agentūros, kurie gali būti specialiai paskirti šiam tikslui, iki šio reglamento įsigaliojimo dienos parengia privalomas gaires dėl metodikos, kurią nacionalinės priežiūros institucijos turi taikyti atlikdamos 1 dalyje nurodytą atitikties vertinimą.

 

16 straipsnis

Europos atitikties etikos principams sertifikatas

1. Jei pagal 7a straipsnį atliktas didelės rizikos dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba gaunami naudojant tokias technologijas, atitikties vertinimas teigiamas, atitinkama nacionalinė priežiūros institucija išduoda Europos atitikties etikos principams sertifikatą.

 

2. Bet kuris dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba gaunami naudojant tokias technologijas, kurie nelaikomi didelės rizikos ir todėl jiems netaikomi 6–12 straipsniuose nustatyti įpareigojimai ir 13 bei 14 straipsniuose numatytas rizikos vertinimas ir atitikties vertinimas, kūrėjas, diegėjas arba naudotojas taip pat gali siekti patvirtinti, kad laikomasi šiame reglamente nustatytų įpareigojimų arba jų dalies, kai tai pateisinama dėl atitinkamos technologijos pobūdžio, dėl kurio sprendimą priėmė nacionalinės priežiūros institucijos. Sertifikatas išduodamas tik tuo atveju, jei atitikties vertinimą atliko atitinkama nacionalinė priežiūros institucija ir tas vertinimas yra teigiamas.

 

3. 2 dalyje nurodyto sertifikato išdavimo tikslais Komisija ir (arba) kitos atitinkamos Sąjungos institucijos, įstaigos, organai ir agentūros, kurie gali būti paskirti šiuo tikslu, parengia paraiškų teikimo tvarką.

 

III skyrius

Institucinė priežiūra

17 straipsnis

Valdymo standartai ir įgyvendinimo gairės

1. Sąjungoje kuriamas, diegiamas arba naudojamas dirbtinis intelektas, robotika ir susijusios technologijos turi atitikti atitinkamus valdymo standartus, kuriuos nustatė 17 straipsnyje nurodytos nacionalinės priežiūros institucijos, laikydamosi Sąjungos teisės, principų ir vertybių, koordinuojant Komisijai ir (arba) atitinkamoms Sąjungos institucijoms, įstaigoms, organams ir agentūroms, kurie gali būti paskirti šiuo tikslu, ir konsultuojantis su atitinkamais suinteresuotaisiais subjektais.

 

2. Į 1 dalyje nurodytus standartus įtraukiamos neprivalomos įgyvendinimo gairės dėl atitikties šiam reglamentui užtikrinimo metodikos, kuri skirta kūrėjams, diegėjams ir naudotojams. Šios gairės paskelbiamos iki šio reglamento įsigaliojimo dienos.

 

3. Duomenis, naudojamus ar sukurtus taikant Sąjungoje sukurtą, įdiegtą arba naudojamą dirbtinį intelektą, robotiką ir susijusias technologijas, tvarko kūrėjai, diegėjai ir naudotojai, laikydamiesi 1 dalyje nurodytų atitinkamų nacionalinių, Sąjungos ir kitų Europos bei tarptautinių organizacijų taisyklių ir standartų, taip pat atitinkamų pramonės ir verslo protokolų. Visų pirma, kūrėjai ir diegėjai, kai įmanoma, atlieka dirbtinio intelekto, robotikos ir susijusių technologijų naudojamų duomenų išorinių šaltinių kokybės patikras ir įdiegia jų rinkimo, saugojimo, tvarkymo ir naudojimo priežiūros mechanizmus.

 

3. Nedarant poveikio perkeliamumo teisėms ir asmenų, kuriems naudojant dirbtinį intelektą, robotiką ir susijusias technologijas buvo gauti duomenys, teisėms, duomenų, naudojamų ar sukurtų taikant Sąjungoje sukurtą, įdiegtą ar naudojamą dirbtinį intelektą, robotiką ir susijusias technologijas, rinkimas, saugojimas, apdorojimas, dalijimasis jais vykdomas ir prieiga prie jų suteikiama laikantis atitinkamų nacionalinių, Sąjungos, kitų Europos organizacijų ir tarptautinių taisyklių ir standartų, taip pat atitinkamų pramonės ir verslo protokolų. Visų pirma, kūrėjai ir diegėjai užtikrina, kad tie protokolai būtų taikomi kuriant ir diegiant dirbtinį intelektą, robotiką ir susijusias technologijas, aiškiai apibrėždami duomenų, kurie naudojami ar kuriami taikant šias technologijas, apdorojimo ir prieigos prie jų suteikimo reikalavimus, taip pat duomenų apdorojimo tikslą, aprėptį ir adresatus bei prieigos prie tokių duomenų suteikimą, visiems šiems aspektams taikant galimybės patikrinti ir atsekamumo bet kuriuo metu reikalavimą.

 

18 straipsnis

Priežiūros institucijos

1. Kiekviena valstybė narė paskiria nepriklausomą valdžios instituciją, atsakingą už šio reglamento taikymo stebėseną (toliau – priežiūros institucija), taip pat už 13, 14 ir 15 straipsniuose numatytų rizikos ir atitikties vertinimų atlikimą ir sertifikavimą, nedarant poveikio sektoriniams teisės aktams.

 

2. Kiekviena priežiūros institucija prisideda prie nuoseklaus šio reglamento taikymo visoje Sąjungoje. Tuo tikslu kiekvienos valstybės narės priežiūros institucijos bendradarbiauja tarpusavyje, su Komisija ir kitomis atitinkamomis Sąjungos institucijomis, įstaigomis, organais ir agentūromis, kurie gali būti paskirti šiuo tikslu.

 

3. Kiekviena nacionalinė priežiūros institucija atlieka pirminio informacinio centro vaidmenį tais atvejais, kai įtariama, kad plėtojant, diegiant ar naudojant dirbtinį intelektą, robotiką ir susijusias technologijas pažeidžiami šiame reglamente nustatyti etikos principai ir teisinės prievolės, įskaitant diskriminacinį elgesį ar kitų teisių pažeidimus. Tokiais atvejais atitinkama nacionalinė priežiūros institucija atlieka atitikties vertinimą, siekiant paremti piliečių teisę užginčyti ir ginti savo teises.

 

4. Kiekviena nacionalinė priežiūros institucija yra atsakinga už 13 straipsnyje nurodytų atitinkamų nacionalinių, Europos ir tarptautinių valdymo taisyklių ir standartų taikymo dirbtiniam intelektui, robotikai ir susijusioms technologijoms priežiūrą, be kita ko, palaikydama ryšius su kuo daugiau suinteresuotųjų subjektų. Tuo tikslu priežiūros institucijos kiekvienoje valstybėje narėje turi suburti forumą, skirtą reguliariems mainams informacija su akademinės bendruomenės, mokslinių tyrimų, pramonės ir pilietinės visuomenės suinteresuotaisiais subjektais ir tarp jų.

 

5. Kiekviena nacionalinė priežiūros institucija teikia profesines ir administracines gaires ir paramą, kiek tai susiję su bendru Sąjungos teisės, taikytinos dirbtiniam intelektui, robotikai ir susijusioms technologijoms, ir šiame reglamente nustatytų etikos principų įgyvendinimu, visų pirma atitinkamoms mokslinių tyrimų ir technologinės plėtros organizacijoms, mažosioms ir vidutinėms įmonėms ar startuoliams.

 

6. Kiekviena valstybė narė praneša Europos Komisijai apie teisines nuostatas, kurias ji priima pagal šį straipsnį, iki [OL: prašom įrašyti datą – vieni metai po įsigaliojimo] ir nedelsdamos – apie visus vėlesnius joms įtakos turinčius pakeitimus.

 

7. Valstybės narės imasi visų būtinų priemonių, kad užtikrintų šiame reglamente nustatytų etikos principų ir teisinių įsipareigojimų įgyvendinimą. Valstybės narės tiek Sąjungos, tiek nacionaliniu lygmeniu remia atitinkamų suinteresuotųjų subjektų ir pilietinės visuomenės pastangas užtikrinti laiku teikiamą, etišką ir gerai informacija pagrįstą atsaką į naujas galimybes ir iššūkius, visų pirma tarpvalstybinio pobūdžio, kylančius dėl technologinės plėtros, susijusios su dirbtiniu intelektu, robotika ir susijusiomis technologijomis.

 

19 straipsnis

Pranešimai apie pažeidimus ir pranešimų teikėjų apsauga

 

Pranešimams apie šio reglamento pažeidimus ir asmenų, pranešančių apie tokius pažeidimus, apsaugai taikoma Europos Parlamento ir Tarybos direktyva (ES) 2019/1937[18].

 

20 straipsnis

Koordinavimas Sąjungos lygmeniu

1. Komisija ir (arba) atitinkamos Sąjungos institucijos, įstaigos, organai ir agentūros, kurie gali būti paskirti šiame kontekste, vykdo šias užduotis:

 

 užtikrina nuoseklų 13 straipsnyje nurodyto dirbtinio intelekto, robotikos ir susijusių technologijų rizikos vertinimą, kurį turi atlikti 17 straipsnyje nurodytos nacionalinės priežiūros institucijos, remdamosi 7 straipsnio 1 dalyje numatytais bendrais objektyviais kriterijais ir šio reglamento priede pateiktu didelės rizikos sektorių ir didelės rizikos naudojimo būdų ar tikslų sąrašu;

 

 atsižvelgia į atitikties vertinimą ir tolesnę didelės rizikos dirbtinio intelekto, robotikos ir susijusių technologijų, nurodytų 14 straipsnyje, stebėseną, kurią turi atlikti 17 straipsnyje nurodytos nacionalinės priežiūros institucijos;

 

 parengia paraiškų teikimo tvarką norint gauti 15 straipsnyje nurodytą sertifikatą, kurį turi išduoti 17 straipsnyje nurodytos nacionalinės priežiūros institucijos;

 

 nedarant poveikio sektoriniams teisės aktams rengia 14 straipsnio 3 dalyje nurodytas privalomas gaires dėl metodikos, kurias turi naudoti 17 straipsnyje nurodytos nacionalinės priežiūros institucijos;

 

 koordinuoja 17 straipsnyje nurodytų nacionalinių priežiūros institucijų atitinkamų valdymo standartų, nurodytų 16 straipsnyje, nustatymą, įskaitant kūrėjams, diegėjams ir naudotojams skirtas neprivalomas įgyvendinimo gaires dėl atitikties šiam reglamentui metodikos;

 

 bendradarbiauja su 17 straipsnyje nurodytomis nacionalinėmis priežiūros institucijomis dėl jų indėlio į nuoseklų šio reglamento taikymą visoje Sąjungoje pagal 17 straipsnio 2 dalį;

 

 veikia kaip kompetencijos centras, skatindami keitimąsi informacija, susijusia su dirbtiniu intelektu, robotika ir susijusiomis technologijomis, ir remdami bendro supratimo plėtojimą bendrojoje rinkoje, teikdami papildomas gaires, nuomones ir ekspertines žinias 17 straipsnyje nurodytoms nacionalinėms priežiūros institucijoms, stebėdami, kaip įgyvendinami atitinkami Sąjungos teisės aktai, nustatydami geriausios praktikos standartus ir, kai tinkama, teikdami rekomendacijas dėl reguliavimo priemonių; tai darydami jie turėtų palaikyti ryšius su kuo didesniu atitinkamų suinteresuotųjų subjektų skaičiumi ir užtikrinti, kad jų sprendimų priėmimo lygmenų sudėtis būtų įvairi ir kad būtų užtikrinta lyčių lygybė;

 

 rengti Saugumo ir gynybos darbo grupės, kurios tikslas – nagrinėti politikos ir investicijų klausimus, konkrečiai susijusius su etišku dirbtinio intelekto, robotikos ir susijusių technologijų naudojimu saugumo ir gynybos srityje, posėdžius.

 

21 straipsnis

Įgaliojimų delegavimas

1. Įgaliojimai priimti deleguotuosius aktus Komisijai suteikiami šiame straipsnyje nustatytomis sąlygomis.

 

2. 7 straipsnio 3 ir 4 dalyse nurodyti įgaliojimai priimti deleguotuosius aktus Komisijai suteikiami 5 metų laikotarpiui nuo (šio reglamento įsigaliojimo diena).

 

3. Europos Parlamentas arba Taryba gali bet kada atšaukti 7 straipsnio 3 ir 4 dalyse nurodytus deleguotuosius įgaliojimus. Sprendimu dėl įgaliojimų atšaukimo nutraukiami tame sprendime nurodyti įgaliojimai priimti deleguotuosius aktus. Jis įsigalioja kitą dieną po sprendimo paskelbimo Europos Sąjungos oficialiajame leidinyje arba vėlesnę sprendime nurodytą dieną. Jis nedaro poveikio jau galiojančių deleguotųjų aktų galiojimui.

 

4. Prieš priimdama deleguotąjį aktą Komisija konsultuojasi su ekspertais, kiekvienos valstybės narės paskirtais laikantis 2016 m. balandžio 13 d. Tarpinstituciniame susitarime dėl geresnės teisėkūros nustatytų principų.

 

5. Apie priimtą deleguotąjį aktą Komisija nedelsdama vienu metu praneša Europos Parlamentui ir Tarybai.

 

6. Pagal 7 straipsnio 3 ir 4 dalis priimtas deleguotasis aktas įsigalioja tik tuo atveju, jeigu per tris mėnesius nuo pranešimo Europos Parlamentui ir Tarybai apie šį aktą dienos nei Europos Parlamentas, nei Taryba nepareiškia prieštaravimų arba jeigu dar nepasibaigus šiam laikotarpiui ir Europos Parlamentas, ir Taryba praneša Komisijai, kad prieštaravimų nereikš. Europos Parlamento arba Tarybos iniciatyva šis laikotarpis pratęsiamas trimis mėnesiais.

 

22 straipsnis

Direktyvos (ES) 2019/1937 dalinis keitimas

 

Direktyva (ES) 2019/1937 iš dalies keičiama taip:

 

1) 2 straipsnio 1 dalis papildoma šiuo punktu:

 

„xi) dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo.“

 

2) Priedo I dalis papildoma šiuo punktu:

 

„K. 2 straipsnio 1 dalies a punkto xi papunktis – dirbtinio intelekto, robotikos ir susijusių technologijų kūrimas, diegimas ir naudojimas.

 

„xxi) [data] Europos Parlamento ir Tarybos reglamentas dėl dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų“.“

23 straipsnis

Peržiūra

Komisija reguliariai peržiūri dirbtinio intelekto, robotikos ir susijusių technologijų, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, raidą ir ne vėliau kaip [OL: prašom įrašyti datą – treji metai po įsigaliojimo], o vėliau kas trejus metus teikia Europos Parlamentui, Tarybai ir Europos ekonomikos ir socialinių reikalų komitetui šio reglamento taikymo ataskaitą, įskaitant galimo šio reglamento taikymo srities pakeitimo vertinimą.

24 straipsnis

Įsigaliojimas

1. Šis reglamentas įsigalioja dvidešimtą dieną po jo paskelbimo Europos Sąjungos oficialiajame leidinyje. Jis taikomas nuo ... [data].

2. Šis reglamentas yra privalomas visas ir tiesiogiai taikomas valstybėse narėse pagal Europos Sąjungos steigimo sutartį.

Šis reglamentas privalomas visas ir tiesiogiai taikomas visose valstybėse narėse.


 

PRIEDAS

 

Išsamus ir suvestinis didelės rizikos sektorių ir didelės rizikos naudojimo būdų ar tikslų, dėl kurių kyla pagrindinių teisių ir saugos taisyklių pažeidimo pavojus, sąrašas.

 

 

Didelės rizikos sektoriai

 

 Užimtumas

 Švietimas

 Sveikatos priežiūra

 Transportas

 Energetika

 Viešasis sektorius (prieglobstis, migracija, sienų kontrolė, teismai ir socialinės apsaugos tarnybos)

 Gynyba ir saugumas

 Finansai, bankininkystė, draudimas

 

 

Labai rizikingi naudojimo būdai arba tikslai

 

 Įdarbinimas

 Besimokančiųjų vertinimas, taip pat pažymiais

 Viešųjų lėšų paskirstymas

 Paskolų teikimas

 Prekyba, tarpininkavimas, apmokestinimas ir t. t.

 Medicininis gydymas ir procedūros

 Rinkiminiai procesai ir politinės kampanijos

 Viešojo sektoriaus sprendimai, kurie daro didelį tiesioginį poveikį fizinių ar juridinių asmenų teisėms ir pareigoms

 Automatizuotas vairavimas

 Eismo valdymas

 Autonominės karinės sistemos

 Energijos gamyba ir paskirstymas

 Atliekų tvarkymas

 Išmetamųjų teršalų kontrolė. 

 


AIŠKINAMOJI DALIS

 

1982 m. filmo „Bėgantis skustuvo ašmenimis“ dialogas tarp Rachael, vadinamosios replikantės, dirbančios įmonėje, gaminančioje replikantus — protingus humanoidinius robotus, ir Deckardo, nusikaltėlių medžiotojo, kuris gyvenimui uždirba sunaikindamas nekontroliuojamus replikantus:

 

– ji teiraujasi: „Jūs manot, kad mūsų darbas visuomenei nenaudingas?“

 

Jis jai atsako:

 

„Replikantai, kaip ir kiti aparatai, nei jie naudingi, nei žalingi. Jeigu jie naudingi, tai ne mano problema.“

 

Nauda ir rizika

Masinis dirbtinio intelekto diegimas į visus aparatus, kuriais naudojamės viešojoje, darbo ir socialinėje aplinkoje, bus ar jau yra technologinis šuolis, palyginamas tik su pramonės revoliucija. Gyvenimas jau nebus toks pats, bus milžiniškų pokyčių darbo rinkoje, santykiuose su valdžios institucijomis, asmeniniuose santykiuose ir net mūsų gyvenime namuose – pagalvokime, ką reiškia daiktų internetas visuose buitiniuose prietaisuose namie. Dėl tokio masto technologinio šuolio mes susiduriame su dilema, kurios atsakymo ieškoma filme „Bėgantis skustuvo ašmenimis“: visa technologija teikia naudos ir kelia riziką. Kalbėdami apie dirbtinį intelektą, atsižvelgiant į jo savaiminę galią, kalbame apie naudą ir riziką tokiu mastu, kurio anksčiau niekada nesvarstėme.

 

Europos Sąjungos vaidmuo nustatant teisinę sistemą

 

Tačiau mes, atstovaudami viešojo administravimo institucijoms, nagrinėjančioms šį reiškinį, priešingai nei Deckardas, negalime pasiduoti profesiniam cinizmui. Būtent Europos Parlamentui labai svarbu tiek skatinti šių technologijų galimybes siekiant Europos gerovės ir konkurencingumo, tiek užtikrinti neatsiejamos rizikos kontrolę ar numatyti priemones kuriai nors iš šių rizikos rūšių pasireiškus. Todėl norime pirmauti teisiškai nustatant etinę ribą, kuri, viena vertus, apsaugotų Europos piliečius nuo galimų neigiamų šios technologinės plėtros pasekmių, ir, kita vertus, suteiktų papildomos naudos užtikrinant pasitikėjimą Europos dirbtiniu intelektu pasaulyje. Etinė riba atitinka mūsų Europos principus ir vertybes, nurodytus Europos Sąjungos pagrindinių teisių chartijoje ir suderinamus su mūsų civilizacijos projektu. Teisės aktai grindžiami humanistiniu ir orientuotu į žmogų požiūriu į technologinę plėtrą. Reglamentavimas taikomas ne tik Europoje sukurtam dirbtiniam intelektui, bet ir užtikrina griežtus reguliavimo reikalavimus viskam, ką ketinama naudoti Europos Sąjungoje.

 

Būtina, kad teisių ir pareigų sistema būtų bendra visose Europos Sąjungos valstybėse narėse. Jeigu būtų priimti nacionalinės teisės aktai nenustačius bendros krypties, tai galėtų sutrikdyti bendrosios rinkos veikimą ir kliudyti mūsų kolektyvinėms pastangoms pirmauti technologijų srityje pasaulyje. Įsteigus Europos agentūrą, kuri būtų atsakinga už šio reglamentavimo raidos priežiūrą, būtų suderinta kiekvienoje valstybėje narėje rengiama teisinė ir techninė sistema.

 

Lankstus ir perspektyvus reglamentavimas

 

Priešingai pozicijai, pagal kurią siekiama pereiti nuo šio sektoriaus reguliavimo prie savireguliavimo, užmezgus dialogą būtų galima parodyti visuomenės dalyvavimo svarbą, taip siekiant ne tik ekonominės grąžos, bet ir kitų tikslų. Kai kurie kiti Europos viešųjų institucijų saugomi tikslai – užkirsti kelią diskriminacijai (nesvarbu, koks jos pagrindas) sprendimų priėmimo procese, išnaudoti šių technologijų galią siekiant sukurti teisingesnę visuomenę, ypatingą dėmesį skiriant lyčių nelygybės mažinimui ir aplinkos požiūriu tvaresniems tikslams. Kalbant apie pastaruosius tikslus, tekste numatyti aiškūs Europos valdžios institucijų įgaliojimai.

 

Kitas šio teisės akto tikslas — suderinti aukštų reikalavimų sistemą ir reglamentavimo paprastumą išvengiant reguliavimo ir (arba) didelės biurokratinės naštos susijusiems subjektams. Taip pat siekiama sukurti pakankamai lanksčią sistemą, kad būtų galima prisitaikyti prie pokyčių nuolat kintančioje aplinkoje ir kartu sudaryti sąlygas sektoriams rengti teisės aktus, kurie atitiktų konkrečią realybę.

 

Visapusiškas teisės aktų derinimas sukuriant nacionalines priežiūros institucijas

 

Šiuo reglamentu siekiama užtikrinti priežiūrą visuose itin sudėtingos technologijos etapuose. Šiame teisės akte išdėstytos nuostatos apima visus aspektus, susijusius su technologijų plėtojimu, diegimu ir savarankiška raida vykstant mašinų mokymusi ir (arba) giliajam mokymuisi. Ypatingas dėmesys skiriamas prevencijai, susijusiai su rizika, kylančia dėl vadinamųjų didelės rizikos technologijų, t. y. tais atvejais, kai yra didelė neigiamo išorinio poveikio tikimybė ir (arba) kai kalbama apie opius klausimus, kuriems būtina speciali apsauga, kaip apibrėžta šiame reglamente: jame reglamentuojamas itin opus klausimas, susijęs su individualiomis teisėmis, pvz., nuotolinio atpažinimo technologijos, nustatant daug jų naudojimo garantijų; taip pat labai griežtai reglamentuojama pagrindų ir terminų sistema, kad valdžios institucijos ja galėtų naudotis tik didelio masto ekstremaliųjų situacijų atvejais.

 

Šiuo teisės aktu taip pat siekiama, kad rengiant, plėtojant, kontroliuojant ir prižiūrint šią reguliavimo sistemą dalyvautų plačioji visuomenė, ypač asmenys, kuriems jis darys didžiausią poveikį. Dokumente numatyta suteikti įgaliojimus visoms nacionalinėms priežiūros institucijoms (jame taip pat nurodoma, kad privaloma jas įsteigti), siekiant užtikrinti jų būtiną ir reguliarų dalyvavimą prisidedant prie pilietinės visuomenės. Taip pat nustatyti griežti skaidrumo ir atskaitomybės reikalavimai dirbtinio intelekto kūrėjams, diegėjams ir naudotojams. Taip pat numatomi naudotojų pilietinio elgesio įsipareigojimai ir užtikrinama būtina sąžiningo šių technologijų naudojimo apsauga.

 

Suprantamumas, skaidrumas, atskaitomybė, atsakomybė ir valdymas

 

Dar toli ta realybė, kai algoritmas galės užtikrinti psichoistorijos, apie kurią Isaac Asimov kalbėjo romane „Fondas“, atsiradimą. Todėl pačiai saviraiškos laisvės sąvokai, neatsiejamai žmogaus būklės daliai, kol kas nekyla pavojus. Net ir bandant užbėgti už akių pagrindinių istorijos tendencijų atsiradimui. Mūsų demokratinės valdžios institucijos turės užtikrinti, kad svarbūs ir mažiau svarbūs sprendimai, priimami naudojant dirbtinio intelekto technologijas, nebūtų tamsių ir nesuvokiamų matematinių formulių rezultatas. Suprantamumas, skaidrumas, atskaitomybė ir atsakomybė bus neatskiriamos Europos Sąjungoje kuriamo ir naudojamo dirbtinio intelekto savybės.

 

Trumpai tariant, Europos Sąjunga turi būti erdve, kurioje užtikrinta būtina piliečių teisių apsaugos ir technologinės plėtros stiprinimo pusiausvyra. Mūsų reglamentavimas ir priežiūros institucijos (-ų) vykdomas plėtojimas turėtų būti pavyzdys visam pasauliui ir kertinis akmuo siekiant užtikrinti tinkamą šio reiškinio valdymą visame pasaulyje.


 

 

 

UŽSIENIO REIKALŲ KOMITETO NUOMONĖ (2.6.2020)

<CommissionInt>pateikta Teisės reikalų komitetui</CommissionInt>


<Titre>su rekomendacijomis Komisijai dėl dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų nuostatų</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Nuomonės referentas (*): <Depute>Urmas Paet</Depute>

(*) Darbo su susijusiais komitetais procedūra. Darbo tvarkos taisyklių 57 straipsnis

(Iniciatyva. Darbo tvarkos taisyklių 47 straipsnis)

 

 

 

 

PASIŪLYMAI

Užsienio reikalų komitetas ragina atsakingą Teisės reikalų komitetą:

 į savo pasiūlymą dėl rezoliucijos įtraukti šiuos pasiūlymus:

1. pabrėžia, kad Europos Sąjungos ir jos valstybių narių saugumo ir gynybos politika grindžiama Europos Sąjungos pagrindinių teisių chartijoje ir Jungtinių Tautų Chartijoje įtvirtintais principais ir bendru visuotinių vertybių – pagarbos neliečiamoms ir neatimamoms žmogaus teisėms, žmogaus orumui, laisvei, demokratijai, lygybei ir teisinei valstybei – supratimu; pabrėžia, kad visuose su gynyba susijusiuose Sąjungos veiksmuose turi būti paisoma šių visuotinių vertybių, kartu skatinant taiką, saugumą ir pažangą Europoje ir pasaulyje; laikosi nuomonės, kad dirbtiniu intelektu turėtų būti naudojamasi laikantis bendrų etikos principų, pagal kuriuos naudojimas turėtų būti: atsakingas, teisingas, atsekamas, patikimas ir valdomas;

2. palankiai vertina tai, kad 2019 m. Jungtinių Tautų konvencijos dėl tam tikrų įprastinių ginklų (CCW) aukštųjų susitariančiųjų šalių susitikime buvo patvirtinta 11 pagrindinių autonominių ginklų sistemų kūrimo ir naudojimo principų; vis dėlto apgailestauja dėl to, kad nepavyko susitarti dėl teisiškai privalomos priemonės, kuria būtų reglamentuojami mirtini autonominiai ginklai, ir veiksmingo vykdymo užtikrinimo mechanizmo; palankiai vertina ir palaiko Komisijos aukšto lygio ekspertų grupės dirbtinio intelekto klausimais 2019 m. balandžio 9 d. paskelbtas „Patikimo dirbtinio intelekto etikos gaires“ ir jos poziciją dėl autonominių mirtinų ginklų sistemų; primygtinai ragina valstybes nares parengti nacionalines mirtinų autonominių ginklų apibrėžimo ir statuso strategijas, siekiant parengti išsamią Sąjungos lygmens strategiją, ir drauge su Sąjungos vyriausiuoju įgaliotiniu ir Komisijos pirmininko pavaduotoju ir Taryba skatinti diskusijas dėl autonominių mirtinų ginklų sistemų pagal Jungtinių Tautų CCW sistemą ir kituose atitinkamuose forumuose ir siekti, kad būtų nustatytos tarptautinės normos, susijusios su visiškai autonominių, pusiau autonominių ir nuotoliniu būdu valdomų mirtinų ginklų sistemų kūrimo ir naudojimo etiniais ir teisiniais parametrais; primena šiuo klausimu priimtą savo 2018 m. rugsėjo 12 d. rezoliuciją dėl autonominių mirtinų ginklų sistemų ir dar kartą ragina skubiai parengti ir patvirtinti bendrąją poziciją dėl autonominių mirtinų ginklų sistemų, kad, atsižvelgiant į pasaulio iškiliausių dirbtinio intelekto tyrėjų atvirame laiške 2015 m. pateiktą pareiškimą, tarptautiniu mastu būtų uždrausta kurti, gaminti ir naudoti autonomines mirtinų ginklų sistemas, kuriomis galima vykdyti puolimus be prasmingos žmogaus vykdomos kontrolės, nesilaikant žmogaus dalyvavimo procese principo; palankiai vertina Tarybos ir Parlamento susitarimą Europos gynybos fondo lėšomis nefinansuoti veiksmų, kuriais siekiama kurti mirtinus autonominius ginklus „be galimybės žmonėms prasmingai kontroliuoti atrankos ir jėgos panaudojimo sprendimus, priimamus vykdant atakas“; mano, kad negali būti pamiršti kitų dirbtinio intelekto prietaikų gynyboje, pvz., žvalgyboje, stebėjime ir išžvalgyme, ar kibernetinėse operacijose etiniai aspektai ir kad reikia atkreipti ypatingą dėmesį į bepiločių orlaivių kūrimą ir naudojimą karinėse operacijose;

3. rekomenduoja, kad Sąjungos sistema, kuria reglamentuojamas dirbtinio intelekto sistemų naudojimas gynybos srityje tiek kovos, tiek nekovinėmis sąlygomis, atitiktų visus taikytinus teisinius režimus, visų pirma tarptautinę humanitarinę teisę ir tarptautinę žmogaus teisių teisę, taip pat Sąjungos teisę, principus ir vertybes; pabrėžia, kad Sąjunga turėtų rodyti pavyzdį pasauliui, kaip vykdyti patikimą ir privalomą dirbtinio intelekto reglamentavimo darbotvarkę, grindžiamą demokratinėmis vertybėmis ir orientuotą į žmogų; ragina Sąjungą ir jos valstybes nares, remiantis pažangesnių valstybių narių geriausios patirties pavyzdžiais, parengti bendrus mechanizmus, kuriuos taikant būtų galima sparčiai ir nuodugniai įvertinti būdingą dirbtinio intelekto keliamą riziką ir jo teikiamas galimybes, susijusias su Sąjungos teisės taikymu, ir prireikus numatyti reikiamą koregavimą ir vykdymo užtikrinimą, turint mintyje techninių ir saugumo infrastruktūrų skirtumus visoje Sąjungoje;

4. pripažįsta, kad, kitaip nei gynybos pramonines bazes, ypatingos svarbos dirbtinio intelekto inovacijas galėtų kurti mažosios valstybės narės, todėl pagal standartizuotą BSGP požiūrį turėtų būti užtikrinama, kad nebūtų išstumiamos mažesnės valstybės narės ir MVĮ; pabrėžia, kad bendri ES dirbtinio intelekto pajėgumai, suderinti su valstybių narių veiklos koncepcijomis, gali padėti panaikinti techninį atotrūkį, dėl kurio atitinkamų technologijų, pramonės srities ekspertinių žinių arba gebėjimų diegti dirbtinio intelekto sistemas savo gynybos ministerijose neturinčios valstybės galėtų atsilikti;

5. pabrėžia, kad tokios sistemos geografinė aprėptis turėtų apimti visus Sąjungoje sukurtų, įdiegtų arba naudojamų dirbtinio intelekto, robotikos ir susijusių technologijų komponentus, įskaitant atvejus, kai dalis tokių technologijų gali būti už Sąjungos ribų arba nėra susieta su konkrečia vieta;

6. pabrėžia, kad naujos technologijos, kurioms netaikomi tarptautinės teisės aktai, turėtų būti vertinamos remiantis žmogiškumo principu ir bendrosiomis moralės normomis; pabrėžia, kad dirbtinio intelekto sistemų naudojimas ir etika gynybos srityje turi būti nuolat vertinami žmogaus teisių, ypač žmogaus saugos, sveikatos ir saugumo, laisvės, privatumo, neliečiamumo ir orumo, požiūriu ir nuolat stebimi, ypač atsižvelgiant į jų privalumus ir trūkumus, taip pat į jų poveikį visuotinių žmogaus teisių apsaugai; mano, kad dirbtinio intelekto sistemų gynybos srityje technologiniai privalumai turi būti derinami su išsamiomis diskusijomis apie dirbtinio intelekto naudojimą ir jo poveikį visuomenei ir bendruomenėms bei galimą ekonominę ir visuomeninę naudą ir kad apie riziką, kylančią dėl dirbtinio intelekto naudojimo, turi būti tinkamai informuojama;

7. mano, kad dabartinė ir būsima su saugumu ir gynyba susijusi veikla Sąjungos sistemoje bus grindžiama dirbtiniu intelektu, robotika, autonomiškumu ir panašiomis technologijomis ir kad patikimas ir stabilus dirbtinis intelektas, kuriuo galima pasikliauti, galėtų prisidėti prie modernaus ir efektyvaus karinio pajėgumo; todėl Sąjunga turi imtis vadovaujamo vaidmens saugumo ir gynybos srityje naudojamų dirbtinio intelekto sistemų mokslinių tyrimų ir plėtros srityje; mano, kad dirbtiniu intelektu grindžiamų prietaikų naudojimas saugumo ir gynybos srityje galėtų duoti daug tiesioginės naudos operacijų vadovui, pvz., užtikrinti aukštesnės kokybės surinktus duomenis, didesnį informuotumą apie padėtį, spartesnį sprendimų priėmimą, dėl geresnės kabelių sistemos sumažėjusią netiesioginės žalos riziką, pajėgų apsaugą vietoje, taip pat didesnį karinės įrangos patikimumą, taigi, mažesnį pavojų žmonėms ir riziką, kad bus aukų; pabrėžia, kad, siekiant užtikrinti Europos strateginį savarankiškumą pajėgumų ir operacijų srityse, būtina gynybos srityje plėtoti patikimo dirbtinio intelekto technologijas; primena, kad dirbtinio intelekto sistemos taip pat tampa pagrindiniais kovos su tiek internete, tiek neprisijungus prie interneto kylančiomis grėsmėmis saugumui, tokiomis kaip kibernetinis ir hibridinis karas, elementais; sykiu atkreipia dėmesį į visą nereglamentuojamo dirbtinio intelekto naudojimo keliamą riziką ir su juo susijusius iššūkius; pažymi, kad dirbtinis intelektas gali būti paveiktas manipuliavimo, klaidų ir netikslumų;

8. ragina užtikrinti įvairių Europos dirbtinio intelekto mokslinių tyrimų centrų, taip pat kitų daugiašalių forumų, pavyzdžiui, Europos Tarybos, Jungtinių Tautų švietimo, mokslo ir kultūros organizacijos (UNESCO), Ekonominio bendradarbiavimo ir plėtros organizacijos (EBPO), Pasaulio prekybos organizacijos ir Tarptautinės telekomunikacijų sąjungos (ITU), veiksmų sinergiją ir kurti jų tinklus, kad būtų galima suderinti jų pastangas ir geriau koordinuoti dirbtinio intelekto technologijų plėtrą;

9. pabrėžia, kad dirbtinio intelekto technologijos iš esmės yra dvejopo naudojimo – karinių ir civilinių technologijų mainai duoda naudos plėtojant dirbtinį intelektą su gynyba susijusios veiklos srityje; pabrėžia, kad su gynyba susijusios veiklos srityje naudojamas dirbtinis intelektas yra kompleksinė perversminė technologija, kurios plėtra gali suteikti galimybių užtikrinti Sąjungos konkurencingumą ir strateginį savarankiškumą;

10. pabrėžia, kad, kaip teigiama 2019 m. balandžio 8 d. Komisijos komunikate „Pasitikėjimo į žmogų orientuotu dirbtiniu intelektu didinimas“, pagal šį principą technologijomis naudojamasi visapusiškai paisant žmogaus teisių ir žmogus išlaiko automatizuotų sprendimų priėmimo sistemų kontrolę, o, siekiant papildyti ir paremti žmogaus autonomiją ir sprendimų priėmimą, Sąjungai reikalinga patikima į saugumą ir gynybą orientuota dirbtinio intelekto reguliavimo sistema, grindžiama atsakomybės ir skaidrumo, mūsų piliečių ir jų duomenų apsaugos ir vertybių gynimo principais, taip pat jos politika, kuria siekiama išsaugoti taiką, užkirsti kelią konfliktams ir didinti tarptautinį saugumą, sykiu pasinaudojant šių technologijų teikiamomis galimybėmis ir suvokiant, kad dirbtiniu intelektu grindžiamos sistemos ateityje bus pagrindinis plėtojamos gynybos ir gynybinių pajėgumų elementas;

11. ragina valstybes nares ir Komisiją užtikrinti, kad, išlaikant būtiną konfidencialumą, gynybos sistemose naudojamiems algoritmams būtų taikomas skaidrumo principas, įskaitant aiškią atsakomybės už dirbtinio intelekto naudojimo rezultatus tvarką; pabrėžia, kad tokie algoritmai turi būti nuolat koreguojami atsižvelgiant į pažangą dirbtinio intelekto technologijų srityje;

12. pabrėžia, kad Sąjunga, konsultuodamasi su kariniais, pramonės, teisėsaugos, akademinės bendruomenės ir pilietinės visuomenės suinteresuotaisiais subjektais, turi būti lydere remiant daugiašales pastangas Jungtinių Tautų CCW vyriausybinėje ekspertų grupėje ir kituose atitinkamuose forumuose, kad būtų aptarta veiksminga tarptautinė reguliavimo sistema, kuria būtų užtikrinta prasminga žmogaus vykdoma autonominių ginklų sistemų kontrolė, kad būtų galima valdyti tas technologijas, nustatant aiškiai apibrėžtus lyginamaisiais standartais grindžiamus procesus ir priimant teisės aktus dėl etiško technologijų naudojimo, kad būtų galima suprasti susijusius etikos aspektus, apriboti tokioms technologijoms būdingą riziką ir užkirsti kelią tokių technologijų naudojimui piktavališkais tikslais; tai taikytina, visų pirma, ir netyčinei materialinei ar nematerialinei žalai asmenims, tokiai kaip pagrindinių teisių pažeidimas ar fizinė žala; Sąjunga, bendradarbiaudama su valstybėmis narėmis, turi nustatyti tinkamą atsakomybės tvarką, taikytiną dirbtinio intelekto srities inovacijoms ir kitoms imersinėms saugumo ir gynybos srityje naudojamoms technologijoms, taip sukurdama atskaitomybės ir atsekamumo mechanizmų teisinį pagrindą; pabrėžia, kad bet kokia būsima technologijų pažanga, pažanga dirbtinio intelekto srityje ir nauji karo metodai negali užgožti Sąjungos teisės aktų ir normatyvinių sistemų, todėl jie turi būti paremti prasmingomis stebėsenos sistemomis, kurios turi būti nuolat koreguojamos, kad būtų išvengta teisinių spragų ar pilkųjų zonų; pabrėžia, kad tolesni dirbtinio intelekto moksliniai tyrimai ir plėtra turėtų padėti užtikrinti, kad dirbtiniu intelektu grindžiamos sistemos būtų geriau pasirengusios suprasti unikalias aplinkybes;

13. pritaria pagrindiniam integruotosios etikos principui, pagal kurį etikos principai dirbtinio intelekto produktams ir paslaugoms taikomi nuo pat jų projektavimo proceso pradžios;

14. primena, kad dauguma dabartinių įtakingų karinių subjektų visame pasaulyje jau deda dideles pastangas dirbtinio intelekto karinio aspekto mokslinių tyrimų ir plėtros srityje; mano, kad Sąjunga turi pasirūpinti, kad ji šioje srityje neatsiliktų; pabrėžia, kad Sąjunga turėtų nustatyti techninius ir organizacinius standartus visoms dirbtinio intelekto sistemų prietaikoms gynybos srityje pagal integruotojo saugumo principą, kad būtų galimybė žmogui vykdyti specifinę kontrolę, būtų užtikrintas tokių sistemų atsparumas pažeidžiamumui, kuriuo gali būti pasinaudota vykdant išorės išpuolius, kibernetinius išpuolius ir darant skaitmeninę įtaką, nukreiptą tiek į programinės, tiek į aparatinės įrangos duomenis, modelį ar pagrindinę infrastruktūrą, taip pat kad jos atitiktų aukščiausius įmanomus patikimumo standartus, aktyvaus stebėjimo ir sekimo reikalavimus, susijusius su operatyvinių duomenų rinkimu, kaupimu ir naudojimu per visą sistemos gyvavimo ciklą; pabrėžia dirbtinio intelekto algoritmų skaidrumo ir atskaitomybės svarbą; atkreipia dėmesį į svarbų algoritmų skaidrumo ir algoritmų naudojimo skaidrumo skirtumą; pabrėžia, kad dirbtinio intelekto sistemos ir prietaikos, skirtos duomenims išgauti ir sintetinti, taip pat jų rezultatams ekstrapoliuoti, siekiant informacija pagrįsti su gynyba ir nacionaliniu saugumu susijusius sprendimus, turi būti tiksliai apibrėžtos taikymo srities ir atitikti dabartinės reguliavimo sistemos nuostatas, susijusias su duomenų rinkimu ir tvarkymu; pabrėžia, kad dirbtinio intelekto prietaikos, kurių paskirtis yra žvalgybos tikslais tvarkyti duomenis vykdant su gynyba susijusią veiklą, turėtų atitikti duomenų tvarkymo standartus, kad būtų išvengta nenumatyto stebėjimo arba žmogaus teisių pažeidimo rizikos; mano, kad tokių didelės rizikos dirbtiniu intelektu grindžiamų technologijų prietaikų kaip veido atpažinimo technologijos, kurių galutinė reguliavimo sistema ES lygmeniu dar nesukurta, atvejais Sąjunga turi užtikrinti, kad kuriant ir diegiant tokias programas būtų laikomasi teisėtumo, proporcingumo ir pagarbos žmogaus teisėms principų; pabrėžia, kad kompetentingos nacionalinės teisėsaugos institucijos, kurdamos ir diegdamos dirbtiniu intelektu grindžiamas sistemas ir technologijas viešajai tvarkai palaikyti, turi paisyti atitinkamų teisės aktų, kad būtų galima sumažinti neproporcingą kriminologinio prognozavimo keliamą riziką; pripažįsta, kad pagrindinis euroatlantinio saugumo garantas yra NATO, ir ragina stiprinti bendradarbiavimą su NATO aljansu, siekiant nustatyti gynybos srityje naudojamų dirbtinio intelekto sistemų bendrus standartus ir užtikrinti jų sąveikumą; pabrėžia, kad, siekiant išsaugoti bendras vertybes ir kovoti su būsimomis ir naujomis grėsmėmis, transatlantiniai santykiai yra labai svarbūs;

15. pabrėžia, kad reikia priimti aiškias gynybos srityje naudojamų dirbtinio intelekto sistemų patikimumo, saugos ir saugumo nuostatas ir reikalavimus, nustatyti įvairiais etapais (projektavimo, gamybos, naudojimo) taikytinus skaidrumo kriterijus ir per visą jų gyvavimo ciklą nuolat jas stebėti, reguliariai atlikti bandymus ir patikras; pabrėžia, kad būtina užtikrinti atitiktį taikomiems standartams ir gautiems sertifikatams tais atvejais, kai dirbtinis intelektas keičia, pvz., per mašinos savimoką, sistemų, į kurias jis integruotas, funkcijas ir veikimą, siekiant užtikrinti visišką sprendimų, priimtų veikiant dirbtiniam intelektui, ir jų padarinių atsekamumą, paaiškinamumą ir atskaitomybę ir prasmingą žmogaus vykdomą kontrolę tais atvejais, kai tokios sistemos gali nužudyti žmones;

16. ragina Komisiją, siekiant užtikrinti, kad būtų kuriamos ir diegiamos saugios, atsparios ir patikimos dirbtiniu intelektu grindžiamos ir robotinės sistemos, savo pramonės politikoje įtvirtinti kibernetinio saugumo pajėgumo stiprinimo aspektą; ragina Komisiją išnagrinėti galimybę naudoti blokų grandine grindžiamus kibernetinio saugumo protokolus ir prietaikas, kad būtų galima, naudojantis duomenų šifravimo be tarpininkų modeliais, didinti dirbtinio intelekto infrastruktūros atsparumą, patikimumą ir stabilumą; ragina Europos suinteresuotuosius subjektus tyrinėti ir konstruoti pažangias funkcijas, kurios padėtų aptikti sugadintas ir kenksmingas dirbtiniu intelektu grindžiamas ir robotikos sistemas, galinčias pakenkti Sąjungos ir jos piliečių saugumui;

17. pabrėžia, kad visos gynybos srityje naudojamos dirbtinio intelekto sistemos turi turėti konkretų ir aiškiai apibrėžtą misijos pagrindą, pagal kurį žmogus turi galimybę aptikti ir atjungti arba deaktyvuoti įdiegtas sistemas, jei šios veiktų ne pagal žmogaus nurodymu apibrėžtą ir nustatytą misijos pagrindą arba imtųsi bet kokių eskalacinių ar nenumatytų veiksmų; mano, kad dirbtinio intelekto sistemos, produktai ir technologijos, skirti kariniam naudojimui, turėtų turėti „juodąją dėžę“, kurioje būtų registruojami visos mašinos atliekamos duomenų operacijos;

18. pabrėžia, kad visa atskaitomybė ir atsakomybė už sprendimą projektuoti, plėtoti, diegti ir naudoti dirbtinio intelekto sistemas turi tekti operatoriams (žmonėms), nes žmogus turi prasmingai stebėti ir kontroliuoti bet kokią ginklų sistemą ir sąmoningai priimti sprendimą panaudoti jėgą vykdydamas bet kokį dirbtiniu intelektu grindžiamų ginklų sistemų sprendimą, kuris gali turėti mirtinų pasekmių; pabrėžia, kad žmogaus vykdoma kontrolė turėtų ir toliau būti veiksminga dirbtiniu intelektu pagrįstų sistemų valdymo ir kontrolės srityje, laikantis žmogaus dalyvavimo procese ir žmogaus atliekamo proceso valdymo principų karinės vadovybės lygmenyje; pabrėžia, kad dirbtiniu intelektu grindžiamos sistemos turi sudaryti sąlygas karinei vadovybei prisiimti visą atsakomybę ir užtikrinti visišką atskaitomybę už mirtinos jėgos naudojimą, taip pat disponuoti reikiamo masto diskrecija priimant sprendimus dėl tokių sistemų vykdomų mirtinų ar didelio masto niokojančių veiksmų, kurios negalima suteikti mašinoms, nes ji turi būti grindžiama gebėjimo atskirti, proporcingumo ir atsargumo principais; pabrėžia būtinybę sukurti aiškias ir atsekamas leidimų dislokuoti pažangius ginklus ir kitas dirbtiniu intelektu grindžiamas sistemas suteikimo ir atskaitomybės už jų dislokavimą sistemas naudojantis tokiomis unikaliomis naudotojų ypatybėmis kaip biometrinės specifikacijos, kad tokias sistemas galėtų dislokuoti tik įgaliotas personalas;

19. ragina Komisiją bendradarbiauti su valstybių narių nacionalinėmis kompetentingomis institucijomis ir kitais suinteresuotaisiais subjektais, dalyvaujančiais kuriant ir diegiant dirbtiniu intelektu grindžiamas sistemas, produktus ir technologijas, kad būtų galima sukurti saugią, patikimą ir atsparią sistemą, pagal kurią, siekiant mažinti galimų nukrypimų nuo pagrindinių principų ir etikos taisyklių, kuriais grindžiamos saugumo ir gynybos srityje naudojamos dirbtinio intelekto technologijos, tikimybę, būtų dalijamasi dirbtiniu intelektu grindžiamų sistemų programiniais kodais, jie būtų stebimi ir tikrinami; siūlo Komisijai užtikrinti, kad Sąjunga išlaikytų Sąjungos lėšomis finansuojamų mokslinių tyrimų, susijusių su saugumo ir gynybos srityje naudojamomis dirbtiniu intelektu grindžiamomis sistemomis, produktais ir technologijomis, intelektinę nuosavybę;

20. pabrėžia, kad Sąjunga turi skatinti geresnį dirbtinio intelekto, robotikos ir autonominių funkcijų ir ypatybių karinių pasekmių, jų privalumų, galimybių, įskaitant Europos gynybos pramonės srityje teikiamas galimybes, ir silpnųjų vietų supratimą; mano, kad Sąjunga turi skatinti įgyti reikiamų įgūdžių ir žinių apie technologijų plėtros procesus ir veiklos metodus visoje tiekimo grandinėje ir per visą dirbtiniu intelektu grindžiamų karinių pajėgumų gyvavimo ciklą; pabrėžia neatidėliotiną būtinybę užtikrinti didesnį Europos strateginį ir technologinį nepriklausomumą dirbtiniu intelektu grindžiamų sistemų, įskaitant joms reikalingą ypatingos svarbos infrastruktūrą, srityje;

21. mano, kad būtinas tvirtesnis valstybių narių ir Komisijos bendradarbiavimas, siekiant Sąjungoje užtikrinti nuoseklias tarpvalstybines taisykles, kad būtų galima skatinti Europos pramonės įmones bendradarbiauti ir sudaryti sąlygas kurti ir diegti dirbtiniu intelektu grindžiamas technologijas, atitinkančias nustatytus saugos ir saugumo standartus ir etikos taisykles, kuriomis reglamentuojamas dirbtinio intelekto technologijų kūrimas ir diegimas;

22. pripažįsta, kad šių dienų hibridinio ir pažangaus karo aplinkybėmis informacijos kiekis ir greitis ankstyvaisiais krizės etapais informacijos analitikams gali būti pernelyg dideli ir kad dirbtinio intelekto sistema galėtų apdoroti šią informaciją, kad, siekiant greitai reaguoti, sprendimus priimantys žmonės reikiamu metu galėtų sekti visą turimą informaciją;

23. pabrėžia, kad svarbu investuoti į žmogiškojo kapitalo, susijusio su dirbtiniu intelektu, vystymą, skatinant reikiamus įgūdžius ir švietimą su saugumu ir gynyba susijusių dirbtinio intelekto technologijų srityje ir itin daug dėmesio skiriant žmogaus atskaitomybe grindžiamų pusiau autonominių ir autonominių operacijų sistemų etikos aspektams dirbtinio intelekto pasaulyje; ypač pabrėžia, jog svarbu užtikrinti, kad etikos specialistai šioje srityje turėtų tinkamų įgūdžių ir būtų tinkamai apmokyti; ragina Komisiją kuo greičiau pateikti „Įgūdžių stiprinimo darbotvarkę“, apie kurią paskelbta 2020 m. vasario 19 d. baltojoje knygoje dėl dirbtinio intelekto;

24. pabrėžia, kad kvantinė kompiuterija galėtų būti revoliucingiausias pokytis konfliktų srityje nuo atominio ginklo atsiradimo laikų, todėl primygtinai ragina užtikrinti, kad tolesnė kvantinės kompiuterijos technologijų plėtra būtų vienas iš Sąjungos ir valstybių narių prioritetų; pripažįsta, kad dėl pasitelkiant kvantinę kompiuteriją rengiamų agresijos veiksmų, įskaitant išpuolius prieš ypatingos svarbos infrastruktūros objektus, susiklostys tokia konfliktų aplinka, kurioje sprendimams priimti skirtas laikas drastiškai sutrumpės nuo dienų ir valandų iki minučių ir sekundžių, todėl valstybės narės bus priverstos plėtoti apsisaugojimo pajėgumus ir mokyti tiek sprendimus priimančius asmenis, tiek kariškius veiksmingai reaguoti per tokį trumpą laiką;

25. pabrėžia, kad reikia įveikti dabartinį susiskaidymą Sąjungoje, susijusį su nacionaline dirbtinio intelekto teise, moksliniais tyrimais, inovacijomis ir ekspertinėmis žiniomis dirbtinio intelekto srityje, nes tas susiskaidymas kelia pavojų vidaus rinkos veikimui ir tikslui užtikrinti patikimą ir saugią dirbtinio intelekto plėtrą Europoje; šiuo atžvilgiu palankiai vertina tai, kad į Europos gynybos pramonės plėtros programą įtraukti su dirbtiniu intelektu susiję projektai; mano, kad būsimasis Europos gynybos fondas (EGF) ir nuolatinis struktūrizuotas bendradarbiavimas (PESCO) taip pat suteikia galimybę naudoti gerai pritaikytas sistemas, siekiant vykdyti būsimus su dirbtiniu intelektu susijusius projektus, kurie padėtų geriau racionalizuoti Sąjungos pastangas šioje srityje ir kartu skatinti siekti Sąjungos tikslo stiprinti žmogaus teises, tarptautinę teisę ir daugiašalius sprendimus; pabrėžia, kad su dirbtiniu intelektu susiję projektai turėtų būti derinami su platesnio masto dirbtiniam intelektui skirtomis Sąjungos civilinėmis programomis; pažymi, kad pagal Europos Komisijos baltąją knygą dėl dirbtinio intelekto kompetencijos ir bandymų centrai, kuriuose daugiausia dėmesio būtų skiriama saugumo ir gynybos srityje naudojamo dirbtinio intelekto moksliniams tyrimams ir plėtrai, turėtų būti steigiami laikantis griežtų specifikacijų, kuriomis būtų grindžiamas privačių suinteresuotųjų subjektų dalyvavimas ir investicijos;

26. atkreipia dėmesį į tai, kad Sąjunga turi stengtis užsitikrinti strateginį atsparumą, kad krizės metu ji daugiau niekad nebebūtų nepasirengusi, ir pabrėžia, kad tai itin svarbu visų pirma kalbant apie dirbtinį intelektą ir jo prietaikas gynybos ir saugumo srityje; pabrėžia, kad reikėtų patikrinti gynybos ir saugumo srityje naudojamų dirbtinio intelekto sistemų tiekimo grandines, dėl kurių gali atsirasti technologinė priklausomybė, ir laipsniškai mažinti tokią priklausomybę; ragina daugiau investuoti į Europos gynybos srityje naudojamą dirbtinį intelektą ir į ypatingos svarbos infrastruktūrą, skirtą jam palaikyti;

27. pabrėžia, kad norint plėtoti dirbtinį intelektą, kuris atitiktų pagarbos pagrindinėms teisėms ir viešojo intereso viršenybės principus, reikia, kad privatieji ir viešieji subjektai kauptų strateginius duomenis Sąjungoje ir jais dalytųsi tarpusavyje, taip pat stiprinti Sąjungos dirbtinio intelekto ekosistemą, apimančią viešojo ir privačiojo sektorių ir pilietinės visuomenės suinteresuotuosius subjektus; ragina Komisiją skatinti valstybių narių, tyrėjų, akademinės bendruomenės atstovų, pilietinės visuomenės veikėjų ir privačiojo sektoriaus, visų pirma pirmaujančių bendrovių ir įmonių, taip pat kariškių dialogą, glaudesnį bendradarbiavimą ir sinergiją, kad būtų galima vykdyti įtraukius politikos formavimo procesus, susijusius su gynybos srities dirbtinio intelekto reglamentavimu, visapusiškai išnaudoti dirbtinio intelekto potencialą, sykiu skatinant geresnį rizikos ir naudos supratimą ir užtikrinant kuo didesnį operacijų saugumą;

28. pabrėžia, kad, atsižvelgiant į plačiai paplitusį dezinformacijos karą, kurį visų pirma kelia ne Europos subjektai, dirbtinio intelekto technologijos gali turėti etiniu požiūriu neigiamą poveikį, trečiajai šaliai išnaudojant duomenų ir algoritmų šališkumą arba tyčia keičiant savimokos duomenis, taip pat gali būti veikiamos kitų formų pavojingų piktavališkų manipuliacijų nenuspėjamais būdais ir su neprognozuojamomis pasekmėmis; todėl Sąjungai vis labiau reikia toliau investuoti į mokslinius tyrimus, analizę, inovacijas ir tarpvalstybinį bei tarpsektorinį žinių perdavimą, kad būtų plėtojamos dirbtinio intelekto technologijos, kurios būtų akivaizdžiai nesusijusios su jokiu profiliavimu, šališkumu ir diskriminacija ir galėtų veiksmingai prisidėti prie kovos su melagingomis naujienomis ir dezinformacija, sykiu gerbiant duomenų privatumą ir Europos teisinę sistemą;

29. pabrėžia, kad svarbu sukurti etinio elgesio kodeksą, kuriuo būtų grindžiamas ginklais paverstų dirbtinio intelekto sistemų naudojimas per karines operacijas ir kuris būtų panašus į esamą reguliavimo sistemą, kuria draudžiama naudoti cheminius ir biologinius ginklus; laikosi nuomonės, kad Komisija turėtų imtis iniciatyvos, remiantis tarptautinės humanitarinės teisės normomis, nustatyti dirbtiniu intelektu grindžiamų ginklų sistemų naudojimo kare standartus ir kad Sąjunga turėtų siekti, kad tokie standartai būtų patvirtinti tarptautiniu mastu; mano, kad Sąjunga tarptautiniuose forumuose drauge su panašių pažiūrų partneriais, pvz., G 7, G 20 ir EBPO, turėtų įsitraukti į diplomatijos dirbtinio intelekto srityje veiklą;

30. atkreipia dėmesį į 2020 m. vasario 19 d. Komisijos baltąją knygą dėl dirbtinio intelekto ir apgailestauja, kad nebuvo atsižvelgta į karinius aspektus; ragina Komisiją ir Sąjungos vyriausiąjį įgaliotinį ir Komisijos pirmininko pavaduotoją, laikantis bendro požiūrio, pateikti sektorinę dirbtinio intelekto strategiją, skirtą su gynyba susijusiai veiklai Sąjungos sistemoje, kuria būtų užtikrinama pagarba piliečių teisėms ir Sąjungos strateginiams interesams ir kuri būtų grindžiama nuosekliu požiūriu, apimančiu ciklą nuo dirbtinio intelekto sistemų sukūrimo pradžios iki jų naudojimo kariniais tikslais, ir Aukšto lygio ekspertų grupėje dirbtinio intelekto klausimais įsteigti Saugumo ir gynybos darbo grupę, kuri konkrečiai spręstų politikos ir investicijų klausimus, taip pat nagrinėtų dirbtinio intelekto saugumo ir gynybos srityje etikos aspektus; ragina Tarybą, Komisiją ir Komisijos pirmininko pavaduotoją ir Sąjungos vyriausiąjį įgaliotinį šiuo tikslu pradėti struktūrinį dialogą su Europos Parlamentu.

 


INFORMACIJA APIE PRIĖMIMĄ NUOMONĘ TEIKIANČIAME KOMITETE

Priėmimo data

22.6.2020

 

 

 

Galutinio balsavimo rezultatai

+:

–:

0:

60

7

2

Posėdyje per galutinį balsavimą dalyvavę nariai

Alviina Alametsä, Maria Arena, Petras Auštrevičius, Traian Băsescu, Lars Patrick Berg, Anna Bonfrisco, Reinhard Bütikofer, Fabio Massimo Castaldo, Susanna Ceccardi, Włodzimierz Cimoszewicz, Katalin Cseh, Tanja Fajon, Anna Fotyga, Michael Gahler, Kinga Gál, Sunčana Glavak, Raphaël Glucksmann, Klemen Grošelj, Bernard Guetta, Márton Gyöngyösi, Sandra Kalniete, Karol Karski, Dietmar Köster, Stelios Kouloglou, Andrius Kubilius, Ilhan Kyuchyuk, David Lega, Miriam Lexmann, Nathalie Loiseau, Antonio López-Istúriz White, Claudiu Manda, Lukas Mandl, Thierry Mariani, David McAllister, Vangelis Meimarakis, Sven Mikser, Francisco José Millán Mon, Javier Nart, Gheorghe-Vlad Nistor, Urmas Paet, Kostas Papadakis, Tonino Picula, Manu Pineda, Kati Piri, Giuliano Pisapia, Diana Riba i Giner, María Soraya Rodríguez Ramos, Nacho Sánchez Amor, Isabel Santos, Jacek Saryusz-Wolski, Andreas Schieder, Radosław Sikorski, Sergei Stanishev, Tineke Strik, Hermann Tertsch, Hilde Vautmans, Harald Vilimsky, Idoia Villanueva Ruiz, Thomas Waitz, Witold Jan Waszczykowski, Charlie Weimers, Isabel Wiseler-Lima, Željana Zovko

Posėdyje per galutinį balsavimą dalyvavę pavaduojantys nariai

Katarina Barley, Nicolas Bay, Arnaud Danjean, Katrin Langensiepen, Hannah Neumann, Mick Wallace

 

 


GALUTINIS VARDINIS BALSAVIMAS NUOMONĘ TEIKIANČIAME KOMITETE

60

+

EPP

Traian Băsescu, Arnaud Danjean, Michael Gahler, Kinga Gál, Sunčana Glavak, Sandra Kalniete, Andrius Kubilius, David Lega, Miriam Lexmann, Antonio López-Istúriz White, Lukas Mandl, David McAllister, Vangelis Meimarakis, Francisco José Millán Mon, Gheorghe-Vlad Nistor, Radosław Sikorski, Isabel Wiseler-Lima, Željana Zovko

S&D

Maria Arena, Katarina Barley, Włodzimierz Cimoszewicz, Tanja Fajon, Raphaël Glucksmann, Dietmar Köster, Claudiu Manda, Sven Mikser, Tonino Picula, Kati Piri, Giuliano Pisapia, Nacho Sánchez Amor, Isabel Santos, Andreas Schieder, Sergei Stanishev

RENEW

Petras Auštrevičius, Katalin Cseh, Klemen Grošelj, Bernard Guetta, Ilhan Kyuchyuk, Nathalie Loiseau, Javier Nart, Urmas Paet, María Soraya Rodríguez Ramos, Hilde Vautmans

ID

Anna Bonfrisco, Susanna Ceccardi

VERTS

Alviina Alametsä, Reinhard Bütikofer, Katrin Langensiepen, Hannah Neumann, Diana Riba i Giner, Tineke Strik, Thomas Waitz

ECR

Anna Fotyga, Karol Karski, Jacek Saryusz-Wolski, Hermann Tertsch, Witold Jan Waszczykowski, Charlie Weimers

NI

Fabio Massimo Castaldo, Márton Gyöngyösi

 

7

-

GUE

Stelios Kouloglou, Manu Pineda, Idoia Villanueva Ruiz, Mick Wallace

ID

Nicolas Bay, Thierry Mariani

NI

Kostas Papadakis

 

2

0

ID

Lars Patrick Berg, Harald Vilimsky

 

Sutartiniai ženklai:

+ : 

- : prieš

0 : susilaikė

 


 

 

 

VIDAUS RINKOS IR VARTOTOJŲ APSAUGOS KOMITETO NUOMONĖ (8.7.2020)

<CommissionInt>pateikta Teisės reikalų komitetui</CommissionInt>


<Titre>su rekomendacijomis Komisijai dėl dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų reglamentavimo sistemos</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Nuomonės referentė: <Depute>Alexandra Geese </Depute>

(Iniciatyva. Darbo tvarkos taisyklių 47 straipsnis)

 

(*) Darbo su susijusiais komitetais procedūra. Darbo tvarkos taisyklių 57 straipsnis

 

PASIŪLYMAI

Vidaus rinkos ir vartotojų apsaugos komitetas ragina atsakingą Teisės reikalų komitetą:

 į savo pasiūlymą dėl rezoliucijos įtraukti šiuos pasiūlymus:

 

A. kadangi etinės gairės, pvz., Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais priimti principai, yra geras atspirties taškas, tačiau to nepakanka norint užtikrinti, kad įmonės elgtųsi sąžiningai ir garantuotų veiksmingą vartotojų apsaugą;

 

Taikymo sritis

1. pabrėžia, jog svarbu, kad ES etinius dirbtinio intelekto, robotikos ir susijusių technologijų aspektus akcentuojanti reglamentavimo sistema būtų taikoma tais atvejais, kai vartotojai Sąjungoje yra algoritmų sistemos naudotojai, jiems ji taikoma, į juos orientuota ar nukreipiama, neatsižvelgiant į sistemą kuriančių, parduodančių arba naudojančių subjektų įsisteigimo vietą; be to, mano, kad teisinio aiškumo atžvilgiu išdėstytos taisyklės turėtų būti taikomos visiems kūrėjams ir visoje vertės grandinėje, būtent kuriant, diegiant ir naudojant atitinkamas technologijas ir jų komponentus, ir jomis turėtų būti užtikrintas aukštas vartotojų apsaugos lygis; pakartoja, kad svarbios Sutartyse nurodytos Sąjungos vertybės, susijusios su asmens duomenų apsauga ir aiškiu, informacija pagrįstu sutikimu, ir siūlo, kad tose taisyklėse būtų atsižvelgta į patirtį, įgytą įgyvendinant Reglamentą (ES) 2016/679[19] (Bendrasis duomenų apsaugos reglamentas), kuris laikomas pasauliniu lyginamuoju standartu; mano, kad teisinis atstovas, kuris būtų įsisteigęs Sąjungoje ir kuriam galėtų būti adresuojami prašymai, kad, pavyzdžiui, užtikrinti žalos atlyginimą vartotojams, yra svarbus siekiant užtikrinti būsimos ES reglamentavimo sistemos įgyvendinimą;

 

2. pažymi, kad ES reglamentavimo sistema turėtų būti taikoma algoritmų sistemoms, įskaitant dirbtinio intelekto, daiktų interneto, mašinų mokymosi, taisyklėmis grindžiamų sistemų, automatizuoto ir pagalbinio sprendimų priėmimo procesų ir robotikos sritis; be to, pažymi, kad galėtų būti parengtos standartizuotos piktogramos, kurios padėtų vartotojams paaiškinti tas sistemas, kai jos yra sudėtingos arba apima sprendimus, kurie daro didelę įtaką jų gyvenimui;

 

3. pabrėžia, kad ES reglamentavimo sistemoje turi būti laikomasi į žmogų sutelkto požiūrio, ir ji turėtų paskatinti kurti sistemas, apimančias Europos integruotosios etikos vertybes; mano, kad ES reglamentavimo sistema, kurioje dėmesys sutelkiamas į sąjungos vertybes, nurodytas sutartyse, sukurtų pridėtinę vertę, suteikdama Europai unikalų konkurencinį pranašumą, ir reikšmingai prisidėtų prie Sąjungos piliečių ir įmonių gerovės bei klestėjimo, taip pat paskatintų vidaus rinką; pabrėžia, kad etinė dirbtinio intelekto sistema taip pat suteikia pridėtinę vertę skatinant inovacijų diegimą rinkoje;

 

4. atkreipia dėmesį į tai, kad Sprendimu Nr. 768/2008/EB[20] nustatyta teisine sistema sukuriamas suderintas gamintojų, importuotojų ir platintojų prievolių sąrašas, skatinama naudoti standartus ir numatomi keli kontrolės lygiai, atsižvelgiant į gaminio pavojingumą; mano, kad ši sistema taip pat turėtų būti taikoma produktams su integruota dirbtinio intelekto technologija;

 

5. pabrėžia, kad vykdant bet kokį būsimą reglamentavimą turėtų būti laikomasi diferencijuoto rizika pagrįsto požiūrio, taikant aiškius kriterijus ir rodiklius, taip pat nešališką teisinį vertinimą, pagrįstą galima žala asmeniu ir visai visuomenei ar jų teisių pažeidimais, atsižvelgiant į konkrečias algoritmų sistemos naudojimo aplinkybes; pabrėžia, kad teisinės prievolės ir sertifikavimo reikalavimai turėtų būti laipsniškai didinami pagal nustatytą rizikos lygį; atkreipia dėmesį, kad mažiausios rizikos kategorijoje neturėtų būti numatyta jokių papildomų teisinių prievolių; pažymi, kad algoritmų sistemos, kurios gali pakenkti asmeniui arba lemti galimus asmens teisių pažeidimus, arba daryti poveikį jo galimybėms gauti valstybės išmokas, nepriskiriamos mažiausios rizikos kategorijai; pažymi, kad rizika pagrįstas požiūris turėtų būti paremtas aiškiomis ir skaidriomis taisyklėmis, kurios suteikia pakankamai teisinio tikrumo ir kartu yra ateičiai tinkamos; ragina vienodai įgyvendinti rizikos klasifikavimo sistemą ir susijusias teisines prievoles, kad būtų užtikrintos vienodos sąlygos valstybėms narėms ir užkirstas kelias vidaus rinkos susiskaidymui; pabrėžia, kad konkrečios sistemos rizikos vertinimui turi būti reguliariai taikomas pakartotinis vertinimas;

 

6. primena, kad Komisija turėtų išnagrinėti dabartinę ES teisinę sistemą ir jos taikymą, įskaitant vartotojų teisės acquis, produktų saugą ir rinkos priežiūros teisės aktus, siekiant nustatyti teisines spragas ir taip pat galiojančius reguliavimo įsipareigojimus; mano, kad tai būtina siekiant nustatyti, ar dabartinė ES teisinė sistema gali reaguoti į dirbtinio intelekto, robotikos ir susijusių technologijų atsiradimą ir ar ji gali užtikrinti aukšto lygio vartotojų apsaugą;

 

Duomenų tvarkymas

7. pabrėžia, kad svarbu nustatyti ES etinę ir reglamentavimo sistemą, įskaitant nuostatas pagal kurias reikalaujama, kad algoritmų sistemų mokymui būtų naudojami aukštos kokybės duomenys, atsižvelgiant į jų naudojimo paskirtį; Todėl pabrėžia, kad būtina užtikrinti naudojamų mokymo duomenų reprezentatyvumą ir, kur įmanoma, šalinti rinkinių šališkumą, taip pat duomenų ir agregavimo standartus, kad pagerinti algoritmų sistemų išvestis ir padidinti vartotojų pasitikėjimą bei pritarimą; pabrėžia, kad šie duomenų rinkinius turėtų tikrinti kompetentingos institucijos, kai tik būtina užtikrinti jų atitiktį pirmiau aptartiems principams;

 

Vartotojų apsauga: algoritmų skaidrumas ir paaiškinamumas

8. pabrėžia, kad kuriant ir įgyvendinant dirbtinį intelektą, robotiką ir susijusias technologijas, kurioms būdinga rizika ir kurios pagrįstos neskaidriais algoritmais ir neobjektyviais duomenų rinkiniais, yra labai svarbus vartotojų pasitikėjimas; mano, kad vartotojai turi turėti teisę būti suprantamu, savalaikiu, standartizuotu, tiksliu ir prieinamu būdu informuojami apie algoritmų sistemų egzistavimą, pagrindimą, galimus rezultatus ir poveikį vartotojams, apie tai, kaip susisiekti su sprendimus priimančiu asmeniu ir kaip galima patikrinti, veiksmingai užginčyti ir ištaisyti sistemos sprendimus; primena, kad žmonės visada turi galėti panaikinti automatinius sprendimus; mano, kad vartotojai taip pat turėtų būti saugomi suteikiant jiems teisę išjungti arba apriboti dirbtinio intelekto sistemą, pritaikant ją asmeniniams poreikiams, kai tai įmanoma; pabrėžia, koks svarbus proporcingumas kuriant tokią skaidrumo sistemą, siekiant išvengti nereikalingos naštos startuoliams ir MVĮ, veikiančioms mažos rizikos sektoriuose;

 

9. pabrėžia, kad būtina veiksmingai spręsti algoritmų sistemų keliamus uždavinius ir užtikrinti, kad vartotojai būtų įgalinti ir tinkamai apsaugoti; pabrėžia, kad būtina neapsiriboti tradiciniais informavimo ir informacijos atskleidimo principais, kuriais remiantis buvo sukurtas vartotojų acquis, nes reikės griežtesnių vartotojų teisių ir aiškių algoritmų sistemų kūrimo ir naudojimo apribojimų, siekiant užtikrinti, kad technologijos prisidėtų prie vartotojų gyvenimo gerinimo ir būtų vystomos atsižvelgiant į pagrindines ir vartotojų teises bei Europos vertybes;

 

10. mano, kad labai svarbus į vertę orientuotas projektavimo metodas, kad vartotojams būtų sukurtos sąlygos plačiai socialiai pripažinti dirbtinį intelektą; mano, kad etinės sąžiningumo, tikslumo, konfidencialumo ir skaidrumo vertybės turėtų būti dirbtinio intelekto pagrindas, o tai reiškia, kad sistemos veikla turi būti tokia, kad negalėtų sukurti nesąžiningai šališkų rezultatų;

 

11. primena, kad svarbu užtikrinti vartotojams galimybę pasinaudoti veiksmingomis teisių gynimo priemonėmis, ir ragina valstybes nares bei nacionalines rinkos priežiūros institucijas užtikrinti, kad būtų galima naudotis prieinamomis, įperkamomis, nepriklausomomis ir veiksmingomis procedūromis bei peržiūros struktūromis siekiant garantuoti nešališką visų skundų dėl vartotojų teisių pažeidimų naudojant algoritmų sistemas žmogaus atliekamą peržiūrą, neatsižvelgiant į tai, ar juos pateikė viešojo, ar privačiojo sektoriaus subjektai; primygtinai ragina, kad ginčų sprendimo ir kolektyvinio žalos atlyginimo mechanizmai, atitinkantys Europos Parlamento ir Tarybos direktyvą dėl atstovaujamųjų ieškinių siekiant apsaugoti kolektyvinius vartotojų interesus, kuria panaikinama Direktyva 2009/22/EB[21], būtų prieinami siekiant užginčyti sistemos, galinčios pažeisti vartotojų teises, diegimą ar nuolatinį naudojimą arba ištaisyti teisių pažeidimą; prašo Komisijos užtikrinti, kad nacionalinės ir Europos vartotojų organizacijos turėtų pakankamą finansavimą, kad galėtų padėti vartotojams pasinaudoti savo teise į teisinės gynybos priemonę tais atvejais, kai sprendimais, grindžiamais dirbtinio intelekto taikomosiomis programomis, pažeidžiamos vartotojų teisės;

 

12. pabrėžia, kad tais atvejais, kai lėšomis, gaunamomis iš valstybinių šaltinių, ženkliai prisidedama prie algoritmų sistemos kūrimo ar įgyvendinimo, kartu su atvirais viešųjų pirkimų konkursais ir atvirais sutarčių sudarymo standartais, kodas, generuojami duomenys, jei jie nėra asmens duomenys, ir apmokytas modelis galėtų būti standartiškai vieši, susitarus su kūrėju, kad būtų užtikrintas skaidrumas, sustiprintas kibernetinis saugumas ir pakartotinis naudojimas, siekiant skatinti inovacijas; pabrėžia, kad taip galima išnaudoti visas bendrosios rinkos teikiamas galimybes išvengiant rinkos susiskaidymo;

 

Vidaus rinka: vartotojų informavimas ir sąmoningumas

13. pabrėžia, jog svarbu užtikrinti, kad bet kokioje būsimoje ES reglamentavimo sistemoje būtų tinkamai atsižvelgiama į visų vartotojų, įskaitant marginalizuotas arba pažeidžiamoje padėtyje esančias grupes, pvz., neįgaliuosius, interesus ir jiems būtų atstovaujama; pažymi, kad, siekiant analizuoti algoritmų sistemų poveikį vartotojams, prieiga prie duomenų galėtų būti suteikta ir atitinkamiems subjektams, ypač nepriklausomiems tyrėjams, žiniasklaidai ir pilietinės visuomenės organizacijoms, prireikus naudojant prieigą per programų sąsajas (API), kartu visapusiškai laikantis Sąjungos duomenų apsaugos ir privatumo bei komercinių paslapčių teisės aktų; primena, kad svarbu šviesti vartotojus siekiant juos geriau informuoti ir kvalifikuoti naudotis algoritmų sistemomis, kad jie būtų apsaugoti nuo galimos rizikos ir būtų saugomos jų teisės; mano, kad dirbtinis intelektas, daiktų internetas ir kitos besiformuojančios technologijos turi didžiulį potencialą suteikti vartotojams galimybę naudotis kai kuriais patogumais, pagerinančiais jų kasdieninį gyvenimą įvairiais būdais ir suteikiančiais geresnius produktus ir paslaugas, taip pat gauti naudos iš geresnės rinkos priežiūros puoselėjimo, jeigu toliau taikomi visi galiojantys principai, sąlygos (įskaitant skaidrumą ir auditą) ir reglamentai;

 

14. pabrėžia, kad svarbu pasiekti aukšto lygio bendrą skaitmeninį raštingumą ir rengti šios srities aukštos kvalifikacijos specialistus, taip pat visoje Sąjungoje užtikrinti tokių kvalifikacijų tarpusavio pripažinimą; pažymi, kad būtina turėti skirtingas kūrėjų ir inžinierių grupes, kurios dirbtų kartu su pagrindiniais veikėjais, siekiant išvengti netyčinio lyčių ir kultūrinio šališkumo į dirbtinio intelekto algoritmus, sistemas ir prietaikas; pritaria švietimo programų kūrimui ir visuomenės informavimo veiklai, susijusiai su socialiniu, teisiniu ir etiniu dirbtinio intelekto poveikiu;

 

15. ragina Komisiją skatinti ir finansuoti į žmogų sutelkto dirbtinio intelekto, robotikos ir susijusių technologijų, kurios padėtų spręsti aplinkos ir klimato uždavinius ir užtikrintų vienodas galimybes naudotis pagrindinėmis teisėmis, plėtrą taikant fiskalines, viešųjų pirkimų ar kitas paskatas;

 

16. pabrėžia, kad dirbtinis intelektas ir algoritmų sistemos turėtų būti teisiškai suderintos, tvirtos, patikimos ir saugios; ragina Komisiją užtikrinti, kad Sąjungos reglamentavimo metodas, skirtas algoritmų sistemoms, apimtų tinkamas priemones, kuriomis suteikiama galimybė toms sistemoms vykdyti nepriklausomą kontrolę ir priežiūrą;

 

Rinkos priežiūra

17. ragina įsteigtas Europos ekspetinių žinių centras, kuris stiprintų Sąjungos pajėgumus ir kiek galima labiau remtųsi esančiomis struktūromis, skatinant keistis su algoritmų sistemomis susijusia informacija tarp valstybių narių institucijų ir remti bendro supratimo ugdymą bendrojoje rinkoje teikiant gaires, nuomones ir dalykines žinias valstybių narių valdžios institucijoms, stebėtų atitinkamų ES teisės aktų įgyvendinimą, spręstų galimas vartotojų apsaugos problemas, nustatytų geriausios patirties standartus ir prireikus teiktų rekomendacijas dėl reguliavimo priemonių; be to, ragina užtikrinti, kad suinteresuotieji subjektai, pvz., vartotojų apsaugos organizacijos, teiktų tinkamas konsultacijas šiai struktūrai, kad būtų užtikrintas platus vartotojų atstovavimas; mano, kad dėl neproporcingo algoritmų sistemų poveikio moterims ir mažumoms tokios struktūros sprendimų priėmimo lygmenys turėtų būti skirtingi ir suderinti lyčių pusiausvyros atžvilgiu; pabrėžia, kad valstybės narės, atsižvelgdamos į savo nacionalines rinkos priežiūros strategijas, turi parengti dirbtinio intelekto rizikos valdymo strategijas;

 

18. ragina Komisiją imtis priemonių dėl duomenų atsekamumo, turint mintyje tiek duomenų gavimo teisėtumą, tiek vartotojų ir pagrindinių teisių apsaugą; pabrėžia, kad duomenų rinkiniai, algoritmai ir procesai, kurie naudojami kuriant ir diegiant algoritmines sistemas, įskaitant duomenų rinkimą ir duomenų ženklinimą, turėtų būti įforminami dokumentais laikantis pramonės standartų; pažymi, jog labai svarbu, kad rizikos vertinimo dokumentai, programinės įrangos dokumentai, algoritmai ir dirbtinio intelekto, robotikos ir susijusių technologijų naudojami ar sukurti duomenų rinkiniai būtų visiškai prieinami ir paaiškinami rinkos priežiūros institucijoms, kartu laikantis Sąjungos teisės ir komercinių paslapčių; be to, pažymi, kad tokius dokumentus turėtų saugoti subjektai, kurie dalyvauja skirtinguose algoritmų sistemų kūrimo; pažymi, kad šiuo klausimu rinkos priežiūros institucijoms turėtų būti suteiktos papildomos prerogatyvos; mano, kad gali reikėti išnagrinėti galiojančius rinkos priežiūros teisės aktus, kad būtų išvengta jų aktualumo netekimo ir užtikrinta, jog etiniu požiūriu jie atitiktų dirbtinio intelekto, robotikos ir susijusių technologijų atsiradimą;

 

19. ragina, kad kiekviena valstybė narė paskirtų ir pakankamai finansuotų kompetentingą nacionalinę instituciją, kuri stebėtų su algoritmų sistemomis susijusių nuostatų taikymą; pabrėžia, kad būtina stiprinti nacionalinių rinkos priežiūros institucijų gebėjimus, įgūdžius ir kompetenciją dirbtinio intelekto srityse, taip pat žinias apie specifinę su dirbtiniu intelektu susijusią riziką;

 

20. ragina užtikrinti stiprų valstybių narių institucijų koordinavimą ir įsteigti Europos algoritmų sistemų rinkos priežiūros valdybą, į kurios sudėtį įeitų nacionalinės tarnybos, siekiant užtikrinti veiksmingą priežiūrą, Europos lygmens vienodas sąlygas ir išvengti vidaus rinkos susiskaidymo;

 

21. pripažįsta vertingus Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais veiklos rezultatus, visų pirma parengtas patikimo dirbtinio intelekto etikos gaires; siūlo, kad ši grupė, susidedanti iš akademinės bendruomenės, pilietinės visuomenės ir pramonės, taip pat iš Europos dirbtinio intelekto aljanso atstovų, galėtų suteikti žinių Europos algoritmų sistemų rinkos priežiūros valdybai;

 

22. pažymi, kad visų pirma įmonių–vartotojo veiklos srityse sistemos turėtų būti orientuotos į vartotoją ir sukurtos taip, kad visi žmonės galėtų naudotis dirbtinio intelekto produktais ar paslaugomis, nepriklausomai nuo jų amžiaus, lyties, gebėjimų ar savybių. pabrėžia, kad ypač svarbu, kad šios technologijos būtų prieinamos neįgaliesiems; pažymi, kad dirbtinio intelekto sistemose neturėtų būti laikomasi visiems atvejams tinkamo metodo ir turėtų būti atsižvelgiama į visiems tinkamo dizaino principus, susijusius su kuo didesniu vartotojų skaičiumi, laikantis atitinkamų prieinamumo standartų; pabrėžia, kad tai suteiks žmonėms vienodą prieigą ir galimybę aktyviai dalyvauti esamoje ir besiformuojančioje kompiuterinėje žmogaus veikloje ir pagalbinių technologijų atžvilgiu.


INFORMACIJA APIE PRIĖMIMĄ NUOMONĘ TEIKIANČIAME KOMITETE

Priėmimo data

7.7.2020

 

 

 

Galutinio balsavimo rezultatai

+:

–:

0:

39

1

4

Posėdyje per galutinį balsavimą dalyvavę nariai

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Posėdyje per galutinį balsavimą dalyvavę pavaduojantys nariai

Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin

 


GALUTINIS VARDINIS BALSAVIMAS NUOMONĘ TEIKIANČIAME KOMITETE

39

+

EPP

S&D

RENEW

GREENS/EFA

ECR

EUL/NGL

NI

Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, MariaManuel LeitãoMarques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

Andrus Ansip, VladMarius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie YonCourtin

David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kimvan Sparrentak

Adam Bielan, Carlo Fidanza, Eugen Jurzyca, Beata Mazurek

Kateřina Konečná, AnneSophie Pelletier

Marco Zullo

 

1

-

ID

Hynek Blaško

 

4

0

ID

Alessandra Basso, Markus Buchheit, Virginie Joron, JeanLin Lacapelle

 

Sutartiniai ženklai:

+ : 

- : prieš

0 : susilaikė

 


 

 

TRANSPORTO IR TURIZMO KOMITETO NUOMONĖ (16.7.2020)

<CommissionInt>pateikta Teisės reikalų komitetui</CommissionInt>


<Titre>su rekomendacijomis Komisijai dėl dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų reglamentavimo sistemos</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Nuomonės referentas: <Depute>Valter Flego</Depute>

(*) Darbo su susijusiais komitetais procedūra. Darbo tvarkos taisyklių 57 straipsnis

 

 

(Iniciatyva. Darbo tvarkos taisyklių 47 straipsnis)

 

 

PASIŪLYMAI

Transporto ir turizmo komitetas ragina atsakingą Teisės reikalų komitetą į savo pasiūlymą dėl rezoliucijos įtraukti šiuos pasiūlymus:

A. kadangi dirbtinis intelektas yra transporto sektoriui strategiškai svarbi technologijų forma, ir tikimasi, kad jis bus naudingas piliečiams ir visuomenei, nes juo naudojantis pagerės gyvenimo kokybė, bus užtikrintas didesnis visų rūšių transporto saugumas, kuriamos naujos užimtumo galimybės ir tvaresni verslo modeliai; kadangi dirbtinis intelektas gali iš esmės pakeisti visuomenę, ypač jei jis yra plačiai prieinamas ir pasiekiamas;

B. kadangi visos dirbtinio intelekto galimybės transporto sektoriuje gali būti panaudojamos tik naudotojams suvokiant potencialią tokios technologijos naudą ir iššūkius; kadangi šį klausimą būtina įtraukti į švietimo ir mokymo procesą, įskaitant skaitmeninės įtraukties skatinimą, taip pat rengti Sąjungos lygmens informavimo kampanijas, kurių metu būtų preciziškai paaiškinami visi dirbtinio intelekto vystymo aspektai;

C. kadangi Europos požiūris į dirbtinį intelektą, robotiką ir susijusias technologijas turi atitikti etikos principus, siekiant užtikrinti, kad dirbtinis intelektas, robotika ir susijusios technologijos būtų orientuoti į žmogų, didintų žmonių gerovę, saugą, visuomenės gerovę ir tausotų aplinką, spręstų atitinkamas etines dilemas, būtų visapusiškai gerbiamos Sąjungos pagrindinės teisės, vertybės ir principai ir visapusiškai laikomasi Sąjungos privatumo ir duomenų apsaugos teisės aktų; kadangi vadovaujantis šiuo požiūriu taip pat reikės spręsti klausimus, susijusius su algoritminėse sistemose naudojamų duomenų rinkinių, taip pat pačių algoritmų, duomenų ir agregavimo standartų kokybe;

D. kadangi patikimas dirbtinis intelektas turi būti grindžiamas keturiais etikos principais: pagarba žmogaus savarankiškumui, žalos prevencija, sąžiningumu ir paaiškinamumu; kadangi siekiant laikytis šių etikos principų reikia priimti konkrečias Sąjungos transporto sektoriuje taikytinas taisykles;

E. kadangi 95 proc. visų eismo įvykių Sąjungoje vis dar susiję su žmogaus klaidomis; kadangi Sąjunga buvo išsikėlusi tikslą iki 2020 m. 50 proc. sumažinti kasmetinių žūčių keliuose skaičių, palyginti su 2010 m., o pažangai sustojus savo pastangas atnaujino parengdama 2021–2030 m. Sąjungos kelių eismo saugumo politikos programą „Tolesni žingsniai siekiant visiškai saugaus eismo vizijos“; kadangi šiuo atžvilgiu dirbtinis intelektas, automatizavimas ir kitos naujos technologijos turi didelį potencialą ir yra gyvybiškai svarbios didinant kelių eismo saugumą sumažindami žmogaus klaidų tikimybę;

F. kadangi dirbtinis intelektas, automatizavimas ir kitos naujos technologijos taip pat gali padėti sumažinti eismo spūstis ir išmetamų šiltnamio efektą sukeliančių dujų ir oro teršalų kiekį;

G. kadangi etiškai atsakingo, į žmogų orientuoto ir technologiškai patvaraus dirbtinio intelekto, robotikos ir susijusių technologijų transporto sektoriuje kūrimas suteikia Sąjungos įmonėms, įskaitant MVĮ, verslo galimybę tapti pasaulio lyderėmis šioje srityje;

H. kadangi tokios naujos verslo galimybės gali prisidėti prie Sąjungos pramonės atsigavimo po dabartinės sveikatos ir ekonomikos krizės ir prie didesnio dirbtinio intelekto technologijų naudojimo transporto pramonėje; kadangi dėl tokių galimybių atsiras naujų darbo vietų, nes dirbtinio intelekto ir susijusių technologijų diegimas gali padidinti įmonių produktyvumą ir prisidėti prie didesnio efektyvumo; kadangi šios srities inovacijų programos gali sudaryti sąlygas regioniniams klasteriams klestėti;

I. kadangi europinis požiūris į dirbtinio intelekto, robotikos ir susijusių technologijų plėtrą transporto srityje gali padidinti Sąjungos ekonomikos konkurencingumą pasaulyje ir jos strateginį savarankiškumą;

J. kadangi tokiuose sektoriuose, kaip viešasis transportas, intelektinėms transporto sistemoms skirtos dirbtinio intelekto sistemos gali būti naudojamos siekiant sumažinti spūsčių skaičių, optimizuoti maršrutų parinkimą, sudaryti sąlygas neįgaliesiems būti labiau nepriklausomiems, ir padidinti energijos vartojimo efektyvumą, taip prisidedant prie pastangų mažinti priklausomybę nuo iškastinio kuro ir aplinkosauginį pėdsaką;

1. atkreipia dėmesį į dirbtinio intelekto, robotikos ir susijusių technologijų naudojimo visose autonominėse kelių, geležinkelių, vandens ir oro transporto priemonėse potencialą, taip pat galimybes skatinti perėjimą prie kitų transporto rūšių ir intermodalumą, nes tokios technologijos gali padėti rasti optimalų krovininio ir keleivinio vežimo transporto rūšių derinį; be to, atkreipia dėmesį į jų potencialą didinti transporto, logistikos ir eismo srautų efektyvumą ir visų rūšių transportą padaryti saugesnį, pažangesnį ir ekologiškesnį; atkreipia dėmesį į tai, kad etinis požiūris į dirbtinį intelektą taip pat gali būti laikomas ankstyvojo perspėjimo sistema, ypač atsižvelgiant į transporto saugą ir veiksmingumą;

2 pabrėžia, kad pasaulinė įmonių ir ekonominių regionų konkurencija reiškia, jog Sąjunga turi skatinti investicijas ir stiprinti tarptautinį transporto sektoriuje veikiančių įmonių konkurencingumą, sukurdama dirbtinio intelekto sprendimams ir tolesnėms inovacijoms plėtoti ir taikyti palankią aplinką, kurioje Sąjungoje įsisteigusios įmonės galėtų tapti pasaulinio masto lyderėmis dirbtinio intelekto technologijų kūrimo srityje;

3. pabrėžia, kad ES transporto sektoriui reikia atnaujintos reguliavimo sistemos, susijusios su tokiomis besiformuojančiomis technologijomis ir jų naudojimu transporto sektoriuje, ir aiškios etinės sistemos patikimam dirbtiniam intelektui, įskaitant saugos, saugumo, pagarbos žmogaus savarankiškumui, priežiūros ir atsakomybės aspektus, dėl kurių padidės nauda, kuria dalijasi visi, ir kurios bus labai svarbios skatinant viešojo administravimo įstaigų, MVĮ, pradedančiųjų įmonių ir verslo įmonių investicijas į mokslinius tyrimus ir inovacijas, įgūdžių ugdymą ir dirbtinio intelekto diegimą, kartu užtikrinant duomenų apsaugą bei sąveikumą ir neužkraunant nereikalingos administracinės naštos įmonėms ir naudotojams; pabrėžia, jog labai svarbu užtikrinti, kad bet koks reguliavimo sistemos, susijusios su šiomis besiformuojančiomis technologijomis, atnaujinimas visada būtų grindžiamas realiu poreikiu bei atitiktų geresnio reglamentavimo principą, ir į tai atsižvelgdamas

a) ragina Komisiją nustatyti aiškią dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo transporto sektoriuje etikos principų sistemą; bet koks dirbtinis intelektas, robotika ir susijusios technologijos transporto sektoriuje turi būti kuriami, diegiami ir naudojami laikantis tų etikos principų;

b) rekomenduoja parengti dirbtinio intelekto technologijomis grindžiamų visų rūšių transporto technologijų suderintos rizikos klasifikacijos gaires, apimančias transporto priemonių funkcijas, priskirtas žmonėms ir dirbtiniam intelektui, ir paaiškinti su sauga susijusias pareigas ir reikalavimus;

c) ragina Komisiją išnagrinėti galimybę algoritminėms sistemoms naudoti esamą Europos rinkos priežiūros struktūrą, įskaitant susijusias duomenų apsaugos nuostatas, ir teikti gaires, nuomones ir ekspertines žinias valstybių narių valdžios institucijoms, be kita ko, sąveikumo klausimais;

d) ragina Komisiją, atsižvelgiant į aukšto lygio ekspertų grupės vertinimus, sukurti intelektinių transporto sistemų dirbtinio intelekto rizikos klasifikavimo sistemą, siekiant geriau reaguoti į naujus transporto sektoriaus poreikius;

e) ragina Komisiją ypatingą dėmesį skirti MVĮ padėčiai ir būsimus teisės aktus rengti taip, kad būtų gerinamos šių įmonių galimybės vystyti ir naudoti dirbtinio intelekto technologiją;

f) mano, kad galutiniams naudotojams būtina pateikti išsamią informaciją apie transporto sistemų ir dirbtiniu intelektu grindžiamų transporto priemonių veikimą;

4. pabrėžia, kad europinis požiūris į dirbtinio intelekto technologijas turėtų užtikrinti žmonių pasitikėjimą, atitikti viešąjį interesą ir stiprinti bendrą socialinę atsakomybę; mano, kad patikimo, etiškai atsakingo ir techniškai patvaraus dirbtinio intelekto plėtojimas yra svarbus veiksnys siekiant tvaraus ir pažangaus, saugaus ir prieinamo judumo; atsižvelgdamas į tai, ragina Komisiją ir toliau skatinti dirbtinio intelekto diegimą transporto sektoriuje ir, siekiant užtikrinti, kad būtų gerbiamos Sąjungos pagrindinės teisės, nedelsiant ir glaudžiai bendradarbiaujant su visais transporto sektoriaus suinteresuotaisiais subjektais pasiūlyti atitinkamus Sąjungos teisės aktų pakeitimus;

5. pabrėžia, kad dirbtinio intelekto kūrimas ir diegimas užtikrina saugias ir prieinamas transporto paslaugas;

6. rekomenduoja parengti Sąjungos masto patikimo dirbtinio intelekto standartus, skirtus visų rūšių transportui, įskaitant automobilių pramonę, susijusius su atitinkamos aparatinės įrangos sauga, sąveikumu, techniniu patvarumu, pataisomumu ir perdirbamumu, be kita ko, siekiant spręsti problemas, susijusias su išteklių naudojimo efektyvumu, privatumu, duomenų apsauga ir skaidrumu, taip pat dirbtiniu intelektu pagrįstų transporto priemonių ir susijusių produktų bei paslaugų bandymams taikytinus standartus;

7. ragina Komisiją glaudžiai bendradarbiauti su valstybėmis narėmis rengiant ir įgyvendinant patikimo dirbtinio intelekto standartus Sąjungoje bei užtikrinant jų taikymą; pažymi, kad Sąjunga turi potencialo tapti pasauline lydere skatinant vadovautis socialiai atsakingu ir tvariu požiūriu į dirbtinio intelekto technologiją ir jos naudojimą;

8. ragina Komisiją išnagrinėti galimybę vienai ar kelioms veikiančioms Sąjungos lygmens agentūroms, institucijoms ar įstaigoms patikėti stebėsenos, vykdymo užtikrinimo ir sankcijų mechanizmus ir išnagrinėti, kaip būtų galima pritaikyti ir naudoti esamas priežiūros ir kontrolės priemones transporto sektoriuje, kad būtų galima imtis veiksmų, siekiant užtikrinti priežiūrą Sąjungos lygmeniu ir sudaryti sąlygas Komisijai imtis veiksmų, jei transporto srityje naudojama dirbtinio intelekto sistema pažeidžia pagrindines teises arba Europos etikos ir saugumo sistemą;

9. ragina Komisiją toliau remti patikimo dirbtinio intelekto sistemų kūrimą, kad transportas taptų saugesnis, veiksmingesnis, prieinamesnis, įperkamesnis ir įtraukesnis, be kita ko, riboto judumo asmenims, ypač neįgaliesiems, atsižvelgiant į Europos Parlamento ir Tarybos direktyvą (ES) 2019/882[22] ir į Sąjungos teisės aktus dėl keleivių teisių;

10. atkreipia dėmesį į didelę autonominių transporto priemonių pridėtinę vertę riboto judumo asmenims, nes tokios transporto priemonės leidžia jiems veiksmingiau naudotis asmeniniu kelių transportu ir taip palengvina jų kasdienį gyvenimą;

11. pabrėžia prieinamumo svarbą, ypač kuriant paslauginio judumo (angl. Mobility as a Service, MaaS) sistemas;

12. pabrėžia itin didelę duomenų mokslo svarbą siekiant sukurti nediskriminacines dirbtinio intelekto sistemas ir užkirsti kelią pažeistų duomenų naudojimui; be to, rekomenduoja laikytis duomenų tvarkymo procedūrų, atitinkančių Bendrąjį duomenų apsaugos reglamentą ir laikantis konfidencialumo ir nediskriminavimo principų;

13. pažymi, kad dirbtinio intelekto sistemos galėtų padėti gerokai sumažinti žūčių keliuose skaičių, pavyzdžiui, dėl geresnio reagavimo laiko ir geresnio taisyklių laikymosi; vis dėlto mano, kad naudojant autonomines transporto priemones nebus išvengta nelaimingų atsitikimų, ir pabrėžia, kad dėl to tampa vis svarbiau paaiškinti dirbtinio intelekto sprendimus, siekiant pateisinti dirbtinio intelekto sprendimų trūkumus ir nenumatytas pasekmes;

14. mano, kad visada turi būti įmanoma netechnine kalba paaiškinti galutiniams naudotojams ir kitiems suinteresuotiesiems subjektams dirbtinio intelekto sprendimus, taip pat bet kokius svarbius duomenis, kuriais remiantis tie sprendimai priimami;

15. pažymi, kad transporto sektoriaus dirbtinio intelekto vystymas ir įgyvendinimas nebus galimas be šiuolaikinės infrastruktūros – esminės intelektinių transporto sistemų dalies; pabrėžia, jog dėl nuolatinių valstybių narių išsivystymo lygio skirtumų kyla grėsmė, kad autonominio judumo vystymosi nauda nebus pasiekiama mažiausiai išsivysčiusiems regionams ir jų gyventojams; ragina deramai finansuoti ateities darbo rinkos iššūkių, kylančių dėl dirbtinio intelekto technologijų plėtros transporto sektoriuje, vertinimą ir infrastruktūros Sąjungoje modernizavimą, įskaitant jos integravimą į 5G tinklą.


INFORMACIJA APIE PRIĖMIMĄ NUOMONĘ TEIKIANČIAME KOMITETE

Priėmimo data

14.7.2020

 

 

 

Galutinio balsavimo rezultatai

+:

–:

0:

49

0

0

Posėdyje per galutinį balsavimą dalyvavę nariai

Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski

Posėdyje per galutinį balsavimą dalyvavę pavaduojantys nariai

Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti

 

 


GALUTINIS VARDINIS BALSAVIMAS NUOMONĘ TEIKIANČIAME KOMITETE

49

+

ECR

Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski

GUE/NGL

Leila Chaibi, Kateřina Konečná, Elena Kountoura

ID

Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo

NI

Dorien Rookmaker, Mario Furore,

PPE

Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian-Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Elżbieta Katarzyna Łukacijewska

RENEW

José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan-Christoph Oetjen, Dominique Riquet

S&D

Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi

Verts/ALE

Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay-Grunenberg, Tilly Metz

 

0

-

 

 

 

0

0

 

 

 

Sutartiniai ženklai:

+ : 

- : prieš

0 : susilaikė


 

 

PILIEČIŲ LAISVIŲ, TEISINGUMO IR VIDAUS REIKALŲ KOMITETO NUOMONĖ (22.9.2020)

<CommissionInt>pateikta Teisės reikalų komitetui</CommissionInt>


<Titre>su rekomendacijomis Komisijai dėl dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų reglamentavimo sistemos</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Nuomonės referentė (*): <Depute>Assita Kanko</Depute>

(*) Darbo su susijusiais komitetais procedūra. Darbo tvarkos taisyklių 57 straipsnis

 

(Iniciatyva. Darbo tvarkos taisyklių 47 straipsnis)

 

 

PASIŪLYMAI

Piliečių laisvių, teisingumo ir vidaus reikalų komitetas ragina atsakingą Teisės reikalų komitetą į savo pasiūlymą dėl rezoliucijos įtraukti šiuos pasiūlymus:

 atsižvelgdamas į Europos Sąjungos sutarties (ES sutartis) 2 ir 3 straipsnius,

 atsižvelgdamas į Sutarties dėl Europos Sąjungos veikimo (SESV) 10, 19, 21 ir 167 straipsnius,

 atsižvelgdamas į SESV 20 ir 227 straipsniuose ir Europos Sąjungos pagrindinių teisių chartijos 44 straipsnyje įtvirtintą teisę teikti peticijas,

 atsižvelgdamas į Europos Sąjungos pagrindinių teisių chartijos 21 ir 22 straipsnius,

 atsižvelgdamas į ES sutarties preambulę,

 atsižvelgdamas į Europos Tarybos Tautinių mažumų apsaugos pagrindų konvenciją, Žmogaus teisių ir pagrindinių laisvių apsaugos konvencijos protokolą Nr. 12 ir Europos regioninių arba mažumų kalbų chartiją,

 atsižvelgdamas į 2000 m. birželio 29 d. Tarybos direktyvą 2000/43/EB, įgyvendinančią vienodo požiūrio principą asmenims nepriklausomai nuo jų rasės arba etninės priklausomybės[23] (Rasinės lygybės direktyva),

 atsižvelgdamas į 2000 m. lapkričio 27 d. Tarybos Direktyvą 2000/78/EB, nustatančią vienodo požiūrio užimtumo ir profesinėje srityje bendruosius pagrindus[24] (Vienodo požiūrio užimtumo srityje direktyva),

 atsižvelgdamas į 2016 m. balandžio 27 d. Europos Parlamento ir Tarybos reglamentą (ES) 2016/679 dėl fizinių asmenų apsaugos tvarkant asmens duomenis ir dėl laisvo tokių duomenų judėjimo ir kuriuo panaikinama Direktyva 95/46/EB (Bendrasis duomenų apsaugos reglamentas)[25] (BDAR), ir į 2016 m. balandžio 27 d. Europos Parlamento ir Tarybos direktyvą (ES) 2016/680 dėl fizinių asmenų apsaugos kompetentingoms institucijoms tvarkant asmens duomenis nusikalstamų veikų prevencijos, tyrimo, atskleidimo ar baudžiamojo persekiojimo už jas arba bausmių vykdymo tikslais ir dėl laisvo tokių duomenų judėjimo ir kuria panaikinamas Tarybos pamatinis sprendimas 2008/977/TVR[26],

 atsižvelgdamas į 2019 m. gruodžio 11 d. Komisijos komunikatą Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui „Europos žaliasis kursas“,

 atsižvelgdamas į savo 2017 m. vasario 16 d. rezoliuciją su rekomendacijomis Komisijai dėl robotikai taikomų civilinės teisės nuostatų[27],

 atsižvelgdamas į 2019 m. gegužės 22 d. priimtą EBPO tarybos rekomendaciją dėl dirbtinio intelekto,

A. kadangi vadinamąjį dirbtinį intelektą, robotiką ir susijusias technologijas kuria ir projektuoja žmonės ir jų sprendimus lemia potenciali technologijos nauda visuomenei;

B. kadangi algoritmų atskaitomybė turėtų reikšti techninių ir veiklos priemonių įgyvendinimą siekiant užtikrinti skaidrumą, aiškiai nustatytus atsakomybės ryšius, nediskriminavimą automatizuotai priimant sprendimus arba apskaičiuojant asmens elgesio tikimybę; kadangi, užtikrinant skaidrumą, asmenims turėtų būti teikiama svarbi informacija apie taikomą logiką, svarbą ir numatomas pasekmes; kadangi šis skaidrumas turėtų apimti informaciją apie duomenis, naudojamus apmokant dirbtinį intelektą, ir sudaryti galimybę asmenims suprasti ir stebėti jiems poveikį darančius sprendimus;

C.  kadangi kyla rimtų abejonių, susijusių su tuo, kad dabartinė ES teisinė sistema, įskaitant vartotojų teisės acquis, produktų saugą ir rinkos priežiūros teisės aktus, taip pat kovos su diskriminacija teisės aktus, ne visada atitinka tikslą veiksmingai šalinti riziką, kurią sukelia dirbtinis intelektas, robotika ir susijusios technologijos;

D. kadangi dirbtinis intelektas, robotika ir susijusios technologijos gali sukelti rimtų pasekmių materialioms ir nematerialioms asmenų, grupių ir visos visuomenės gėrybėms, ir šios pavienės ir kolektyvinės neigiamos pasekmės turi būti aptartos atsakomosiose teisėkūros priemonėse;

E. kadangi valdymo klausimai, susiję su dirbtinio intelekto diegimu viešajame sektoriuje, turi būti tinkamai išspręsti atsižvelgiant į poveikį demokratijai, ypač demokratiniam legitimumui, atskaitomybei, prasmingam visuomenės dalyvavimui ir priežiūrai;

F. kadangi duomenų analizė ir dirbtinis intelektas daro vis didesnį poveikį piliečiams prieinamai informacijai; kadangi tokios technologijos, jeigu jomis naudojamasi netinkamai, gali kelti pavojų pagrindinėms teisėms į informaciją, taip pat žiniasklaidos laisvei ir pliuralizmui;

G. kadangi etinės gairės, pvz., Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais priimti principai, yra tinkamas išeities taškas, tačiau to nepakanka norint užtikrinti, kad įmonės elgtųsi sąžiningai ir garantuotų veiksmingą asmenų apsaugą;

1. pabrėžia, kad su dirbtiniu intelektu susijusios perspektyvos ir galimybės gali būti tikrai naudingos piliečiams, viešajam bei privačiajam sektoriams, akademikams ir mokslinei bendruomenei tik tuo atveju, jeigu visuomenės pasitikėjimas šiomis technologijomis bus užtikrintas griežtu pagrindinių teisų laikymusi, nepažeidžiant galiojančių ES duomenų apsaugos teisės aktų, ir teisiniu tikrumu visų susijusių veikėjų atžvilgiu; pabrėžia, kad asmens duomenų tvarkymas gali būti vykdomas tik vadovaujantis vienu iš teisinių pagrindų, išdėstytų Reglamento (ES) 2016/679 6 straipsnyje; mano, kad skaidrumas ir tinkamas susijusių asmenų informavimas yra itin svarbūs siekiant užtikrinti visuomenės pasitikėjimą ir fizinių asmenų teisių apsaugą;

2. pažymi, kad galiojančių duomenų apsaugos teisės aktų, įskaitant griežtus mokslinius, etinius ir teisinius standartus, ir demokratinės priežiūros metodų laikymasis yra labai svarbūs siekiant užtikrinti pasitikėjimą su dirbtiniu intelektu susijusiais sprendimo būdais ir jų patikimumą; be to, pabrėžia, kad informacija, kurią atskleidžia dirbtinis intelektas, nėra nešališka bet kokio dalyko apžvalga ir ji patikima tik tiek, kiek galima remtis duomenimis, kuriais ji pagrįsta; atkreipia dėmesį į tai, kad remiantis prognozių analize, pagrįsta dirbtiniu intelektu, būtų galima nustatyti statistinę tikimybę, todėl ji ne visada tiksliai prognozuoja fizinio asmens elgesį; todėl pabrėžia, kad būtini griežti moksliniai, etiniai ir teisiniai standartai norint valdyti duomenų rinkimą ir vertinti tokios dirbtinio intelekto analizės rezultatus;

3. mano, kad bet kokia dirbtinio intelekto, robotikos ir susijusių technologijų kūrimo, diegimo ir naudojimo etikos principų reglamentavimo sistema turėtų visapusiškai atitikti ES pagrindinių teisių chartiją, taigi turėtų būti gerbiamas žmogaus orumas, savarankiškumas ir asmens apsisprendimas, užkertamas kelias žalai, skatinamas sąžiningumas, įtrauktis ir skaidrumas, naikinamas šališkumas ir diskriminacija, įskaitant kovą su mažumų diskriminacija, taip pat turėtų būti laikomasi ir paisoma principų, pagal kuriuos ribojamas neigiamas naudojamos technologijos išorinis poveikis, technologijos yra paaiškinamos ir užtikrinama, kad technologijos teiktų naudą žmonėms, o ne juos pakeistų arba priimtų sprendimus vietoje jų, siekiant galutinio tikslo kiekvienam žmogui užtikrinti didesnę gerovę;

4. atkreipia dėmesį į asimetriją tarp dirbtinio intelekto technologijas diegiančių ir su jomis sąveikaujančių bei jas naudojančių subjektų; atsižvelgdamas į tai, pabrėžia, kad piliečių pasitikėjimas dirbtiniu intelektu gali būti grindžiamas tik standartizuotąja ir integruotąja etikos sistema, kuria užtikrinama, kad bet koks pradėtas naudoti dirbtinis intelektas visapusiškai gerbtų ir atitiktų Europos Sąjungos pagrindinių teisių chartiją, Sąjungos teisę ir Sutartis; mano, kad tai turėtų atitikti atsargumo principą, kuriuo grindžiami ES teisės aktai, ir turėtų būti bet kokios dirbtinio intelekto sistemos pagrindas; šiuo atžvilgiu ragina sukurti aiškų ir nuoseklų valdymo modelį, kuris sudarytų sąlygas įmonėms ir inovatoriams toliau kurti dirbtinį intelektą, robotiką ir susijusias technologijas;

5. ragina Europos Sąjungą ir valstybes nares nustatyti etinį reikalavimą didinti visuomenės informuotumą apie riziką ir galimybes, susijusias su dirbtinio intelekto naudojimu;

6. mano, kad dabartinė Sąjungos teisinė sistema, visų pirma susijusi su apsauga ir privatumu bei asmens duomenimis, turės būti visapusiškai taikoma dirbtiniam intelektui, robotikai ir susijusioms technologijoms, ji turės būti reguliariai peržiūrima, tikrinama ir prireikus atnaujinama, siekiant veiksmingai kovoti su rizika, kurią kelia dirbtinis intelektas, robotika ir susijusios technologijos, ir todėl galėtų būti tikslinga ją papildyti tvirtais pagrindiniais etikos principais; atkreipia dėmesį į tai, kad tais atvejais, kai būtų per anksti priimti teisės aktus, reikėtų pasitelkti privalomos teisinės galios neturinčias priemones;

7. tikisi, kad Komisija, atsižvelgdama į baltąją knygą dėl dirbtinio intelekto, patikimą etinę reglamentavimo sistemą įtrauks į būsimą pasiūlymą dėl teisėkūros procedūra priimamo akto, įskaitant saugumo, atsakomybės ir pagrindinių teisių aspektus, kuriais sukuriamos didžiausios įmanomos galimybės ir kuo labiau sumažinama dirbtinio intelekto technologijų keliama rizika; tikisi, kad būsimame pasiūlyme dėl teisėkūros procedūra priimamo akto bus numatyti politiniai sprendimo būdai, skirti pagrindinei pripažintai dirbtinio intelekto keliamai rizikai pašalinti, be kita ko, įskaitant etišką didžiųjų duomenų rinkimą ir naudojimą, algoritmų skaidrumo ir algoritminio šališkumo problemą; ragina Komisiją parengti dirbtinio intelekto technologijos ženklinimo kriterijus ir rodiklius siekiant skatinti skaidrumą, aiškumą ir atskaitomybę, taip pat skatinti kūrėjus imtis papildomų atsargumo priemonių; pabrėžia, kad reikia investuoti į netechninių disciplinų, pritaikytų socialiniam kontekstui, integravimą į dirbtinio intelekto mokslo darbus ir mokslinius tyrimus;

8. primena, kad dirbtinis intelektas, priklausomai nuo to, kaip jis kuriamas, naudojamas ir taikomas, gali sukurti ir sustiprinti šališkumą, be kita ko, pagrindiniams duomenų rinkiniams būdingą šališkumą, ir taip lemti įvairių formų automatizuotą diskriminaciją, įskaitant netiesioginę diskriminaciją, visų pirma susijusią su panašių savybių turinčių asmenų grupėmis; ragina Komisiją ir valstybes nares imtis visų įmanomų priemonių siekiant išvengti tokio šališkumo ir užtikrinti visapusišką pagrindinių teisių apsaugą;

9. pažymi, kad dirbtinio intelekto, robotikos ir susijusių technologijų sritis yra stebėtinai vienoda ir joje trūksta įvairovės; pripažįsta poreikį užtikrinti, kad grupės, kurios projektuoja, kuria, testuoja, palaiko, diegia ir perka šias sistemas, atsižvelgtų į jų ir apskritai visuomenės įvairovę, siekiant užtikrinti, kad į šias technologijas atsitiktinai nebūtų integruotas „šališkumo“ aspektas;

10. laikosi nuomonės, kad veiksmingas tarpvalstybinis bendradarbiavimas ir etikos standartai gali būti užtikrinti tik tuo atveju, jei visi suinteresuotieji subjektai įsipareigoja užtikrinti, kad būtų paisoma žmogiškojo veiksnio ir priežiūros, techninio patikimumo ir saugos, skaidrumo ir atskaitomybės, įvairovės, nediskriminavimo ir teisingumo, visuomenės ir aplinkos gerovės ir įsipareigoja laikytis nustatytų privatumo, duomenų valdymo ir duomenų apsaugos principų, visų pirma įtvirtintų Reglamente (ES) 2016/679 (BDAR);

11. ragina laikytis rizika grindžiamo ir į ateitį orientuoto požiūrio į dirbtinio intelekto, robotikos ir susijusių technologijų reguliavimą, įskaitant technologijų atžvilgiu neutralius standartus visuose sektoriuose, prireikus nustatant konkretiems sektoriams skirtus standartus; tvirtai tiki, kad, siekiant išvengti susiskaidymo, visiems, ketinantiems Sąjungoje kurti ar naudoti dirbtinio intelekto taikomąsias programas, turėtų būti taikoma visoje ES veikianti etikos sistema; ragina Sąjungą skatinti tvirtą ir skaidrų viešojo ir privačiojo sektorių bendradarbiavimą ir dalijimąsi žiniomis siekiant sukurti geriausią patirtį ir nustatyti ypač rizikingas dirbtinio intelekto taikomąsias programas;

12. skatina savanoriškai laikytis įmonių skaitmeninės atsakomybės; Sąjunga turėtų remti korporacijas, kurios nusprendžia savo įmonėse naudoti skaitmenines technologijas ir dirbtinį intelektą, laikydamosi etikos standartų; Sąjunga turėtų skatinti korporacijas aktyviau kurti įmonių platformą, kurioje jos dalytųsi savo patirtimi etinio skaitmeninimo srityje, taip pat koordinuoti dalyvaujančių įmonių veiksmus ir strategijas;

13. pabrėžia, kad tarpusavyje susieto dirbtinio intelekto ir robotikos tinklų apsauga yra svarbi ir turi būti imtasi griežtų priemonių siekiant užkirsti kelią saugumo pažeidimams, duomenų nutekėjimui, duomenų užkrėtimui, kibernetiniams išpuoliams ir netinkamam asmens duomenų naudojimui ir kad siekiant šio tikslo reikia, jog atitinkamos agentūros, įstaigos ir institucijos Europos ir nacionaliniu lygmenimis dirbtų kartu ir bendradarbiautų su galutiniais šių technologijų naudotojais; ragina Komisiją ir valstybes nares užtikrinti, kad kuriant ir diegiant dirbtinio intelekto technologijas visada būtų laikomasi Europos vertybių ir gerbiamos pagrindinės teisės, siekiant užtikrinti ES skaitmeninės infrastruktūros saugumą ir atsparumą;

14. šiuo atžvilgiu atkreipia dėmesį į Europos Parlamento ir Tarybos reglamento (ES) 2019/881 dėl ENISA ir Kibernetinio saugumo akto nuostatas, visų pirma į ENISA vaidmenį skatinant visuomenės informavimą ir ugdymo kampanijas, skirtas galutiniams naudotojams, įskaitant potencialias kibernetines grėsmes ir nusikalstamą veiklą internete, ir skatinant esmines duomenų apsaugos priemones; šiuo atžvilgiu pripažįsta ES agentūros pridėtinę vertę;

15. pažymi, kad piktavališkas dirbtinio intelekto naudojimas gali kelti pavojų mūsų demokratijos vertybėms ir pagrindinėms Europos Sąjungos piliečių teisėms; ragina Komisiją pasiūlyti sistemą, kurią taikant būtų baudžiami tie asmenys, kurie, naudodami šią technologiją, iškraipo tikrovės suvokimą rengdami dezinformacijos kampanijas arba kurie provokuoja kibernetinius išpuolius siekdami pažeisti skaitmeninį kibernetinį saugumą;

16. pažymi, kad dirbtinis intelektas, robotika ir susijusios technologijos teisėsaugos ir sienų kontrolės srityje galėtų padidinti visuomenės saugą ir saugumą, tačiau taip pat turėtų būti vykdoma visapusiška ir griežta visuomenės kontrolė ir užtikrinamas kuo didesnis skaidrumas tiek atskirų taikomųjų programų rizikos vertinimo, tiek bendros dirbtinio intelekto, robotikos ir susijusių technologijų naudojimo teisėsaugos ir sienų kontrolės srityje apžvalgos požiūriu; mano, kad šios technologijos kelia didelę etinę riziką, į kurią reikia tinkamai atsižvelgti, turint omenyje galimą neigiamą poveikį asmenims, ypač jų teisėms į privatumą, duomenų apsaugą ir nediskriminavimą; pabrėžia, kad netinkamai jas naudojant gali kilti tiesioginė grėsmė demokratijai ir kad jas diegiant ir naudojant turi būti laikomasi proporcingumo ir būtinumo principų, Pagrindinių teisių chartijos, taip pat atitinkamų antrinės Sąjungos teisės aktų, pvz., ES duomenų apsaugos taisyklių; pabrėžia, kad priimant sprendimus dirbtinis intelektas niekada neturėtų pakeisti žmonių; sprendimai, pavyzdžiui, užstatas ar lygtinis paleidimas, išklausymas teisme, arba sprendimai, grindžiami tik automatizuotu duomenų tvarkymu, sukeliantys teisines pasekmes asmenims arba turintys jiems didelį poveikį, visada turi būti priimami žmogui atliekant prasmingą vertinimą ir priimant sprendimą;

17. perspėja, kad, atsižvelgiant į teisėsaugos institucijų priimamų sprendimų ir taikomų priemonių, įskaitant duomenų tvarkymą ir dirbtinį intelektą, intervencinį pobūdį, taip apribojant piliečių gyvenimą ir teises, reikia būti labai atsargiems, siekiant užkirsti kelią neteisėtai diskriminacijai ir tikslingai veiklai tam tikrų asmenų arba žmonių grupių, taip pat asmenų, kurie, atrodo, apibūdinami remiantis konkrečiomis savybėmis, atžvilgiu, remiantis rase, odos spalva, etnine arba socialine kilme, genetiniais požymiais, kalba, religija arba tikėjimu, politiniais arba bet kokiais kitais įsitikinimais, turtu, gimimu, negalia, amžiumi, lytimi, lyties raiška arba tapatybe, seksualine orientacija, gyventojo statusu, sveikata arba priklausymu tautinei mažumai, nes tai dažnai tampa etninio profiliavimo arba intensyvesnės teisėsaugos institucijų policinės veiklos pagrindu; ragina tinkamai parengti pagrindinius duomenų rinkėjus ir iš dirbtinio intelekto gautos informacijos naudotojus;

18. atkreipia dėmesį į tai, kad šių technologijų suteikiamą galimybę naudoti asmens duomenis ir ne asmens duomenis siekiant skirstyti asmenis į kategorijas ir itin tiksliai auditorijai adresuoti pranešimus, nustatyti asmenų pažeidžiamumą arba panaudoti tikslias prognozavimo žinias turi atsverti veiksmingai užtikrinami duomenų apsaugos ir privatumo principai, pvz., duomenų kiekio mažinimo principas, teisė nesutikti su profiliavimu ir atlikti asmens duomenų kontrolę, teisė gauti sprendimo, grindžiamo automatizuotu duomenų tvarkymu, paaiškinimą, integruotoji privatumo apsauga, taip pat proporcingumo, būtinumo ir griežtai nustatyto tikslo ribojimo principai; atkreipia dėmesį į tai, kad tam tikri kriminologinio prognozavimo modeliai yra palankesni privatumui, palyginti su kitais modeliais, pvz., kai tikimybiniai spėjimai daromi dėl vietų arba įvykių, o ne pavienių asmenų, tačiau paaiškėjo, kad kriminologinio prognozavimo sistemos dar labiau sustiprina policinę veiklą, pagrįstą dabartiniais subjektyviais įsitikinimais, pvz., rasinis profiliavimas, arba priklausymu migrantams arba darbo klasei, net jeigu tai nėra susiję su konkrečiais nusikalstamumo lygiais;

19. pabrėžia, kad piliečiai turi teisę pasitikėti savo naudojama technologija ir kitų naudojama technologija; pabrėžia, kad dirbtinis intelektas ir robotika nėra apsaugoti nuo klaidų, ir todėl pabrėžia, kad svarbu turėti teisę į paaiškinimą, kai dėl asmenų priimami algoritmais pagrįsti sprendimai, taip pat būtina, kad algoritmai būtų skaidrūs, nes skaidrumas, susijęs su pagrindiniu algoritmo principu, yra labai svarbus nukentėjusiems asmenims, siekiant visapusiškai apsaugoti jų pagrindines teises; mano, kad teisės aktų leidėjai turi svarstyti sudėtingą atsakomybės klausimą ir kad atsakomybė už visas dirbtinio intelekto taikomąsias programas visada turėtų tekti fiziniam ar juridiniam asmeniui;

20. pažymi, kad dirbtinis intelektas, robotika ir susijusios technologijos yra visuotinės technologijos ir kad šiuos standartus reikia pritaikyti pasauliniu lygmeniu, siekiant užtikrinti, kad ateityje jie būtų kuriami paisant Europos vertybių ir etikos standartų; ragina Komisiją dalyvauti tarptautiniame forume dirbtinio intelekto diplomatijos klausimais kartu su panašiai mąstančiais partneriais, pvz., Jungtinėmis Amerikos Valstijomis, G7, G20 ir EBPO, ir nustatyti bendrus dirbtinio intelekto, robotikos ir susijusių technologijų plėtojimo etinius standartus ir gaires;

21 pažymi, kad reikia nustatyti aiškią dirbtinio intelekto naudojimo socialinių tinklų platformose sistemą, nes to reikalaujama atsižvelgiant į naudojamų algoritmų skaidrumo reikalavimus ir jų kalibravimą, kad būtų užkirstas kelias pertekliniam turinio pašalinimui ir bet kokiai interneto filtravimo arba cenzūros formai;

22 pažymi, kad dirbtinis intelektas gali būti naudojamas siekiant manipuliuoti asmeninėmis ir audiovizualinėmis savybėmis, dažnai vadinamomis sintetine vaizdo sankaita; primena, kad šis metodas gali būti naudojamas manipuliuojant rinkimais, skleidžiant dezinformaciją ir vykdant kitus nepageidaujamus veiksmus; todėl prašo Komisijos panaudoti savo etinę reglamentavimo sistemą ir nustatyti prievolę visais atvejais, kai pateikiama sintetine vaizdo sankaita pagrįsta medžiaga arba bet kokie kiti realistiškai pagaminti dirbtiniai vaizdo įrašai, nurodyti, kad tai nėra originalas ir griežtai riboti jų naudojimą rinkimų tikslais;

23. siūlo sukurti ekspertų centrą, kuriame Sąjungos lygmeniu dirbtų mokslininkai, tyrėjai, pramonės atstovai ir pavieniai ekspertai tokioje agentūroje arba bendradarbiaudami su ja, siekiant skatinti keitimąsi žiniomis ir technine kompetencija, ir palengvinti bendradarbiavimą ES ir už jos ribų;

24. primena kalbų ir kultūros įvairovės svarbą; todėl ragina Komisiją neleisti, kad jos etikos reglamentavimo sistemoje dirbtinio intelekto algoritmais būtų mažinama ši įvairovė ir toliau suteikti prieigą prie paties įvairiausio turinio, kuriame nedominuotų viena kalba ir (arba) kultūrinis modelis, ir pasmerkti bet kokius bandymus algoritmais apriboti šią įvairovę ir siūlyti tik turinį, atitinkantį kai kuriuos jau esamus modelius, arba kuris galėtų veikti kaip „informacinis getas“, užkertantis kelią prieigai prie didesnės įvairovės;

25. rekomenduoja, kad Komisija pademonstruotų, kad ji aiškiai peržiūrėjo, įvertino ir patikslino savo koordinuotą dirbtinio intelekto planą, kad išspręstų rimto dirbtinio intelekto poveikio pagrindinėms teisėms klausimus ir aprašytų, kaip tokia rizika bus mažinama ES teisėkūros srityje ir įgyvendinant valstybių narių nacionalines strategijas.


INFORMACIJA APIE PRIĖMIMĄ NUOMONĘ TEIKIANČIAME KOMITETE

Priėmimo data

22.9.2020

 

 

 

Galutinio balsavimo rezultatai

+:

–:

0:

55

5

7

Posėdyje per galutinį balsavimą dalyvavę nariai

Magdalena Adamowicz, Malik Azmani, Katarina Barley, Pernando Barrena Arza, Pietro Bartolo, Nicolas Bay, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Patrick Breyer, Saskia Bricmont, Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Damien Carême, Anna Júlia Donáth, Lena Düpont, Cornelia Ernst, Laura Ferrara, Nicolaus Fest, Jean-Paul Garraud, Maria Grapini, Sylvie Guillaume, Andrzej Halicki, Balázs Hidvéghi, Evin Incir, Sophia in ‘t Veld, Patryk Jaki, Lívia Járóka, Marina Kaljurand, Assita Kanko, Fabienne Keller, Peter Kofod, Moritz Körner, Alice Kuhnke, Jeroen Lenaers, Juan Fernando López Aguilar, Nuno Melo, Roberta Metsola, Nadine Morano, Javier Moreno Sánchez, Maite Pagazaurtundúa, Nicola Procaccini, Paulo Rangel, Diana Riba i Giner, Ralf Seekatz, Michal Šimečka, Birgit Sippel, Sylwia Spurek, Tineke Strik, Ramona Strugariu, Annalisa Tardino, Tomas Tobé, Dragoş Tudorache, Milan Uhrík, Tom Vandendriessche, Bettina Vollath, Jadwiga Wiśniewska, Elena Yoncheva

Posėdyje per galutinį balsavimą dalyvavę pavaduojantys nariai

Delara Burkhardt, Gwendoline Delbos-Corfield, Kostas Papadakis, Kris Peeters, Anne-Sophie Pelletier, Sira Rego, Rob Rooken, Paul Tang, Tomáš Zdechovský

Posėdyje per galutinį balsavimą dalyvavę pavaduojantys nariai (209 straipsnio 7 dalis)

Isabel Benjumea Benjumea

 


 

GALUTINIS VARDINIS BALSAVIMAS NUOMONĘ TEIKIANČIAME KOMITETE

55

+

EPP

Magdalena Adamowicz, Isabel Benjumea Benjumea, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Lena Düpont, Andrzej Halicki, Balázs Hidvéghi, Lívia Járóka, Jeroen Lenaers, Nuno Melo, Roberta Metsola, Nadine Morano, Kris Peeters, Paulo Rangel, Ralf Seekatz, Tomas Tobé, Tomáš Zdechovský

S&D

Katarina Barley, Pietro Bartolo, Delara Burkhardt, Maria Grapini, Sylvie Guillaume, Evin Incir, Marina Kaljurand, Juan Fernando López Aguilar, Javier Moreno Sánchez, Birgit Sippel, Sylwia Spurek, Paul Tang, Bettina Vollath, Elena Yoncheva

RENEW

Malik Azmani, Anna Júlia Donáth, Sophia In 'T Veld, Fabienne Keller, Moritz Körner, Maite Pagazaurtundúa, Michal Šimečka, Ramona Strugariu, Dragoş Tudorache

ID

Peter Kofod

GREENS/EFA

Patrick Breyer, Saskia Bricmont, Damien Carême, Gwendoline Delbos-Corfield, Alice Kuhnke, Diana Riba I Giner, Tineke Strik

ECR

Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Assita Kanko, Nicola Procaccini, Jadwiga Wiśniewska

NI

Laura Ferrara

 

5

-

EUL/NGL

Pernando Barrena Arza, Cornelia Ernst, Anne-Sophie Pelletier, Sira Rego

NI

Kostas Papadakis

 

7

0

ID

Nicolas Bay, Nicolaus Fest, Jean-Paul Garraud, Annalisa Tardino, Tom Vandendriessche

ECR

Rob Rooken

NI

Milan Uhrík

 

Sutartiniai ženklai:

+ : 

- : prieš

0 : susilaikė


 

 

UŽIMTUMO IR SOCIALINIŲ REIKALŲ KOMITETO NUOMONĖ (7.9.2020)

<CommissionInt>pateikta Teisės reikalų komitetui</CommissionInt>


<Titre>su rekomendacijomis Komisijai dėl dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų nuostatų</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Nuomonės referentė: <Depute>Lina Gálvez Muñoz</Depute>

(Iniciatyva. Darbo tvarkos taisyklių 47 straipsnis)

 

 

PASIŪLYMAI

Užimtumo ir socialinių reikalų komitetas ragina atsakingą Teisės reikalų komitetą į savo pasiūlymą dėl rezoliucijos įtraukti šiuos pasiūlymus:

A. kadangi, nuolat augant dirbtinio intelekto, robotikos ir susijusių technologijų taikymui kasdieniame gyvenime ir darbe, reikšmingai keičiasi dabartinė socioekonominė sankloda; kadangi dirbtinis intelektas turėtų būti naudingas piliečiams ir visuomenei tokiais aspektais, kaip geresnė gyvenimo kokybė, naujų užimtumo galimybių kūrimas ir Sąjungos konkurencingumo didinimas; kadangi dirbtinis intelektas yra esminė skaitmeninės ekonomikos dalis ir, tinkamai jį naudojant, turi potencialo puoselėti gerovę bei palengvinti perėjimą prie tvarios ekonomikos;

B. kadangi dirbtinis intelektas – tai sistemos, kurios elgiasi protingai analizuodamos savo aplinką ir imdamosi tam tikro masto savarankiškumu grindžiamų veiksmų konkretiems tikslams pasiekti; kadangi dirbtinio intelekto sistemos gali būti grindžiamos vien programine įranga ir virtualiajame pasaulyje veikti kaip balso asistentai, vaizdo analizės programinė įranga, paieškos sistemos, kalbos ir veido atpažinimo sistemos arba būti diegiamos į techninės įrangos prietaisus, pvz., kaip pažangūs robotai, savivaldžiai automobiliai, bepiločiai orlaiviai ar daiktų interneto taikomosios programos[28];

C. kadangi dirbtiniam intelektui teikiamas strateginis prioritetas, o visą jo potencialą galima išnaudoti tik jei naudotojai ir vartotojai suvokia su juo siejamą galimą naudą bei iššūkius; kadangi įmonės ir darbuotojai bei jų atstovai dažnai neturi žinių nei apie dirbtinio intelekto taikomąsias programas, nei apie funkcijas ir duomenis, kuriais jos grindžiamos; kadangi esama atvejų, kai naudojant dirbtinio intelekto taikomąsias programas buvo pažeisti galiojantys reglamentai, pvz., susiję su duomenų apsauga;

D. kadangi dirbtinis intelektas teikia ekonominę ir visuomeninę naudą bei naujas galimybes įmonėms ir darbuotojams, tačiau sykiu kelia nemažai etinių, teisinių ir su užimtumu susijusių problemų; kadangi taikant dirbtinį intelektą darbe gali būti prisidėta prie darbo rinkų įtraukumo bei daromas poveikis darbuotojų saugai ir sveikatai, tačiau jis taip pat gali būti naudojamas darbuotojų veiklos rezultatams stebėti, vertinti, prognozuoti ir orientuoti, įskaitant tiesiogines ir netiesiogines pasekmes jų karjerai; kadangi dirbtinis intelektas turėtų teigiamai veikti darbo sąlygas ir būti grindžiamas pagarba žmogaus ir pagrindinėms teisėms bei Sąjungos vertybėms; kadangi dirbtinis intelektas turėtų būti orientuotas į žmogų, stiprinti žmonių ir visuomenės gerovę bei prisidėti prie sąžiningos ir teisingos pertvarkos;

E. kadangi dirbtinis intelektas pastebimai veikia darbo rinką[29]; kadangi jis turi potencialo pakeisti pasikartojančius veiksmus atliekančius darbuotojus, palengvinti žmogaus ir mašinos bendradarbiavimu grindžiamų darbo sistemų veikimą, užtikrinti didesnį konkurencingumą ir gerovę bei kurti naujas darbo galimybes kvalifikuotiems darbuotojams; kadangi užimtumo kraštovaizdis sparčiai kinta: tikėtina, kad apie 65 proc. šiandienos vaikų dirbs visiškai naujo pobūdžio darbą, taigi darbuotojai turi persikvalifikuoti ir kelti kvalifikaciją, pirmiausia kalbant apie skaitmeninius įgūdžius, siekiant užtikrinti, kad nė vienas neliktų nuošaly, o specializuotos darbo jėgos pasiūla būtų pakankama[30];

F. kadangi, Europos profesinio mokymo plėtros centro (CEDEFOP) duomenimis, apie 43 proc. suaugusių Sąjungos darbuotojų yra susidūrę su naujosiomis technologijomis darbe; kadangi maždaug septyni ir dešimties Sąjungos darbuotojų turi būti įgiję bent vidutinių skaitmeninių įgūdžių savo darbui atlikti[31]; kadangi vidutiniškai apie ketvirtadalis Sąjungos piliečių turi menkus skaitmeninius įgūdžius arba jų neturi; kadangi skaitmeninei atskirčiai būdingi specifiniai socioekonominiai, lyties, amžiaus, geografiniai ir prieinamumo aspektai, į kuriuos būtina atsižvelgti; kadangi 42 proc. darbuotojų įmonėse, kurių veiklos procesuose taikomas dirbtinis intelektas, laikosi nuomonės, kad dėl tokios veiklos kyla etinių klausimų, kuriuos būtina spręsti; kadangi 28 proc. darbuotojų mano, jog dirbtinio intelekto taikymas nėra visapusiškai išvystytas dėl to, kad stokojama su šia sritimi susijusių etinių taisyklių[32];

G. kadangi kilus COVID-19 pandemijai išryškėjo skaitmeninių sprendimų, įskaitant nuotolinį darbą, svarba bei jų techninis ir socialinis poveikis; kadangi bendrų Sąjungos lygmens nuostatų, susijusių su dirbtinio intelekto taikymu darbe, nėra, o tai gali lemti rinkos iškraipymus ir nepalankią konkurencinę padėtį; kadangi turėtų būti parengta tinkama dirbtinio intelekto reglamentavimo sistema;

H. kadangi Ekonominio bendradarbiavimo ir plėtros organizacija (EBPO) yra parengusi rekomendacijas dėl dirbtinio intelekto[33];

I. kadangi Europos Sąjungos Taryba ragina propaguoti etišką ir į žmogų orientuotą požiūrį dirbtinio intelekto srityje[34];

J. kadangi Sąjungos lygmens socialiniai partneriai sudarė pagrindų susitarimą dėl skaitmeninimo, į kurį, be kita ko, įtrauktas skyrius dėl dirbtinio intelekto ir žmogaus kontrolės principo užtikrinimo[35];

K. kadangi kai kurios valstybės narės jau yra įsteigusios specialias tarnybas dirbtinio intelekto poveikiui darbe stebėti ir vertinti;

L. kadangi pastangos siekiant kovoti su šališkumu dėl lyties ir nelygybe skaitmeniniame sektoriuje yra nepakankamos; kadangi lyčių nelygybė įsigalėjusi visose skaitmeninių technologijų srityse, ypač susijusiose su dirbtiniu intelektu, taigi netolimoje ateityje vyrų dominavimo skaitmeniniame sektoriuje tendencija tik stiprės;

1. pabrėžia, kad būtina nuodugniai įvertinti galimybes, kurias privačiojo ir viešojo sektorių įmonėms bei viešojo administravimo sektoriui teikia dirbtinio intelekto taikomosios programos, ir dėl jų kylančius iššūkius, susijusius su darbo vietomis ir darbuotojais, įskaitant jų poveikį profesinio ir asmeninio gyvenimo pusiausvyrai, darbo organizavimui ir darbo srautams; mano, jog nepaprastai svarbu, kad nebūtų apeitas socialinis dialogas ir kad su darbuotojais bei jų atstovais būtų konsultuojamasi, taip pat kad jie būtų pakankamai išsamiai informuojami nuo pat sprendimų priėmimo proceso pradžios; pabrėžia, kad diegiant dirbtinį intelektą būtina užtikrinti skaidrumą, o dirbtinio intelekto sistemas taikant darbe turi būti gerbiamas darbuotojų privatumas ir orumas;

2. pažymi, kad prieš kuriant, diegiant ir įgyvendinant dirbtinio intelekto sistemas turėtų būti atliekamas išsamus rizikos vertinimas, kuris apimtų poveikio pagrindinėms teisėms ir darbo sąlygoms – taip pat ir darbuotojų saugos ir sveikatos požiūriu – bei jų socialinių padarinių analizę; vertinimas turėtų apimti rizikas, susijusias su žmonių priimamais sprendimais ir socialine diskriminacija, bei kylančių profesinių rizikų analizę;

3. pažymi, kad dirbtinio intelekto sprendimai turi potencialo gerinti darbo sąlygas ir gyvenimo kokybę, įskaitant geresnę profesinio ir asmeninio gyvenimo pusiausvyrą bei geresnį prieinamumą neįgaliesiems, prognozuoti pokyčius darbo rinkoje ir padėti valdyti žmogiškuosius išteklius išvengiant žmogui būdingo šališkumo, kita vertus, dėl jų gali kilti ir privatumo bei darbuotojų saugos ir sveikatos problemų, pvz., susijusių su teise atsijungti, be to, jie gali lemti neproporcingą ir neteisėtą darbuotojų sekimą ir stebėjimą, pažeidžiant jų orumą ir privatumą, bei diskriminacinį požiūrį – taip pat ir įdarbinant – dėl algoritmų šališkumo, įskaitant pastarųjų šališkumą dėl lyties ar rasės ir etninės kilmės[36], bei pažeidžiamų grupių atstovams nepalankių algoritmų; taip pat reiškia susirūpinimą dėl to, kad dirbtinis intelektas gali pakenkti asmenų laisvei ir savarankiškumui bei paskatinti tokias darbuotojų psichikos sveikatos problemas, kaip pervargimas, su technologijų naudojimu susijęs stresas, psichologinė perkrova ir nuovargis; pabrėžia, kad dirbtinio intelekto sprendimai darbe turi būti skaidrūs ir sąžiningi, o juos taikant turi būti vengiama bet kokio neigiamo poveikio darbuotojams;

4. pabrėžia, kad kompetentingos valdžios institucijos turėtų turėti prieigą prie visos informacijos apie mokymo reikmėms naudojamus duomenis, statistinius modelius ir teorinius principus, susijusius su dirbtinio intelekto sprendimais, bei empirinį jų rezultatų pagrįstumą;

5. mano, kad dirbtinis intelektas gali būti naudingas siekiant geriau panaudoti neįgaliųjų įgūdžius ir kompetencijas, taip pat kad jo taikymas darbe gali padėti užtikrinti darbo rinkų įtraukumą ir didesnį neįgaliųjų užimtumo lygį;

6. pabrėžia, kad tokios naujos technologinės galimybės, kaip dirbtinis intelektas, ir noras užtikrinti darbo efektyvumą neturėtų tapti pajėgumų nelygybės, susijusios su technologijų naudojimu, ir nužmogintos skaitmeninės ateities priežastimi; pabrėžia, kad etika inovacijų srityje turi būti grindžiama humanišku požiūriu;

7. mano, jog naudotojai, įskaitant darbuotojus, ir vartotojai turėtų būti privaloma tvarka informuojami tais atvejais, kai sistema naudoja dirbtinį intelektą, pirmiausia kalbant apie asmeninėms reikmėms pritaikytus produktus ar paslaugas, bei gauti prasmingą nesunkiai suprantamą ir lengvai prieinamą informaciją apie visus jiems aktualius dirbtinio intelekto taikomųjų programų etinius aspektus, kad galėtų priimti informacija pagrįstus sprendimus; pabrėžia, kad svarbu suprasti, kaip algoritmai apdoroja ir vertina duomenis bei kaip ši veikla galėtų būti apribota ir sustabdyta; akcentuoja būtinybę ugdyti kompetenciją užtikrinant darbuotojų ir jų atstovų mokymą bei švietimą dirbtinio intelekto darbe klausimais, kad būtų geriau suprantamas dirbtinio intelekto sprendimų poveikis;

8. pabrėžia, kad, jeigu dirbtinis intelektas naudojamas vykdant įdarbinimo procedūras ir priimant kitus su žmogiškaisiais ištekliais susijusius sprendimus, kandidatai ir darbuotojai turi būti deramai raštu apie tai informuojami, taip pat kad jiems turi būti paaiškinama, kaip tokiu atveju kreiptis dėl persvarstymo dalyvaujant žmogui, siekiant automatizuotomis priemonėmis priimto sprendimo anuliavimo;

9. akcentuoja būtinybę užtikrinti, kad dėl dirbtinio intelekto ir robotikos vystymo bei naudojimo padidėjęs našumas būtų naudingas ne tik įmonių savininkams ir akcininkams, bet ir – sudarant geresnes darbo ir įdarbinimo sąlygas, įskaitant darbo užmokestį, ekonominį augimą ir vystymąsi – įmonėms ir darbuotojams bei tarnautų visuomenei apskritai, ypač kai šis padidėjimas pasiekiamas darbo vietų sąskaita; ragina valstybes nares atidžiai išstudijuoti galimą dirbtinio intelekto poveikį darbo rinkai ir socialinės apsaugos sistemoms bei parengti strategijas, kaip užtikrinti ilgalaikį stabilumą reformuojant mokesčių ir įmokų tvarką bei – mažesnių viešųjų pajamų atveju – kitas priemones;

10. akcentuoja įmonių investicijų į formalųjį mokymą ir savaiminį mokymąsi bei mokymąsi visą gyvenimą svarbą, siekiant remti teisingą perėjimą prie skaitmeninės ekonomikos; atsižvelgdamas į tai pabrėžia, jog dirbtinį intelektą diegiančios įmonės yra atsakingos už deramą visų susijusių darbuotojų perkvalifikavimą ir kvalifikacijos kėlimą, kad jie išmoktų naudotis skaitmeninėmis priemonėmis ir galėtų dirbti su robotais, kurių veikimas grindžiamas bendradarbiavimu (angl. co-bot), ir kitomis naujomis technologijomis bei taip prisitaikę prie kintančių darbo rinkos poreikių išsaugotų darbo vietą;

11. ragina vadovautis atsargumo principu naujų dirbtiniu intelektu grindžiamų technologijų atžvilgiu; akcentuoja pamatinį principą, kad kontroliuoti mašinas ir dirbtinį intelektą visuomet turi žmogus ir kad už sprendimus, priimamus naudojant dirbtinį intelektą, turi būti prisiimama atsakomybė, juos turi būti galima užginčyti ir, esant reikalui, anuliuoti; pabrėžia, kad turi būti laikomasi dirbtinio intelekto saugos ir saugumo standartų, ir atkreipia dėmesį į tai, kad šiuo požiūriu svarbi reguliari patikra ir kontrolė, siekiant išvengti klaidingo dirbtinio intelekto naudojimo pasekmių; primena, kad atsakomybė, susijusi su dirbtinio intelekto naudojimu, turi būti aiškiai apibrėžta tiek nelaimingų atsitikimų darbe, tiek trečiosioms šalims padarytos žalos atvejais;

12. pabrėžia, kad per visą sistemos gyvavimo ciklą, ypač kai ji taikoma darbe, dirbtinis intelektas turi būti orientuotas į žmogų, skaidrus, saugus ir patikimas bei suderinamas su pagrindinėmis teisėmis ir taikomais teisės aktais bei reglamentais, įskaitant Bendrąjį duomenų apsaugos reglamentą; ragina sukurti griežtą sertifikavimo sistemą, grindžiamą testų procedūromis ir atsargumo principu, kurią taikant įmonės galėtų parodyti, kad jų dirbtinio intelekto produktai atitinka pagrindines teises ir Sąjungos standartus;

13. primena, kad dirbtiniam intelektui visapusiškai taikomas Sąjungos užimtumo ir socialinis acquis, bei ragina Komisiją ir valstybes nares užtikrinti deramą vykdymą bei užpildyti visas galimas teisės aktų spragas; pažymi, kad Sąjunga gali tapti pasaulio lydere skatinimo užtikrinti socialiai atsakingą dirbtinio intelekto naudojimą srityje;

14. akcentuoja bendro Europos požiūrio į etinius dirbtinio intelekto aspektus svarbą; pabrėžia, jog šia prasme bet kokia reglamentavimo sistema turi būti tinkama ir pagrįsta visapusišku poveikio vertinimu, kad būtų išvengta kliūčių ateities inovacijoms ir darbo vietų kūrimui; atsižvelgdamas į tai ragina sukurti Europos dirbtinio intelekto etinių aspektų reglamentavimo sistemą, kuri būtų proporcinga ir kurią taikant ypatingas dėmesys būtų teikiamas darbo sferai, įskaitant darbuotojų teises ir darbo sąlygas; mano, kad ypatingas dėmesys turėtų būti teikiamas naujoms darbo formoms, pvz., nenuolatiniam darbui, kuris grindžiamas dalyvavimu įgyvendinant konkrečius atskirus projektus, ir platformų darbui, kurios yra naujų technologijų taikymo šiame kontekste rezultatas; mano, kad rengiant teisės aktų sistemą, kuria būtų siekiama reglamentuoti nuotolinio darbo sąlygas visoje Sąjungoje bei užtikrinti deramas darbo ir įsidarbinimo sąlygas skaitmeninėje ekonomikoje, taip pat turėtų būti atsižvelgiama į dirbtinio intelekto poveikį; ragina Komisiją šiuo klausimu konsultuotis su socialiniais partneriais, dirbtinio intelekto vystytojais, mokslo darbuotojais ir kitomis suinteresuotosiomis šalimis;

15. pabrėžia, jog dėl dirbtinio intelekto ir susijusių teisės aktų jokiu būdu negali nukentėti naudojimasis pagrindinėmis teisėmis, pripažįstamomis valstybių narių ir Sąjungos lygmenimis, įskaitant teisę ar laisvę streikuoti arba imtis kitų veiksmų, kuriuos apima konkrečios valstybių narių darbo santykių sistemos, apibrėžtos pagal nacionalinę teisę ir (arba) praktiką, arba teisę derėtis, sudaryti kolektyvines sutartis ir užsitikrinti, kad jos būtų vykdomos, ar imtis kolektyvinių veiksmų, nustatytų pagal nacionalinę teisę ir (arba) praktiką;

16. pabrėžia, kad ypatingas dėmesys turi būti teikiamas duomenims, kurie taikant dirbtinį intelektą renkami darbe, jeigu jais naudojamasi priimant sprendimus dėl žmogiškųjų išteklių; ragina įmonių lygmens socialinius partnerius kartu analizuoti ir stebėti, kaip diegiamas dirbtinis intelektas; ragina Komisiją ir socialinius partnerius analizuoti, ar būtinos specialios nuostatos dėl duomenų apsaugos darbe, susijusios su dirbtiniu intelektu; pabrėžia, kad darbuotojų duomenys jiems priklauso net ir nutraukus darbo santykius;

17. pabrėžia, kad, atsižvelgiant į ekologinę ir skaitmeninę pertvarką, įskaitant etinius dirbtinio intelekto aspektus, Naujoje Europos įgūdžių darbotvarkėje turi būti sprendžiami kvalifikacijų ir žinių pritaikymo bei įgijimo uždaviniai; pabrėžia, kad etiniai dirbtinio intelekto aspektai ir įgūdžių tobulinimas su etika susijusiais tikslais turi tapti neatskiriama visų švietimo ir mokymo programų, skirtų dirbtinio intelekto vystytojams ir su dirbtiniu intelektu dirbantiems asmenims, dalimi; primena, kad vystytojai, programuotojai, sprendimų priėmėjai ir įmonės, dirbančios su dirbtiniu intelektu, turi suvokti savo etinę atsakomybę; mano, jog ne mažiau svarbu užtikrinti, kad galutiniams naudotojams ir vartotojams būtų teikiama išsami informacija ir kad tarp visų susijusių suinteresuotųjų šalių vyktų reguliarūs mainai šiuo klausimu;

18. pakartoja, kad svarbų vaidmenį ugdant skaitmeniniam amžiui reikiamas kvalifikacijas ir kovojant su skaitmenine atskirtimi atlieka švietimas ir nuolatinis mokymasis; ragina valstybes nares investuoti į aukštos kokybės, poreikiais grindžiamas ir įtraukias švietimo, profesinio mokymo ir mokymosi visą gyvenimą sistemas bei sektorių, kurie potencialiai patiria itin neigiamą dirbtinio intelekto poveikį, darbuotojų perkvalifikavimo ir kvalifikacijos kėlimo politiką; akcentuoja būtinybę užtikrinti, kad esami ir būsimi darbuotojai įgytų reikiamų raštingumo, gebėjimo skaičiuoti ir skaitmeninių įgūdžių bei kompetencijų gamtos mokslų, technologijų, inžinerijos ir matematikos srityse, taip pat tokių universalių socialinių emocinių įgūdžių, kaip kritinis mąstymas, kūrybiškumas ir verslumas; pabrėžia, kad šiuo požiūriu ypatingas dėmesys turi būti teikiamas nepalankioje padėtyje esančių grupių atstovų įtraukčiai;

19. pabrėžia, kad dėl dirbtinio intelekto neturi stiprėti lyčių nelygybė ir stereotipai, analoginį šališkumą ir prietarus su algoritmų pagalba paverčiant skaitmeniniais;

20. akcentuoja būtinybę užtikrinti, kad į dirbtinio intelekto kūrimą, diegimą ir naudojimą būtų įtraukiami įvairių visuomenės sluoksnių atstovai, įskaitant moteris, jaunimą, kitos odos spalvos asmenis bei neįgaliuosius; primena, kad, vadovaujantis universalumo principu, dirbtiniu intelektu grindžiamos technologijos darbe turi būti prieinamos visiems;

21. pažymi, kad prieiga prie dirbtinio intelekto sprendimų glaudžiai susijusi su prieiga prie sparčiojo interneto, todėl, siekiant vengti diskriminacijos ir nelygiavertės prieigos prie šių technologijų, prioritetas turėtų būti teikiamas plačiajuosčio ryšio aprėpčiai;

22. pažymi, kad dirbtinio intelekto sprendimų galimybės priklauso nuo didžiųjų duomenų ir kad norint lavinti algoritmus bei tobulinti rezultatus būtina kritinė duomenų masė; šiuo požiūriu teigiamai vertina Komisijos pasiūlymą sukurti bendrą Sąjungos duomenų erdvę, siekiant stiprinti duomenų mainus ir remti mokslinius tyrimus visapusiškai laikantis Europos duomenų apsaugos taisyklių.


INFORMACIJA APIE PRIĖMIMĄ NUOMONĘ TEIKIANČIAME KOMITETE

Priėmimo data

7.9.2020

 

 

 

Galutinio balsavimo rezultatai

+:

–:

0:

46

6

1

Posėdyje per galutinį balsavimą dalyvavę nariai

Atidzhe Alieva-Veli, Abir Al-Sahlani, Marc Angel, Dominique Bilde, Gabriele Bischoff, Vilija Blinkevičiūtė, Andrea Bocskor, Milan Brglez, Sylvie Brunet, David Casa, Leila Chaibi, Margarita de la Pisa Carrión, Özlem Demirel, Klára Dobrev, Jarosław Duda, Estrella Durá Ferrandis, Lucia Ďuriš Nicholsonová, Rosa Estaràs Ferragut, Nicolaus Fest, Loucas Fourlas, Cindy Franssen, Heléne Fritzon, Elisabetta Gualmini, France Jamet, Agnes Jongerius, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Katrin Langensiepen, Miriam Lexmann, Elena Lizzi, Radka Maxová, Kira Marie Peter-Hansen, Dragoș Pîslaru, Manuel Pizarro, Dennis Radtke, Elżbieta Rafalska, Guido Reil, Daniela Rondinelli, Mounir Satouri, Monica Semedo, Beata Szydło, Eugen Tomac, Romana Tomc, Yana Toom, Marie-Pierre Vedrenne, Nikolaj Villumsen, Marianne Vind, Maria Walsh, Stefania Zambelli, Tomáš Zdechovský

Posėdyje per galutinį balsavimą dalyvavę pavaduojantys nariai

Lina Gálvez Muñoz, Eugenia Rodríguez Palop


 

GALUTINIS VARDINIS BALSAVIMAS NUOMONĘ TEIKIANČIAME KOMITETE

46

+

ECR

Lucia Ďuriš Nicholsonová, Elżbieta Rafalska, Beata Szydło, Margarita de la Pisa Carrión

GUE/NGL

Leila Chaibi, Özlem Demirel, Eugenia Rodríguez Palop, Nikolaj Villumsen

NI

Daniela Rondinelli

PPE

Andrea Bocskor, David Casa, Jarosław Duda, Rosa Estaràs Ferragut, Loucas Fourlas, Cindy Franssen, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Miriam Lexmann, Dennis Radtke, Eugen Tomac, Romana Tomc, Maria Walsh, Tomáš Zdechovský

RENEW

Abir Al-Sahlani, Atidzhe Alieva-Veli, Sylvie Brunet, Dragoș Pîslaru, Monica Semedo, Yana Toom, Marie-Pierre Vedrenne

S&D

Marc Angel, Gabriele Bischoff, Vilija Blinkevičiūtė, Milan Brglez, Klára Dobrev, Estrella Durá Ferrandis, Heléne Fritzon, Lina Gálvez Muñoz, Elisabetta Gualmini, Agnes Jongerius, Manuel Pizarro, Marianne Vind

Verts/ALE

Katrin Langensiepen, Kira Marie Peter-Hansen, Mounir Satouri

 

6

-

ID

Dominique Bilde, Nicolaus Fest, France Jamet, Elena Lizzi, Guido Reil, Stefania Zambelli

 

1

0

RENEW

Radka Maxová

 

Sutartiniai ženklai:

+ : 

- : prieš

0 : susilaikė

 

 


 

 

APLINKOS, VISUOMENĖS SVEIKATOS IR MAISTO SAUGOS KOMITETO NUOMONĖ (16.9.2020)

<CommissionInt>pateikta Teisės reikalų komitetui</CommissionInt>


<Titre>su rekomendacijomis Komisijai dėl dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų sistemos</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Nuomonės referentas: <Depute>Adam Jarubas</Depute>(Iniciatyva. Darbo tvarkos taisyklių 47 straipsnis)

 

 

PASIŪLYMAI

Aplinkos, visuomenės sveikatos ir maisto saugos komitetas ragina atsakingą Teisės reikalų komitetą:

 į savo pasiūlymą dėl rezoliucijos įtraukti šiuos pasiūlymus:

A. kadangi Sąjunga grindžiama Europos Sąjungos sutarties 2 straipsnyje įtvirtintomis vertybėmis ir Sutarties dėl Europos Sąjungos veikimo 191 straipsnio 2 dalyje nustatyto atsargumo principo laikymusi;

B. kadangi SESV 16 straipsnyje nurodyta, kad kiekvienas asmuo turi teisę į asmens duomenų apsaugą; kadangi Europos Parlamento ir Tarybos reglamento (ES) 2016/679[37] 22 straipsnyje aptariama padėtis, kai duomenys yra tvarkomi tik automatiniu būdu, ir pripažįstama duomenų subjekto teisė prieštarauti sprendimui, kad duomenys būtų tvarkomi tik automatiniu būdu;

C. kadangi pasaulinė konkurencija dėl lyderiavimo plėtojant dirbtinį intelektą, kuris padarys įtaką etinių vertybių ir standartų šaltiniui, formuojančiam šį sektorių visame pasaulyje, vis spartėja ir Europos Sąjunga, sukūrusi deramą reglamentavimo sistemą, turėtų rodyti pavyzdį likusiam pasauliui, taip pat siekiant užkirsti kelią galimoms lenktynėms pradedant kurti nacionalinius teisės aktus;

D. kadangi tokios pasaulinės konkurencijos nereikėtų atsieti nuo etinių vertybių ir standartų;

E.  kadangi dėl sparčios mokslinių tyrimų ir inovacijų pažangos iškilo keletas svarbių etinių, teisinių ir socialinių klausimų, darančių poveikį mokslo ir visuomenės santykiui; kadangi, kaip nustatyta Europos Sąjungos mokslinių tyrimų programų nuostatose, atliekant šiuos mokslinius tyrimus ir diegiant inovacijas turi būti laikomasi etinių principų ir atitinkamų nacionalinių, Sąjungos ir tarptautinių teisės aktų, be kita ko, Europos Sąjungos pagrindinių teisių chartijos ir Europos žmogaus teisių ir pagrindinių laisvių apsaugos konvencijos;

F. kadangi didžiųjų duomenų ir dirbtinio intelekto technologijų integravimas į valstybines sveikatos sistemas ir kitus sektorius turi vykti pagal atitinkamas taisykles, laikantis standartų ir teisės aktų, kuriais ginamos asmenų pagrindinės teisės ir sprendžiami nauji etiniai uždaviniai;

G. kadangi, lyginant su kitomis pasaulio šalimis, Sąjungoje šiuo metu pastebimas patentų ir investicijų atotrūkis;

H. kadangi dirbtinio intelekto ir kiti besiformuojantys skaitmeniniai sprendimai visuomenei gali būti naudingi perėjimo prie žaliosios ekonomikos, aplinkos ir biologinės įvairovės apsaugos požiūriu, nes gali padidinti veiksmingumą žemės ūkyje, atliekų valdymo, žiedinės ekonomikos, klimato kaitos poveikio švelninimo ir prisitaikymo prie jos, įvairių pramoninių procesų žalinimo, energijos ir transporto valdymo ir efektyvumo, vandens ir oro kokybės (pažangiųjų tinklų ir elektromobilumo), rizikos valdymo ir žemės stebėjimo srityse, kuriose Sąjungos programa „Copernicus“ yra viena iš geriausių programų;

I. kadangi dirbtinis intelektas gali būti naudojamas beveik visose medicinos srityse, pvz., vykdant biomedicinos mokslinius tyrimus, kurių pavyzdys – dirbtinio intelekto išrastas antibiotikas Halicin arba dirbtinio intelekto pagalba vykdant vėžio prevenciją, anksčiau ir tiksliau diagnozuojant ligas ir taikant naujus terapijos metodus, pasitelkiant tokius metodus, kaip predikatinė ir genominė medicina, medicininis švietimas, pagalbiniai slaugytojai, teikiantys pagalbą prižiūrint pagyvenusius žmones, pacientų būklės stebėjimas, veiksmingesnis vaistų kūrimas ir tikslingesnis gydymas, klinikinių sprendimų priėmimas, individualizuota medicina, psichiatrinė diagnostika ir gydymas, iš pagrindų keičiant robotinius protezus ir palaikomąsias sistemas, nuotolinė medicina, nuotolinė chirurgija, ir didinant bendrą sveikatos sistemų veiksmingumą ir sąveikumą;

J.  kadangi skaitmeninei pažangai pasiekti reikia sveikatos ir administracinių reikalų srityje dirbančių asmenų deramo mokymo ir pasirengimo, siekiant užkirsti kelią skaitmeninei atskirčiai, sykiu atsižvelgiant į tai, kad visuomenė senėja ir sveikatos priežiūros sistemos gali susidurti su iššūkiais;

K. kadangi kyla didelis susirūpinimas dėl mašinų savarankiškumo etinių aspektų;

L. kadangi skaitmeninės sveikatos siekis neturėtų susilpninti gydytojo ir paciento santykio ar jam pakenkti, bet turėtų padėti gydytojams veiksmingiau diagnozuoti ligas ir (arba) gydyti pacientus;

M. kadangi dirbtinio intelekto technologija paspartins skaitmeninę pramonės pertvarką ir atliks svarbų vaidmenį kuriant sėkmingą skaitmeninę ekonomiką vis labiau susijusiame pasaulyje;

N. kadangi dabartiniuose Sąjungos teisės aktuose ir etikos gairėse jau aptarti kai kurie etiniai su dirbtinio intelekto taikomosiomis programomis susiję iššūkiai, kurios nurodytos Komisijos baltojoje knygoje dėl dirbtinio intelekto, pvz., rizikos vertinimo procesai, įdiegti dirbtiniu intelektu pagrįstose sveikatos sistemose bendrojoje rinkoje; kadangi kitos sritys atsilieka nuo etinių iššūkių, kuriuos reikia identifikuoti ir kurių poveikį būtina sušvelninti, nes dirbtinis intelektas gali kelti didžiulį pavojų pacientų pasirinkimo galimybėms, saugumui ir privatumui; kadangi reikia apibrėžti medicinos ir slaugos specialistų ir mašinų vaidmenų ribas, įskaitant kontroliuojamo robotų savarankiškumo principą, kadangi reikia užtikrinti tiek sveikatos priežiūros darbuotojų, tiek pacientų švietimą;

O. kadangi Sąjungos duomenų apsaugos taisykles reikia pritaikyti atsižvelgiant į didėjantį slaugos ir medicinos robotų (kurie gali tvarkyti ypač neskelbtinus asmeninę informaciją ir sveikatos duomenis ir kurie turėtų būti suderinti pagal pritaikytosios duomenų apsaugos nuostatas, kaip nustatyta Reglamente (ES) 2016/679 dėl duomenų apsaugos) sudėtingumą ir tarpusavio ryšį;

P. kadangi sprendimai, kuriais pabrėžiama būtinybė įtraukti mokslinius tyrimus kaip plėtojimo strategijų pagrindą kuriant medicininių duomenų (pvz., neurologinių ir kardiologinių duomenų) saugyklas ir dalijantis šių mokslinių tyrimų duomenimis, gali duoti apčiuopiamos socialinės naudos visuomenės saugumo ir sveikatos srityje;

Q. kadangi dirbtinio intelekto sprendimai visuomenei gali atnešti naudos maisto saugos srityje, be kita ko, mažinant pesticidų naudojimą, remiant tikslųjį ūkininkavimą arba, plačiau, antrosios kartos ūkininkavimą, o šioje srityje Sąjunga yra tarp dirbtinio intelekto taikomųjų programų lyderių (pvz., automatizuotų mašinų pritaikymas orų prognozavimui ir ligų nustatymui), – tai užtikrins našesnę gamybą, sykiu taikant aukštesnius aplinkos standartus ir geriau naudojant išteklius, ypač tose srityse, kuriose vandens ištekliai yra riboti ir klimato kaita daro didelį poveikį; visa tai daroma laikantis žaliojo kurso prioritetų;

R. kadangi tos sistemos taikymo sritis turi būti tinkama, proporcinga ir kruopščiai įvertinta; kadangi ji turėtų apimti įvairias technologijas ir jų komponentus, įskaitant algoritmus, programinę įrangą ir dirbtinio intelekto naudojamus arba sukurtus duomenis; kadangi aukštos rizikos sąvoka paremtas tikslinis požiūris reikalingas tam, kad išvengtume trukdžių diegiant būsimas inovacijas, siekiant prisidėti prie dirbtinio intelekto taikomųjų programų teikiamos naudos piliečiams, pvz., sveikatos priežiūros, aplinkos apsaugos ir maisto kokybės užtikrinimo srityse;

S. kadangi labai svarbu nustatyti veiksmingas patikimų skaitmeninių technologijų užtikrinimo priemones, suteikiančias galimybę išnaudoti jų teikiamus pranašumus ir kartu ginti pagrindines teises bei skatinti neformalios, atviros, tolerantiškos ir teisingos visuomenės tobulėjimą; kadangi tai ypač svarbu hibridinių žmogiškojo ir dirbtinio intelekto sistemų atveju;

T. kadangi robotų mašinos panaikina ribas tarp žmogiškųjų subjektų ir technologinių objektų; kadangi jie ne tik daro poveikį visuomenei, kurį reikia įvertinti etikos požiūriu, bet ir kelia abejonių dėl pačios etinių aspektų sistemos, pagal kurias siekiame juos įvertinti; kadangi, kaip primenama Pasaulinės mokslo žinių ir technologijų etikos komisijos (COMEST) pranešime, ypatingą dėmesį reikėtų skirti medicinos robotų, slaugos robotų, pagyvenusius žmones prižiūrinčių robotų ir robotų palydovų naudojimui;

U. kadangi socialinių robotų ir robotų palydovų naudojimas sparčiai plinta sveikatos priežiūros ir ypač pagyvenusių žmonių priežiūros srityje; kadangi pagyvenusius žmones prižiūrintys robotai ir robotai palydovai gali atlikti funkcinį vaidmenį ir teikti emocinę paramą; kadangi šie robotai gali padėti mažinti pagyvenusių žmonių vienatvę, užkirsti kelią su demencija susijusiam elgesiui, skatinti neurodegeneracine liga sergančio paciento pažintinę veiklą arba atlikti tam tikras kasdienes užduotis, kurias sunku atlikti pagyvenusiems žmonėms; kadangi naudojant robotus palydovus pagyvenusiems žmonėms gali susidaryti klaidingas įspūdis, kilti iliuzijų, žmonės gali jaustis nesulaukiantys atsako, gali jaustis apgauti arba infantilizuojami;

V. kadangi vis daugiau robotų palydovų gali būti naudojami seksualiniams poreikiams tenkinti; kadangi seksualiniams poreikiams tenkinti naudojami vaikus primenantys arba prievartai užprogramuoti robotai turi ypač neraminančių etinių pasekmių;

Teisinė ir etinė dirbtinio intelekto sistema

1. pabrėžia, jog Sąjunga turi imtis visų būtinų veiksmų, kad užtikrintų, jog acquis išreikštomis jos etinėmis vertybėmis būtų iš tiesų vadovaujamasi visose dirbtinio intelekto srityse Sąjungos teritorijoje ir jos standartai propaguojami visame pasaulyje; todėl pabrėžia, kad dirbtinio intelekto technologinė plėtra visada turi būti naudinga žmonijai;

2. pabrėžia, kad Sąjunga turi imtis visų reikalingų veiksmų, kad padidintų visuomenės pasitikėjimą dirbtinio intelekto, robotikos ir susijusių technologijų vystymu ir diegimu, atsižvelgiant į didelį poveikį, kurį šios technologijos gali daryti piliečiams; ragina Komisiją laikytis patikimo dirbtinio intelekto etikos gairių ir pasiūlyti atitinkamas priemones, kad būtų užtikrinta, jog šios technologijos negeneruotų nesąžiningai šališkų rezultatų piliečiams;

3. pabrėžia, kad teisės aktais pagrįsta Sąjungos dirbtinio intelekto pasitikėjimo ekosistema, ar ji būtų susijusi su aplinkos apsaugos, sveikatos ar maisto saugos taikomosiomis programomis, papildyta Sąjungos dirbtinio intelekto etikos sistema, sustiprins teisinį tikrumą ir nuspėjamumą, paskatins suinteresuotųjų subjektų dalyvavimą, padidins patikėtųjų duomenų kiekį ir įsitvirtinimą rinkoje, padės sukurti masto ekonomiką ir remti kompetencijos ekosistemą tuose sektoriuose; mano, jog tai sustiprins Sąjungos dirbtinio intelekto sektoriaus pasaulinį konkurencingumą ir galimybes skatinti Sąjungos vertybes ir standartus;

4 pažymi, kad teisės aktais geriau reaguojant į dabartinius gerai apibrėžtus uždavinius ir sparčiai vystantis dirbtiniam intelektui, kuris lemia netikrumą dėl ateities, bendros, tinkamai teisiškai pagrįstos ir įgyvendinamos Sąjungos dirbtinio intelekto etinių aspektų sistemos išplės pasitikėjimo ekosistemą visiems suinteresuotiesiems subjektams, kaip apibrėžta Komisijos baltojoje knygoje, tiek aplinkos apsaugos, sveikatos priežiūros, tiek sveikesnės aplinkos, geresnių sveikatos priežiūros išteklių ir paslaugų ar maisto saugos taikomųjų programų srityse, taip remiant kompetencijos teisinio tikrumo ir nuspėjamumo srityje ekosistemą ir užtikrinant veiksmingą atsaką į iššūkius, kurie dar neapibrėžti, be kita ko, teismuose, vadovybės susitikimuose ar mokslinėse laboratorijose;

5. pažymi, kad norit apibrėžti dirbtinį intelektą reikia dirbti toliau; todėl pabrėžia, kad svarbu laikytis į žmogų orientuoto požiūrio ir reguliariai peržiūrėti dirbtinio intelekto pažangą ir etinių aspektų sistemą, taip siekiant skatinti aktyvų reguliavimą ir užtikrinti jo pritaikomumą bėgant laikui ir besivystant naujiems reiškiniams; pabrėžia, kad laikui bėgant dėl dirbtinio intelekto technologijų pažangos kyla įvairaus lygmens rizika; pabrėžia, kad reikia sukurti proporcingą teisės aktų sistemą, kuri būtų plėtojama atsižvelgiant į technologinės pažangos spartą; pažymi, kad programa „Copernicus“ gali pasitarnauti kaip geriausia patirtis kuriant kokybiškus didelius duomenų rinkinius, kurie naudojami kaip įvestis į dirbtinio intelekto modelius;

6. pabrėžia, kad reikia reglamentavimo sistemos, kuria būtų apibrėžiami etiniai principai, kurie turi būti taikomi kuriant, plėtojant, diegiant šią technologiją ir jai veikiant – nuo prieigos prie duomenų iki griežtos rezultatų stebėsenos;

7. pabrėžia, kad reikia suderinti požiūrį į reglamentavimą, visų pirma užtikrinant, jog nebūtų pažeidžiamos mūsų vertybės, sykiu vengiant sukurti nereikalingą administracinę naštą, ypač MVĮ ir startuoliams; todėl pabrėžia, kad pasaulinė konkurencija dirbtinio intelekto srityje ne visada vyks vadovaujantis tais pačiais etiniais principais, kaip Sąjungoje; pažymi, kad nereikėtų dirbtinio intelekto ir susijusių technologijų palikti tik lengvam savireguliavimui; mano, kad itin svarbu sukurti proporcingą ir palankią Sąjungos teisės aktų sistemą; pabrėžia, kad daugelis trečiųjų šalių dirba su savo etinių aspektų sistemomis ir kad pasaulyje yra pateikta įvairių pasiūlymų; suvokia, kad sudėtingiausias su etiniais principais susijęs dalykas gali būti tai, kaip laikomasi tokių principų, o ne tai, kad jie yra;

8. pritaria nuomonei, kad Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais parengtose Patikimo dirbtinio intelekto etikos gairėse nustatyti septyni dirbtiniam intelektui taikomi reikalavimai yra tvirtos bendrų Sąjungos dirbtinio intelekto etinių aspektų sistemos, tinkamai įtvirtintos teisės aktuose, sudedamosios dalys, apimančios, be kita ko, etinius aspektus, susijusius su dirbtinio intelekto taikomosiomis programomis aplinkos, sveikatos ir maisto apsaugos srityse; ragina tobulinti acquis skaidrumo, atsekamumo ir žmogaus vykdomos priežiūros srityse, kurios 350-čiai organizacijų pateikus atsiliepimus apie minėtas gaires buvo nurodytos kaip sritys, kuriose reikia tolesnių patobulinimų; taip pat ragina, kuriant tokią Sąjungos dirbtinio intelekto etinių aspektų sistemą, laikytis atvirumo principo ir atsižvelgti į kitų tarptautinių partnerių, kurių vertybės yra tokios pačios, kaip ir Sąjungos, darbus, pvz., į JT, Europos Tarybos 2019 m. dokumentą „Rekomendacijos dėl dirbtinio intelekto ir duomenų apsaugos“[38], Europos etikos chartiją dėl dirbtinio intelekto naudojimo teisminėse sistemose ir jos teisės tyrimų centro veiklą, Ad hoc dirbtinio intelekto komitetą (CAHAI), dokumentą dėl dirbtinio intelekto principų[39], kurį EPBO narės pasirašė 2019 m. gegužės mėn., 2019 m. per Didžiojo dvidešimtuko susitikimą pasirašytą ministrų pareiškimą dėl prekybos ir skaitmeninės ekonomikos, kurio priede pateikti dirbtinio intelekto principai, ir Elektros ir elektronikos inžinierių instituto (IEEE) Pasaulinę autonominių intelektinių sistemų etikos iniciatyvą[40];

9.  tvirtai remia Komisijos pastangas sukurti bendrą Sąjungos dirbtinio intelekto etinių aspektų sistemą, taip siekiant pašalinti trūkumus, atsirandančius dėl dirbtinio intelekto vidaus rinkos susiskaidymo, įskaitant aplinkos apsaugos, visuomenės sveikatos, sveikatos priežiūros ir maisto saugos taikomųjų programų mokslinius tyrimus, inovacijas ir ekspertines žinias, ir užkirsti kelią tam, kad Sąjungoje ir už jos ribų sukurtam dirbtiniam intelektui valstybėse narėse būtų taikomi dvigubi dirbtinio intelekto standartai, be kita ko, tokiose srityse kaip vartotojų duomenų valdymas, apsauga ir privatumas pažangiuosiuose tinkluose, atliekų tvarkymas, vienodos galimybės naudotis paslaugomis ir technologijomis, pacientų ir gydytojų santykių standartai, duomenų apsaugos ir privatumo teisės aktai, įskaitant jų sąsają su mokslinių tyrimų veikla ir vaistų kūrimu, civiline atsakomybe, susijusia su viešosios sveikatos priežiūros paslaugomis, teikiamomis pasitelkiant dirbtinį intelektą, ir civilinė atsakomybė, susijusia su autonominėmis transporto priemonėmis ar kitais autonominiais įrenginiais; pažymi, kad nacionaliniu lygmeniu valstybių narių teisės aktuose nėra suderintų atsakomybės taisyklių, kurios taikomos patyrus nuostolių, žalos ar sukėlus sužalojimų dėl skaitmeninių ir elgesio technologijų naudojimo; ragina, kad tinkamai teisiškai įtvirtinti ir išdėstyti tokią Sąjungos dirbtinio intelekto etinių aspektų sistemą;

10. todėl primena, kad 2017 m. vasario 16 d. Parlamento rezoliucijoje dėl robotikai taikomų civilinės teisės nuostatų[41] prašoma Komisijos apsvarstyti galimybę paskirti Europos robotikos ir dirbtinio intelekto agentūrą, kuri užtikrintų suderinto požiūrio visoje Sąjungoje taikymą, parengtų bendruosius kriterijus ir taikymo procesą, susijusį su Europos etinės atitikties sertifikato išdavimu, taip pat nagrinėtų naujas galimybes ir uždavinius, visų pirma tarpvalstybinio pobūdžio, kurie iškyla dėl dabartinės technologijų plėtros; prašo Komisijos apsvarstyti, ar esamų Sąjungos įstaigų ir institucijų pakanka šioms užduotims atlikti, ar tam reikėtų sukurti naują – dirbtiniam intelektui skirtą – įstaigą;

11. mano, kad visoms dirbtinio intelekto taikomosioms programoms, sukurtoms tiek Sąjungoje, tiek už jos ribų, Sąjungoje turėtų būti užtikrintas toks pats apsaugos lygis kaip ir visoms kitoms technologijoms, įskaitant veiksmingą galimybę apskųsti jas teismine tvarka neigiamą dirbtinio intelekto sistemų poveikį patyrusioms šalims, kartu leidžiant toliau vystyti technologines inovacijas; be to, mano, kad ši dirbtinio intelekto rizikos sritis yra labai svarbi, pvz., sveikatos priežiūros paslaugoms, autonomines transporto priemones apimančiai transporto sričiai ir maisto saugai; ragina aiškiai paskirstyti ekonominės veiklos vykdytojų įsipareigojimus, teises ir atsakomybę diegiant dirbtinio intelekto taikomąsias programas, kiekvieną įsipareigojimą priskiriant tam veikėjui ar veikėjams, kurie yra geriausiai pasirengę įveikti galimus pavojus, ar tai būtų kūrėjas, diegėjas, gamintojas, platintojas ar importuotojas, paslaugų tiekėjas, profesionalus ar privatus vartotojas, todėl ragina atitinkamai persvarstyti atitinkamus ES teisės aktus, pvz., Direktyvą dėl atsakomybės už gaminius, ir suderinti nacionalinės teisės aktus; pritaria baltojoje knygoje išreikštai Komisijos nuomonei, kad dėl dirbtinio intelekto sistemų sudėtingumo užtikrinant veiksmingą apsaugos ir teisių gynimo lygį gali reikėti pakeisti prievolę įrodyti, kurios reikalaujama pagal nacionalines atsakomybės už dirbtinio intelekto taikomųjų programų sukeltą žalą taisykles; mano, kad aiškumas dėl teisinės atsakomybės dirbtinio intelekto sektoriuje sustiprins Sąjungos etinių vertybių, įtvirtintų jos acquis, įgyvendinimą, teisinį tikrumą ir nuspėjamumą bei socialinį pripažinimą, palaikant Sąjungos kompetencijos dirbtinio intelekto srityje plėtrą, sutelkiant investuotojus ir padidinant įsisavinimą rinkoje;

12. pabrėžia, kad daugelis pasiūlymų, pateiktų valstybių, kurios nėra Sąjungos narės, ir tarptautinių organizacijų, yra susiję su šiais bendraisiais dirbtinio intelekto principais ar sąvokomis: orientacija į žmogų, patikimumu, žmogaus autonomijos gerbimu, žalos prevencija, nešališkumu, principu „nė vieno nepalikti nuošalyje“ ir paaiškinamumu; mano, kad ypač reikia su šiais principais susijusios tarptautinės etinių aspektų sistemos; yra susirūpinęs dėl to, kad nebuvo imtasi jokių veiksmų dėl socialinę nelygybę sukėlusių dirbtinio intelekto pažangos ir inovacijų; todėl ragina Komisiją ir valstybes nares imtis reikiamų priemonių, kad pereinant prie skaitmeninės Europos nė vienas asmuo nebūtų paliktas nuošalyje ir būtų užtikrintos sąžiningos, prieinamos ir lygios galimybės visiems naudotis šiomis inovacijomis, visų pirma tokiose srityse kaip sveikatos priežiūra;

13. rekomenduoja papildyti rizika pagrįstą požiūrį algoritminio poveikio vertinimu, naudojant informaciją iš, pvz., reglamentavimo poveikio analizės, Bendrojo duomenų apsaugos reglamento rizikos vertinimo procedūros, poveikio žmogaus teisėms vertinimo, viešai skelbiant jo rezultatus;

14. palankiai vertina tai, jog 2020 m. vasario 19 d. Komisijos baltojoje knygoje[42] apibrėžtoje rizika grindžiamo požiūrio metodikoje pripažįstama, kad sveikatos priežiūra, transportas ir energetika savaime yra didelės rizikos sektoriai, ir siūloma šiuose sektoriuose be esamų Sąjungos taisyklių nustatyti išvardytus dirbtiniam intelektui taikomus reikalavimus, išskyrus atvejus, kai dirbtinio intelekto naudojimo būdas nekelia didelės rizikos; pabrėžia, kad Sąjungos dirbtinio intelekto etinių aspektų sistema visų pirma turėtų būti taikomo minėtiems didelės rizikos sektoriams;

15. ragina Sąjungos lygmeniu parengti aiškias, objektyvias ir skaidrias procedūras, kad būtų sukurtas viešas dirbtinio intelekto didelės rizikos taikomųjų programų katalogas, kuris būtų reguliariai persvarstomas ir atnaujinamas; ragina apsvarstyti galimybę nustatyti, kad įrodinėjimo našta vykdant tokias procedūras visoms dirbtinio intelekto taikomosioms programoms visose srityse tektų subjektui, kuris siekia kurti ar diegti dirbtinio intelekto sistemą, siekiant užtikrinti, kad šis katalogas išliktų atviras inovacijoms ir būtų išvengta pavojaus, kad klasifikuojant dirbtinio intelekto taikomąsias programas jos būtų priskirtos prie didelės rizikos neturinčių programų;

16. mano, kad kuriant, diegiant ir naudojant didelės rizikos dirbtinio intelekto, robotikos ir susijusias technologijas, įskaitant programinę įrangą, algoritmus ir duomenis, kurie naudojami arba kuriami taikant tokias technologijas, kyla šališkumo ir diskriminacijos pavojus; primena, kad bet kokiomis aplinkybėmis taikant šias technologijas turėtų būti gerbiamas žmogaus orumas ir visiems užtikrintos vienodos sąlygos; mano, kad toks galimas šališkumas galėtų būti panaikintas nustatant duomenų tvarkymo taisykles ir tinkamas apsaugos nuo šališkumo ir diskriminacijos dėl socialinių, ekonominių, etninių, rasinių, seksualinių, lyties, negalios pagrindų ar kitų veiksnių priemones; įspėja dėl galimo netinkamo dirbtinio intelekto diagnostinių taikomųjų programų naudojimo ir ragina nustatyti dirbtinio intelekto pajėgumų ir motyvacijos apsaugos priemones;

17 palankiai vertina savanorišką nedidelės rizikos dirbtinio intelekto ženklinimo iniciatyvą;

18. rekomenduoja taikyti priemones, kuriomis būtų skatinama įtraukti visus dirbtinio intelekto etikos suinteresuotuosius subjektus iš privačiojo sektoriaus, vartotojų grupių ir akademinės bendruomenės rengiant etikos kodeksą, pritaikytą prie technologinių, socialinių ir politinių pokyčių;

19. primena, kad priimdami sprendimus robotai naudoja algoritmus, atspindinčius vertybes ir etinių aspektų sistemas, ir kad jų nustatymas turi svarbių etinių pasekmių sveikatos priežiūros ar socialinių santykių srityse; ypač nerimauja dėl to, kad robotais palydovais gali naudotis pedofilai arba kad jie bus naudojami seksualinės prievartos tikslais; mano, kad kuriant robotikos technologijas reikėtų atsižvelgti į etinius aspektus; ragina, kad šių mašinų kūrimo proceso etika būtų grindžiama tokiu požiūriu kaip etiškas dizainas („Value Sensitive Design“), ypač kalbant apie pagyvenusių žmonių priežiūrai skirtus robotus ir robotus palydovus; pabrėžia, kad šis požiūris taip pat turėtų būti pritaikytas atsižvelgiant į gyvūnų gerovę;

20. pabrėžia, kad, be aiškių teisės aktų nustatytų atskaitomybės ir atsakomybės reikalavimų, taip pat reikia užtikrinti algoritminį skaidrumą, kad būtų galima atsekti momentą, kai iškilo problemų, kad tinkamu laiku galėtų įsikišti ekspertai; mano, jog algoritminis skaidrumas yra labai svarbus norint apsisaugoti nuo tokių atvejų, kai medicininis sprendimas priimamas vadinamosios „juodosios dėžės“ sąlygomis; pabrėžia, kad vadinamieji „juodosios dėžės“ algoritmai, kuriais grindžiami nepaaiškinami sprendimai, daugelyje sektorių yra nepriimtini, bet tokiomis aplinkybėmis, kai dirbtinio intelekto sprendimų priėmimas turi įtakos gyvybei, neveikiančio algoritmo padariniai galėtų būti labai sunkūs; ragina Komisiją ir valstybes nares pradėti dialogą su pagrindiniais medicinos, IT, matematikos, fizikos, medicininių duomenų technologijų, klinikinės psichologijos, bioinžinerijos ir farmacijos sričių suinteresuotaisiais subjektais, kad būtų sukurtos dialogo platformos ir įvertintas poveikis gydytojo ir paciento santykiui ir medicininės priežiūros nužmoginimui;

21. ragina Sąjungos pagrindinėmis iniciatyvomis skatinti suprantamus algoritmus, paaiškinamą dirbtinį intelektą (xDI), simbolinio pagrindimo dirbtinį intelektą ir baltosios dėžės dirbtinio intelekto testavimo metodikas, parodant, kad tas technologijas galima sujungti su giliaisiais neuroniniais tinklais, ir atskleidžiant jų teisinius, etinius ir dažnai verslo srities pranašumus, taip pat skatinant metodus, kuriais nustatoma su skirtingomis technologinėmis galimybėmis susijusi rizika, pasinaudojant, be kita ko, JK Informacijos komisaro biuro (angl. ICO) ir Alano Turingo instituto gairėmis dėl dirbtinio intelekto priimamų sprendimų paaiškinimo, kuriose parodoma, kad net labai sudėtingos neuroninės dirbtinio intelekto sistemos gali būti pakankamai paaiškinamos;

22. ragina užtikrinti skaidrumą, atsakomybę, patikrinamumą, nuspėjamumą ir atskaitomybę, nes piliečiai, pacientai ir vartotojai turėtų būti informuojami, kad bendrauja su dirbtinio intelekto sistema, pateikiant aiškius ir suprantamus paaiškinimus apie naudojamus duomenis, algoritmo veikimą, jo tikslą, pasekmes ir galimus pavojus; pabrėžia, kad skaidrumas ir paaiškinamumas yra būtini norint užtikrinti pasitikėjimą šiomis technologijomis; mano, kad paaiškinimas turėtų būti papildytas patikrinamumu ir atsekamumu, nes tokių principų laikymasis yra atskaitomybės garantija; pabrėžia, kad dirbtinio intelekto taikomosios programos gali dirbti geriau už žmones atliekant siauras konkrečias užduotis, bet jos nėra tinkamos apžvalginėms analizėms atlikti; ragina užtikrinti žmogiškąją priežiūrą, profesinę atsakomybę ir sistemos nuspėjamumą, suteikiant galimybę išaktyvinti dirbtinio intelekto sistemą;

23. mano, kad bet kuris fizinis ar juridinis asmuo turėtų galėti pasinaudoti teisių gynimo priemonėmis dėl didelės rizikos dirbtinio intelekto, robotikos ar susijusios technologijos jo nenaudai priimto sprendimo ir kad bet kurį dirbtinio intelekto sprendimą turi būti galima atidžiai patikrinti žmogui ir turi būti galima įvykdyti tinkamą procesą; siūlo įdiegti apsaugos priemones, susijusias su didelės rizikos dirbtinio intelekto, robotikos ir susijusių technologijų naudojimu priimant viešosios valdžios sprendimus, įskaitant reguliarų reglamentavimo sistemos vertinimą ir galimą peržiūrą, kad nebūtų atsiliekama nuo technologinės plėtros, taip pat siūlo parengti privalomas gaires dėl atitikties vertinimo metodologijos, kurių laikytųsi nacionalinės priežiūros institucijos, taip pat parengti neprivalomas gaires, skirtas kūrėjams, diegėjams ir naudotojams;

24. palankiai vertina Europos duomenų strategiją, kurioje sprendžiami būsimi šios srities Sąjungos uždaviniai, kurie labai svarbūs siekiant dirbtinio intelekto pažangos, ir ragina ieškoti galimybių, kad naujojoje duomenų ekonomikoje Europa (visų pirma, augančiame decentralizuotų ir nuasmenintų duomenų, kurie gaunami iš pramonės, verslo ir valstybinio sektorių ir iš tinklo pakraštyje esančių prietaisų (apskaičiuota, kad šis sektorius 2025 m. sudarys 80 proc. bendro 175 zetabitų kiekio ir pakeis dabartines apimtis)) įgytų konkurencinį pranašumą;

25. ragina užtikrinti pakankamą Sąjungos dirbtinio intelekto pertvarkos finansavimą; pritaria Komisijos baltojoje knygoje išdėstytiems siekiams per ateinančius dešimt metų Sąjungoje į dirbtinio intelekto sritį pritraukti 200 mlrd. EUR viešųjų ir privačiųjų investicijų; palankiai vertina tai, kad skiriamas dėmesys dirbtinio intelekto ekosistemų trūkumui mažiau išsivysčiusiuose regionuose ir MVĮ bei startuolių poreikiams; ragina Komisiją nustatyti viešosios infrastruktūros trūkumus ir sudaryti geresnes sąlygas dirbtinio intelekto įnašui švelninant klimato kaitos poveikį ir prisitaikant prie jos, finansuojant atsinaujinančiąją energiją ir sveikatą, taip pat padėti sudaryti geografiniu požiūriu subalansuotą prieigą prie viso dirbtinio intelekto finansavimo, įskaitant MVĮ ir startuolius; pabrėžia, kad dėl naujų Sąjungos tikslų neturi sumažėti Sąjungos įsipareigojimas įgyvendinti nuolatinius prioritetus, pvz., BŽŪP, sanglaudos politiką, žaliąjį kursą ir kitos kartos ekonomikos gaivinimo po COVID-19 planą;

26 ragina Komisiją skatinti ir finansuoti į žmogų sutelkto dirbtinio intelekto, robotikos ir susijusių technologijų, kurios padėtų spręsti aplinkos ir klimato uždavinius ir užtikrintų vienodas galimybes naudotis pagrindinėmis teisėmis, plėtrą taikant mokestines, žaliųjų viešųjų pirkimų ar kitas paskatas;

Dirbtinio intelekto anglies dioksido išmetimo rodiklis

27. pažymi, jog 2020 m. vasario 19 d. paskelbtame skaitmeninio sektoriaus teisės aktų rinkinyje Komisija teigė, kad šiuo metu IRT sektoriuje suvartojama nuo 5 proc. iki 9 proc. pasaulinės elektros energijos ir išmetama 2 proc. CO2 kiekio ir kad ateinančiais metais perduodamų ir saugomų duomenų kiekis ir toliau proporcingai didės ir reikės rasti atitinkamų sprendimų; taip pat pažymi, jog 2018 m. Jungtinio tyrimų centro tyrime „Dirbtinis intelektas. Europos perspektyva“ prognozuojama, kad duomenų centrams ir duomenų perdavimui turėtų tekti 3–4 proc. visos Sąjungoje suvartojamos elektros energijos;

28. džiaugiasi tuo, kad Europos skaitmeninėje strategijoje siūlomos skaitmeniniams sektoriams skirtos žaliosios pertvarkos priemonės;

29. pabrėžia, kad nepaisant dabartinio didelio anglies dioksido išmetimo rodiklio, kurį šiuo metu lemia gilusis mokymasis ir pats dirbtinis intelektas, šios technologijos gali padėti sumažinti dabartinį IRT sektoriaus ir dirbtinio intelekto, robotikos, automatizuotų sprendimų procesų, mašininio mokymosi kūrimo lemiamą poveikį aplinkai; pabrėžia, kad šios ir kitos tinkamai reglamentuojamos susijusios technologijos turėtų būti esminiai veiksniai, kuriuos pasitelkus įgyvendinami žaliojo kurso tikslai, JT darnaus vystymosi tikslai ir Paryžiaus susitarimas daugelyje skirtingų sektorių, taip pat jie turėtų padidinti politikos, kuria užtikrinama aplinkos apsauga, poveikį, pvz., atliekų mažinimo ir aplinkos būklės blogėjimo srityse;

30. ragina Komisiją atlikti tyrimą dėl dirbtinio intelekto technologijų anglies dioksido išmetimo rodiklio poveikio ir įvertinti vartotojų perėjimo prie dirbtinio intelekto technologijų naudojimo teigiamą ir neigiamą poveikį;

31. pažymi, kad, atsižvelgiant į vis didesnę dirbtinio intelekto taikomųjų programų, kurioms reikalingi skaičiavimo, saugojimo ir energijos ištekliai, plėtrą, dirbtinio intelekto sistemų poveikis aplinkai turėtų būti vertinamas per visą jų gyvavimo ciklą;

Dirbtinio intelekto poveikis sveikatos sektoriui ir pacientų teisėms

32. pripažįsta didelį dirbtinio intelekto vaidmenį sveikatos srityje ir pabrėžia, kad dirbtinio intelekto taikomosiomis programomis sveikatos srityje visada reikėtų siekti kuo labiau išplėsti jų teikiamas galimybes – pagerinti pavienių pacientų sveikatą, taip pat valstybių narių valstybinių sveikatos sistemų veiklą – nemažinant etinių standartų ir nekeliant grėsmės piliečių privatumui ar saugai;

33. palankiai vertina baltojoje knygoje nurodytą Komisijos įsipareigojimą išnagrinėti sveikatos priežiūrai būdingus saugos ir atsakomybės uždavinius, susijusius, pvz., su dirbtinio intelekto sistemomis, kurios gydytojams arba tiesiogiai pacientams perduoda specializuotą medicininę informaciją, ar dirbtinio intelekto sistemomis, kurios pačios atlieka medicinines užduotis tiesiogiai pacientui; ragina atlikti atitinkamą patikrinimą ir kituose į sąrašą įtrauktuose sektoriuose, kurie yra savaime laikomi didelės rizikos sektoriais;

34. mano, kad tokiose srityse kaip sveikata atsakomybę galiausiai turi prisiimti fizinis ar juridinis asmuo; pabrėžia, kad algoritmams apmokyti reikalingi atsekami ir viešai prieinami duomenys;

35. ragina Komisiją inicijuoti atvirą, skaidrų sektorių dialogą, teikiant pirmenybę sveikatos apsaugai, kad vėliau būtų pateiktas veiksmų planas, kuriuo sudaromos palankesnės sąlygos kurti, išbandyti ir pradėti taikyti dirbtinį intelektą moksliniuose tyrimuose ir inovacijose bei plačiai jį pritaikyti viešosiose sveikatos priežiūros tarnybose;

36. perspėja apie mėginimus suteikti mašinoms tam tikrą „asmenybę“, dėl kurios gali būti panaikinta žmogaus atsakomybė jų naudojimo klaidų atveju;

37. tvirtai remia Komisijos pasiūlytą idėją sukurti Europos sveikatos duomenų erdvę[43], kuria siekiama skatinti keitimąsi sveikatos srities duomenimis ir remti mokslinius tyrimus, visapusiškai laikantis duomenų apsaugos nuostatų, įskaitant duomenų tvarkymą naudojant dirbtinio intelekto technologijas, ir kuria stiprinamas ir išplečiamas sveikatos srities duomenų naudojimas ir pakartotinis naudojimas; ragina didinti tarpvalstybinio keitimosi sveikatos srities duomenimis apimtį, jų susiejimą ir naudojimą pasitelkiant bendras saugias duomenų saugyklas, konkrečios rūšies informaciją apie sveikatą, pvz., Europos sveikatos duomenis, genominę informaciją ir skaitmeninius sveikatos atvaizdus, siekiant supaprastinti Sąjungos mastu sąveikius registrus ar duomenų bazes mokslinių tyrimų, mokslo ir sveikatos srityse;

38. pabrėžia, kad pacientai turėtų žinoti, kada ir kaip jie bendrauja su žmonėmis specialistais ir kada taip nėra; primygtinai reikalauja užtikrinti, kad pacientai galėtų laisvai nuspręsti dėl šios sąveikos ir kad jiems turėtų būti pasiūlyta vienodo standarto alternatyva;

39. mano, kad, visų pirma, sveikatos sektoriuje mobiliosios taikomosios programos gali padėti stebėti ligas ir būtų verta pasitelkti robotus, kurie padėtų dirbti gydytojams ir sveikatos priežiūros padėjėjams, taip siekiant pagerinti diagnozavimą ir gydymą, sykiu užtikrinant medicinos praktikoje ir pacientų priežiūros praktikoje žmogiškąjį veiksnį;

40. ragina Sąjungą standartizuoti elektroninės sveikatos taikomųjų programų sąveiką ir sukurti bendrą Europos prieigą prie receptų, diagnozės ir medicininių ataskaitų duomenų, kuri būtų lengvai prieinama visiems Sąjungos piliečiams ir visose valstybėse narėse;

41. pakartoja, kad šių technologijų teikiamos galimybės ir iš jų kylanti rizika yra pasaulinio masto, todėl reikia nuoseklaus suderinto požiūrio tarptautiniu lygmeniu; ragina Komisiją bendradarbiauti dvišaliu ir daugiašaliu lygmeniu, siekiant skatinti ir užtikrinti etikos laikymąsi;

42. atkreipia dėmesį į dirbtinio intelekto naudą ligų prevencijos, gydymo ir kontrolės srityje – kaip pavyzdį galima paminėti, kad dirbtinis intelektas nuspėjo COVID-19 epidemiją anksčiau, nei PSO; primygtinai ragina Komisiją parengti Europos ligų prevencijos ir kontrolės centrui skirtą tinkamą teisinę sistemą ir skirti deramai išteklių, kad būtų galima rinkti reikalingus anoniminius duomenis realiuoju laiku visame pasaulyje, nepriklausomai nuo valstybių narių, be kita ko, siekiant įveikti COVID-19 pandemijos keliamus iššūkius;

43. pabrėžia, kad valdžios institucijų per COVID-19 pandemiją ir kitas galimas sveikatos srities krizes naudojamos stebėjimo ir kontaktų paieškos technologijos gali būti nesuderinamos su duomenų apsauga; todėl primena 2020 m. balandžio 17 d. Komisijos dokumentą „Duomenų apsaugos gairės dėl kovai su COVID-19 pandemija naudojamų programėlių“[44] ir būtinybę užtikrinti proporcingumą, apribojimą laiko atžvilgiu, atitiktį Europos vertybėms ir pagarbą žmogaus orumui ir pagrindinėms teisėms;

44. mano, kad dirbtinis intelektas ir robotika gali labai pagerinti medicinos prietaisų valdymą ir palengvinti kasdienį sveikatos priežiūros specialistų darbą; mano, kad reikia sukurti atsarginę svarbiausių medicinos prietaisų sistemą, leidžiančią stebėti ir užtikrinti prietaiso funkcionalumą susidūrus su bet kokiais galimais trikdžiais, ir kad reikia atsižvelgti į su tokių prietaisų valdymu susijusias galimas kibernetines grėsmes ir jas sumažinti; pabrėžia, kad, be įsilaužėlių ir išorinių grėsmių, kibernetinės grėsmės taip pat gali kilti dėl žmonių klaidų ar sistemos klaidų, ir reikia turėti tinkamas ir veikiančias atsargines sistemas; be to, mano, kad Sąjunga turėtų parengti dirbtinio intelekto atsarginių kopijų kūrimo veiksmų planą, skirtą galimiems klausimams, susijusiems su dirbtinio intelekto sistemos kontrolės klaidomis, spręsti;

45. pabrėžia, kad Europos Parlamento ir Tarybos reglamente (ES) 2017/745[45] nustatytų saugumo standartų gali nepakakti dirbtinio intelekto sistemų iššūkiams įveikti; ragina Komisiją stebėti šioje srityje kylančius iššūkius ir prireikus pateikti pasiūlymus;

46. pabrėžia, jog būtina užtikrinti, kad dirbtinio intelekto naudojimu pagrįsti medicinos prietaisai atitiktų Reglamente (ES) 2017/745 nustatytus saugos ir veiksmingumo reikalavimus; ragina Komisiją ir valstybes nares užtikrinti, kad Reglamentas (ES) 2017/745 būtų įgyvendintas atsižvelgiant į šias technologijas; mano, kad reikia parengti naujas gaires ir specifikacijas dėl programinės įrangos, dirbtiniu intelektu ir giliuoju mokymusi paremtų prietaisų saugos ir veiksmingumo vertinimo per visą jų naudojimo ciklą;

47. ragina užtikrinti aiškesnius teisinius įgaliojmus ir pakankamą EMA ir nacionalinių kompetentingų institucijų finansavimą vaistų srityje, kad būtų remiamos su dirbtiniu intelektu susijusios inovacijos ir viešosios sveikatos aspektai per visą medicininio gyvavimo ciklą, visų pirma surinkti ir išanalizuoti realius pasaulinės sveikatos duomenis, kurie gali padėti gauti papildomų įrodymų apie medicininius produktus, taip remiant mokslinius tyrimus ir technologinę plėtrą, bei optimizuoti saugų ir veiksmingą esamų vaistų naudojimą pacientų ir Europos sveikatos priežiūros sistemų labui;

48. pabrėžia, kad nei draudimo bendrovėms, nei bet kuriam kitam paslaugų teikėjui neturėtų būti leidžiama naudoti duomenų iš elektroninių sveikatos priežiūros programų, siekiant sudaryti diskriminacines sąlygas kainodaros srityje, nes tai prieštarautų pagrindinei teisei gauti aukščiausio įmanomo lygio sveikatos priežiūros paslaugas;

Dirbtinis intelektas ir duomenų apsauga

49.  palankiai vertina tai, kad Komisija neseniai paskelbė apie Reglamento (ES) 2016/679 peržiūrą[46], pažymi, kad valstybių narių teisės aktuose vadovaujamasi skirtingu požiūriu įgyvendinant nukrypti leidžiančias nuostatas nuo bendrojo draudimo tvarkyti tam tikras asmens duomenų kategorijas, kai tai susiję su specifikacijų lygmeniu ir garantijos priemonėmis, taip pat ir sveikatos priežiūros tikslais; todėl teigia, kad galiausiai žmonės turėtų būti atsakingi už sprendimo priėmimą, ypač tokiuose su dideliais apribojimais ir pavojais susijusiuose sektoriuose kaip sveikata;

50. palankiai vertina Komisijos ketinimą stebėti Reglamento (ES) 2016/679 taikymą naujoms technologijoms, be kita ko, galimose būsimose dirbtinio intelekto srities iniciatyvose ir vykdant Duomenų strategiją, ir pritaria Komisijos išsakytam raginimui Europos duomenų apsaugos valdybai parengti gaires dėl Reglamento (ES) 2016/679 taikymo mokslinių tyrimų, dirbtinio intelekto, blokų grandinių ir kitų galimų technologinių pokyčių srityje;

51. ragina įgalinti piliečius ir pacientus, kiek tai susiję su jų asmens duomenimis, ir užtikrinti visapusišką Sąjungos duomenų apsaugos ir privatumo teisės aktų vykdymą, visų pirma kalbant apie dirbtinio intelekto taikomąsias programas sveikatos priežiūros srityje ir kitus susijusius neskelbtinus duomenis, taip siekiant paisyti teisės būti pamirštam, kuri numatyta Reglamento (ES) 2016/679 17 straipsnyje, ir stiprinti teisę gauti paaiškinimą, kaip numatyta Reglamento (ES) 2016/679 22 straipsnyje, ir padidinti paaiškinimo pateikimo reikalavimus, taikomus didelės rizikos dirbtiniam intelektui;

52. pabrėžia, kad dirbtinio intelekto etinių aspektų sistema turėtų apimti teisę gauti sprendimo, kuris priimtas taikant automatizuotą procesą, paaiškinimą asmenims, kuriems taikomi tokie sprendimai;

53. ragina užtikrinti teisingą privatumo ir duomenų apsaugos bei duomenų naudingumo pusiausvyrą; mano, kad mokslinės pažangos labui svarbu užtikrinti galimybę dalytis pakankamai išsamiais ir tiksliais sveikatos srities duomenimis bei juos tvarkyti; ragina užtikrinti duomenų anonimiškumą, kartu vengiant pernelyg didelio duomenų kiekio mažinimo; ragina Sąjungos lygmeniu kurti sąveikias, tinkamas duomenų bazes, registrus ir saugyklas, taip siekiant supaprastinti su sveikata susijusių duomenų naudojimą sveikatos, aplinkos ir maisto saugos sektoriuose;

54. pabrėžia, kad būtina užtikrinti pažeidžiamų grupių asmenų su sveikata susijusių duomenų ir duomenų apsaugą, ir pažymi, kad dirbtinio intelekto taikomosios programos su sveikata susijusius duomenis tvarkytų vadovaudamosi duomenų subjekto sutikimu ir turi būti išpildytos Reglamento (ES) 2016/679 7 straipsnyje nustatytos sąlygos;

55. pabrėžia, kad jokiomis aplinkybėmis generuojami duomenys neturėtų prisidėti prie bet kokio pobūdžio diskriminacijos; ragina suteikti garantijas, kad duomenys būtų renkami ir prie jų būtų prieinama visada laikantis Sąjungos teisinės sistemos;

56. pabrėžia, kad kenkėjiško duomenų pakeitimo ir manipuliavimo jais, galimo duomenų grobimo ar duomenų vagystės pavojus sveikatos sektoriuje gali būti labai didelis, taip gali būti pasielgta norint pakenkti asmeniui, jį diskredituoti ar iš jo pasipelnyti; pabrėžia, kad atitinkamiems tinklams reikėtų taikyti aukščiausius kibernetinio saugumo standartus;

Dirbtinio intelekto įtaka darbo ir socialinei aplinkai

57. pabrėžia, kad neramumai darbo rinkoje yra dalis priemonių, į kurias atsižvelgiama EBPO etikos sistemoje; pabrėžia, kad automatizavimas kartu su dirbtiniu intelektu padidins našumą, taigi, ir gamybą; atkreipia dėmesį į tai, kad, kaip ir per ankstesnes technologines revoliucijas, kai kurios darbo vietos bus pakeistos; pabrėžia, kad, vis labiau naudojant robotiką ir dirbtinį intelektą, turėtų sumažėti ir žmonių darbo žalingomis ir pavojingomis sąlygomis rizika, be to, tai turėtų paskatinti kurti daugiau kokybiškų deramo darbo vietų ir pagerinti našumą; primena EBPO veiklą, kuria pabrėžiama, kad pasitelkdama automatizavimą visuomenė gali pasirinkti sutrumpinti darbo laiką ir taip pagerinti darbuotojų gyvenimo sąlygas ir sveikatą;

58. atkreipia daugiau dėmesio į EBPO rekomendacijas, kuriose vyriausybės raginamos glaudžiai bendradarbiauti su suinteresuotaisiais subjektais, taip siekiant skatinti atsakingą dirbtinio intelekto naudojimą darbe, gerinti darbuotojų saugą ir darbo kokybę, taip pat užtikrinti, kad dirbtinio intelekto teikiama nauda būtų plačiai ir teisingai dalijamasi; šiuo atveju pabrėžia, kad įvairios kūrėjų ir inžinierių komandos, dirbančios kartu su pagrindiniais veikėjais, gali padėti užkirsti kelią su lytimi ir kultūra susijusiems stereotipams ir užtikrinti, kad darbuotojų fizinės ir psichinės gerovės paisoma dirbtinio intelekto algoritmuose, sistemose ir taikomosiose programose;

59. pabrėžia, kad dirbtinio intelekto taikomųjų programų plėtojimas gali sumažinti galimų paslaugų kainas ir padidinti apimtį, pvz., sveikatos priežiūros, viešojo transporto paslaugų, antrosios kartos ūkininkavimo atvejais, taip padarant jas labiau įperkamomis platesnėms visuomenės grupėms; pabrėžia, kad dėl dirbtinio intelekto taikomųjų programų taip pat gali padidėti nedarbo lygis, spaudimas socialinės priežiūros sistemoms ir išaugti skurdas; pabrėžia, kad laikantis Europos Sąjungos sutarties 3 straipsnyje nurodytų vertybių reikia Sąjungos dirbtinio intelekto pertvarką pritaikyti prie socialinių ir ekonominių pajėgumų, atitinkamos socialinės apsaugos, švietimo ir alternatyvių darbo vietų kūrimo; ragina apsvarstyti galimybę, vadovaujantis Europos prisitaikymo prie globalizacijos padarinių fondo (EGF) arba šiuo metu kuriamo Teisingos pertvarkos fondo patirtimi, įsteigti Sąjungos prisitaikymo prie dirbtinio intelekto fondą;

60. taip pat pabrėžia, kad svarbu užmegzti socialinį dialogą, taip siekiant sudaryti sąlygas sąžiningam ir įtraukiam darbuotojų perėjimui prie naujos darbo aplinkos, kuriai įtaką padarė dirbtinis intelektas, ir tai, kad įmonėms būtina investuoti į savo darbuotojų mokymus ir įgūdžių perkvalifikavimą;

61. ragina valstybes nares aplinkos apsaugos, sveikatos ir maisto saugos specialistų mokymą pritaikyti pagal pokyčius dirbtinio intelekto srityje, taip pat didinti informuotumą apie rizikas ir etinius iššūkius, kurie siejami su dirbtiniu intelektu;

62. pritaria baltojoje knygoje nustatytiems reikalavimams dėl didelės rizikos dirbtinio intelekto apmokymo duomenų, taip pat sprendžiant su sauga susijusius klausimus, nes tai turi būti pakankamai platūs duomenys, apimantys visus susijusius scenarijus, siekiant išvengti tokių pavojingų situacijų kaip diskriminacija, ir pakankamai reprezentatyvūs duomenys, kurie gerai atspindi socialinę aplinką, kurioje jie bus taikomi;

63. pabrėžia, kad viešasis sektorius turėtų sutelkti dėmesį į socialinių problemų sprendimą, o ne rengtis jam pačiam naudingų dirbtinio intelekto sistemų įsisavinimui; ragina tobulinti Sąjungos viešųjų pirkimų reglamentus ir gaires, įskaitant Europos Sąjungos žaliuosius viešuosius pirkimus, kad vykdant atitinkamas pasiūlymų vertinimo procedūras būtų atsižvelgiama į tai, ar tam tikru atveju reikia taikyti dirbtinio intelekto sistemą, ir būtų galima vadovautis alternatyviu įgyvendinimo būdu, jei vertinimas rodytų, kad toks dirbtinio intelekto nenaudojant priimtas sprendimas geriau išspręstų socialinę problemą.


INFORMACIJA APIE PRIĖMIMĄ NUOMONĘ TEIKIANČIAME KOMITETE

Priėmimo data

10.9.2020

 

 

 

Galutinio balsavimo rezultatai

+:

–:

0:

77

2

2

Posėdyje per galutinį balsavimą dalyvavę nariai

Nikos Androulakis, Bartosz Arłukowicz, Margrete Auken, Simona Baldassarre, Marek Paweł Balt, Traian Băsescu, Aurelia Beigneux, Monika Beňová, Sergio Berlato, Alexander Bernhuber, Malin Björk, Simona Bonafè, Delara Burkhardt, Pascal Canfin, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Nathalie Colin-Oesterlé, Miriam Dalli, Esther de Lange, Christian Doleschal, Marco Dreosto, Bas Eickhout, Eleonora Evi, Agnès Evren, Fredrick Federley, Pietro Fiocchi, Andreas Glück, Catherine Griset, Jytte Guteland, Teuvo Hakkarainen, Martin Hojsík, Pär Holmgren, Jan Huitema, Yannick Jadot, Adam Jarubas, Petros Kokkalis, Athanasios Konstantinou, Ewa Kopacz, Joanna Kopcińska, Ryszard Antoni Legutko, Peter Liese, Sylvia Limmer, Javi López, César Luena, Fulvio Martusciello, Liudas Mažylis, Joëlle Mélin, Tilly Metz, Silvia Modig, Dolors Montserrat, Alessandra Moretti, Dan-Ștefan Motreanu, Ville Niinistö, Ljudmila Novak, Jutta Paulus, Stanislav Polčák, Jessica Polfjärd, Luisa Regimenti, Frédérique Ries, María Soraya Rodríguez Ramos, Sándor Rónai, Rob Rooken, Silvia Sardone, Christine Schneider, Günther Sidl, Ivan Vilibor Sinčić, Linea Søgaard-Lidell, Nicolae Ştefănuță, Nils Torvalds, Edina Tóth, Véronique Trillet-Lenoir, Alexandr Vondra, Mick Wallace, Pernille Weiss, Michal Wiezik, Tiemo Wölken, Anna Zalewska

Posėdyje per galutinį balsavimą dalyvavę pavaduojantys nariai

Michael Bloss, Manuel Bompard, Christel Schaldemose

 


 

 

GALUTINIS VARDINIS BALSAVIMAS NUOMONĘ TEIKIANČIAME KOMITETE

77

+

#PPE#

Bartosz Arłukowicz, Alexander Bernhuber, Traian Băsescu, Nathalie Colin-Oesterlé, Christian Doleschal, Agnès Evren, Adam Jarubas, Ewa Kopacz, Peter Liese, Fulvio Martusciello, Liudas Mažylis, Dolors Montserrat, Dan-Ștefan Motreanu, Ljudmila Novak, Jessica Polfjärd, Stanislav Polčák, Christine Schneider, Edina Tóth, Pernille Weiss, Michal Wiezik, Esther de Lange

S&D

Nikos Androulakis, Marek Paweł Balt, Monika Beňová, Simona Bonafè, Delara Burkhardt, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Miriam Dalli, Jytte Guteland, César Luena, Javi López, Alessandra Moretti, Sándor Rónai, Christel Schaldemose, Günther Sidl, Tiemo Wölken

Renew

Pascal Canfin, Fredrick Federley, Andreas Glück, Martin Hojsík, Jan Huitema, Frédérique Ries, María Soraya Rodríguez Ramos, Linea Søgaard-Lidell, Nils Torvalds, Véronique Trillet-Lenoir, Nicolae Ştefănuță

ID

Simona Baldassarre, Aurelia Beigneux, Marco Dreosto, Catherine Griset, Joëlle Mélin, Luisa Regimenti, Silvia Sardone

Verts/ALE

Margrete Auken, Michael Bloss, Bas Eickhout, Pär Holmgren, Yannick Jadot, Tilly Metz, Ville Niinistö, Jutta Paulus

ECR

Sergio Berlato, Pietro Fiocchi, Joanna Kopcińska, Ryszard Antoni Legutko, Alexandr Vondra, Anna Zalewska

GUE/NGL

Malin Björk, Manuel Bompard, Petros Kokkalis, Silvia Modig, Mick Wallace

NI

Eleonora Evi, Athanasios Konstantinou

 

2

-

ID

Sylvia Limmer

ECR

Rob Rooken

 

2

0

ID

Teuvo Hakkarainen

NI

Ivan Vilibor Sinčić

 

Sutartiniai ženklai:

+ : 

- : prieš

0 : susilaikė

 

 


 

 

KULTŪROS IR ŠVIETIMO KOMITETO NUOMONĖ (3.9.2020)

<CommissionInt>pateikta Teisės reikalų komitetui</CommissionInt>


<Titre>su rekomendacijomis Komisijai dėl dirbtinio intelekto, robotikos ir susijusių technologijų etinių aspektų nuostatų</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Nuomonės referentas: <Depute>Łukasz Kohut</Depute>

(Iniciatyva. Darbo tvarkos taisyklių 47 straipsnis)

 

 

PASIŪLYMAI

Kultūros ir švietimo komitetas ragina atsakingą Teisės reikalų komitetą į savo pasiūlymą dėl rezoliucijos įtraukti šiuos pasiūlymus:

1. primena, kad dirbtinio intelekto vystymas, diegimas ir naudojimas kultūros ir kūrybos sektoriuose ir švietimo, žiniasklaidos, jaunimo ir informavimo politikos srityse ne tik turi vis didesnį potencialą, bet ir kelia bei toliau kels įvairių etikos klausimų, kuriuos būtina spręsti; pabrėžia, kad Sąjunga turėtų atlikti vadovaujamą vaidmenį vystant etišką dirbtinį intelektą, neatsiejamą nuo Europos vertybių, užtikrindama žmogaus orumą ir pagrindines teises demokratiškoje, teisingoje ir tvarioje Europoje; ragina ES institucijas pradėti ilgalaikius svarstymus apie dirbtinio intelekto poveikį mūsų demokratinėms diskusijoms, visuomenei ir pačiai žmogaus prigimčiai, kad būtų atvertas kelias dirbtinio intelekto technologijoms, kurios gerbtų mūsų laisves ir nepažeistų naujovių ir neribotų saviraiškos laisvės;

2. yra tvirtai įsitikinęs, jog būtina išnagrinėti, kaip žmogaus teisių sistemos ir įsipareigojimai gali tapti veiksmų ir politikos, susijusių su naujomis ir besiformuojančiomis skaitmeninėmis technologijomis, orientyrais siekiant užtikrinti jų į žmoniją orientuotą požiūrį ir galimybę visiems naudotis jų teikiama nauda; pripažįsta, jog būtina užtikrinti, kad dirbtinio intelekto vystymas, diegimas ir naudojimas nebūtų susijęs su diskriminacija, šališkumu profiliuojant ir kad jis atspindėtų visus esminius visuomenės elementus; pripažįsta, jog dirbtinis intelektas ir automatizacija gali daryti poveikį globalizuotai ekonomikai, o tai gali dar labiau sustiprinti esamą nelygybę;

3. pabrėžia, kad būtina parengti specialiai pritaikytus dirbtinio intelekto diegimo ir naudojimo švietimo, žiniasklaidos, jaunimo, mokslinių tyrimų ir kultūros bei kūrybos sektoriuose kriterijus, nustatant etikos požiūriu atsakingo ir priimtino dirbtinio intelekto technologijų naudojimo šiose srityse gaires ir principus, įskaitant aiškią atsakomybės už produktus, sukuriamus naudojant dirbtinį intelektą, tvarką; pabrėžia, jog šiuos kriterijus turi būti galima nuolat pritaikyti prie pažangos dirbtinio intelekto technologijų srityje, taip kartu siekiant atsakingai padėti panaudoti visą dirbtinio intelekto potencialą; ypač akcentuoja būtinybę spręsti naudotojų asmeninių duomenų rinkimo ir susirūpinimą dėl privatumo srityje keliančius klausimus bei problemas dėl atsakomybės tais atvejais, kai automatizuoto mokymosi procesų rezultatai būna nepageidaujami; primena, kad, siekiant užtikrinti tvirtą šių kriterijų pagrindą, būtina reikalauti jog būtų laikomasi sistemos atitikties jos specifikacijoms, skaidrumo, sąžiningumo ir lygybės principų, konsultuojantis su kompetentingais etikos komitetais, kurių vaidmuo – prisidėti prie veiklos pagrindo rengimo atsižvelgiant į Europos kultūros vertybes ir ES teisės aktų nuostatas; pažymi, kad dirbtinio intelekto sistemos yra grindžiamos programine įranga ir kad joms būdinga protinga elgsena, kurią lemia jų aplinkos analizė; pabrėžia, kad ši analizė grindžiama statistikos modeliais, dalį kurių neišvengiamai sudaro klaidos; pabrėžia, jog būtina užtikrinti, kad būtų parengtos sistemos ir metodai, kuriuos taikant būtų galima patikrinti ir paaiškinti algoritmą bei imtis taisomųjų priemonių; pabrėžia, kad būtinos privalomos taisyklės, kurios užtikrintų, jog būtų laikomasi skaidrumo, atskaitomybės ir nediskriminavimo principų; primena 2019 m. Patikimo dirbtinio intelekto etikos gaires ir jose išdėstytus septynis esminius reikalavimus patikimam dirbtiniam intelektui;

4. pažymi, kad visi vaikai turi teisę į kokybišką viešąjį visų lygmenų švietimą; todėl ragina vystyti, diegti ir naudoti kokybiškas dirbtinio intelekto sistemas, kurias taikant visais lygmenimis būtų skatinamos ir prieinamos kokybiškos švietimo priemonėms visiems, ir pabrėžia, kad dėl naujų dirbtinio intelekto sistemų diegimo mokyklose visuomenėje neturėtų didėti skaitmeninė atskirtis;

5. atkreipia dėmesį į tai, kad mokyklose ir universitetuose vis dažniau naudojamos personalizuotos dirbtiniu intelektu pagrįstos mokymo sistemos, o tai pamažu keičia mokytojų vaidmenį mokymosi procese; pabrėžia, jog, šias permainas reikėtų atidžiai įvertinti, atitinkamai jas atspindint mokymo programose, ir susieti su į žmogų orientuotomis vertybėmis; pripažįsta, kad didžiulis dirbtinio intelekto ir robotikos potencialas gali būti naudingas švietimui; atkreipia dėmesį į tai, kad personalizuotos dirbtiniu intelektu pagrįstos mokymo sistemos negali pakeisti pedagoginių santykių, kuriuose dalyvauja mokytojai, ir nereikėtų pamiršti tradicinių švietimo formų, kartu nurodydamas, kad mokytojams, siekiantiems įgyti tinkamų įgūdžių, turi būti teikiama finansinė, technologinė ir pedagoginė parama, įskaitant specializuotus informacinių ir ryšių technologijų srities mokymus, taip siekiant prisitaikyti prie technologinių pokyčių ir ne tik pasinaudoti visu dirbtinio intelekto potencialu, bet ir suprasti jo ribas;

6. pabrėžia, kad, mašinų mokymąsi naudojant potencialių studentų atrankos procedūroms, turi būti įgyvendinamos deramos apsaugos priemonės, įskaitant pareiškėjų informavimą apie šias procedūras ir su jomis susijusias jų teises; pažymi, jog susiję algoritmai turi būti parengiami naudojant išsamius duomenų rinkinius, kad taikant šiuos algoritmus nebūtų nederamai diskriminuojamos tam tikros grupės; laikosi nuomonės, kad atitinkamus sprendimus, priimtus naudojantis automatizuotais procesais, turi būti įmanoma paaiškinti – prireikus ir nepriimtiems studentams;

7. ragina parengti Sąjungos lygmens dirbtinio intelekto, robotikos ir susijusių technologijų strategiją siekiant padėti pertvarkyti ir atnaujinti mūsų švietimo sistemas, parengti mūsų visų lygmenų švietimo įstaigas ir užtikrinti, kad mokytojai ir mokiniai ugdytų reikiamus įgūdžius bei gebėjimus; mano, kad būtina parengti etikos švietimo srityje sistemą; rekomenduoja į etikos sistemos rengimo procesą įtraukti pilietinę visuomenę, universitetus, profesines sąjungas ir darbuotojų asociacijas; pažymi, kad Sąjungoje sukuriamos, diegiamos ir naudojamos dirbtinio intelekto sistemos turi atspindėti jos kultūrinę įvairovę ir daugiakalbystę; pabrėžia, kad speciali parama turėtų būti teikiama technologijų vystytojams ir paramos gavėjams, priklausantiems socialiai remtinoms ir neįgaliųjų grupėms;

8. mano, kad ypatingas dėmesys turi būti skiriamas nepilnamečių teisėms ir jų apsaugai, atsižvelgiant į ypatingą ugdymo aplinkos įtaką jų ateičiai, ypač remiant jų teisę į privatumą ir galimybes gauti kokybišką išsilavinimą, visais atvejais užtikrinant lygias galimybes; pabrėžia, jog švietimo įstaigos švietimo tikslais turėtų naudoti tik tas dirbtinio intelekto sistemas, kurių auditą atlikus buvo patvirtinta, kad jos etiškos, naudingos, o jų veikimas suderinamas su žmogaus teisių principais; ragina Komisiją ir valstybes nares skatinti viešojo ir privataus sektorių bei akademinės bendruomenės bendradarbiavimą, siekiant stiprinti dalijimąsi žiniomis ir atvirojo kodo platformas;

9. pažymi, kad būtina išaiškinti meno bei kultūros ir kūrybos produktų sampratą, taip pat žmonių, kaip kūrėjų ir menininkų, vaidmenį; pabrėžia, kad skaitmeninimo ir naujų technologijų teikiamos galimybės neturi lemti bendro darbo vietų praradimo kultūros ir kūrybos sektoriuose, nesiekti originalų išsaugojimo ir menkinti tradicinę prieigą prie kultūros paveldo, kuri taip pat turėtų būti skatinama;

10. pripažįsta, kad didėja dirbtinio intelekto potencialas informacijos, žiniasklaidos ir interneto platformų srityse, įskaitant tai, kad jis yra galinga kovos su dezinformacija priemonė; tačiau yra susirūpinęs dėl to, kad dirbtinis intelektas gali būti netinkamai naudojamas siekiant manipuliuoti viešąja nuomone internete; pabrėžia, kad, jeigu dirbtinio intelekto technologijos nebus reglamentuojamos, jos gali turėti etikos požiūriu neigiamą poveikį, nes gali būti platinama dezinformacija, kuriami vadinamieji informacijos burbulai ir naudojamasi į dirbtinį intelektą įtrauktų algoritmų šališkumu; primena, kad tinkamas švietimas yra būtina sąlyga siekiant užtikrinti piliečių teises, susijusias su informacijos, nuomonės ir saviraiškos laisve, ragina etiškai naudoti dirbtinio intelekto technologijas žiniasklaidos srityje; perspėja apie technologijomis grindžiamos cenzūros pavojus ir būtinybę parengti etikos principų sistemą žodžio laisvei apsaugoti;

11. mano, kad tam tikrų tipų dirbtinio intelekto, pvz., veido atpažinimo, emocijų ir elgsenos nustatymo sistemų, naudojimas gali daryti neigiamą poveikį, visų pirma žiniasklaidos ir žurnalistų, kaip demokratijos sergėtojų, vaidmeniui, taigi ir demokratiniams procesams; todėl pabrėžia, kad šių sistemų naudojimas viešosiose erdvėse turėtų būti ribojamas, o prireikus ir draudžiamas; pabrėžia, kad reikia toliau kovoti su melagingomis naujienomis, įskaitant tokius metodus kaip sintetinę vaizdakaitą, su cenzūra ir automatizuotu stebėjimu;

12. pabrėžia, kad, taikant formaliojo ir neformaliojo švietimo priemones, įskaitant humanitarines studijas, būtina ugdyti visuomenės sąmoningumą ir supratimą dirbtinio intelekto vaidmens ir poveikio klausimais, visų pirma kalbant apie algoritmų naudojimą ir jų poveikį, be kita ko, darbo vietoms ir privatumui, ir IT sistemų vaidmenį atrenkant, aiškinant, saugant ir pateikiant duomenis; ragina kurti skaitmeninio raštingumo priemones visais švietimo lygmenimis, taigi ragina valstybes nares ir ES institucijas investuoti į gebėjimus naudotis žiniasklaidos priemonėmis ir į informacinį raštingumą, švietimą ir mokymą; mano, kad informavimo ir žiniasklaidos gebėjimai itin svarbūs visiems piliečiams, įskaitant pažeidžiamų socialinių grupių piliečius, kad jie galėtų kritiškai vertinti ir suprasti naujus pokyčius, taip pat suprasti, kaip veikia dirbtinis intelektas ir kad jam būdingas šališkumas, taip plėtoti naujas kritinio mąstymo formas; rekomenduoja Komisijai skatinti su dirbtiniu intelektu, robotika ir technologijomis susijusius ugdymo ir tęstinio švietimo formatus;

13. atkreipia dėmesį į svarbų skirtumą tarp algoritmų skaidrumo ir algoritmų naudojimo skaidrumo; pabrėžia algoritmų, kuriuos naudoja dalijimosi vaizdo įrašais platformos ir srautinio siuntimo platformos, skaidrumo ir atskaitomybės svarbą, siekiant užtikrinti prieigą prie kultūriniu ir kalbiniu požiūriu įvairaus turinio ir vengti pirmenybės teikimo; laikosi nuomonės, kad kiekvienas naudotojas turėtų būti tinkamai informuojamas, kai turinys rekomenduojamas naudojant algoritmą, turėtų galėti jį optimizuoti pagal pasirinkimą ir šie algoritmai neturėtų riboti naudotojų pasirinkimo; mano, kad visi naudotojai turėtų turėti galimybę išjungti turinio rekomendacijas, teikiamas naudojantis dirbtiniu intelektu; pabrėžia, jog tokie algoritmai turėtų būti sukurti taip, kad būtų atspindima mūsų visuomenių kultūros įvairovė užtikrinant tikrą kultūrinį atvirumą ir kūrybos laisvę; primygtinai laikosi nuomonės, kad duomenys, renkami naudojantis dirbtiniu intelektu, pvz., apie kultūrines pasirinktis ar mokymosi rezultatus, neturi būti perduodami ar naudojami be jų savininko žinios;

14. pažymi, kad technologinės inovacijos visuomet būdavo palankiai sutinkamos sporto srityje; nežiūrint į tai mano, kad dirbtinio intelekto technologijų, sparčiai plintančių sporto varžybose, naudojimas vis dažniau kelia sąžiningos konkurencijos sporte klausimų, nes didžiausiais finansiniais ištekliais disponuojančios komandos gali įsigyti geriausias technologijas, taip potencialiai įgydamos nesąžiningą pranašumą; pabrėžia, kad šios naujovės turi būti atidžiai stebimos ir pabrėžia, kad būtina šios srities reglamentavimo sistema, pagal kurią būtų taikomi etikos ir į žmogų orientuoti dirbtinio intelekto vystymo bei naudojimo kriterijai; ragina siekti visiško sporto srityje naudojamų algoritmų ir technologijų skaidrumo, kad būtų užtikrintos vienodos sąlygos.


INFORMACIJA APIE PRIĖMIMĄ NUOMONĘ TEIKIANČIAME KOMITETE

Priėmimo data

31.8.2020

 

 

 

Galutinio balsavimo rezultatai

+:

–:

0:

28

0

2

Posėdyje per galutinį balsavimą dalyvavę nariai

Isabella Adinolfi, Christine Anderson, Ilana Cicurel, Gilbert Collard, Gianantonio Da Re, Laurence Farreng, Tomasz Frankowski, Romeo Franz, Hannes Heide, Irena Joveva, Petra Kammerevert, Niyazi Kizilyürek, Predrag Fred Matić, Dace Melbārde, Victor Negrescu, Peter Pollák, Marcos Ros Sempere, Andrey Slabakov, Massimiliano Smeriglio, Michaela Šojdrová, Sabine Verheyen, Salima Yenbou, Milan Zver

Posėdyje per galutinį balsavimą dalyvavę pavaduojantys nariai

Isabel Benjumea Benjumea, Christian Ehler, Ibán García Del Blanco, Bernard Guetta, Marcel Kolaja, Elżbieta Kruk, Martina Michels

 

 

 


 

GALUTINIS VARDINIS BALSAVIMAS NUOMONĘ TEIKIANČIAME KOMITETE

 

28

+

PPE

Isabel Benjumea Benjumea, Christian Ehler, Tomasz Frankowski, Peter Pollák, Michaela Šojdrová, Sabine Verheyen, Milan Zver

S&D

Ibán García del Blanco, Hannes Heide, Petra Kammerevert, Predrag Fred Matić, Victor Negrescu, Marcos Ros Sempere, Massimiliano Smeriglio

RENEW

Ilana Cicurel, Laurence Farreng, Bernard Guetta, Irena Joveva

ID

Gilbert Collard

VERTS/ALE

Romeo Franz, Marcel Kolaja, Salima Yenbou

ECR

Elżbieta Kruk, Dace Melbārde, Andrey Slabakov

GUE/NGL

Niyazi Kizilyürek, Martina Michels

NI

Isabella Adinolfi

 

0

-

-

-

 

2

0

ID

Christine Anderson, Gianantonio Da Re

 

Sutartiniai ženklai:

+ : 

- : prieš

0 : susilaikė


 

INFORMACIJA APIE PRIĖMIMĄ ATSAKINGAME KOMITETE

Priėmimo data

1.10.2020

 

 

 

Galutinio balsavimo rezultatai

+:

–:

0:

20

0

4

Posėdyje per galutinį balsavimą dalyvavę nariai

Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, Raffaele Stancanelli, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos

Posėdyje per galutinį balsavimą dalyvavę pavaduojantys nariai

Patrick Breyer, Evelyne Gebhardt

 


GALUTINIS VARDINIS BALSAVIMAS ATSAKINGAME KOMITETE

20

+

EPP

Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos

S&D

Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken

RENEW

Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara

VERTS/ALE

Patrick Breyer, Marie Toussaint

ECR

Angel Dzhambazki, Raffaele Stancanelli

NI

Mislav Kolakušić

 

0

-

 

 

 

 

 

4

0

ID

Gunnar Beck, Jean Paul Garraud, Gilles Lebreton

GUE/NGL

Manon Aubry

 

Sutartiniai ženklai:

+ : 

- : prieš

0 : susilaikė

 

 

 

[1] OL L 252, 2018 10 8, p. 1.

[2] OL L 180, 2000 7 19, p. 22.

[3] OL L 303, 2000 12 2, p. 16.

[4] OL L 119, 2016 5 4, p. 1.

[5] OL L 119, 2016 5 4, p. 89.

[6] OL L 123, 2016 5 12, p. 1.

[7] OL C 252, 2018 7 18, p. 239.

[8] OL C 307, 2018 8 30, p. 163.

[9] OL C 433, 2019 12 23, p. 86.

[10] Priimti tekstai, P8_TA(2018)0332.

[11] Priimti tekstai, P8_TA(2019)0081.

[12] Komisijos komunikatas Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui „Europos duomenų strategija“ (COM(2020)0066).

[13] Automatizuoto transporto priemonių vairavimo atveju buvo pasiūlyti šeši vairavimo automatizavimo lygiai pagal SAE tarptautinį standartą J3016, paskutinį kartą atnaujiną 2018 m. į J3016_201806. https://www.sae.org/standards/content/j3016_201806/

[14]  2016 m. balandžio 27 d. Europos Parlamento ir Tarybos reglamentas (ES) 2016/679 dėl fizinių asmenų apsaugos tvarkant asmens duomenis ir dėl laisvo tokių duomenų judėjimo ir kuriuo panaikinama Direktyva 95/46/EB (Bendrasis duomenų apsaugos reglamentas) (OL L 119, 2016 5 4, p. 1).

[15]  2002 m. liepos 12 d. Europos Parlamento ir Tarybos direktyva 2002/58/EB dėl asmens duomenų tvarkymo ir privatumo apsaugos elektroninių ryšių sektoriuje (Direktyva dėl privatumo ir elektroninių ryšių) (OL L 201, 2002 7 31, p. 37).

[16] Pritaikyta 2008 m. balandžio 25 d. Europos Komisijos komunikato COM(2018)237 final 1 puslapyje pateikta apibrėžtis.

[17] Remiantis ISO 8373 standarte pateikta pramoninių robotų apibrėžtimi.

[18] 2019 m. spalio 23 d. Europos Parlamento ir Tarybos direktyva (ES) 2019/1937 dėl asmenų, pranešančių apie Sąjungos teisės pažeidimus, apsaugos (OL L 305, 2019 11 26, p. 17).

[19]  38 2016 m. balandžio 27 d. Europos Parlamento ir Tarybos reglamentas (ES) 2016/679 dėl fizinių asmenų apsaugos tvarkant asmens duomenis ir dėl laisvo tokių duomenų judėjimo ir kuriuo panaikinama Direktyva 95/46/EB (Bendrasis duomenų apsaugos reglamentas) (OL L 119, 2016 5 4, p. 1).

[20]  2008 m. liepos 9 d. Europos Parlamento ir Tarybos sprendimas Nr. 768/2008/EB dėl bendrosios gaminių pardavimo sistemos ir panaikinantis Tarybos sprendimą 93/465/EEB (OL L 218, 2008 8 13, p. 82).

[21]  COD (2018) 0089, (dar nepaskelbta).

[22]  2019 m. balandžio 17 d. Europos Parlamento ir Tarybos direktyva (ES) 2019/882 dėl gaminių ir paslaugų prieinamumo reikalavimų (OL L 151, 2019 6 7, p. 70).

[23] OL L 180, 2000 7 19, p. 22.

[24] OL L 303, 2000 12 2, p. 16.

[25] OL L 119, 2016 5 4, p. 1.

[26] OL L 119, 2016 5 4, p. 89.

[27] OL C 252, 2018 7 18, p. 239.

[28] Komisijos komunikatas „Dirbtinis intelektas Europai“ (COM(2018) 237 final).

[29] Mokslo ir technologijų ateities komisijos (STOA) 2020 m. kovo mėn. tyrimas „Dirbtinio intelekto etika: klausimai ir iniciatyvos“ (The ethics of artificial intelligence: issues and initiatives).

[30] Europos Parlamento 2015 m. kovo mėn. tyrimas „Gamtos mokslų, technologijų, inžinerijos ir matematikos studijų skatinimas darbo rinkos reikmėms“ (Encouraging STEM Studies for the labour market).

[31] CEDEFOP „Įgūdžių ir darbo Europoje tyrimas“ (European Skills and Jobs survey).

[32] Capgemini mokslinių tyrimų instituto 2019 m. liepos mėn. ataskaita „Kodėl etinių klausimų dirbtinio intelekto srityje sprendimas bus naudingas organizacijoms“ (Why addressing ethical questions in AI will benefit organisations).

[33] 2019 m. EBPO Tarybos rekomendacija dėl dirbtinio intelekto (https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449).

[34] 2020 m. birželio mėn. Europos Sąjungos Tarybos išvados dėl Europos skaitmeninės ateities kūrimo.

[35] 2020 m. birželio mėn. Europos socialinių partnerių pagrindų susitarimas dėl skaitmeninimo.

[36] Europos Parlamento 2020 m. balandžio mėn. tyrimas „Moterų švietimas ir įdarbinimas mokslo, technologijų ir skaitmeninės ekonomikos, įskaitant dirbtinį intelektą, srityse bei jų įtaka lyčių lygybei“(Education and employment of women in science, technology and the digital economy, including AI and its influence on gender equality).

[37] 2016 m. balandžio 27 d. Europos Parlamento ir Tarybos reglamentas (ES) 2016/679 dėl fizinių asmenų apsaugos tvarkant asmens duomenis ir dėl laisvo tokių duomenų judėjimo ir kuriuo panaikinama Direktyva 95/46/EB (Bendrasis duomenų apsaugos reglamentas) (OL L 119, 2016 5 4, p. 1).

[38] 1https://rm.coe.int/guidelines-on-artificial-intelligence-and-data-protection/168091f9d8

[39] 2https://legalinstruments.oecd.org/api/print?ids=648=en

[40] 3https://ethicsinaction.ieee.org

[41] OL C 252, 2018 8 18, p. 239.

[42] Komisijos baltoji knyga „Dirbtinis intelektas. Europos požiūris į kompetenciją ir pasitikėjimą“, COM(2020)0065.

[43] Komisijos komunikatas Europos Parlamentui, Tarybai, Europos ekonomikos ir socialinių reikalų komitetui ir Regionų komitetui „Europos duomenų strategija“ (COM(2020)0066).

[44] OL C 124I, 2020 4 17, p. 1.

[45] 2017 m. balandžio 5 d. Europos Parlamento ir Tarybos reglamentas (ES) 2017/745 dėl medicinos priemonių, kuriuo iš dalies keičiama Direktyva 2001/83/EB, Reglamentas (EB) Nr. 178/2002 ir Reglamentas (EB) Nr. 1223/2009, ir kuriuo panaikinamos Tarybos direktyvos 90/385/EEB ir 93/42/EEB (OL L 117, 2017 5 5, p. 1).

[46] Komisijos komunikatas Europos Parlamentui ir Tarybai „Duomenų apsauga kaip daugiau galių suteikimo piliečiams ir ES požiūrio į perėjimą prie skaitmeninių technologijų pagrindas – dveji metai taikant Bendrąjį duomenų apsaugos reglamentą“ (COM(2020)264 final).

Atnaujinta: 2020 m. spalio 19 d.Teisinė informacija - Privatumo politika