Pranešimas - A9-0232/2021Pranešimas
A9-0232/2021

PRANEŠIMAS dėl dirbtinio intelekto baudžiamojoje teisėje ir jo naudojimo policijos ir teisminių institucijų reikmėms baudžiamosiose bylose

13.7.2021 - (2020/2016(INI))

Piliečių laisvių, teisingumo ir vidaus reikalų komitetas
Pranešėjas: Petar Vitanov


Procedūra : 2020/2016(INI)
Procedūros eiga plenarinėje sesijoje
Dokumento priėmimo eiga :  
A9-0232/2021
Pateikti tekstai :
A9-0232/2021
Priimti tekstai :

PASIŪLYMAS DĖL EUROPOS PARLAMENTO REZOLIUCIJOS

dėl dirbtinio intelekto baudžiamojoje teisėje ir jo naudojimo policijos ir teisminių institucijų reikmėms baudžiamosiose bylose

(2020/2016(INI))

Europos Parlamentas,

 atsižvelgdamas į Europos Sąjungos sutartį (ES sutartį), ypač į jos 2 ir 6 straipsnius, ir į Sutartį dėl Europos Sąjungos veikimo (SESV), ypač į jos 16 straipsnį,

 atsižvelgdama į Europos Sąjungos pagrindinių teisių chartiją (toliau – Chartija), ypač į jos 6, 7, 8, 11, 12, 13, 20, 21, 24 ir 47 straipsnius,

 atsižvelgdamas į Europos žmogaus teisių ir pagrindinių laisvių apsaugos konvenciją,

 atsižvelgdamas į Europos Tarybos konvenciją dėl asmenų apsaugos ryšium su asmens duomenų automatizuotu tvarkymu (ETS 108) ir į ją iš dalies keičiantį protokolą („Konvencija 108+“),

 atsižvelgdamas į Europos Tarybos Europos veiksmingo teisingumo komisijos (CEPEJ) Europos dirbtinio intelekto naudojimo teismų sistemose ir jų aplinkoje etikos chartiją,

 atsižvelgdamas į 2019 m. balandžio 8 d. Komisijos komunikatą „Pasitikėjimo į žmogų orientuotu dirbtiniu intelektu didinimas“ (COM(2019)0168),

 atsižvelgdamas į 2019 m. balandžio 8 d. Komisijos Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais patikimo dirbtinio intelekto etikos gaires,

 atsižvelgdamas į 2020 m. vasario 19 d. Komisijos baltąją knygą „Dirbtinis intelektas. Europos požiūris į kompetenciją ir pasitikėjimą“ (COM(2020)0065),

 atsižvelgdamas į 2020 m. vasario 19 d. Komisijos komunikatą „Europos duomenų strategija“ (COM(2020)0066),

 atsižvelgdamas į 2016 m. balandžio 27 d. Europos Parlamento ir Tarybos reglamentą (ES) 2016/679 dėl fizinių asmenų apsaugos tvarkant asmens duomenis ir dėl laisvo tokių duomenų judėjimo ir kuriuo panaikinama Direktyva 95/46/EB (Bendrasis duomenų apsaugos reglamentas)[1],

 atsižvelgdamas į 2016 m. balandžio 27 d. Europos Parlamento ir Tarybos direktyvą (ES) 2016/680 dėl fizinių asmenų apsaugos kompetentingoms institucijoms tvarkant asmens duomenis nusikalstamų veikų prevencijos, tyrimo, atskleidimo ar baudžiamojo persekiojimo už jas arba bausmių vykdymo tikslais ir dėl laisvo tokių duomenų judėjimo, ir kuria panaikinamas Tarybos pamatinis sprendimas 2008/977/TVR[2],

 atsižvelgdamas į 2018 m. spalio 23 d. Europos Parlamento ir Tarybos reglamentą (ES) 2018/1725 dėl fizinių asmenų apsaugos Sąjungos institucijoms, organams, tarnyboms ir agentūroms tvarkant asmens duomenis ir dėl laisvo tokių duomenų judėjimo, kuriuo panaikinamas Reglamentas (EB) Nr. 45/2001 ir Sprendimas Nr. 1247/2002/EB[3],

 atsižvelgdamas į 2002 m. liepos 12 d. Europos Parlamento ir Tarybos direktyvą 2002/58/EB dėl asmens duomenų tvarkymo ir privatumo apsaugos elektroninių ryšių sektoriuje (Direktyva dėl privatumo ir elektroninių ryšių)[4],

 atsižvelgdamas į 2016 m. gegužės 11 d. Europos Parlamento ir Tarybos reglamentą (ES) 2016/794 dėl Europos Sąjungos teisėsaugos bendradarbiavimo agentūros (Europolo), kuriuo pakeičiami ir panaikinami Tarybos sprendimai 2009/371/TVR, 2009/934/TVR, 2009/935/TVR, 2009/936/TVR ir 2009/968/TVR[5],

 atsižvelgdamas į 2020 m. birželio 19 d. rezoliuciją dėl antirasistinių protestų po George’o Floydo mirties[6],

 atsižvelgdamas į savo 2017 m. kovo 14 d. rezoliuciją „Didelių duomenų kiekių poveikis pagrindinėms teisėms: privatumas, duomenų apsauga, nediskriminavimas, saugumas ir teisėsauga“[7],

 atsižvelgdamas į 2020 m. vasario 20 d. Piliečių laisvių, teisingumo ir vidaus reikalų (LIBE) komiteto klausymą dėl dirbtinio intelekto baudžiamojoje teisėje ir jo naudojimo policijos ir teisminių institucijų reikmėms baudžiamosiose bylose,

 atsižvelgdamas į 2020 m. vasario mėn. LIBE komiteto komandiruotės į Jungtines Amerikos Valstijas ataskaitą,

 atsižvelgdamas į Darbo tvarkos taisyklių 54 straipsnį,

 atsižvelgdamas į Vidaus rinkos ir vartotojų apsaugos komiteto ir Teisės reikalų komiteto nuomones,

 atsižvelgdamas į Piliečių laisvių, teisingumo ir vidaus reikalų komiteto pranešimą (A9-0232/2021),

A. kadangi skaitmeninės technologijos apskritai ir ypač duomenų tvarkymo ir analizavimo paplitimas dėl dirbtinio intelekto kelia išskirtinius lūkesčius ir riziką; kadangi pastaraisiais metais plėtojant dirbtinį intelektą buvo toli pažengta į priekį ir dirbtinis intelektas tapo viena iš strateginių XXI amžiaus technologijų, galinčių duoti didelės naudos veiksmingumo, tikslumo ir patogumo aspektais, taigi, jis teigiamai keičia visuomenę, tačiau kartu kelia didžiulę riziką pagrindinėms teisėms ir demokratijai, grindžiamoms teisinės valstybės principais; kadangi dirbtinis intelektas neturėtų būti tikslas pats savaime, o žmonėms pasitarnauti skirta priemonė, kurios pagrindinė paskirtis – didinti žmonių gerovę, jų galimybes ir saugumą;

B. kadangi, nepaisant nuolatinės pažangos kompiuterinio apdorojimo greičio ir atminties talpos srityse, dar nepavyko sukurti programų, kurios atitiktų žmogaus lankstumą dirbant platesnėse srityse ar atliekant užduotis, kurioms reikia konteksto suvokimo ar kritinės analizės; kadangi kai kurios dirbtinio intelekto taikomosios programos pasiekė žmonių ekspertų ir specialistų našumo lygį atliekant tam tikras konkrečias užduotis (pavyzdžiui, teisės technologijos) ir gali pateikti rezultatus dagu greičiau ir platesniu mastu;

C. kadangi kai kurios šalys, įskaitant keletą valstybių narių, daugiau nei kitos šalys naudoja dirbtinio intelekto taikomąsias programas arba įterptąsias dirbtinio intelekto sistemas teisėsaugos sistemoje ir teisminėse institucijose, ir taip iš dalies yra dėl reglamentavimo stokos ir reglamentavimo skirtumų, dėl kurių dirbtinio intelekto naudojimas tam tikrais tikslais gali būti leidžiamas arba draudžiamas; kadangi vis dažnesnis dirbtinio intelekto naudojimas baudžiamojoje teisėje visų pirma yra grindžiamas lūkesčiais, kad tai padės sumažinti tam tikrų rūšių nusikalstamumą ir lems objektyvesnių sprendimų priėmimą; kadangi vis dėlto šie lūkesčiai ne visada pasiteisina;

D. kadangi Chartijoje įtvirtintos pagrindinės teisės ir laisvės turėtų būti užtikrinamos per visą dirbtinio intelekto ir susijusių technologijų gyvavimo ciklą, visų pirma jų kūrimo, plėtojimo, diegimo ir naudojimo metu, ir turėtų būti visuomet taikomos užtikrinant teisės aktų vykdymą;

E. kadangi dirbtinio intelekto technologijos turėtų būti kuriamos pirmiausia atsižvelgiant į žmones, užsitarnautų visuomenės pasitikėjimą ir visuomet tarnautų žmonėms; kadangi dirbtinio intelekto sistemoms turėtų būti suteikta svarbiausia garantija, kad jos būtų sukurtos taip, kad jas žmogus visada galėtų išjungti;

F. kadangi dirbtinio intelekto sistemos turi būti sukurtos visų žmonių apsaugai ir naudai (kūrimo proceso metu atsižvelgiant taip pat ir į pažeidžiamas, marginalizuotas gyventojų grupes), turi būti nediskriminacinės, saugios, jų sprendimai turi būti paaiškinami ir skaidrūs, taip pat turi būti gerbiamas žmonių autonomiškumas ir pagrindinės teisės tam, kad tokios sistemos būtų patikimos, kaip nurodyta Aukšto lygio ekspertų grupės dirbtinio intelekto klausimais etikos gairėse,

G. kadangi Sąjungai kartu su valstybėmis narėmis tenka esminė atsakomybė užtikrinti, kad sprendimai, susiję su dirbtinio intelekto taikomųjų programų gyvavimo ciklu ir naudojimu teismų veiklos ir teisėsaugos srityse, būtų priimami skaidriai, visapusiškai apsaugotų pagrindines teises ir visų pirmą neįtvirtintų esamos diskriminacijos, šališkumo ar išankstinio nusistatymo; kadangi priimant atitinkamus politinius sprendimus turėtų būti laikomasi būtinumo ir proporcingumo principų, siekiant užtikrinti konstitucingumą ir teisingą bei humanišką teisingumo sistemą;

H. kadangi dirbtinio intelekto taikomosios programos gali suteikti daug galimybių teisėsaugos srityje, visų pirma gerinant teisėsaugos ir teisminių institucijų darbo metodus ir veiksmingiau kovojant su tam tikrų rūšių nusikaltimais, visų pirma finansiniais nusikaltimais, pinigų plovimu, teroristų finansavimu, seksualine prievarta prieš vaikus ir seksualiniu jų išnaudojimu internete, taip pat tam tikrų rūšių elektroniniais nusikaltimais, taip prisidedant prie ES piliečių saugos ir saugumo, nors jos taip pat kelia didelę grėsmę pagrindinėms žmonių teisėms; kadangi bet koks bendras dirbtinio intelekto naudojimas masinio sekimo tikslais būtų neproporcingas;

I. kadangi kuriant ir naudojant dirbtinio intelekto sistemas policijos ir teisminių institucijų reikmėms reikia daugelio skirtingų subjektų, organizacijų, įrenginių komponentų, programinės įrangos algoritmų ir juos naudojančių žmonių indėlio dažnai sudėtingomis ir problemiškomis aplinkybėmis; kadangi dirbtinio intelekto taikomųjų programų naudojimas teisėsaugos ir teisminėse institucijose yra skirtinguose vystymo etapuose – nuo konceptualizacijos, prototipų kūrimo ir vertinimo iki naudojimo po patvirtinimo; kadangi ateityje gali atsirasti naujų galimybių, nes šios technologijos dėl visame pasaulyje vykdomų mokslinių tyrimų tampa vis brandesnės;

J. kadangi būtinas aiškus teisinės atsakomybės už galimą žalingą dirbtinio intelekto sistemų poveikį baudžiamosios teisės srityje priskyrimo modelis; kadangi šios srities reguliavimo nuostatomis visada turėtų būti užtikrinama žmogaus atskaitomybė ir jomis visų pirma turi būti siekiama nesukelti jokio žalingo poveikio;

K. kadangi atsakomybė užtikrinti visišką pagrindinių teisių laikymąsi, kai dirbtinio intelekto sistemos naudojamos teisėsaugos srityje, galiausiai tenka valstybėms narėms;

L. kadangi pagrindinių teisių užtikrinimo ir veiksmingo viešosios tvarkos palaikymo santykio klausimas visada yra svarbus diskusijose dėl dirbtinio intelekto naudojimo teisėsaugos sektoriuje, kuriame sprendimai gali turėti ilgalaikių padarinių asmenų gyvybei ir laisvei; kadangi tai yra itin svarbu, nes dirbtinis intelektas gali tapti nuolatinė baudžiamosios teisės ekosistemos dalis atliekant tiriamąją analizę ir teikiant pagalbą;

M. kadangi teisėsaugos institucijos naudoja dirbtinį intelektą tokiose taikomosiose programose kaip veido atpažinimo technologijos, pvz., ieškant įtariamų asmenų duomenų bazėse ir nustatant prekybos žmonėmis ar vaikų seksualinio išnaudojimo ir prievartos aukas, automatinis transporto priemonės registracijos numerio atpažinimas, kalbėtojo tapatybės nustatymas, sakytinės kalbos atpažinimas, lūpų judesių nuskaitymo technologijos, garsinės aplinkos stebėjimas (t. y. šūvio garso aptikimo algoritmai), savarankiški nustatytų duomenų bazių tyrimai ir analizė, prognozavimas (kriminologiniu prognozavimu grindžiamas policijos darbas ir nusikalstamumo centrų analizė), elgsenos nustatymo priemonės, pažangios virtualiosios autopsijos priemonės, padedančios nustatyti mirties priežastį, savarankiškos finansinio sukčiavimo ir teroristų finansavimo nustatymo priemonės, socialinės žiniasklaidos stebėsena (duomenų perėmimas ir rinkimas siekiant sudaryti duomenų gavybos rinkinius) ir automatinės stebėjimo sistemos, apimančios įvairias nustatymo galimybes (pavyzdžiui, širdies plakimo nustatymą ir termines kameras); kadangi minėtų taikomųjų programų, kartu su kitokiu galimu ar būsimu dirbtinio intelekto technologijų taikymu teisėsaugoje, patikimumas bei tikslumas ir poveikis pagrindinėms teisėms ir baudžiamojo teisingumo sistemų dinamikai gali labai skirtis; kadangi daugelis šių priemonių yra naudojamos ES nepriklausančiose šalyse, tačiau jos būtų neteisėtos pagal Sąjungos duomenų apsaugos teisės acquis ir teismų praktiką; kadangi įprastas algoritmų diegimas, net ir esant mažai klaidingai teigiamų rezultatų daliai, gali lemti klaidingus perspėjimus, nors bus pateikta kur kas daugiau teisingų perspėjimų;

N. kadangi dirbtinio intelekto priemonės ir taikomosios programos ne vienoje šalyje visame pasaulyje naudojamos ir teisminėse institucijose, be kita ko, priimant sprendimus dėl kardomojo kalinimo, priimant nuosprendžius, apskaičiuojant recidyvo tikimybę ir nustatant lygtinį paleidimą, sprendžiant ginčus internetu, valdant teismų praktiką ir sudarant lengvesnes sąlygas naudotis teisės aktais; kadangi tai lėmė iškreiptas ir mažesnes nebaltaodžių ir kitų mažumų galimybes; kadangi šiuo metu Europos Sąjungoje, išskyrus kelias valstybes nares, jos daugiausia naudojamos tik civilinėse bylose;

O. kadangi dirbtinio intelekto naudojimas teisėsaugos srityje kelia potencialiai didelės, o kai kuriais atvejais nepriimtinos įvairios rizikos asmenų pagrindinių teisių apsaugai, pavyzdžiui, susijusios su neskaidriu sprendimų priėmimu, įvairių rūšių diskriminacija ir klaidomis, būdingomis pagrindiniam algoritmui, kurį galima sustiprinti grįžtamuoju tarpusavio poveikiu, taip pat pavojumi privatumo ir asmens duomenų apsaugai, saviraiškos ir informacijos laisvės apsaugai, nekaltumo prezumpcijai, teisei į veiksmingą teisinę gynybą ir teisingą bylos nagrinėjimą, taip pat rizikos asmenų laisvei ir saugumui;

P. kadangi teisėsaugos ir teisminių institucijų naudojamos dirbtinio intelekto sistemos taip pat yra pažeidžiamos, turint omenyje išpuolius, vykdomus prieš informacines sistemas pasitelkiant dirbtinį intelektą, arba duomenų užkrėtimą (angl. data poisoning), kai įtraukiamas neteisingas duomenų rinkinys siekiant gauti neobjektyvius rezultatus; kadangi tokiais atvejais padaryta žala gali būti dar didesnė ir lemti eksponentiškai didesnę žalą tiek asmenims, tiek grupėms;

Q. kadangi dirbtinio intelekto diegimas teisėsaugos srityje ir teisminių institucijų reikmėms neturėtų būti laikomas vien techniškai įgyvendinama galimybe, bet politiniu sprendimu dėl teisėsaugos ir baudžiamosios teisenos sistemų struktūros ir tikslų; kadangi šiuolaikinė baudžiamoji teisė yra grindžiama idėja, kad valdžios institucijos reaguoja į pažeidimą tik tada, kai jis jau yra įvykdytas, nedarant prielaidos, kad visi žmonės yra pavojingi ir juos reikia nuolat stebėti, kad būtų užkirstas kelias galimam pažeidimui; kadangi dirbtiniu intelektu grindžiami sekimo metodai kelia didelį pavojų šiam požiūriui ir dėl to būtina, kad teisės aktų leidėjai visame pasaulyje nuodugniai įvertintų leidimo diegti technologijas, mažinančias žmogaus vaidmenį teisėsaugos ir teismo sprendimų priėmimo procesuose, pasekmes;

1. pakartoja, jog turint omenyje tai, kad didelio kiekio asmens duomenų tvarkymas yra dirbtinio intelekto pagrindas, teisė į privataus gyvenimo apsaugą ir teisė į asmens duomenų apsaugą taikomos visose dirbtinio intelekto srityse ir kad turi būti visapusiškai laikomasi Sąjungos duomenų apsaugos ir privatumo teisinės sistemos; todėl primena, kad teisėsaugos srityje ES jau yra nustačiusi duomenų apsaugos standartus, kurie yra būsimo dirbtinio intelekto naudojimo teisėsaugos srityje ir teisminių institucijų reikmėms reglamentavimo pagrindas; primena, kad asmens duomenų tvarkymas turėtų būti teisėtas ir sąžiningas, duomenų tvarkymo tikslai turėtų būti konkretūs, aiškūs ir legitimūs, duomenų tvarkymas turėtų būti adekvatus, reikalingas ir neviršyti tikslo, kuriuo jie tvarkomi, jis turėtų būti tikslus, nuolat atnaujinamas ir netikslūs duomenys, išskyrus atvejus, kai taikomi apribojimai, turėtų būti ištaisomi arba ištrinami, duomenys neturėtų būti saugomi ilgiau nei būtina, turėtų būti nustatyti aiškūs ir tinkami tokių duomenų ištrynimo arba periodiškos tokių duomenų saugojimo poreikio peržiūros terminai ir jie turėtų būti tvarkomi saugiai; taip pat pabrėžia, kad turėtų būti užkirstas kelias galimam asmenų tapatybės nustatymui naudojant dirbtinio intelekto taikomąją programą, naudojant duomenis, kurie prieš tai buvo nuasmeninti;

2. dar kartą patvirtina, kad visi dirbtinio intelekto sprendimai teisėsaugos ir teismų srityse taip pat turi visapusiškai atitikti žmogaus orumo, nediskriminavimo, judėjimo laisvės, nekaltumo prezumpcijos ir teisės į gynybą, įskaitant teisę į tylėjimą, saviraiškos ir informacijos laisvės, susirinkimų ir asociacijų laisvės, lygybės prieš įstatymą, procesinės lygybės, teisės į veiksmingą teisinę gynybą ir teisingą bylos nagrinėjimą principus, laikantis Chartijos ir Europos žmogaus teisių konvencijos; pabrėžia, kad dirbtinio intelekto programų naudojimas turi būti draudžiamas, jeigu jis nesuderinamas su pagrindinėmis teisėmis;

3. pripažįsta, kad dėl spartos, kuria visame pasaulyje kuriamos dirbtinio intelekto taikomosios programos, neįmanoma sudaryti išsamaus jų sąrašo, todėl reikia aiškaus ir nuoseklaus valdymo modelio, kuriuo būtų užtikrintos pagrindinės asmenų teisės ir teisinis aiškumas kūrėjams, atsižvelgiant į nuolatinę technologijų raidą; vis dėlto, atsižvelgdamas į policijos ir teisminių institucijų vaidmenį ir užduotis, taip pat į sprendimų, kuriuos jos priima nusikalstamų veikų prevencijos, tyrimo, nustatymo ar traukimo baudžiamojon atsakomybėn už jas arba baudžiamųjų sankcijų vykdymo tikslais, poveikį, mano, kad dirbtinio intelekto taikomųjų programų naudojimas turi būti laikomas didele rizika tais atvejais, kai yra galimybė daryti didelį poveikį asmenų gyvenimui;

4. atsižvelgdamas į tai, mano, kad bet kokios teisėsaugos arba teisminių institucijų sukurtos arba naudojamos dirbtinio intelekto priemonės turėtų būti bent jau saugios, tvarios, patikimos ir atitinkančios paskirtį, jos turi atitikti sąžiningumo, duomenų kiekio mažinimo, atskaitomybės, skaidrumo, nediskriminavimo ir paaiškinamumo principus, ir kad jos turėtų būti kuriamos, diegiamos ir naudojamos tik atlikus rizikos vertinimą ir griežtą būtinumo ir proporcingumo patikrą, o apsaugos priemonės turi būti proporcingos nustatytai rizikai; pabrėžia, kad piliečių pasitikėjimas ES kuriamu, diegiamu ir naudojamu dirbtiniu intelektu priklauso nuo visiško šių kriterijų įgyvendinimo;

5. pripažįsta teigiamą tam tikrų rūšių dirbtinio intelekto taikomųjų programų indėlį į teisėsaugos ir teisminių institucijų darbą visoje Sąjungoje; kaip į pavyzdį, atkreipia dėmesį į patobulintą teismų praktikos valdymą, kuris buvo sustiprintas taikant papildomas paieškos galimybes suteikiančias priemones; mano, kad yra daug kitų galimų dirbtinio intelekto naudojimo teisėsaugos ir teisminėse institucijose galimybių, kurias būtų galima išnagrinėti atsižvelgiant į penkis CEPEJ priimtos Europos dirbtinio intelekto naudojimo teismų sistemose ir jų aplinkoje etikos chartijos principus ir ypatingą dėmesį skiriant CEPEJ nustatytiems naudojimo atvejams, kurie turi būti vertinami kiek įmanoma apdairiau;

6. pabrėžia, kad visos technologijos gali būti modifikuotos, todėl ragina nustatyti griežtą teisėsaugos ir teisminių institucijų naudojamų dirbtiniu intelektu paremtų technologijų, ypač tų, kurios gali būti modifikuotos ir panaudotos masinio sekimo arba masinio profiliavimo tikslais, demokratinę kontrolę bei nepriklausomą priežiūrą; todėl labai susirūpinęs atkreipia dėmesį į tam tikrų dirbtinio intelekto technologijų, naudojamų teisėsaugos sektoriuje masinio sekimo tikslais, potencialą; atkreipia dėmesį į teisinį reikalavimą užkirsti kelią masiniam stebėjimui naudojant dirbtinio intelekto technologijas, kurios iš esmės neatitinka būtinumo ir proporcingumo principų, ir uždrausti naudoti taikomąsias programas, kurios galėtų tai lemti;

7. pabrėžia, kad kai kuriose ES nepriklausančiose šalyse taikomas požiūris į masinio sekimo technologijų kūrimą, diegimą ir naudojimą neproporcingai pažeidžia pagrindines teises, todėl ES jo neturi laikytis; todėl pabrėžia, kad apsaugos nuo teisėsaugos ir teisminių institucijų piktnaudžiavimo dirbtinio intelekto technologijomis priemonės taip pat turi būti vienodai reglamentuojamos visoje Sąjungoje;

8. pabrėžia šališkumo ir diskriminacijos, atsirandančių naudojant dirbtinio intelekto taikomąsias programas, pvz., mašinų mokymąsi, įskaitant algoritmus, kuriais tokios taikomosios programos grindžiamos, potencialą; pažymi, kad šališkumą gali lemti pagrindiniai duomenų rinkiniai, ypač kai naudojami ankstesni duomenys, tokį šališkumą gali nustatyti algoritmų kūrėjai arba jis gali atsirasti diegiant sistemas realiomis sąlygomis; atkreipia dėmesį į tai, kad dirbtinio intelekto taikomųjų programų teikiamiems rezultatams visada turi įtakos naudojamų duomenų kokybė ir kad toks būdingas šališkumas linkęs palaipsniui didėti ir taip įtvirtinti ir sustiprinti esamą diskriminaciją, ypač tam tikrų etninių grupių ar rasinės diskriminacijos paveiktų bendruomenių diskriminaciją;

9. pabrėžia, kad daugelis dabartinių algoritminių identifikavimo technologijų neproporcingai neteisingai nustato ir klasifikuoja, taigi daro žalą skirtingų rasių asmenims, tam tikroms etninėms bendruomenėms priklausantiems asmenims, LGBTI asmenims, vaikams ir vyresnio amžiaus žmonėms, taip pat moterims; primena, kad asmenys ne tik turi teisę būti teisingai identifikuoti, bet ir teisę būti visiškai neidentifikuoti, išskyrus atvejus, kai to reikalaujama pagal teisės aktus siekiant įtikinamo ir teisėto viešojo intereso; pabrėžia, kad konkrečių grupių asmenų savybėmis pagrįstas dirbtinio intelekto prognozavimas sustiprina ir atkartoja esamas diskriminacijos formas; mano, kad reikėtų dėti tvirtas pastangas siekiant išvengti automatizuotos diskriminacijos ir šališkumo; ragina imtis tvarių papildomų apsaugos priemonių, kai teisėsaugos ar teisminėse institucijose dirbtinio intelekto sistemos yra naudojamos nepilnamečiams arba yra su jais susijusios;

10. atkreipia dėmesį į asimetrišką jėgų pusiausvyrą tarp subjektų, naudojančių dirbtinio intelekto technologijas, ir subjektų, kuriems šios technologijos daro įtaką; pabrėžia, jog nepaprastai svarbu užtikrinti, kad teisėsaugos ir teisminių institucijų naudojamos dirbtinio intelekto priemonės netaptų nelygybės, socialinio susiskaldymo ar atskirties veiksniu; atkreipia dėmesį į dirbtinio intelekto priemonių naudojimo poveikį įtariamųjų teisėms į gynybą, į tai, kad sunku gauti prasmingos informacijos apie šių priemonių veikimą ir dėl to atsirandančius sunkumus ginčijant jų pateiktus rezultatus teisme, ypač asmenims, kurių atžvilgiu atliekamas tyrimas;

11. ypač atkreipia dėmesį į riziką, kuri susijusi su duomenų nutekėjimu, duomenų saugumo pažeidimais ir neteisėta prieiga prie asmens duomenų ar kitos, pavyzdžiui, su baudžiamosios veikos tyrimais ar teismo bylomis susijusios informacijos, kuri tvarkoma naudojant dirbtinio intelekto sistemas; pabrėžia, kad teisėsaugos srityje ar teisminių institucijų naudojamų dirbtinio intelekto sistemų saugumo ir saugos aspektai turi būti atidžiai apsvarstyti ir būti pakankamai patikimi bei atsparūs, kad būtų užkirstas kelias galimai katastrofiškoms piktavališkų išpuolių prieš dirbtinio intelekto sistemas pasekmėms; pabrėžia integruotojo saugumo ir konkrečios žmogaus vykdomos priežiūros svarbą prieš pradedant naudoti tam tikras svarbias programas, todėl ragina teisėsaugos ir teismines institucijas naudoti tik tas dirbtinio intelekto taikomąsias programas, kurios atitinka privatumo ir duomenų apsaugos principą, kad būtų išvengta nemotyvuoto nukrypimo nuo funkcijų (angl. function creep);

12. pabrėžia, kad jokiai teisėsaugos ir teisminių institucijų naudojamai dirbtinio intelekto sistemai neturėtų būti suteikta galimybė pakenkti žmonių fiziniam neliečiamumui, paskirstyti teises ar nustatyti teisines prievoles asmenims;

13. pripažįsta, kad sunku teisingai nustatyti vietą, kurioje kyla atsakomybė už galimą žalą, atsižvelgiant į dirbtinio intelekto programų kūrimo ir veikimo sudėtingumą; mano, kad būtina sukurti aiškią ir teisingą tvarką, pagal kurią būtų nustatomi teisiniai įsipareigojimai ir atsakomybė už galimus neigiamus šių pažangių skaitmeninių technologijų sukeltus padarinius; tačiau pabrėžia, kad svarbiausias tikslas turi būti bet kokių tokių pasekmių atsiradimo prevencija; todėl ragina įgyvendinti atsargumo principą visose teisėsaugos naudojamose dirbtinio intelekto taikomosiose programose; pabrėžia, kad teisiniai įsipareigojimai ir atsakomybė visada turi tekti fiziniam arba juridiniam asmeniui, kuris visada turi būti identifikuojamas priimant sprendimus naudojantis dirbtiniu intelektu; todėl pabrėžia, kad reikia užtikrinti įmonių, kurios kuria ir valdo dirbtinio intelekto sistemas, struktūrų skaidrumą;

14. mano, kad tiek siekiant veiksmingai naudotis gynybos teisėmis, tiek užtikrinti nacionalinių baudžiamosios teisenos sistemų skaidrumą būtina sukurti konkrečią, aiškią ir tikslią teisinę sistemą, kuria būtų reglamentuojamos dirbtinio intelekto priemonių naudojimo teisėsaugos srityje ir teisminėse institucijose sąlygos, metodai ir pasekmės, taip pat susijusių asmenų teisės ir veiksmingos bei lengvai prieinamos skundų nagrinėjimo ir teisių gynimo procedūros, įskaitant teisminį teisių gynimą; pabrėžia baudžiamojo proceso šalių teisę susipažinti su duomenų rinkimo procesu ir susijusiais vertinimais, atliktais arba gautais naudojant dirbtinio intelekto taikomąsias programas; pabrėžia, kad būtina, jog teisminiame bendradarbiavime dalyvaujančios vykdančiosios institucijos, priimdamos sprendimus dėl ekstradicijos (ar perdavimo) į kitą valstybę narę ar ES nepriklausančią šalį, įvertintų, ar dirbtinio intelekto priemonių naudojimas prašančioje šalyje nekelia akivaizdaus pavojaus pagrindinei teisei į teisingą bylos nagrinėjimą; ragina Komisiją paskelbti rekomendacijas, kaip atlikti tokį vertinimą vykdant teisminį bendradarbiavimą baudžiamosiose bylose; primygtinai reikalauja, kad valstybės narės, laikydamosi taikytinų teisės aktų, užtikrintų, kad asmenys būtų informuojami, kai teisėsaugos arba teisminės institucijos jų atžvilgiu naudoja dirbtinio intelekto taikomąsias programas;

15. pabrėžia, kad žmonės nebegalės atlikti nepriklausomo vertinimo, jei pasikliaus tik mašinų sukurtais duomenimis, profiliais ir rekomendacijomis; pabrėžia, kad pernelyg didelis asmenų pasitikėjimas iš pažiūros objektyviomis ir mokslinėmis dirbtinio intelekto priemonėmis neatsižvelgiant į tai, kad jų rezultatai gali būti neteisingi, neišsamūs, neaktualūs ar diskriminaciniai ir gali turėti sunkių neigiamų padarinių, ypač teisėsaugos ir teisingumo srityse; pabrėžia, kad nereikėtų pernelyg pasikliauti dirbtinio intelekto sistemų teikiamais rezultatais ir kad valdžios institucijos turi didinti pasitikėjimą ir žinias, kad būtų galima suabejoti algoritminėmis rekomendacijomis ar jų nepaisyti; mano, kad svarbu turėti realių lūkesčių dėl tokių technologinių sprendimų ir nežadėti, kad teisėsaugos sprendimai bus tobuli ir visos padarytos nusikalstamos veikos bus nustatytos;

16. pabrėžia, kad teismų ir teisėsaugos srityje kiekvieną sprendimą, turintį teisinį ar panašų poveikį, visada turi priimti žmogus, kurio atsakomybės už priimtus sprendimus galėtų būti reikalaujama; mano, kad asmenys, kurių atžvilgiu pasitelkiamos dirbtiniu intelektu grindžiamos sistemos, turi turėti galimybę imtis taisomųjų veiksmų; primena, kad pagal ES teisę asmuo turi teisę į tai, kad jam nebūtų taikomas sprendimas, kuris jam sukelia teisinių pasekmių arba daro jam didelį poveikį ir kuris grindžiamas tik automatizuotu duomenų tvarkymu; taip pat pabrėžia, kad automatizuotas atskirų sprendimų priėmimas negali būti grindžiamas specialių kategorijų asmens duomenimis, nebent yra nustatytos tinkamos priemonės duomenų subjekto teisėms bei laisvėms ir teisėtiems interesams apsaugoti; pažymi, kad ES teisės aktais draudžiamas profiliavimas, kuris lemia fizinių asmenų diskriminaciją atsižvelgiant į specialias asmens duomenų kategorijas; pabrėžia, kad sprendimai teisėsaugos srityje beveik visada turi teisinį poveikį atitinkamam asmeniui dėl vykdomojo teisėsaugos institucijų ir jų veiksmų pobūdžio; pažymi, kad dirbtinio intelekto naudojimas gali daryti įtaką žmonių sprendimams ir turėti poveikį visais baudžiamojo proceso etapais; todėl mano, kad dirbtinio intelekto sistemomis besinaudojančios institucijos turi laikytis itin aukštų teisinių standartų ir užtikrinti žmogaus įsikišimą, ypač analizuojant iš tokių sistemų gautus duomenis; todėl reikalauja, kad būtų išlaikyta suvereni teisėjų veiksmų laisvė ir galimybė priimti sprendimus kiekvienu konkrečiu atveju; ragina uždrausti naudoti dirbtinio intelekto ir susijusias technologijas tam, kad jos siūlytų teismo sprendimus;

17. ragina užtikrinti algoritmų paaiškinamumą, skaidrumą, atsekamumą ir tikrinimą, kaip būtiną priežiūros elementą, siekiant užtikrinti, kad teismams ir teisėsaugai skirtų dirbtinio intelekto sistemų kūrimas, diegimas ir naudojimas atitiktų pagrindines teises ir jomis pasitikėtų piliečiai, taip pat siekiant užtikrinti, kad dirbtinio intelekto algoritmų generuotus rezultatus būtų galima padaryti suprantamus naudotojams ir tiems, kuriems taikomos šios sistemos, ir kad būtų užtikrintas duomenų šaltinių skaidrumas ir tai, kaip sistema padarė tam tikrą išvadą; atkreipia dėmesį į tai, kad siekiant užtikrinti techninį skaidrumą, tvarumą ir tikslumą, Sąjungos teisėsaugos ar teisminės institucijos turėtų turėti galimybę įsigyti tik tokias priemones ir sistemas, kurių algoritmus ir logiką galima patikrinti ir kurios būtų prieinamos bent jau policijai ir teismams, taip pat nepriklausomiems auditoriams, kad jie galėtų jas įvertinti, audituoti ir tikrinti, o pardavėjai neturėtų jų uždaryti ar pažymėti, kad jos yra jų nuosavybė; be to, pabrėžia, kad turėtų būti aiškia bei suprantama kalba pateikiami dokumentai apie paslaugos pobūdį, sukurtas priemones, veiklos rezultatus ir sąlygas, kurioms esant jos turėtų veikti, bei riziką, kurią jos gali sukelti; todėl ragina teismines ir teisėsaugos institucijas aktyviai užtikrinti visišką privačių įmonių, teikiančių joms dirbtinio intelekto sistemas teisėsaugos ir teisingumo reikmėms, skaidrumą; todėl rekomenduoja, kai įmanoma, naudoti atvirojo kodo programinę įrangą;

18. ragina teisėsaugos ir teismines institucijas nustatyti ir įvertinti sritis, kuriose tam tikri specialiai pritaikyti dirbtinio intelekto sprendimai galėtų būti naudingi, ir keistis geriausia dirbtinio intelekto diegimo patirtimi; ragina valstybes nares ir ES agentūras patvirtinti atitinkamas teisėsaugos ar teismų institucijose naudojamų dirbtinio intelekto sistemų viešojo pirkimo procedūras, siekiant užtikrinti, kad jos atitiktų pagrindines teises ir taikomus teisės aktus, be kita ko, užtikrinant, kad programinės įrangos dokumentai ir algoritmai būtų pateikiami ir prieinami kompetentingoms ir priežiūros institucijoms peržiūrėti; visų pirma ragina nustatyti privalomas taisykles, pagal kurias būtų reikalaujama viešai skelbti informaciją apie viešojo ir privačiojo sektorių partnerystes, sutartis ir pirkimus, taip pat apie jų įsigijimo tikslą; pabrėžia, kad institucijoms reikia skirti reikiamą finansavimą, taip pat suteikti būtiną kompetenciją, kad būtų užtikrintas visapusiškas su bet kokiu dirbtinio intelekto diegimu susijusių etinių, teisinių ir techninių reikalavimų laikymasis;

19. ragina užtikrinti dirbtinio intelekto sistemų ir jų veikimą lemiančių sprendimų priėmimo procesų atsekamumą, kuris padėtų apibrėžti sistemų pajėgumus ir trūkumus ir stebėti, kaip atsiranda esminiai sprendimo elementai remiantis privaloma dokumentacija; pabrėžia, kad svarbu visuomet dokumentuoti mokymų duomenis, jų kontekstą, paskirtį, tikslumą ir šalutinį poveikį, taip pat algoritmų kūrėjų ir plėtotojų atliekamą šių duomenų tvarkymą ir jų atitiktį pagrindinėms teisėms; pabrėžia, kad visada turi būti įmanoma dirbtinio intelekto sistemos skaičiavimus sumažinti iki žmonėms suprantamos formos;

20. ragina prieš įgyvendinant ar diegiant visas dirbtinio intelekto sistemas, skirtas teisėsaugos ar teisminėms institucijoms, atlikti privalomą poveikio pagrindinėms teisėms vertinimą, siekiant įvertinti bet kokią galimą riziką pagrindinėms teisėms; primena, kad išankstinis duomenų apsaugos poveikio vertinimas vykdant visų rūšių duomenų tvarkymo veiklą yra privalomas, visų pirma naudojant naujausias technologijas, nes kyla galimos didelės rizikos fizinių asmenų teisėms ir laisvėms grėsmė, ir mano, kad tai ypač aktualu daugumos teisėsaugos srityje ir teisminių institucijų reikmėms naudojamų dirbtinio intelekto technologijų atveju; pabrėžia duomenų apsaugos institucijų ir pagrindinių teisių agentūrų kompetenciją vertinant šias sistemas; pabrėžia, kad šie poveikio pagrindinėms teisėms vertinimai turėtų būti atliekami kuo atviriau ir aktyviai dalyvaujant pilietinei visuomenei; reikalauja, kad poveikio vertinimuose taip pat būtų aiškiai apibrėžtos apsaugos priemonės, būtinos siekiant pašalinti nustatytą riziką, ir kad jos būtų kuo plačiau viešai paskelbtos prieš įdiegiant bet kokią dirbtinio intelekto sistemą;

21. pabrėžia, kad tik patikimas Europos dirbtinio intelekto valdymas kartu su nepriklausomu vertinimu sudarytų sąlygas būtinam pagrindinių teisių principų įgyvendinimui; ragina reguliariai atlikti privalomą visų dirbtinio intelekto sistemų, kurias naudoja teisėsaugos ir teisminės institucijos ir kai jos gali turėti didelės įtakos asmenų gyvenimui, auditą, kurį turi atlikti nepriklausoma institucija, kad būtų patikrintos ir įvertintos veikiančios algoritminės sistemos, jų kontekstas, paskirtis, tikslumas, našumas ir mastas, siekiant nustatyti, ištirti, diagnozuoti ir ištaisyti bet kokį nepageidaujamą ir neigiamą poveikį, taip pat užtikrinti, kad dirbtinio intelekto sistemos veiktų taip, kaip numatyta; todėl ragina šiuo tikslu sukurti aiškią institucinę sistemą, įskaitant tinkamą reguliavimą ir priežiūrą, siekiant užtikrinti visapusišką įgyvendinimą ir užtikrinti visapusiškai informacija pagrįstas demokratines diskusijas dėl dirbtinio intelekto būtinybės ir proporcingumo baudžiamosios teisenos srityje; pabrėžia, kad šių auditų rezultatai turi būti skelbiami viešuosiuose registruose, kad piliečiai žinotų, kad yra diegiamos dirbtinio intelekto sistemos ir kokių priemonių imamasi siekiant pašalinti bet kokius pagrindinių teisių pažeidimus;

22. pabrėžia, kad duomenų rinkiniai ir algoritminės sistemos, naudojamos klasifikavimui, vertinimui ir prognozavimui skirtingais duomenų tvarkymo etapais kuriant dirbtinio intelekto ir susijusias technologijas taip pat gali lemti skirtingą traktavimą ir tiesioginę bei netiesioginę žmonių grupių diskriminaciją, ypač dėl to, kad duomenys, naudojami nusikalstamumo prognozavimo algoritmo mokymui atspindi vykdomo stebėjimo prioritetus, todėl galiausiai gali atkartoti ir sustiprinti esamą šališkumą; todėl pabrėžia, kad dirbtinio intelekto technologijos, ypač tos, kurios diegiamos teisėsaugos ir teisminių institucijų reikmėms, reikalauja tarpdisciplininių tyrimų ir indėlio, įskaitant mokslinius ir technologinius tyrimus, esminius su rasių klausimais susijusius tyrimus, neįgalumo tyrimus ir kitas socialiniams mokslams priskiriamas disciplinas, įskaitant skirtumų kūrimo nustatymo būdus, klasifikavimo veikimą ir jo pasekmes; todėl pabrėžia, kad reikia sistemingai investuoti į šių disciplinų integravimą į visus dirbtinio intelekto mokslo darbus ir mokslinius tyrimus visais lygmenimis; taip pat pabrėžia, jog svarbu, kad dirbtinio intelekto sistemas teisėsaugos ir teisingumo reikmėms kuriančios, vystančios, testuojančios, prižiūrinčios, diegiančios ir jas įsigyjančios komandos, kai įmanoma, bendrai atspindėtų visuomenės įvairovę kaip netechninę diskriminacijos rizikos mažinimo priemonę;

23. taip pat pabrėžia, kad siekiant užtikrinti tinkamą atskaitomybę, įsipareigojimų laikymąsi ir atsakomybę būtina rengti svarbius specializuotus mokymus, kuriuose būtų nagrinėjamos dirbtinio intelekto technologijos etinės nuostatos, galimi pavojai, apribojimai ir tinkamas jų naudojimas, visų pirma policijos ir teisminių institucijų darbuotojams; pabrėžia, kad teikiant tinkamą sprendimus priimančių asmenų profesinį mokymą ir keliant jų kvalifikaciją reikėtų mokyti apie šališkumo galimybes, nes duomenų rinkiniai gali būti grindžiami diskriminaciniais ir išankstinėmis nuostatomis pagrįstai duomenimis; remia informuotumo didinimo ir švietimo iniciatyvas, siekiant užtikrinti, kad teisėsaugos ir teisminėse institucijose dirbantys darbuotojai žinotų ir suvoktų naudojamų dirbtinio intelekto sistemų apribojimus, jų teikiamas galimybes ir keliamas grėsmes, įskaitant automatizuoto šališkumo riziką; primena, kad policijos pajėgų, vykdančių savo pareigas, rasizmo atvejų įtraukimas į dirbtinio intelekto mokymo duomenų rinkinius neišvengiamai lems rasistinį šališkumą dirbtinio intelekto sukurtuose rezultatuose, vertinimuose ir rekomendacijose; todėl pakartoja raginimą valstybėms narėms skatinti kovos su diskriminacija politikos kryptis ir parengti nacionalinius kovos su rasizmu veiksmų planus viešosios tvarkos palaikymo ir teisingumo sistemos srityje;

24. pažymi, kad nusikalstamumo prognozavimas yra vienas iš teisėsaugoje naudojamų dirbtinio intelekto naudojimo būdų, tačiau įspėja, kad jos gali padėti teisėsaugos institucijoms veiksmingiau ir aktyviau dirbti, bet įspėja, kad nors nusikalstamumo prognozavimo technologijos gali analizuoti tam tikrus duomenis, kad nustatytų modelius ir sąsajas, jos negali nustatyti priežastinio ryšio, taip pat negali rengti patikimų asmens elgesio prognozių, todėl negali būti laikomos vienintele intervencijos priemone; pažymi, kad keletas Jungtinių Amerikos Valstijų miestų nutraukė kriminologinio prognozavimo sistemų naudojimą po to, kai buvo atliktas auditas; primena, kad 2020 m. vasario mėn. vykusios Piliečių laisvių, teisingumo ir vidaus reikalų komiteto misijos į Jungtines Amerikos Valstijas metu komiteto nariai gavo iš Niujorko ir Kembridžo miesto Masačiusetse policijos departamentų informaciją, kad jie sustabdė kriminologinio prognozavimo sistemų naudojimą dėl veiksmingumo stokos, diskriminacinio poveikio ir praktinio netinkamumo ir perėjo prie viešosios tvarkos palaikymo bendruomenės pastangomis; pažymi, kad tai lėmė nusikalstamumo sumažėjimą; todėl prieštarauja tam, kad teisėsaugos institucijos naudotų dirbtinį intelektą, kad, remiantis istoriniais duomenimis ir ankstesniu elgesiu, priklausymu grupėms, vieta ar bet kokiais kitais tokiais požymiais, būtų teikiamos asmenų ar grupių elgesio prognozes, taip mėginant nustatyti asmenis, kurie gali padaryti nusikaltimą;

25. atkreipia dėmesį į skirtingus veido atpažinimo būdus, pvz., patikrinimą ir (arba) tapatumo nustatymą (t. y. gyvo asmens palyginimą su nuotrauka asmens tapatybės dokumente, pvz., pažangiai valdomos sienos), tapatybės nustatymą (t. y. nuotraukos palyginimą su tam tikra nuotraukų duomenų baze) ir aptikimą (t. y. veido atvaizdų aptikimą realiuoju laiku iš tokių šaltinių, kaip AVSS įrašai, ir jų palyginimą su duomenų bazėmis, pvz., stebėjimas realiuoju laiku), kurių kiekvienas turi skirtingą poveikį pagrindinių teisių apsaugai; yra tvirtai įsitikinęs, kad veido atpažinimo sistemų diegimas teisėsaugos srityje turėtų būti vykdomas tik aiškiai apibrėžtais tikslais, visapusiškai laikantis proporcingumo ir būtinumo principų bei galiojančių teisės aktų; dar kartą patvirtina, kad naudojant veido atpažinimo technologijas turi būti laikomasi bent jau duomenų kiekio mažinimo, duomenų tikslumo, jų saugojimo apribojimo, duomenų saugumo ir atskaitomybės reikalavimų ir kad toks naudojimas turi būti teisėtas, skaidrus ir atitikti konkretų, aiškų bei teisėtą tikslą, aiškiai apibrėžtą valstybės narės ar Sąjungos teisės aktuose; laikosi nuomonės, kad tikrinimo ir tapatumo nustatymo sistemos gali būti toliau diegiamos ir sėkmingai naudojamos tik tuo atveju, jei jų neigiamas poveikis gali būti sumažintas ir tenkinami pirmiau nurodyti kriterijai;

26. be to, ragina visam laikui uždrausti naudoti automatizuotą analizę ir (arba) viešai prieinamose erdvėse atpažinti kitus žmogaus požymius, pvz., eiseną, pirštų atspaudus, DNR, balsą ir kitas biometrines bei elgsenos savybes;

27. vis dėlto ragina paskelbti veido atpažinimo sistemų, kurios atlieka identifikavimo funkciją, nebent jos naudojamos tik nusikaltimo aukoms identifikuoti, diegimo teisėsaugos tikslais moratoriumą tol, kol techniniai standartai galės būti pripažinti visiškai atitinkančiais pagrindines teises, gauti rezultatai bus nešališki ir nediskriminaciniai, teisinėje sistemoje bus numatytos griežtos apsaugos priemonės dėl netinkamo naudojimo ir griežta demokratinė kontrolė bei priežiūra ir bus pateikta empirinių įrodymų dėl tokių technologijų diegimo būtinumo ir proporcingumo; pažymi, kad tais atvejais, kai pirmiau minėti kriterijai netenkinami, sistemos neturėtų būti naudojamos ar diegiamos;

28. reiškia didelį susirūpinimą tuo, kad teisėsaugos ir žvalgybos tarnybos naudoja privačias veido atpažinimo duomenų bazes, pvz., „Clearview“ dirbtinio intelekto technologiją, kurios duomenų bazėje yra nelegaliai sukaupta daugiau kaip trys milijardai iš socialinių tinklų ir kitų interneto vietų gautų nuotraukų, įskaitant ES piliečių nuotraukas; ragina valstybes nares įpareigoti teisėsaugos subjektus atskleisti, ar jie naudojasi „Clearview“ dirbtinio intelekto technologija ar kita lygiaverte kitų tiekėjų technologija; primena Europos duomenų apsaugos valdybos (EDPB) nuomonę, kad tokių paslaugų, kaip antai „Clearview“ dirbtinio intelekto technologija, naudojimas teisėsaugos institucijose Europos Sąjungoje tikriausiai būtų nesuderinamas su ES duomenų apsaugos teisės aktais; ragina uždrausti naudoti privačias veido atpažinimo duomenų bazes teisėsaugos srityje;

29. atkreipia dėmesį į Komisijos galimybių studiją dėl galimų Priumo sprendimo pakeitimų[8], taip pat susijusių su veido atvaizdais; atkreipia dėmesį į ankstesnius mokslinius tyrimus, kuriuose nurodyta, kad jokie nauji potencialūs identifikatoriai, pvz., akies rainelės ar veido atpažinimo, teismo ekspertizės srityje nebus tokie patikimi kaip DNR ar pirštų antspaudai; primena Komisijai, kad bet koks pasiūlymas dėl teisėkūros procedūra priimamo akto turi būti pagrįstas įrodymais ir atitikti proporcingumo principą; primygtinai ragina Komisiją išplėsti Priumo sprendimo sistemą tik tuo atveju, jei bus gauta patikimų mokslinių įrodymų apie teismo ekspertizės srityje naudojamų veido atpažinimo programų patikimumą, palyginti su DNR ar pirštų antspaudais, po to, kai ji atliks visapusišką poveikio vertinimą ir atsižvelgiant į Europos duomenų apsaugos priežiūros pareigūno (EDAPP) ir Europos duomenų apsaugos valdybos rekomendacijas;

30. pabrėžia, kad biometrinių duomenų naudojimas plačiau susijęs su teisės į žmogaus orumą principu, kuris yra visų Chartijoje garantuojamų pagrindinių teisių pagrindas; mano, kad bet kokių biometrinių duomenų naudojimas ir rinkimas nuotolinio identifikavimo tikslais, pvz., atliekant veido atpažinimą viešosiose erdvėse, taip pat juos naudojant prie oro uostų pasienio patikros punktuose esančių automatinių sienos kontrolės vartų, gali kelti specifinę riziką pagrindinėms teisėms, o padariniai gali skirtis priklausomai nuo tikslo, aplinkybių ir naudojimo masto; be to, atkreipia dėmesį į ginčytiną afekto atpažinimo technologijų mokslinį pagrįstumą, pvz., kai teisėsaugos srityje naudojamos vaizdo kameros akių judesiams ir vyzdžio dydžio pokyčiams nustatyti; laikosi nuomonės, kad biometrinių identifikatorių naudojimas teisėsaugos ir teismų sistemoje visada turėtų būti laikomas „didele rizika“, todėl jam turėtų būti taikomi papildomi reikalavimai, kaip nurodyta Komisijos aukšto lygio ekspertų grupės dirbtinio intelekto klausimais rekomendacijose;

31. yra labai susirūpinęs dėl mokslinių tyrimų projektų, kurie finansuojami pagal programą „Horizontas 2020“ ir pagal kuriuos dirbtinio intelekto programos diegiamos prie išorinių sienų, pvz., dėl „iBorderCtrl“ projekto, vadinamosios „išmaniosios melo aptikimo sistemos“, pagal kurią keleiviai profiliuojami remiantis kompiuterinės sistemos automatiškai atliktu interviu keleivio internetinėje vaizdo kameroje, ir dėl dirbtiniu intelektu pagrįstos 38 mikrogestų analizės, išbandytos Vengrijoje, Latvijoje ir Graikijoje; todėl ragina Komisiją, taikant teisėkūros ir ne teisėkūros priemones, o prireikus – pažeidimo nagrinėjimo procedūras, uždrausti bet kokį biometrinių duomenų, įskaitant veido atvaizdus, tvarkymą teisėsaugos tikslais, kuris lemia masinio sekimo priemonių taikymą viešose erdvėse; taip pat ragina Komisiją nutraukti biometrinių mokslinių tyrimų, diegimo ar programų, kurie galėtų lemti nediferencijuotą masinį sekimą viešose erdvėse, finansavimą; atsižvelgdamas į tai pabrėžia, kad ypatingą dėmesį reikėtų skirti ir taikyti griežtą sistemą bepiločių orlaivių naudojimui policijos operacijose;

32. pritaria Komisijos aukšto lygio ekspertų grupės dirbtinio intelekto klausimais rekomendacijoms uždrausti dirbtinio intelekto pagalba vykdomą masinį asmenų reitingavimą; mano, kad bet kokia viešųjų institucijų plačiai taikoma normatyvinio piliečių reitingavimo forma, ypač teisėsaugos ir teisminėse institucijose, lemia savarankiškumo praradimą, kelia pavojų nediskriminavimo principui, ir tai negali būti laikoma suderinama su pagrindinėmis teisėmis, visų pirma, pagarba žmogaus orumui, kodifikuotomis Europos teisėje;

33. ragina užtikrinti didesnį bendrą skaidrumą, kad būtų pasiektas visapusiškas supratimas apie dirbtinio intelekto taikomųjų programų naudojimą Sąjungoje; prašo valstybių narių pateikti išsamią informaciją apie teisėsaugos ir teisminių institucijų naudojamas priemones, naudojamų priemonių rūšį, jų naudojimo paskirtį, apie tai, kokių rūšių nusikaltimams jos taikomos, ir šias priemones sukūrusių bendrovių arba organizacijų pavadinimus; ragina teisėsaugos ir teismines institucijas taip pat informuoti visuomenę ir užtikrinti pakankamą skaidrumą dėl dirbtinio intelekto ir susijusių technologijų naudojimo vykdant savo įgaliojimus, įskaitant šių technologijų klaidingai teigiamų rezultatų ir klaidingai neigiamų rezultatų rodiklių atskleidimą; prašo Komisijos surinkti ir atnaujinti informaciją vienoje vietoje; ragina Komisiją taip pat skelbti ir atnaujinti informaciją apie tai, kaip Sąjungos agentūros, kurioms pavestos teisėsaugos ir teisminės užduotys, naudoja dirbtinį intelektą; ragina Europos duomenų apsaugos valdybą įvertinti šių dirbtinio intelekto technologijų ir taikomųjų programų, kurias naudoja teisėsaugos ir teisminės institucijos, teisėtumą;

34. primena, kad dirbtinio intelekto taikomosios programos, įskaitant teisėsaugos ir teisminėse institucijose naudojamas taikomąsias programas, yra labai sparčiai vystomos pasauliniu lygmeniu; primygtinai ragina visus Europos suinteresuotuosius subjektus, įskaitant valstybes nares ir Komisiją, bendradarbiaujant tarptautiniu mastu užtikrinti partnerių už ES ribų dalyvavimą, kad būtų sugriežtinti standartai tarptautiniu lygmeniu ir sukurta bendra ir suteikianti papildomumo teisinė ir etinė dirbtinio intelekto naudojimo sistema, visų pirma skirta teisėsaugos ir teisminėms institucijoms, pagal kurią būtų visapusiškai laikomasi Chartijos, Europos duomenų apsaugos acquis ir gerbiamos žmogaus teisės;

35. ragina ES pagrindinių teisių agentūrą, bendradarbiaujant su Europos duomenų apsaugos valdyba ir Europos duomenų apsaugos priežiūros pareigūnu, parengti išsamias gaires, rekomendacijas ir geriausios praktikos pavyzdžius, kad būtų galima tiksliau apibrėžti dirbtinio intelekto taikomųjų programų ir sprendimų, skirtų teisėsaugos ir teisminių institucijų reikmėms, kūrimo, naudojimo ir diegimo kriterijus bei sąlygas; įsipareigoja atlikti Teisėsaugos direktyvos įgyvendinimo tyrimą[9] siekiant nustatyti, kaip teisėsaugos ir teisminės institucijos užtikrino asmens duomenų apsaugą, visų pirma kurdamos ar diegdamos naujas technologijas; be to, ragina Komisiją apsvarstyti, ar reikia imtis konkrečių teisėkūros veiksmų siekiant išsamiau apibrėžti dirbtinio intelekto taikomųjų programų ir sprendimų, skirtų teisėsaugos ir teisminių institucijų reikmėms, kūrimo, naudojimo ir diegimo kriterijus bei sąlygas;

36. paveda Pirmininkui perduoti šią rezoliuciją Tarybai ir Komisijai.

 


 

AIŠKINAMOJI DALIS

Dirbtinis intelektas yra viena iš strateginių XXI amžiaus technologijų, kuri duoda didelės naudos, susijusios su veiksmingumu, tikslumu ir patogumu, ir taip teigiamai prisideda prie Europos ekonomikos. Be kita ko, dirbtinio intelekto taikomosios programos pagerino sveikatos priežiūrą, padidino ūkininkavimo veiksmingumą, prisidėjo prie klimato kaitos švelninimo ir prisitaikymo prie jos, taip pat pagerino gamybos efektyvumą.

 

Dirbtinis intelektas yra vienas iš pagrindinių dabartinės Komisijos prioritetų. Komisijos pirmininkė Ursula von der Leyen savo politinėse gairėse paskelbė, kad bus laikomasi suderinto Europos požiūrio į dirbtinio intelekto poveikį žmonėms ir etikos standartams, taip pat bus svarstomas geresnio didžiųjų duomenų naudojimo inovacijoms klausimas. Patvirtinus, kad dirbtinis intelektas yra ES lygmens klausimas, pradėti svarstymai, kaip užtikrinti pasitikėjimą dirbtinio intelekto technologijomis ir kaip užtikrinti, kad dirbtinis intelektas nepažeistų ES pagrindinių teisių.

 

Tačiau Europos Parlamentas dirbtinio intelekto klausimą sprendė jau kelerius metus prieš Komisijai priimant sprendimą laikyti jį svarbiu prioritetu. Keletas rezoliucijų dėl didelių duomenų kiekių, robotikos ir dirbtinio intelekto, kurias Parlamentas priėmė nuo 2016 m., rodo, kad Parlamentas šiai temai teikia didelę svarbą. Rezoliucijose nagrinėtas skirtingas dirbtinio intelekto poveikis ir jo įtaka gerovei, švietimui, technologijoms, teisinėms ir pagrindinėms teisėms, taip pat pramonei apskritai. Šiose rezoliucijose pabrėžta, kad reikia laikytis į žmogų orientuoto požiūrio, grindžiamo pagarba pagrindinėms teisėms, t. y. ES chartijai ir ES duomenų apsaugos sistemai.

 

Todėl kalbant apie dirbtinį intelektą kaip technologijas, „kurias taikant derinami duomenys, algoritmai ir kompiuterijos pajėgumai“, „kompiuterijos pažanga ir didėjantis duomenų prieinamumas yra pagrindiniai veiksniai, lemiantys dabartinį DI pakilimą“[10]. Dirbtinio intelekto esmė – tai faktas, kad jis grindžiamas didelio kiekio duomenų, įskaitant asmens duomenis, rinkimu, analize ir pasikartojančiu kaupimu iš įvairių šaltinių, taikant automatizuotą šių duomenų tvarkymą pasitelkiant kompiuterinius algoritmus ir pažangias duomenų apdorojimo technologijas. Pagal šiuos metodus naudojami tiek saugomi, tiek perduodami duomenys, siekiant sukurti tam tikras koreliacijas, nustatyti tendencijas ir modelius (didelių duomenų kiekių analizė). Dirbtinio intelekto duomenys gaunami ne tik tiesiogiai iš asmenų; dirbtinio intelekto taikomosios programos daugiausia naudoja iš pramonės, verslo ir viešojo sektoriaus gaunamus duomenis, kurie tvarkomi įvairiais tikslais. Net jei dirbtinio intelekto taikomųjų programų naudojami duomenys kartais gali būti ne asmens duomenys, dirbtinio intelekto veikla labai dažnai apima asmens duomenų tvarkymą, nes tokia veikla dažnai lemia automatizuotus sprendimus, turinčius tiesioginį poveikį asmenims. Todėl dėl šių dirbtinio intelekto savybių turime ypatingą dėmesį šioje srityje skirti pagrindinių duomenų apsaugai ir privatumo principų laikymuisi.

 

Dirbtinis intelektas taip pat suteikia daug galimybių teisėsaugos ir baudžiamojo teisingumo srityse, visų pirma gerinant teisėsaugos ir teisminių institucijų darbo metodus ir veiksmingiau kovojant su tam tikrų rūšių nusikaltimais, visų pirma finansiniais nusikaltimais, pinigų plovimu ir teroristų finansavimu bei tam tikrų rūšių elektroniniais nusikaltimais. Šiame sektoriuje dirbtinio intelekto taikomosios programos apima tokias taikomąsias programas kaip, be kita ko, veido atpažinimo technologijos, automatinis transporto priemonės registracijos numerio atpažinimas, kalbėtojo tapatybės nustatymas, sakytinės kalbos atpažinimas, lūpų judesių nuskaitymo technologijos, garsinės aplinkos stebėjimas (t. y. šūvio garso aptikimo algoritmai), savarankiški nustatytų duomenų bazių tyrimai ir analizė, prognozavimas (kriminologiniu prognozavimu grindžiamas policijos darbas ir nusikalstamumo centrų analizė), elgsenos nustatymo priemonės, savarankiškos finansinio sukčiavimo ir teroristų finansavimo nustatymo priemonės, socialinės žiniasklaidos stebėsena (duomenų perėmimas ir rinkimas siekiant sudaryti duomenų gavybos rinkinius), tarptautiniai judriojo ryšio abonentų identifikatoriai (IMSI) ir automatinės stebėjimo sistemos, apimančios įvairias nustatymo galimybes (pavyzdžiui, širdies plakimo nustatymas ir terminės kameros). Teismuose dirbtinio intelekto priemonės gali būti naudojamos apskaičiuojant recidyvo tikimybę ir nustatant lygtinį paleidimą arba priimant sprendimą dėl nuosprendžio.

 

Nepaisant dirbtinio intelekto teikiamos naudos, akivaizdu, kad dirbtinis intelektas tuo pat metu kelia daug galimų pavojų, pavyzdžiui, susijusių su neskaidriu sprendimų priėmimu, įvairių rūšių diskriminacija, įsibrovimu į mūsų privatų gyvenimą, iššūkiais asmens duomenų apsaugai, žmogaus orumui ir saviraiškos bei informacijos laisvei. Šie galimi pavojai didėja teisėsaugos ir baudžiamojo teisingumo sektoriuje, nes jie gali daryti poveikį nekaltumo prezumpcijai, pagrindinėms asmens teisėms į laisvę ir saugumą, veiksmingą teisinę gynybą ir teisingą bylos nagrinėjimą.

 

Šiuo pranešimu siekiama spręsti klausimus, susijusius su dirbtinio intelekto naudojimu baudžiamosios teisės srityje ir policijos bei teisminių institucijų darbe, susijusiame su baudžiamosiomis bylomis. Nors pripažįstama, kad dirbtinis intelektas gali suteikti galimybių ir privalumų, pranešime taip pat atkreipiamas dėmesys į didelę riziką ir poveikį, kurį jis gali sukelti.

 

Pranešime pabrėžiama, kad reikia visapusiškai gerbti pagrindines teises, įtvirtintas ES pagrindinių teisių chartijoje, Sąjungos teisės aktuose dėl privatumo ir duomenų apsaugos, t. y. Direktyvoje (ES) 2016/680 (Policijos direktyva), ir kad būtina įgyvendinti kelis pagrindinius principus, taikomus dirbtinio intelekto eksploatavimo ciklui, pavyzdžiui, susijusius su algoritmų paaiškinamumu ir skaidrumu, atsekamumu, privalomu poveikio pagrindinėms teisėms vertinimu prieš įgyvendinant ar diegiant dirbtinio intelekto sistemą ir privalomais patikrinimais. Visi šie reikalavimai būtini ne tik tam, kad būtų užtikrintas dirbtinio intelekto sistemų teisėtumas, bet ir tam, kad asmenys pasitikėtų jų naudojimu teisėsaugos ir teisminių institucijų reikmėms baudžiamosiose bylose.

 

Galiausiai pranešėjas ragina paskelbti veido atpažinimo sistemų diegimo teisėsaugos tikslais moratoriumą. Atsižvelgiant į dabartinę šių technologijų būklę ir didelį poveikį pagrindinėms teisėms, reikia išsamių ir atvirų visuomenės diskusijų, kad būtų galima apsvarstyti įvairius iškeltus klausimus ir jų diegimo pagrindimą.

 


VIDAUS RINKOS IR VARTOTOJŲ APSAUGOS KOMITETO NUOMONĖ (3.9.2020)

pateikta Piliečių laisvių, teisingumo ir vidaus reikalų komitetui

dėl dirbtinio intelekto baudžiamojoje teisėje ir jo naudojimo policijos ir teisminių institucijų reikmėms baudžiamosiose bylose

(2020/2016(INI))

Nuomonės referentas: Marcel Kolaja

 

 

PASIŪLYMAI

Vidaus rinkos ir vartotojų apsaugos komitetas ragina atsakingą Piliečių laisvių, teisingumo ir vidaus reikalų komitetą į savo pasiūlymą dėl rezoliucijos įtraukti šiuos pasiūlymus:

A. kadangi atsižvelgiant tiek į dirbtiniam intelektui būdingas visuomenei palankias galimybes, tiek į riziką bendrosios skaitmeninės rinkos veikimas turėtų būti pagerintas didinant dirbtinio intelekto sistemų teikėjų teisinį tikrumą ir vartotojų pasitikėjimą bei saugumą stiprinant apsaugos priemones, kuriomis užtikrinama teisinės valstybės principas ir pagrindinės teisės, visų pirma, teisė į privatumą ir asmens duomenų apsaugą, teisė į lygybę ir nediskriminavimą, teisės į gerą administravimą ir į teisingą bylos nagrinėjimą, taip pat teisė į aukšto lygio vartotojų apsaugą; kadangi, siekiant išvengti bendrosios rinkos susiskaidymo, būtinas bendras Europos požiūris į dirbtinį intelektą ir policijos bei teisėsaugos institucijų atliekamo jo naudojimo baudžiamosiose bylose reglamentavimas;

B. kadangi policijos ir teisminių institucijų atliekami dirbtinio intelekto bandymai ir naudojimas yra plačiai paplitę, ir apima įvairius naudojimo būdus, susijusius su įvairiomis pasekmėmis ir rizika, pavyzdžiui, veido atpažinimo sistemos, DNR profiliavimas, prognozuojamasis nusikaltimų kartografavimas ir mobiliųjų telefonų duomenų išgavimas, pažangios teismų praktikos paieškos sistemos, elektroninis ginčų sprendimas ir automatinis mokymasis apie teisingumo vykdymą;

C. kadangi naudojant dirbtinį intelektą gali iš esmės pasikeisti baudžiamojo teisingumo vykdymas;

D. kadangi, remiantis Pagrindinių teisių agentūros ataskaita, šiuo metu turima tik nedaug informacijos apie galimą veido atpažinimo technologijų naudojimą ar bandymus[11];

E. kadangi valstybėse narėse, kuriose buvo tam tikros informacijos apie veido atpažinimo technologijų naudojimą, duomenų apsaugos institucijos nustatė, kad šių technologijų naudojimas neatitinka duomenų apsaugos teisės aktų ir joms įdiegti trūksta teisinio pagrindo;

F. kadangi vidaus rinkos srityje reformuodama viešųjų pirkimų procedūras Sąjunga gali pasiekti esminių pokyčių vyriausybės veiksmus ir elgesį derindama su antriniais politikos tikslais, pvz., duomenų apsauga ir nediskriminavimu;

G. kadangi duomenimis grindžiamo algoritminio sprendimų priėmimo srityje diskriminacijos atvejų gali pasitaikyti projektavimo, bandymų ir įgyvendinimo etape dėl į duomenų rinkinius ar algoritmus įtrauktų šališkų nuostatų;

H. kadangi, siekiant užtikrinti pagarbą žmogaus ir pagrindinėms teisėms, būtina, kad techninė plėtra ir dirbtinio intelekto taikymas būtų pagrįsti principais;

I. kadangi 2018 m. gruodžio 4 d. Europos Tarybos veiksmingo teisingumo komisija paskelbė Etikos chartiją dėl dirbtinio intelekto naudojimo teismų sistemose; chartijoje nustatyti dirbtinio intelekto naudojimo teismų sistemose etikos principai;

J. kadangi tam tikri dirbtinio intelekto technologijų naudojimo būdai yra ypač jautrūs ir jais gali būti piktnaudžiaujama, todėl kai kurios technologijų įmonės neseniai nusprendė nebesiūlyti susijusios programinės įrangos;

1. mano, kad policijos ir teisminių institucijų naudojamas dirbtinis intelektas turi būti priskiriamas didelės rizikos kategorijai, naudojamas itin atsargiai ir taikant griežčiausius duomenų apsaugos standartus, nes šių institucijų vaidmuo yra ginti viešąjį interesą ir atsižvelgiant į jų veiklos pobūdį; mano, kad nedelsiant reikia bendros Europos dirbtinio intelekto vidaus rinkoje reguliavimo sistemos; mano, kad ES turėtų imtis vadovaujančio vaidmens šiuos klausimus reglamentuojant Sąjungos lygmeniu, be kita ko, viešųjų pirkimų srityje, remiantis aiškiomis taisyklėmis ir pagrindinėmis teisėmis bei etika, kad kuriant ir naudojant dirbtinį intelektą būtų užtikrinamas vienodai aukštas vartotojų apsaugos lygis ir vienodi pramonės standartai visoje ES, taip sudarant sąlygas geresniam vidaus rinkos veikimui, kartu skatinant inovacijas ir didinant teisinį tikrumą įmonėms, ypač MVĮ; ragina Komisiją prieš pateikiant bet kokius galimus naujus pasiūlymus dėl teisėkūros procedūra priimamų aktų išnagrinėti esamų teisės aktų taikymą ir jų vykdymo užtikrinimą;

2. pripažįsta, kad dirbtinio intelekto naudojimas teisingumo srityje gali padėti tobulinti proceso veiksmingumą ir kokybę; atsižvelgdamas į tai pabrėžia, kad visų pirma turi būti laikomasi Europos žmogaus konvencijoje ir Europos Tarybos konvencijoje dėl asmenų apsaugos ryšium su asmens duomenų automatizuotu tvarkymu nustatytų taisyklių;

3. ragina Komisiją įvertinti rinkoje esančias dirbtinio intelekto technologijas ir kiek jas naudoja policija bei teisminės institucijos kiekvienoje valstybėje;

4. pabrėžia, kad dirbtinis intelektas turėtų padėti sumažinti valdžios institucijoms tenkančią administracinę naštą, padidinti sprendimų priėmimo našumą ir kad dirbtinio intelekto sistemos visada turėtų būti grindžiamos žmogaus vykdoma priežiūra, bendradarbiavimu ir koordinavimu; atsižvelgdamas į tai, pabrėžia, kad bet kokio sprendimo baudžiamosiose bylose galutinė atsakomybė visada turėtų tekti žmonėms; pabrėžia, kad labai svarbūs duomenų rinkiniai, kai jie naudojami siekiant padėti visoje Sąjungoje vykdyti susijusius e. vyriausybės procesus ir priimti administracinius sprendimus;

5. pabrėžia, kad svarbu sudaryti sąlygas inovacijoms, skaidrumui, atsekamumui ir tikrinimui; pabrėžia, kad atvirojo kodo dirbtinis intelektas galėtų padėti siekti šio tikslo, kartu stiprinant bendradarbiavimą ir puoselėjant keitimosi idėjomis ir patirtimi, susijusia su algoritmų naudojimu ir kūrimu, kultūrą;

6. mano, kad policijos ir teisėsaugos institucijų baudžiamosiose bylose naudojamas dirbtinis intelektas turėtų būti paviešintas kaip atvirojo kodo programinė įranga, kai įmanoma, pagal viešųjų pirkimų procedūrą, laikantis taikytinų teisės aktų, įskaitant 2019 m. balandžio 17 d. Europos Parlamento ir Tarybos direktyvą (ES) 2019/790 dėl autorių teisių ir gretutinių teisių bendrojoje skaitmeninėje rinkoje, o programinės įrangos dokumentai ir algoritmai turėtų būti prieinami, taigi kompetentingos institucijos galėtų peržiūrėti, kaip dirbtinio intelekto sistema padarė tam tikrą išvadą; pabrėžia, kad atliekant išankstinį atitikties vertinimą turėtų būti vykdomas pagrindinių teisių auditas; mano, jog užtikrinant, kad būtų paisoma ES teisės ir vertybių bei taikytinų duomenų apsaugos taisyklių, ir nekenkiant tyrimui ar baudžiamajam persekiojimui, nešališki algoritmai, kuriuos galima paaiškinti ir kurie atitinka pakankamo skaidrumo reikalavimą, bei atvirųjų duomenų naudojimas laikantis teisės aktų, įskaitant Direktyva (ES) 2019/1024 dėl atvirųjų duomenų ir viešojo sektoriaus informacijos pakartotinio naudojimo ir nedarant poveikio Reglamentui (ES) 2016/679 yra nepaprastai svarbūs norit užtikrinti, kad įmonės ir piliečiai, įskaitant vartotojus, galėtų pasitikėti ir naudotis geresnėmis, labiau prieinamomis, nediskriminuojamomis ir patikimomis viešosiomis paslaugomis už priimtiną kainą bei jomis naudotis;

7. pabrėžia, kad dirbtinis intelektas turėtų galėti rinkti duomenis tik apie nusikalstama veika įtariamus asmenis ir vykdyti tik tokių asmenų stebėseną ir sekimą, kuriam pagal galiojančius teisės aktus teismai davė leidimą, paisant pagarbos privačiam gyvenimui ir nekaltumo prezumpcijai, taip pat kitų naudotojų ir vartotojų, kuriems tokios sistemos ir praktika gali daryti neplanuotą poveikį, teisėms; pabrėžia, kad atvejais, kai priimant sprendimus remiamasi statistiniais skaičiavimais, teikiant tinkamą sprendimus priimančių asmenų profesinį mokymą ir keliant jų kvalifikaciją reikėtų mokyti apie šališkumo galimybes, nes duomenų rinkiniai gali būti grindžiami diskriminaciniais ir išankstinėmis nuostatomis pagrįstai duomenimis; atsižvelgdamas į tai pabrėžia, kad svarbi algoritmų ir pirminių duomenų kokybė, ir primena, kad dirbtinio intelekto naudojimas turi būti grindžiamas nediskriminavimo principu įvedant ir analizuojant duomenis; ragina vykdant tokių priemonių viešųjų pirkimų procedūras taikyti apsaugos nuo galimų šališkų nuostatų priemones; ragina valstybių narių teismines ir policijos institucijas keistis informacija ir geriausios patirties pavyzdžiais, susijusiais su dirbtinio intelekto metodų ir priemonių taikymu, siekiant išvengti fragmentiško požiūrio bendrojoje rinkoje ir užtikrinti Sąjungos piliečių apsaugą;

8. primygtinai reikalauja, kad valstybės narės pagal taikytinus baudžiamosios teisės aktus užtikrintų piliečių ir vartotojų informavimą, kai jų atžvilgiu naudojamas dirbtinis intelektas, ir kad, siekiant užtikrinti jų galimybę veiksmingai ginti savo teises, būtų numatytos paprastos, veiksmingos ir lengvai prieinamos skundų nagrinėjimo ir teisių gynimo procedūros, įskaitant teisių gynimą teisme;

9. primena apie didelę piktnaudžiavimo tam tikrų rūšių dirbtiniu intelektu riziką, įskaitant veido atpažinimo technologijas viešosiose erdvėse, automatizuotą elgesio nustatymą ir profiliavimą prie sienų siekiant suskirstyti žmones pagal rizikos kategorijas, biometrinį aptikimą ir atpažinimą masinio sekimo tikslais, masinį piliečių reitingavimą ir prevencinę teisėtvarką ir ragina Komisiją reglamentuoti jų įsigijimą ir naudojimą siekiant pašalinti šią riziką; palankiai vertina Komisijos vykdomą darbą siekiant įvertinti biometrinių technologijų naudojimą ir apsvarstyti reglamentavimo galimybes, įskaitant rizika pagrįstą požiūrį ir jų draudimą konkrečiomis aplinkybėmis, taip pat nustatyti būtinas apsaugos priemones, kai jų naudojimas yra pagrįstas;

10. pabrėžia, kad, siekiant jog sprendimai, priimami remiantis vien statistiniais skaičiavimais, netaptų standartu, turi būti išlaikyta nepriklausoma teisėjų diskrecija ir galimybė priimti sprendimus atsižvelgiant į kiekvieną konkretų atvejį.


INFORMACIJA APIE PRIĖMIMĄ NUOMONĘ TEIKIANČIAME KOMITETE

Priėmimo data

3.9.2020

 

 

 

Galutinio balsavimo rezultatai

+:

–:

0:

40

4

0

Posėdyje per galutinį balsavimą dalyvavę nariai

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Morten Løkkegaard, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Dan-Ștefan Motreanu, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Posėdyje per galutinį balsavimą dalyvavę pavaduojantys nariai

Maria da Graça Carvalho, Anna Cavazzini, Krzysztof Hetman

 


GALUTINIS VARDINIS BALSAVIMAS NUOMONĘ TEIKIANČIAME KOMITETE

40

+

PPE

Maria da Graça Carvalho, Deirdre Clune, Krzysztof Hetman, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Dan-Ștefan Motreanu, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Marion Walsmann

S&D

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

RENEW

Andrus Ansip, Vlad-Marius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Morten Løkkegaard

ID

Hynek Blaško

Verts/ALE

Anna Cavazzini, David Cormand, Petra De Sutter, Marcel Kolaja, Kim Van Sparrentak

ECR

Adam Bielan, Carlo Fidanza, Eugen Jurzyca, Beata Mazurek

GUE/NGL

Kateřina Konečná, Anne-Sophie Pelletier

NI

Marco Zullo

 

4

-

ID

Alessandra Basso, Markus Buchheit, Virginie Joron, Jean-Lin Lacapelle

 

0

0

 

 

 

Sutartiniai ženklai:

+ : 

- : prieš

0 : susilaikė

 


TEISĖS REIKALŲ KOMITETO NUOMONĖ (15.9.2020)

pateikta Piliečių laisvių, teisingumo ir vidaus reikalų komitetui

dėl dirbtinio intelekto baudžiamojoje teisėje ir jo naudojimo policijos ir teisminių institucijų reikmėms baudžiamosiose bylose

(2020/2016(INI))

Nuomonės referentas: Angel Dzhambazki

 

PASIŪLYMAI

Teisės reikalų komitetas ragina atsakingą Piliečių laisvių, teisingumo ir vidaus reikalų komitetą į savo pasiūlymą dėl rezoliucijos įtraukti šiuos pasiūlymus:

A. kadangi teisė į teisingą bylos nagrinėjimą yra pagrindinė teisė, ji yra teisiškai privaloma ir įtvirtinta Europos Sąjungos pagrindinių teisių chartijoje bei Europos žmogaus teisių konvencijoje teisės aktų taikymo tikslais; kadangi ji taikoma viso baudžiamojo proceso metu, įskaitant vykdymo procesą, ir užtikrina, kad visose proceso stadijose būtų užkirstas kelias priemonių, įskaitant technines priemones, kurios tiesiogiai arba netiesiogiai iš esmės suvaržytų teisę į gynybą, taikymui; kadangi su šiuo principu susijusios garantijos, visų pirma, nepriklausomo teismo, procesinio lygiateisiškumo ir nekaltumo prezumpcijos garantijos, yra griežtesnės baudžiamojoje teisėje; kadangi šios teisės turi būti gerbiamos visomis aplinkybėmis, visų pirma naudojant dirbtinį intelektą, ypač todėl, kad dirbtiniu intelektu grindžiamos technologijos gali daryti poveikį įvairioms žmogaus teisėms;

B. kadangi asmens duomenų apsauga pagal Bendrąjį duomenų apsaugos reglamentą[12] ir kitus taikomus susijusius teisės aktus užtikrinama visą laiką;

C. kadangi dirbtinis intelektas ir susijusios technologijos, įskaitant jų savarankiško mokymosi gebėjimus, visada susijusios su tam tikro lygmens žmogaus intervencija;

D. kadangi dirbtinis intelektas gali tapti nuolatine baudžiamosios teisės sistemų dalimi;

E. kadangi dirbtinis intelektas ir susijusios technologijos yra Sąjungos prioritetas atsižvelgiant į spartų technologijų sektoriaus vystymąsi, ir svarbu būti atidiems kalbant apie jų esamą ir būsimą poveikį išskirtinei Europos intelektinės nuosavybės teisių sistemai; kadangi nemažai sektorių, pavyzdžiui, be kita ko robotikos, transporto ir sveikatos apsaugos sektoriai, jau naudoja dirbtinį intelektą ir susijusias technologijas;

F. kadangi tokios technologijos, kaip dirbtinis intelektas ir susijusios technologijos, gali būti naudojamos baudžiamosios teisės srityje siekiant sumažinti nusikalstamumo rodiklius, palengvinti kai kurias procedūras, kurioms naudojama statistinių duomenų analizė siekiant suvokti nusikaltimus ir užkirsti jiems kelią, juos nustatyti ir tirti; kadangi Sąjunga turėtų toliau plėtoti savo pajėgumus programinės įrangos, duomenų saugojimo ir dirbtinio intelekto technologijų srityse siekiant ištaisyti trūkumus, susijusius su duomenų apsauga ir privatumu;

G. kadangi šios technologijos gali būti naudojamos kuriant anonimizuotų statistinių duomenų bazes, kurios padėtų valdžios institucijoms, akademinei bendruomenei ir teisės aktų rengėjams analizuoti skaičius ir veiksmingai rengti politiką siekiant užkirsti kelią nusikalstamumui ir padėti nusikaltusiems asmenims sėkmingai vėl integruotis į visuomenę;

H. kadangi dirbtinio intelekto ir jo taikymo baudžiamojoje teisėje teisinė sistema turėtų apimti teisėkūros veiksmus, prireikus, pradedant privalomomis priemonėmis, kurios užkirstų kelią praktikai, neabejotinai kenkiančiai pagrindinėms teisėms ir laisvėms;

I. kadangi dėl dirbtinio intelekto sistemų iš esmės neskaidraus pobūdžio naujos priemonės, naudojamos baudžiamojo teisingumo srityje, gali prieštarauti kai kurioms pagrindinėms laisvėms;

J. kadangi reikia užkirsti kelią galimai rizikai, susijusiai su dirbtinio intelekto sistemų taikymu baudžiamojo teisingumo srityje, ir ją sumažinti, siekiant užtikrinti įtariamųjų ir kaltinamųjų pagrindines teises baudžiamajame procese;

1. pabrėžia, kad labai svarbu tinkamai įvertinti dirbtinio intelekto naudojimo riziką, pavyzdžiui dėl diskriminacijos ir privatumo pažeidimų, ir atsižvelgti į visas dirbtinio intelekto ir susijusių technologijų naudojimo mūsų visuomenėje, visų pirma, kai valdžios institucijos, policija ir teisminės institucijos juos naudoja baudžiamojo teisingumo srityje, etines ir operatyvines pasekmes, taip pat kalbant apie atsakomybės ir įrodymų klausimus, susijusius su dirbtinio intelekto sistemų naudojimu; mano, kad siekiant nustatyti ribas ir užtikrinti reikiamas garantijas, būtina aiški reguliavimo sistema; mano, kad viešieji ir privatieji subjektai, atsakingi už pradinį dirbtinio intelekto priemonių ir paslaugų kūrimą ir plėtojimą, turėtų laikytis griežtų etikos principų, pavyzdžiui, nustatytų Europos Tarybos Europos chartiją dėl etikos principų naudojant dirbtinį intelektą teismų sistemoje, ir į šiuos principus atsižvelgti, kad visi suinteresuotieji socialiniai subjektai galėtų gauti išsamią informaciją apie įmonių, kuriančių dirbtinio intelekto programas, organizacinę struktūrą; pabrėžia žmogiškojo veiksnio, kai žmogus visada turi būti galutinis sprendimų priėmėjas, svarbą naudojantis dirbtiniu intelektu pagrįsta programine įranga baudžiamojoje sistemoje, nesvarbu, teisėsaugos ar baudžiamojo teisingumo srityje; pakartoja, kad biometrinio atpažinimo programinė įranga turėtų būti taikoma tik aiškiai pagrįstais atvejais;

2. pabrėžia, kad būtina nustatyti ir išlaikyti dirbtinio intelekto sistemų naudojimo baudžiamajame procese ir visų pagrindinių teisių ir procesinių garantijų, numatytų ES ir tarptautinėje teisėje, paisymo pusiausvyrą;

3. pabrėžia, kad svarbu, jog dirbtinis intelektas būtų naudojamas tinkamai atsižvelgiant į teisinės valstybės ir teismų nepriklausomumo priimant sprendimus principus;

4. ragina Komisiją toliau paaiškinti naudojant dirbtinį intelektą ir susijusias technologijas surinktų duomenų (juos renka institucijos, įgaliotos rinkti ir/arba tvarkyti tokius duomenis), įskaitant ne asmens ir anoniminius duomenis, kuriuos naudojant tiesiogiai arba netiesiogiai galima nustatyti fizinius asmenis, apsaugos ir dalijimosi taisykles, kurios visiškai atitiktų BDAR ir E. privatumo direktyvą[13]; taip pat pabrėžia, kad teisė į teisingą teismą turėtų apimti piliečių ir bylos šalių galimybę susipažinti su šiais duomenimis, ypač, kai jie renkami iš jų asmeninių prietaisų ar įrangos, pagal BDAR, taip pat užtikrinant jų teisę į gynybą nuo to momento, kai jiems taikoma teisinė atsakomybė;

5. pabrėžia, kad svarbu didinti baudžiamojo teisingumo klausimais naudojamų dirbtinio intelekto sistemų skaidrumą siekiant sudaryti galimybes vykdyti dirbtinio intelekto ir susijusių technologijų kūrėjų teisminę priežiūrą ir užtikrinti, kad jie kompetentingoms institucijoms ir piliečiams garantuotų tinkamą algoritmų ir su algoritmais susijusių sprendimų skaidrumą; pabrėžia bendrą šalių teisę susipažinti su procesais, susijusiais su duomenų rinkimu, nusikaltimų prevencijai naudojamais prognostiniais vertinimais, kriminalinių įrodymų katalogavimu bei vertinimu ir nustatymu, ar įtariamasis gali kelti pavojų visuomenei, jeigu tai nėra ribojama pagal galiojančius ES teisės aktus, pvz., Direktyvą (ES) 2016/680[14]; be to, pabrėžia, kad svarbu turėti galimybę susipažinti su dirbtinio intelekto ar naudojant dirbtinį intelektą gautais rezultatais ir, galiausiai, apibrėžti atsakomybę už pranešimo procedūras ir dirbtinio intelekto bei susijusių technologijų vaidmenį baudžiamosiose bylose, ypač kai vykdant baudžiamąjį tyrimą analizuojami dideli kiekiai įrodymų ir nustatomi įtariamieji ar nusikaltimo aukos; primena klausimų, susijusių su valdymu, pagrindinėmis teisėmis ir procedūrinėmis garantijomis, nediskriminavimu, atskaitomybe, skaidrumu, nešališkumu, sąžiningumu ir dirbtinio intelekto bei susijusių technologijų intelektiniu neliečiamumu, svarbą, kartu pabrėždamas, kad visada reikia užtikrinti, jog žmogus vykdytų priežiūrą; primygtinai reikalauja užtikrinti, kad teisminės institucijos pagrįstų savo sprendimus, taip pat priimtus remiantis įrodymais, gautais naudojantis dirbtinio intelekto technologijomis, kurioms reikalingas aukšto lygio teisminis tikrinimas ir griežti priimtinumo kriterijai, atsižvelgiant į 2017 m. vasario 16 d. Parlamento rezoliuciją dėl robotikos[15], kurioje pabrėžiama, kad turėtų būti visuomet įmanoma pateikti bet kokio sprendimo, priimto naudojantis dirbtinio intelekto pagalba, kuris gali daryti svarbų poveikį vieno ar daugiau žmonių gyvybei, pagrindimą; taip pat primena skirtumą tarp dirbtinio intelekto ir susijusių technologijų naudojimo nusikalstamumo prevencijos ir baudžiamojo teisingumo srityse; pabrėžia, kad visada dirbtinio intelekto vaidmuo yra pagalbinis;

6. primena, kad teisėsaugos srityje veikiančios valdžios institucijos gali visiškai netinkamai naudoti dirbtinį intelektą ir susijusias technologijas, pvz., vykdyti masinį sekimą, profiliavimą, prevencinės teisėtvarkos programas, pagal kurias būtų galima nustatyti, kur gali būti padarytas nusikaltimas, kur gali būti surasti įtariamieji, asmens pažeidžiamumą, jo galimybes tapti auka, dingti ar nukentėti nuo smurto šeimoje ar seksualinio nusikaltimo, arba padaryti tokį nusikaltimą; šios institucijos taip pat gali padaryti tinkamo proceso teisių pažeidimų;

7. pabrėžia, kad svarbu, jog automatiškai surinkti duomenys būtų naudojami renkant ir analizuojant įrodymus; primena, kad tiek nusikalstamumo prevencijos, tiek baudžiamojo teisingumo srityse klaidų arba galimai netinkamos duomenų įvesties ar išvesties analizės, taip pat jų aiškinimo priežastis gali būti susijusi su susijusiu žmogiškuoju veiksniu, todėl ragina laikytis atsargaus požiūrio analizuojant dirbtinio intelekto technologijų naudojimo visuose sprendimų priėmimo procesuose veiksmingumą ir tinkamumą;

8. ragina visas kompetentingas valdžios institucijas, ypač teisėsaugos institucijas, pvz., policiją ir teismines institucijas, informuoti visuomenę ir užtikrinti pakankamą skaidrumą naudojant dirbtinį intelektą ir susijusias technologijas įgyvendinant savo įgaliojimus, ypač baudžiamosios teisės srityje;

9. mano, jog itin svarbu, kad taikant dirbtinio intelekto sistemas vykdant baudžiamąjį procesą būtų užtikrinta pagarba pagrindiniams baudžiamojo proceso principams, įskaitant teisę į teisingą bylos nagrinėjimą, nekaltumo prezumpcijos principą ir teisę į veiksmingą teisinę gynybą, taip pat svarbu užtikrinti automatizuotų sprendimų sistemų stebėseną ir nepriklausomą kontrolę;

10. pabrėžia, kad svarbu laikytis principo „valdo žmogus“ ir tikrinti dirbtinio intelekto sukurtus arba dirbtiniu intelektu paremtus rezultatus; ir primena su valdymu, skaidrumu, paaiškinamumu ir atskaitomybe susijusių klausimų svarbą siekiant užtikrinti pagarbą pagrindinėms teisėms ir išvengti galimų dirbtinio intelekto klaidų;

11. pabrėžia atsargų požiūrį naudojant biometrinio atpažinimo programinę įrangą; atkreipia dėmesį į dviprasmiškumą, atsirandantį dėl būdingo nepakankamumo duomenų apsaugos srityje, taip pat dėl duomenų privatumo pažeidimų; susirūpinęs atkreipia dėmesį į tai, kad užsienio šalys, naudodamosi privačiojo sektoriaus kūrėjais ir paslaugų teikėjais, susieja Europos Sąjungos piliečių asmens duomenis;

12. primena, kad pagal galiojančias ES duomenų apsaugos taisykles ir Europos Sąjungos pagrindinių teisių chartiją dirbtinis intelektas gali būti naudojamas tik nuotolinio biometrinio identifikavimo tikslais, kai toks naudojimas yra tinkamai pagrįstas, proporcingas ir jam taikomos tinkamos apsaugos priemonės; palankiai vertina Komisijos aukšto lygio ekspertų grupės dirbtinio intelekto klausimais rekomendacijas proporcingai, atsakingai ir remiantis rizika naudoti biometrinio atpažinimo technologijas, nepažeidžiant asmens duomenų apsaugos teisės aktų; siūlo, kad tokios technologijos taikymas būtų aiškiai pagrįstas galiojančiais teisės aktais, ir ragina Komisiją įvertinti, kaip veiksmingai įtraukti minėtas rekomendacijas, ypač užtikrinant, kad būtų paisoma privatumo ir garantuojama asmens duomenų apsauga;

13. yra tvirtai įsitikinęs, kad dirbtinio intelekto ar susijusių technologijų priimti sprendimai, ypač teisingumo ir teisėsaugos srityse, darantys tiesioginį ir didelį poveikį fizinių ar juridinių asmenų teisėms ir pareigoms, turėtų būti žmonių griežtai tikrinami ir jiems turėtų būti taikomas tinkamas procesas;

14. mano, kad būtina išnagrinėti, ar tikslinga teisėsaugos sprendimus iš dalies deleguoti dirbtiniam intelektui ir, jei taip, kokiomis sąlygomis ir kokiomis aplinkybėmis būtų galima leisti taip naudoti dirbtinį intelektą; mano, kad su dirbtiniu intelektu ir susijusiomis technologijomis, kurios gali pakeisti valdžios institucijų sprendimus, turėtų būti elgiamasi itin atsargiai; pabrėžia, kad reikia parengti griežtus dirbtinio intelekto kūrimo ir naudojimo etikos principus ir konkrečius elgesio kodeksus, siekiant padėti teisėsaugos ir teisminėms institucijoms tais atvejais, kai teisėsaugos sprendimai būtų deleguoti dirbtiniam intelektui; atkreipia dėmesį į Teisės reikalų komitete vykstantį darbą.


INFORMACIJA APIE PRIĖMIMĄ NUOMONĘ TEIKIANČIAME KOMITETE

Priėmimo data

10.9.2020

 

 

 

Galutinio balsavimo rezultatai

+:

–:

0:

22

3

0

Posėdyje per galutinį balsavimą dalyvavę nariai

Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, Raffaele Stancanelli, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Marion Walsmann, Tiemo Wölken, Lara Wolters, Javier Zarzalejos

Posėdyje per galutinį balsavimą dalyvavę pavaduojantys nariai

Heidi Hautala, Emil Radev

 


 

GALUTINIS VARDINIS BALSAVIMAS NUOMONĘ TEIKIANČIAME KOMITETE

22

+

PPE

Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, Emil Radev, Axel Voss, Marion Walsmann, Javier Zarzalejos

S&D

Ibán García Del Blanco, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken, Lara Wolters

RENEW

Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara

ID

Gunnar Beck, Jean-Paul Garraud, Gilles Lebreton

ECR

Angel Dzhambazki, Raffaele Stancanelli

NI

Mislav Kolakušić

 

3

-

Verts/ALE

Heidi Hautala, Marie Toussaint

GUE/NGL

Manon Aubry

 

0

0

 

 

 

Sutartiniai ženklai:

+ : 

- : prieš

0 : susilaikė

 


INFORMACIJA APIE PRIĖMIMĄ ATSAKINGAME KOMITETE

Priėmimo data

29.6.2021

 

 

 

Galutinio balsavimo rezultatai

+:

–:

0:

36

24

6

Posėdyje per galutinį balsavimą dalyvavę nariai

Magdalena Adamowicz, Konstantinos Arvanitis, Malik Azmani, Katarina Barley, Pernando Barrena Arza, Pietro Bartolo, Nicolas Bay, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Patrick Breyer, Saskia Bricmont, Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Damien Carême, Caterina Chinnici, Marcel de Graaff, Anna Júlia Donáth, Lena Düpont, Cornelia Ernst, Laura Ferrara, Nicolaus Fest, Jean-Paul Garraud, Maria Grapini, Sylvie Guillaume, Andrzej Halicki, Evin Incir, Sophia in ‘t Veld, Patryk Jaki, Marina Kaljurand, Fabienne Keller, Peter Kofod, Łukasz Kohut, Moritz Körner, Alice Kuhnke, Jeroen Lenaers, Juan Fernando López Aguilar, Lukas Mandl, Roberta Metsola, Nadine Morano, Javier Moreno Sánchez, Maite Pagazaurtundúa, Nicola Procaccini, Emil Radev, Paulo Rangel, Terry Reintke, Diana Riba i Giner, Ralf Seekatz, Michal Šimečka, Birgit Sippel, Sara Skyttedal, Martin Sonneborn, Tineke Strik, Ramona Strugariu, Annalisa Tardino, Tomas Tobé, Dragoş Tudorache, Milan Uhrík, Tom Vandendriessche, Bettina Vollath, Elissavet Vozemberg-Vrionidi, Jadwiga Wiśniewska, Elena Yoncheva, Javier Zarzalejos

Posėdyje per galutinį balsavimą dalyvavę pavaduojantys nariai

Tanja Fajon, Miguel Urbán Crespo

 


 

GALUTINIS VARDINIS BALSAVIMAS ATSAKINGAME KOMITETE

36

+

NI

Laura Ferrara, Martin Sonneborn

RENEW

Malik Azmani, Anna Júlia Donáth, Sophia in ‘t Veld, Fabienne Keller, Moritz Körner, Maite Pagazaurtundúa, Michal Šimečka, Ramona Strugariu, Dragoş Tudorache

S&D

Katarina Barley, Pietro Bartolo, Caterina Chinnici, Tanja Fajon, Maria Grapini, Sylvie Guillaume, Evin Incir, Marina Kaljurand, Łukasz Kohut, Juan Fernando López Aguilar, Javier Moreno Sánchez, Birgit Sippel, Bettina Vollath, Elena Yoncheva

The Left

Konstantinos Arvanitis, Pernando Barrena Arza, Cornelia Ernst, Miguel Urbán Crespo

Verts/ALE

Patrick Breyer, Saskia Bricmont, Damien Carême, Alice Kuhnke, Terry Reintke, Diana Riba i Giner, Tineke Strik

24

-

ID

Nicolas Bay, Nicolaus Fest, Jean-Paul Garraud, Marcel de Graaff, Peter Kofod, Annalisa Tardino, Tom Vandendriessche

NI

Milan Uhrík

PPE

Magdalena Adamowicz, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Lena Düpont, Andrzej Halicki, Jeroen Lenaers, Lukas Mandl, Roberta Metsola, Nadine Morano, Paulo Rangel, Ralf Seekatz, Sara Skyttedal, Tomas Tobé, Elissavet Vozemberg-Vrionidi, Javier Zarzalejos

6

0

ECR

Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Patryk Jaki, Nicola Procaccini, Jadwiga Wiśniewska

PPE

Emil Radev

 

Sutartiniai ženklai:

+ : 

- : prieš

0 : susilaikė

Atnaujinta: 2021 m. rugsėjo 1 d.
Teisinė informacija - Privatumo politika