Indekss 
 Iepriekšējais 
 Nākošais 
 Pilns teksts 
Procedūra : 2020/2013(INI)
Dokumenta lietošanas cikls sēdē
Dokumenta lietošanas cikls : A9-0001/2021

Iesniegtie teksti :

A9-0001/2021

Debates :

Balsojumi :

Pieņemtie teksti :

P9_TA(2021)0009

Pieņemtie teksti
PDF 204kWORD 65k
Trešdiena, 2021. gada 20. janvāris - Brisele
Mākslīgais intelekts: jautājumi par starptautisko tiesību interpretāciju un piemērošanu, ciktāl tas skar Eiropas Savienības civilās un militārās izmantošanas jomu, un par valsts varu ārpus krimināltiesību darbības jomas
P9_TA(2021)0009A9-0001/2021

Eiropas Parlamenta 2021. gada 20. janvāra rezolūcija par mākslīgo intelektu: jautājumi par starptautisko tiesību interpretāciju un piemērošanu, ciktāl tas skar Eiropas Savienības civilās un militārās izmantošanas jomu, un par valsts varu ārpus krimināltiesību darbības jomas (2020/2013(INI))

Eiropas Parlaments,

–  ņemot vērā Līguma par Eiropas Savienību preambulu un tā 2., 3., 10., 19., 20., 21., 114.,167., 218., 225. un 227. pantu,

–  ņemot vērā Līguma par Eiropas Savienības darbību 20. un 227. pantā noteiktās tiesības iesniegt lūgumrakstu,

–  ņemot vērā Eiropas Savienības Pamattiesību hartu,

–  ņemot vērā Padomes 2000. gada 29. jūnija Direktīvu 2000/43/EK, ar ko ievieš vienādas attieksmes principu pret personām neatkarīgi no rasu vai etniskās piederības(1) (Rasu vienlīdzības direktīva),

–  ņemot vērā Padomes 2000. gada 27. novembra Direktīvu 2000/78/EK, ar ko nosaka kopēju sistēmu vienlīdzīgai attieksmei pret nodarbinātību un profesiju(2) (Direktīva par vienlīdzīgu attieksmi nodarbinātības jomā),

–  ņemot vērā Eiropas Parlamenta un Padomes 2016. gada 27. aprīļa Regulu (ES) 2016/679 par fizisku personu aizsardzību attiecībā uz personas datu apstrādi un šādu datu brīvu apriti un ar ko atceļ Direktīvu 95/46/EK (Vispārīgā datu aizsardzības regula)(3) (VDAR) un Eiropas Parlamenta un Padomes 2016. gada 27. aprīļa Direktīvu (ES) 2016/680 par fizisku personu aizsardzību attiecībā uz personas datu apstrādi, ko veic kompetentās iestādes, lai novērstu, izmeklētu, atklātu noziedzīgus nodarījumus vai sauktu pie atbildības par tiem vai izpildītu kriminālsodus, un par šādu datu brīvu apriti, ar ko atceļ Padomes Pamatlēmumu 2008/977/TI(4),

–  ņemot vērā Padomes 2018. gada 28. septembra Regulu (ES) 2018/1488 par Eiropas Augstas veiktspējas datošanas kopuzņēmuma izveidi(5),

–  ņemot vērā 2018. gada 6. jūnija priekšlikumu Eiropas Parlamenta un Padomes regulai, ar ko laikposmam no 2021. līdz 2027. gadam izveido Digitālās Eiropas programmu (COM(2018)0434),

–  ņemot vērā Parlamenta 2017. gada 16. februāra rezolūciju ar ieteikumiem Komisijai par Civiltiesību noteikumiem par robotiku(6),

–  ņemot vērā Parlamenta 2017. gada 1. jūnija rezolūciju par Eiropas rūpniecības digitalizāciju(7),

–  ņemot vērā Parlamenta 2018. gada 12. septembra rezolūciju par autonomo ieroču sistēmām(8),

–  ņemot vērā Parlamenta 2018. gada 11. septembra rezolūciju par valodu līdztiesību digitālajā laikmetā(9),

–  ņemot vērā Parlamenta 2019. gada 12. februāra rezolūciju par visaptverošu Eiropas rūpniecības politiku attiecībā uz mākslīgo intelektu un robotiku(10),

–  ņemot vērā Komisijas 2019. gada 11. decembra paziņojumu Eiropas Parlamentam, Padomei, Eiropas Ekonomikas un sociālo lietu komitejai un Reģionu komitejai "Eiropas zaļais kurss" (COM(2019)0640),

–  ņemot vērā Komisijas 2020. gada 19. februāra Balto grāmatu ar nosaukumu "Mākslīgais intelekts. Eiropiska pieeja — izcilība un uzticēšanās" (COM(2020)0065),

–  ņemot vērā Komisijas 2020. gada 19. februāra paziņojumu Eiropas Parlamentam, Padomei, Eiropas Ekonomikas un sociālo lietu komitejai un Reģionu komitejai "Eiropas Datu stratēģija" (COM(2020)0066),

–  ņemot vērā Komisijas 2020. gada 19. februāra paziņojumu Eiropas Parlamentam, Padomei, Eiropas Ekonomikas un sociālo lietu komitejai un Reģionu komitejai "Eiropas digitālās nākotnes veidošana" (COM(2020)0067),

–  ņemot vērā Komisijas izveidotās Mākslīgā intelekta augsta līmeņa ekspertu grupas izstrādāto 2019. gada 8. aprīļa ziņojumu "Ētikas vadlīnijas uzticamam MI",

–  ņemot vērā Eiropas Padomes Vispārējo konvenciju par nacionālo minoritāšu aizsardzību, Cilvēktiesību un pamatbrīvību aizsardzības konvencijas 12. protokolu un Eiropas reģionālo vai minoritāšu valodu hartu,

–  ņemot vērā Eiropas Ētikas hartu mākslīgā intelekta izmantošanai tiesu sistēmās un to vidē, ko 2018. gada decembrī pieņēma Eiropas Padomes darba grupa tieslietu kvalitātes jautājumos (CEPEJ-GT-QUAL),

–  ņemot vērā ESAO Padomes 2019. gada 22. maijā pieņemto ieteikumu par mākslīgo intelektu,

–  ņemot vērā Reglamenta 54. pantu,

–  ņemot vērā Ārlietu komitejas, Iekšējā tirgus un patērētāju aizsardzības komitejas, Transporta un tūrisma komitejas un Pilsoņu brīvību, tieslietu un iekšlietu komitejas atzinumus,

–  ņemot vērā Juridiskās komitejas ziņojumu (A9-0001/2021),

Ievads

A.  tā kā ļoti ātri tiek attīstīts mākslīgais intelekts, robotika un saistītās tehnoloģijas, kas tieši ietekmē visus mūsu sabiedrības aspektus, tostarp pamata sociālos un ekonomiskos principus un vērtības;

B.  tā kā mākslīgais intelekts rada revolūciju militārajā doktrīnā un aprīkojumā, būtiski mainoties veidam, kādā darbojas armijas, galvenokārt jaunu tehnoloģiju integrēšanas un izmantošanas, kā arī autonomu spēju dēļ;

C.  tā kā tā dēvētā mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādi un projektēšanu veic cilvēki un viņu veiktās izvēles nosaka iespējas tehnoloģijas potenciālu izmantot sabiedrības labā;

D.  tā kā kopējam ES satvaram ir jāaptver mākslīgā intelekta, robotikas un saistītu tehnoloģiju izstrāde, ieviešana un izmantošana un ir jānodrošina cilvēka cieņas un cilvēktiesību ievērošana, kā noteikts Eiropas Savienības Pamattiesību hartā;

E.  tā kā ES un tās dalībvalstīm ir īpašs pienākums nodrošināt, ka mākslīgais intelekts, robotika un saistītas tehnoloģijas — ko var izmantot pāri robežām — ir vērstas uz cilvēku, t. i., galvenokārt paredzētas izmantošanai cilvēces un kopējā labuma nolūkā, lai veicinātu iedzīvotāju labjutību un vispārējo interešu ievērošanu; tā kā ES būtu jāpalīdz dalībvalstīm to nodrošināt, jo īpaši tām, kuras ir sākušas apsvērt juridisku standartu iespējamu izstrādi vai iespējamas likumdošanas izmaiņas šajā jomā;

F.  tā kā Eiropas iedzīvotāji varētu gūt labumu no piemērotas, efektīvas, pārredzamas un saskanīgas regulatīvās pieejas ES līmenī, kurā uzņēmumiem ir noteikti pietiekami skaidri nosacījumi lietojumprogrammu izstrādei un savu uzņēmējdarbības modeļu plānošanai, vienlaikus nodrošinot, ka ES un tās dalībvalstis saglabā kontroli pār paredzēto regulējumu, lai tām nebūtu piespiedu kārtā jāpieņem citu noteiktie standarti;

G.  tā kā ētikas norādījumi, piemēram, Mākslīgā intelekta augsta līmeņa ekspertu grupas pieņemtie principi, ir uzskatāmi par labu sākumpunktu, bet ar tiem nepietiek, lai nodrošinātu, ka uzņēmumi rīkosies taisnīgi un garantēs efektīvu aizsardzību indivīdiem;

H.  tā kā šī īpašā atbildība nozīmē, piemēram, vajadzību noskaidrot jautājumus par starptautisko tiesību interpretāciju un piemērošanu saistībā ar ES aktīvu līdzdalību starptautiskajās sarunās, ciktāl šāda veida mākslīgā intelekta, robotikas un saistīto tehnoloģiju civila un militāra izmantošana skar ES un jautājumi par valsts varu šādu tehnoloģiju izmantošanā ir ārpus krimināltiesību piemērošanas jomas;

I.  tā kā ir būtiski svarīgi paredzēt piemērotu un visaptverošu tiesisko regulējumu attiecībā uz šādu tehnoloģiju ētiskajiem aspektiem, kā arī attiecībā uz saistībām, pārredzamību un pārskatatbildību (jo īpaši attiecībā uz augsta riska mākslīgo intelektu, robotiku un saistītajām tehnoloģijām); tā kā šādā regulējumā ir jāatspoguļo tas, ka Eiropas neatņemamās un universālās humānisma vērtības ir piemērojamas visai vērtības ķēdei mākslīgā intelekta izstrādē, īstenošanā un izmantošanā; tā kā šāds ētiskais satvars ir jāpiemēro mākslīgā intelekta izstrādei (tostarp pētniecībai un inovācijai), ieviešanai un izmantošanai, pilnībā ievērojot ES tiesību aktus un Eiropas Savienības Pamattiesību hartā noteiktās vērtības;

J.  tā kā šīs noskaidrošanas mērķis ir noteikt, cik lielā mērā starptautisko publisko un privāto tiesību noteikumi un ES tiesību akti ir piemēroti šādām tehnoloģijām, un izcelt problēmas un riskus, ko tās rada valsts varas iestādēm, lai attiecīgās problēmas un riskus varētu pienācīgi un proporcionāli pārvaldīt;

K.  tā kā Eiropas Komisija savā Baltajā grāmatā neskata mākslīgā intelekta izmantošanas militāros aspektus;

L.  tā kā, lai Eiropā šīs problēmas risinātu saskaņoti, ir jāpieņem kopēja definīcija attiecībā uz mākslīgo intelektu un jānodrošina Eiropas Savienības pamatvērtību, Pamattiesību hartas principu un starptautisko tiesību aktu cilvēktiesību jomā ievērošana;

M.  tā kā mākslīgais intelekts sniedz nepieredzētas iespējas uzlabot transporta nozares veiktspēju, risinot problēmas, ko rada augošais pieprasījums pēc ceļojumiem, novēršot drošuma un vides problēmas, turklāt vienlaikus padarot visus transporta veidus viedākus, efektīvākus un ērtākus;

N.  tā kā Eiropas spēju attīstīšanas nolūkā ir jārisina jautājums par mākslīgā intelekta izmantošanu aizsardzības jomā,

Mākslīgā intelekta definīcija

1.  uzskata, ka ir jāpieņem kopējs Eiropas tiesiskais regulējums ar saskaņotām definīcijām un kopējiem ētikas principiem, tostarp attiecībā uz mākslīgā intelekta izmantošanu militāros nolūkos; tāpēc aicina Komisiju pieņemt šādas definīcijas:

   "mākslīgā intelekta sistēma" ir tāda sistēma, kuras pamatā ir programmatūra vai kura ir iestrādāta ierīcēs un kuras uzvedība imitē intelektu, cita starpā, vācot un apstrādājot datus, analizējot un interpretējot apkārtējo vidi un veicot darbības ar zināmu autonomijas pakāpi, lai sasniegtu konkrētus mērķus;
   "autonoma" ir tāda mākslīgā intelekta sistēma, kas interpretē konkrētus ievaddatus un izmanto iepriekš noteiktas norādes, bet nav ierobežota ar šādām norādēm, lai gan tās uzvedību ierobežo tai noteiktais mērķis, uz kuru tā tiecas, un citas būtiskas izstrādātāja izvēles attiecībā uz sistēmas uzbūvi;

2.  vērš uzmanību uz to, ka Eiropas Savienības un tās dalībvalstu drošības un aizsardzības rīcībpolitikas pamatā ir Eiropas Pamattiesību hartā un Apvienoto Nāciju Organizācijas Statūtos nostiprinātie principi — Statūtos visām valstīm ir izteikta prasība to savstarpējās attiecībās atturēties no spēka pielietošanas draudiem vai tā faktiskas pielietošanas — un starptautiskās tiesības, kā arī cilvēktiesību un cilvēka cieņas ievērošanas principi, un vienota izpratne par vispārējām vērtībām — cilvēka neaizskaramām un neatņemamām tiesībām, brīvību, demokrātiju, vienlīdzību un tiesiskumu; uzsver, ka minētās vispārējās vērtības ir jāievēro visās ar aizsardzību saistītajās ES darbībās, vienlaikus veicinot mieru, stabilitāti, drošību un progresu Eiropā un pasaulē;

Starptautiskās publiskās tiesības un mākslīgā intelekta izmantošana militārām vajadzībām

3.  uzskata, ka mākslīgā intelekta izmantošana militāros un civilos apstākļos ir jāpakļauj lietderīgai cilvēku veiktai kontrolei, lai cilvēkam vienmēr būtu iespēja to koriģēt, apturēt vai atspējot neplānotas uzvedības, nejaušas iejaukšanās un kiberuzbrukumu gadījumā vai tad, ja trešās puses ietekmē mākslīgā intelekta tehnoloģiju darbību vai iegūst šādas tehnoloģijas;

4.  uzskata, ka starptautisko publisko tiesību, jo īpaši humanitāro tiesību, kas ir nepārprotami piemērojamas visām ieroču sistēmām un to operatoriem, ievērošana ir viena no pamatprasībām, kas dalībvalstīm ir jāievēro, jo īpaši, kad tās aizsargā civiliedzīvotājus vai veic piesardzības pasākumus uzbrukuma, piemēram, militāras agresijas vai kiberkara, gadījumā;

5.  uzsver, ka mākslīgā intelekta tehnoloģijas var arī būt nozīmīgas neatbilstīgā vai netradicionālā karadarbībā; ierosina mākslīgā intelekta pētniecībai, izstrādei un izmantošanai šādos gadījumos piemērot tādus pašus nosacījumus kā izmantošanai parastajos konfliktos;

6.  uzsver, ka mākslīgā intelekta izmantošana sniedz iespēju stiprināt Eiropas Savienības un tās iedzīvotāju drošību un ka ir būtiski svarīgi, lai ES pieņemtu integrētu pieeju turpmākajās starptautiskajās debatēs par šo tēmu;

7.  aicina mākslīgā intelekta pētniecības aprindas integrēt šo principu visās minētajās mākslīgā intelekta sistēmās, kuras ir paredzēts izmantot militāros nolūkos; uzskata, ka neviena iestāde nedrīkst noteikt nekādus izņēmumus šiem principiem vai sertificēt šādas sistēmas;

8.  atkārtoti pauž, ka autonomai lēmumu pieņemšanai nebūtu jāatbrīvo cilvēki no atbildības un ka galīgā atbildība par lēmumu pieņemšanas procesiem vienmēr ir jāuzņemas cilvēkiem, lai varētu noteikt par lēmumu atbildīgo cilvēku;

9.  uzsver, ka, izmantojot mākslīgo intelektu militāros apstākļos, dalībvalstīm, konfliktā iesaistītajām pusēm un indivīdiem vienmēr ir jāievēro saistības, kas tām ir noteiktas piemērojamajos starptautiskajos tiesību aktos, un jāuzņemas atbildība par darbībām, kas izriet no šādu sistēmu izmantošanas; uzsver, ka par ka prognozēto, nejaušo un nevēlamo ietekmi un sekām, ko rada mākslīgā intelekta sistēmas, atbildīgām vienmēr ir jābūt dalībvalstīm, konfliktā iesaistītajām pusēm un indivīdiem;

10.  atzinīgi vērtē iespējas izmantot mākslīgā intelekta sistēmas apmācībām un uzdevumiem, kuru potenciālu nevajadzētu novērtēt pārāk zemu, jo īpaši ņemot vērā, ka ES veic uzdevumus ar duālu civilu un militāru raksturu;

11.  uzsver, ka MI iespējotu sistēmu posmu plānošanā, izstrādē, testēšanā, ieviešanā un izmantošanā vienmēr ir pienācīgi jāņem vērā iespējamie riski, īpaši attiecībā uz nejaušiem civiliedzīvotāju upuriem un savainojumiem, nejaušu dzīvības zaudēšanu un kaitējumu civilajai infrastruktūrai, kā arī riski saistībā ar autonomu mākslīgā intelekta tehnoloģiju neplānotu iedarbināšanu, manipulāciju, izplatīšanu un kiberuzbrukumiem vai trešo pušu iejaukšanos šādu tehnoloģiju darbībā vai to iegūšanu;

12.  atgādina, ka saskaņā ar Starptautiskās Tiesas 1996. gada 8. jūlija konsultatīvo atzinumu uz izcelsmes principu nevar atsaukties, lai pamatotu jebkādas atkāpes atbilstībā starptautisko humanitāro tiesību pašreizējiem standartiem;

13.  uzskata, ka papildus operāciju atbalstīšanai mākslīgais intelekts arī sniegs ieguvumus bruņoto spēku apkalpes personālam, veicot veselības datu masveida apstrādi un paplašinot veselības monitorēšanu, konstatēs riska faktorus saistībā ar vidi un darba apstākļiem un ierosinās piemērotus aizsardzības pasākumus, lai ierobežotu ietekmi un apkalpes darbinieku veselību;

14.  atkārtoti pauž, ka regulatīvais darbs ir jāpapildina ar lietderīgām sertifikācijas un uzraudzības shēmām, kā arī ar skaidriem revidējamības, paskaidrojamības, pārskatatbildības un izsekojamības mehānismiem, lai tiesiskais regulējums nekļūtu par novecojušu tehnoloģiskās attīstības dēļ;

15.  uzsver, ka hipersavienotā pasaulē ir svarīga Eiropas Savienības iesaistīšanās starptautiska tiesiskā regulējuma izveidē attiecībā uz mākslīgā intelekta izmantošanu; mudina ES uzņemties vadību un kopā ar ANO un starptautisko kopienu aktīvi veicināt šādu globālo regulējumu, ar ko nosaka mākslīgā intelekta izmantošanu militāros un citos nolūkos, nodrošinot, ka šāda izmantošana nekādā mērā nepārkāpj starptautisko tiesību un starptautisko humanitāro tiesību stingrās robežas, jo īpaši 1949. gada 12. augusta Ženēvas konvencijas; uzsver, ka šāds regulējums nekad nedrīkst pārkāpt vai atļaut pārkāpt sabiedriskās apziņas un cilvēciskuma principus, kā noteikts Martens klauzulā, un tam ir jāatbilst drošības noteikumiem un patērētāju aizsardzības prasībām; mudina ES un dalībvalstis noteikt spēcīgas uzraudzības un novērtēšanas sistēmas mākslīgā intelekta tehnoloģiju izstrādei, jo īpaši tādu tehnoloģiju izstrādei, ko autoritāras valstis izmanto militāros nolūkos;

16.  uzsver, ka robotika ne tikai ļaus militārajam personālam palikt attālumā, bet arī sniegs labāku pašaizsardzību, piemēram, operācijās, kas notiek piesārņotā vidē, ugunsgrēku dzēšanā, atmīnēšanā uz zemes vai jūrā, kā arī aizsardzībā pret dronu uzlidojumiem;

17.  uzsver, ka mākslīgā intelekta izstrādē, ieviešanā, izmantošanā un pārvaldībā ir jāievēro pamattiesības, vērtības un pamatbrīvības, kas noteiktas ES līgumos, un aicina dalībvalstis atturēties no augsta riska mākslīgā intelekta sistēmu ieviešanas, kas apdraudētu pamattiesības; pieņem zināšanai, ka ir publicēta Komisijas Baltā grāmata par mākslīgo intelektu, un mudina veikt padziļinātus pētījumus par iespējamo risku pamattiesībām, ko radītu valstu iestāžu un Eiropas Savienības aģentūru, struktūru un iestāžu veikta mākslīgā intelekta izmantošana;

18.  aicina Komisiju veicināt pētījumus un diskusijas par iespējām izmantot mākslīgo intelektu katastrofu seku likvidēšanā, krīžu novēršanā un miera uzturēšanā;

19.  atzinīgi vērtē ANO valdības ekspertu grupas (UNGGE) izveidi jautājumos, kas attiecas uz valsts atbildīgas rīcības kibervidē pastiprināšanu saistībā ar starptautisko drošību, un aicina ES pilnībā piedalīties tās darbā;

20.  aicina Komisijas priekšsēdētājas vietnieku / Augsto pārstāvi ārlietās un drošības politikas jautājumos (AP/PV) radīt globālu sarunu priekšnoteikumus nolūkā izveidot mākslīgā intelekta bruņojuma kontroles kārtību un atjaunināt visus spēkā esošos līgumu instrumentus, kas ir veltīti bruņojuma kontrolei, atbruņošanai un neizplatīšanai, lai ņemtu vērā karadarbībā izmantotās MI iespējotās sistēmas; prasa, lai Padome kopējā nostājā, ar ko nosaka kopīgus noteikumus, kuri reglamentē militāru tehnoloģiju un aprīkojuma eksporta kontroli, pilnībā ņemtu vērā un aptvertu MI iespējotās ieroču sistēmas;

21.  atkārtoti izsakās, ka, izmantojot mākslīgo intelektu, vienmēr ir jāievēro 1998. gada 17. jūlija Romas konvencijā nostiprinātie principi, ar kuriem paredz genocīda, noziegumu pret cilvēci un kara noziegumu aizliegumu;

22.  norāda uz nepārprotamiem riskiem cilvēku lēmumos, kuru pieņemšanā viņi paļautos vienīgi uz mašīnu ģenerētiem datiem, profiliem un ieteikumiem; norāda, ka mākslīgā intelekta sistēmu vispārējā koncepcijā būtu jāiekļauj arī pamatnostādnes par cilvēku īstenotu kontroli un pārraudzību; aicina ieviest pārredzamības un izskaidrojamības prasību attiecībā uz mākslīgā intelekta lietojumiem un cilvēka iejaukšanās nepieciešamību, kā arī ieviest citus pasākumus, piemēram, neatkarīgas revīzijas un īpašus stresa testus, lai veicinātu un nodrošinātu atbilstību; uzsver, ka šādas revīzijas periodiski būtu jāveic neatkarīgai iestādei ar nolūku uzraudzīt augsta riska mākslīgā intelekta lietojumus, ko izmanto valsts iestādes vai militāras struktūras;

23.  uzsver, cik svarīgi ir pārbaudīt, kā augsta riska mākslīgā intelekta tehnoloģijas pieņem lēmumu; atgādina, ka ir jāievēro nediskriminēšanas un proporcionalitātes princips un ka ir jānoskaidro cēloņsakarības, civiltiesiskās atbildības un kriminālatbildības jautājumi, kā arī pārredzamība, pārskatatbildība un izskaidrojamība, lai noteiktu, cik lielā mērā valsts ne tikai kā starptautisko publisko tiesību subjekts, bet arī patstāvīgi ir tiesīga rīkoties ar tādu sistēmu starpniecību, kuru pamatā ir mākslīgais intelekts un kurām ir zināma autonomija, nepārkāpjot no starptautiskajām tiesībām izrietošās saistības, piemēram, pienācīgu procesu;

24.  uzstāj, ka ir svarīgi veikt ieguldījumus cilvēku prasmēs, tostarp digitālajās prasmēs, lai zinātnes progresu, kas rada mākslīgā intelekta virzītus risinājumus, pielāgotu indivīdiem, kuri strādā reglamentētās profesijās, tostarp veic darbības, kuras ir saistītas ar valsts varas kompetenču īstenošanu, piemēram, tiesvedību; aicina dalībvalstis un Komisiju to pienācīgi ņemt vērā Direktīvas 2005/36/EK(11) īstenošanā;

25.  uzsver, ka mākslīgā intelekta sistēmām vienmēr ir jāatbilst atbildības, taisnīguma, pārvaldāmības, piesardzības, pārskatatbildības, attiecināmības, prognozējamības, izsekojamības, uzticamības, ticamības, pārredzamības, izskaidrojamības, spējas konstatēt iespējamas izmaiņas apstākļos un darbības vidē, kaujinieku nošķiršanas no citām personām, kā arī proporcionalitātes principiem; uzsver, ka saskaņā ar proporcionalitātes principu militāras darbības likumība ir atkarīga no mērķa un izmantoto līdzekļu samērīguma un ka proporcionalitātes novērtējums vienmēr ir jāveic cilvēkam;

26.  uzsver, ka, lai nodrošinātu, ka starptautisko humanitāro tiesību principi, jo īpaši nošķiršana, proporcionalitāte un piesardzība uzbrukuma gadījumā, tiek pilnībā piemēroti visā kontroles un komandķēdē, drošības un aizsardzības jomā izmantojot MI iespējotās sistēmas, ir jāpanāk, lai attiecīgais operators (cilvēks) pilnībā izprastu situāciju, lai MI iespējotās sistēmas būtu paredzamas, nekļūdīgas un noturīgas un lai MI iespējotās sistēmas un operatori (cilvēki) spētu atklāt potenciālas apstākļu un darbības vides izmaiņas, kā arī, lai tie varētu iejaukties uzbrukumā vai pārtraukt to; uzsver, ka MI iespējotām sistēmām ir jāļauj atbildīgajām personām īstenot jēgpilnu kontroli, uzņemties pilnīgu atbildību par sistēmām un būt saucamām pie atbildības par visiem to izmantošanas gadījumiem; aicina Komisiju veicināt dialogu, ciešāku sadarbību un sinerģiju starp dalībvalstīm, pētniekiem, akadēmiskajām aprindām, pilsoniskās sabiedrības dalībniekiem un privāto sektoru, jo īpaši vadošajiem uzņēmumiem, un militārās jomas pārstāvjiem, lai nodrošinātu, ka politikas veidošanas procesos tiek iekļauti arī ar aizsardzību saistīti mākslīgā intelekta noteikumi;

27.  uzsver, ka Parlaments ir aicinājis sagatavot un nekavējoties pieņemt kopēju nostāju par autonomu letālu ieroču sistēmu, novēršot autonomu letālu ieroču sistēmu, kas spēj izdarīt uzbrukumu bez nozīmīgas cilvēka veiktas kontroles, izstrādi, ražošanu un izmantošanu, kā arī sākt efektīvas sarunas par to aizliegšanu; šajā saistībā atgādina par Parlamenta 2018. gada 12. septembra rezolūciju par autonomo ieroču sistēmām; atgādina, ka apzīmējums "autonoma letālu ieroču sistēma" attiecas uz ieroču sistēmām, kurās nav paredzēta nozīmīga cilvēku veikta kontrole pār kritiski svarīgajām konkrētu mērķu izraudzīšanās un uzbrukšanas funkcijām; uzsver, ka lēmums izvēlēties mērķi un radīt letālas sekas, izmantojot zināmā mērā autonomas ieroču sistēmas, vienmēr ir jāpieņem operatoriem cilvēkiem, kuri veic nozīmīgu kontroli un uzraudzību un kuriem ir nepieciešamā spriestspēja atbilstoši proporcionalitātes un nepieciešamības principiem; uzsver, ka MI iespējotām sistēmām šajā jomā nekad nedrīkst ļaut pieņemt lēmumus cilvēku vietā;

28.  konstatē, ka autonomu ieroču sistēmas kā īpaša mākslīgā intelekta kategorija militārajā jomā ir jāapspriež un par to būtu jāvienojas starptautiskā līmenī, jo īpaši ANO Parasto ieroču konvencijas forumā; vērš uzmanību uz notiekošajām starptautiskajām debatēm par autonomu letālu ieroču sistēmu, lai regulētu jaunās militārās tehnoloģijas, par kurām līdz šim nav panākta vienošanās; norāda, ka ES tikai nesen piekrita apspriest mākslīgā intelekta attīstības un digitalizācijas ietekmi aizsardzības nozarē; uzskata, ka ES var būt izšķiroša nozīme, palīdzot dalībvalstīm saskaņot to pieeju militārajam mākslīgajam intelektam, lai uzņemtos vadošo lomu starptautiskajās diskusijās;

29.  uzsver, ka ir vajadzīga ES mēroga stratēģija pret autonomu letālu ieroču sistēmu un jāaizliedz tā dēvētie "roboti-slepkavas";

30.  uzsver, ka militāros apstākļos izmantotajam mākslīgajam intelektam ir jāatbilst minimālo prasību kopumam, proti, tam būtu jāspēj atšķirt kaujinieki no nekombatantiem, kā arī kaujaslaukā esoši kaujinieki, jāatpazīst, kad kaujinieks padodas vai nav iesaistīts karadarbībā, tas nedrīkst radīt neprognozējamas sekas, izraisīt nevajadzīgas cilvēku ciešanas vai būt neobjektīvs vai apmācīts, izmantojot tīši nepilnīgus datus, un tam ir jāatbilst starptautisko humanitāro tiesību, spēka izmantošanas proporcionalitātes un piesardzības pirms iejaukšanās principiem;

31.  uzskata, ka autonomas letālu ieroču sistēmas izmantošana rada būtiskus ētiskus un juridiskus jautājumus par cilvēku spēju šādas sistēmas kontrolēt un ka mākslīgā intelekta tehnoloģijas nedrīkst pieņemt autonomus lēmumus, kuros iesaistīti nošķiršanas, proporcionalitātes un piesardzības principi;

32.  aicina starptautiskā līmenī veikt pārredzamus un risku mazinošus pasākumus attiecībā uz militārā mākslīgā intelekta izstrādi un izmantošanu, jo īpaši saistībā ar teritoriālās integritātes, neiejaukšanās un spēka lietošanas principiem; uzsver, ka, Eiropas mākslīgā intelekta satvarā risinot juridiskus un ētiskus jautājumus, ir svarīgi ņemt vērā militāros aspektus; atgādina par savu nostāju attiecībā uz autonomu letālu ieroču sistēmu izstrādes, ražošanas un izmantošanas aizliegumu; pauž nožēlu, ka pasaules mērogā nav īpašu vienošanos par šādu ieroču izmantošanu;

33.  atzīst, ka mūsdienu bruņošanās sacensība, ko rada lielākās militārās nacionālās valstis, kuras izstrādā autonomas letālu ieroču sistēmas, apsteidz progresu kopēju noteikumu un tiesisko regulējumu izstrādē, faktiskā vispārējā piemērošanā un izpildē, jo informācija par šo sistēmu izstrādi un izmantošanu ir konfidenciāla un nacionālajām valstīm pēc to būtības ir interese izveidot ātrākās un efektīvākās uzbrukuma spējas neatkarīgi no pašreizējā un iespējamā nākotnes tiesiskā regulējuma vai principiem;

34.  uzskata, ka autonomas letālu ieroču sistēmas būtu jāizmanto tikai gadījumos, kad visas citas iespējas ir izsmeltas, un ka tās ir likumīgas tikai tad, ja tiek pakļautas stingrai cilvēku veiktai kontrolei, cilvēkam jebkurā laikā spējot pārņemt vadību, jo lietderīga cilvēku iejaukšanās un uzraudzība ir būtiski svarīgas letālu lēmumu pieņemšanas procesā un cilvēkiem vienmēr ir jāuzņemas atbildība lēmumu pieņemšanā par dzīvību vai nāvi; uzskata, ka sistēmas bez nekādas cilvēku veiktas kontroles ("cilvēks nav iesaistīts") un uzraudzības ir jāaizliedz bez izņēmumiem un jebkādā situācijā;

35.  aicina AP/PV, dalībvalstis un Eiropadomi steidzami izstrādāt un pieņemt kopēju nostāju autonomu ieroču sistēmu jautājumā, saskaņā ar kuru cilvēki īstenotu apzinātu kontroli pār ieroču sistēmu svarīgākajām funkcijām, tostarp to izmantošanas laikā, lai attiecīgajos forumos izteiktos vienbalsīgi un attiecīgi rīkotos; šajā saistībā aicina AP/PV, dalībvalstis un Padomi dalīties labākajās praksēs un apkopot ekspertu, akadēmiķu un pilsoniskās sabiedrības ieguldījumu saskaņā ar 2018. gada 12. septembra nostāju par autonomām ieroču sistēmām, kurā paziņots, ka uzbrukumi vienmēr jāveic ar cilvēku būtisku iesaistīšanos;

36.  mudina visas valstis novērtēt to, vai un kā autonomas militāras ierīces ir veicinājušās minēto valstu drošību un ko to drošībai MI iespējotas ieroču sistēmas varētu sniegt, jo īpaši, ja runa ir par šādu tehnoloģiju potenciālu atbalstīt un stiprināt cilvēku īstenotu lēmumu pieņemšanu atbilstoši starptautiskajām humanitārajām tiesībām un to principiem; atgādina, ka jebkura autonoma letālu ieroču sistēma vai ierocis ar augstu autonomijas pakāpi var nedarboties pareizi nepienācīgas programmēšanas dēļ vai tad, ja ienaidnieka valsts vai naidīgas nevalstiskas struktūras veic kiberuzbrukumu;

37.  uzsver, ka autonomas letālu ieroču sistēmas ir jāizmanto tikai skaidri noteiktos gadījumos un saskaņā ar atļauju piešķiršanas procedūrām, kurām ir jābūt iepriekš sīki izklāstītām dokumentos, kurus attiecīgā valsts — neatkarīgi no tā, vai tā ir vai nav Ziemeļatlantijas līguma organizācijas locekle, — dara pieejamus sabiedrībai vai vismaz savas valsts parlamentam;

38.  uzskata, ka ir jānodrošina autonomu letālu ieroču sistēmu atbilstība 1980. gada 10. oktobra Parasto ieroču konvencijas (CCW) normām, tostarp jāievēro tādu ieroču aizliegums, kurus var uzskatīt par "pārlieku traumatīviem";

39.  lai novērstu to nekontrolētu izplatīšanu, ierosina autonomas letālu ieroču sistēmas iekļaut to ieroču sarakstā, uz kuriem attiecas 2013. gada 2. aprīļa Ieroču tirdzniecības līguma normas un kuri ir uzskaitīti minētā līguma 2. pantā;

40.  lai izvairītos no cilvēka un robota sajaukšanas, pieprasa aizliegt autonomu letālu ieroču sistēmu antropomorfizāciju;

41.  atzinīgi vērtē Padomes un Parlamenta vienošanos no Eiropas Aizsardzības fonda (EAF) finansētajām darbībām izslēgt autonomas letālu ieroču sistēmas, kurās nav paredzēta iespēja cilvēkam būtiski kontrolēt atlases un darbības uzsākšanas lēmumus uzbrukumu veikšanā; atgādina par savu nostāju, ka autonomu letālu ieroču sistēmu izmantošana, izstrāde un ražošana bez nozīmīgas cilvēka veiktas kontroles nav tiesīga saņemt EAF finansējumu;

42.  aicina Komisiju atbalstīt mākslīgā intelekta pētniecību, izstrādi, ieviešanu un izmantošanu miera saglabāšanai un konfliktu novēršanai;

43.  norāda, ka globālajā mākslīgā intelekta ekosistēmā dominē ASV un Ķīnas digitālie milži, kuri pilnveido iekšzemes spējas un iegādājas daudzus daudzsološus uzņēmumus; tāpēc stingri uzskata, ka, lai neatpaliktu mākslīgā intelekta tehnoloģiju jomā, ES ir jāvirzās uz labāku līdzsvaru starp fundamentālajiem pētījumiem un rūpnieciskajiem pielietojumiem, vienlaikus izstrādājot salīdzinošas stratēģiskās priekšrocības, attīstot savu potenciālu un resursus;

44.  uzsver, ka roboti, ciktāl tie atbilst Direktīvā 2006/42/EK(12) noteiktajai mašīnu definīcijai, ir jāprojektē un jāmontē saskaņā ar tajā noteiktajiem standartiem un drošības prasībām;

45.  atgādina, ka ES vēlas kļūt par pasaules mēroga dalībnieku miera veicināšanā, un aicina paplašināt tās lomu pasaules atbruņošanās un ieroču neizplatīšanas centienos, turklāt tās darbībās un politikā censties uzturēt starptautisko mieru un drošību, nodrošinot starptautisko humanitāro tiesību un cilvēktiesību ievērošanu un civiliedzīvotāju un civilās infrastruktūras aizsardzību;

46.  uzsver vajadzību izskatīt mākslīgā intelekta potenciālo ietekmi kā stratēģisku faktoru ES kopējai drošības un aizsardzības politikai (KDAP), jo īpaši militārās un civilās misijās un operācijās un ES spēju pilnveidē;

47.  atgādina, ka arī mūsu sabiedrotie valstu, NATO un ES sistēmās veic mākslīgā intelekta integrēšanu savās militārajās sistēmās; uzskata, ka sadarbspēja ar mūsu sabiedrotajiem ir jāsaglabā, izmantojot kopējus standartus, kas ir būtiski svarīgi, lai veiktu darbības koalīcijā; atgādina, ka citādā ziņā sadarbībai mākslīgā intelekta jomā būtu jānotiek Eiropas sistēmas ietvaros, kas ir vienīgā attiecīgā sistēma patiesai spēcīgu sinerģiju radīšanai, kā ierosināts ES mākslīgā intelekta stratēģijā;

48.  uzskata, ka ES ir rūpīgi jāpārrauga un jāapsver mākslīgā intelekta progresa ietekme aizsardzības un karadarbības jomā, tostarp potenciāli destabilizējoša attīstība un ieviešana, un jāvada ētiskā pētniecība un izstrāde, nodrošinot personas datu integritāti un individuālu piekļuvi un kontroli, kā arī ņemot vērā ekonomikas un humanitāros jautājumus;

49.  atgādina par Parlamenta 2018. gada 12. septembra nostāju autonomu ieroču sistēmu jautājumā, saskaņā ar kuru militāros triecienus bez cilvēku apzinātas līdzdalības veikt nedrīkst; aicina AP/PV, dalībvalstis un Eiropadomi pieņemt kopēju nostāju autonomu ieroču sistēmu jautājumā, saskaņā ar kuru cilvēki īstenotu apzinātu kontroli pār ieroču sistēmu svarīgākajām funkcijām, tostarp to izmantošanas laikā; atkārtoti pauž atbalstu Parasto ieroču konvencijas dalībvalstu valdības ekspertu grupas darbam autonomu letālu ieroču sistēmu jomā, kura joprojām ir uzskatāma par būtisku starptautisku forumu, kurā notiek diskusijas un sarunas par autonomu ieroču sistēmu radītiem tiesiskiem izaicinājumiem; aicina paātrināt visus pašreizējos daudzpusējos centienus, lai normatīvi un reglamentējoši noteikumi neatpaliktu no tehnoloģiju attīstības un jaunām karadarbības metodēm; aicina AP/PV saistībā ar patlaban notiekošajām diskusijām par starptautisku regulējumu attiecībā uz autonomām letālu ieroču sistēmām, kas būtu jāpieņem valstīm, kuras ir Parasto ieroču konvencijas (CCW) dalībvalstis, turpināt dalību un bez liekas vilcināšanās piedalīties tāda jauna globāla regulējuma un saistoša tiesību akta izstrādē, kurā galvenā vērība būtu pievērsta autonomu letālu ieroču sistēmu jomā topošu tehnoloģiju definīcijām, koncepcijām un raksturlielumiem, ētiskajiem un juridiskajiem cilvēku veiktas kontroles jautājumiem, jo īpaši attiecībā uz tādām svarīgākajām funkcijām kā mērķa izvēle un konfrontācija ar to, cilvēka atbildības un saukšanas pie atbildības pastāvīga nodrošināšana un cilvēka un iekārtas nepieciešamā mijiedarbības līmeņa īstenošana, tostarp koncepcijas par cilvēku kontroli un cilvēku spriestspēju īstenošana; aicina šajos centienos nodrošināt atbilstību starptautiskajām humanitārajām tiesībām un cilvēktiesībām dažādos MI iespējotu ieroču ekspluatācijas posmos, lai vienotos par konkrētiem ieteikumiem attiecībā uz tāda normatīvā regulējuma aspektu precizēšanu, apsvēršanu un izstrādi, ar kuru reglamentētu topošās tehnoloģijas autonomu letālu ieroču sistēmu jomā;

50.  uzskata, ka efektīvs mehānisms autonomu letālu ieroču sistēmu un jebkādu turpmāku MI iespējotu uzbrukuma tehnoloģiju neizplatīšanas noteikumu izpildei ir ārkārtīgi svarīgs globālajai drošībai;

Valsts vara: piemēri civilajās jomās, tostarp veselības un tieslietu jomās

51.  uzskata, ka dalībvalstīm ir efektīvi jārīkojas, lai samazinātu savu paļaušanos uz ārējiem datiem, neradot būtiskus kropļojumus tirgū, nodrošinātu, ka ietekmīgām privātām grupām piederošas īpaši attīstītas mākslīgā intelekta tehnoloģijas neapdraud valsts varu un neļauj to pārņemt privātām struktūrām, jo īpaši gadījumos, kad šādas privātas grupas pieder trešai valstij ārpus Eiropas Savienības;

52.  uzsver, ka mākslīgā intelekta sistēmu izmantošana publiskā sektora iestāžu lēmumu pieņemšanas procesā var izraisīt neobjektīvus lēmumus, kas nelabvēlīgi ietekmē iedzīvotājus, un tāpēc tā būtu jāpakļauj stingriem kontroles kritērijiem, cita starpā attiecībā uz to drošību, pārredzamību, pārskatatbildību, nediskriminēšanu, sociālo atbildību un atbildību par vidi; mudina dalībvalstis izvērtēt riskus saistībā ar mākslīgā intelekta veicinātiem lēmumiem, kas saistīti ar valsts varas īstenošanu, un paredzēt aizsardzības pasākumus, piemēram, nozīmīgu cilvēka veiktu uzraudzību, pārredzamības prasības un iespēju šādus lēmumus apstrīdēt;

53.  mudina dalībvalstis pirms tādu darbību automatizācijas, kas ir saistītas ar valsts varas īstenošanu, piemēram, tieslietu pārvaldību, novērtēt uz mākslīgo intelektu balstīto tehnoloģiju radīto risku; aicina dalībvalstis apsvērt nepieciešamību nodrošināt aizsardzības pasākumus, piemēram, uzraudzību, ko veiktu kvalificēts speciālists, un stingrus noteikumus par profesionālo ētiku;

54.  uzsver, ka ir svarīgi rīkoties Eiropas līmenī, lai labāk veicinātu tik vajadzīgās investīcijas, datu infrastruktūru, pētniecību, tostarp pētniecību par mākslīgā intelekta izmantošanu publiskā sektora iestādēs, un kopēju ētisko satvaru;

55.  uzsver, ka Eiropas Savienībai ir jātiecas uz stratēģisku noturību, lai tā vairs nekad neizrādītos nesagatavota krīzes situācijai, un uzsver, ka tas ir ļoti būtiski, jo īpaši tad, ja runa ir par mākslīgo intelektu un tā militāro pielietojumu; īpaši norāda, ka būtu jāpārskata to militāro mākslīgā intelekta sistēmu piegādes ķēžu parametri, kuras var izraisīt tehnoloģisku atkarību, un ka šāda atkarība būtu pakāpeniski jānovērš; prasa palielināt ieguldījumus mākslīgajā intelektā Eiropas aizsardzībai un tās pamatā esošajā kritiski svarīgajā infrastruktūrā;

56.  aicina Komisiju novērtēt ietekmi, kāda būtu moratorija noteikšanai attiecībā uz sejas atpazīšanas sistēmu izmantošanu un atkarībā no šāda novērtējuma rezultātiem apsvērt moratoriju gan attiecībā uz to, kā publiskā sektora iestādes šīs sistēmas izmanto sabiedriskās vietās un telpās, kas paredzētas izglītībai un veselības aprūpei, gan attiecībā uz sejas atpazīšanas sistēmu izmantošanu, ko veic tiesībaizsardzības iestādes daļēji sabiedriskās vietās, piemēram, lidostās, un noteikt šo moratoriju līdz brīdim, kamēr tehniskie standarti ir uzskatāmi par pilnībā saderīgiem ar pamattiesībām, iegūtie rezultāti ir objektīvi un nediskriminējoši un ir ieviesti stingri drošības pasākumi pret ļaunprātīgu izmantošanu, nodrošinot, ka tiek garantēta šādu tehnoloģiju izmantošanas nepieciešamība un proporcionalitāte;

57.  saistībā ar mākslīgo intelektu uzsver kiberdrošības nozīmi, turklāt gan uzbrukuma, gan aizsardzības scenārijos; šajā sakarībā norāda, cik svarīga ir starptautiskā sadarbība un publiska informācijas izplatīšana un apmaiņa par IT drošības vājajām vietām un to novēršanas iespējām; aicina īstenot starptautisku sadarbību kiberdrošības jomā, lai tādējādi efektīvi izmantotu un ieviestu mākslīgo intelektu un nodrošinātu aizsardzību pret mākslīgā intelekta ļaunprātīgu izmantošanu un kiberuzbrukumiem; turklāt norāda uz IT sistēmu un mākslīgā intelekta divējādas izmantošanas iespējām (t. i., izmantošanu civiliem un militāriem mērķiem) un aicina to efektīvi reglamentēt;

58.  uzskata, ka dalībvalstīm būtu jāveicina mākslīgā intelekta tehnoloģijas, kas darbojas cilvēku labā, un ka personas, uz kurām attiecas kāds lēmums, ko publiskā sektora struktūras pieņēmušas, pamatojoties uz mākslīgā intelekta sistēmas sniegtu informāciju, par to ir jāinformē, tām nekavējoties ir jāsaņem iepriekšējā punktā minētā informācija, kā arī iespēja attiecīgo lēmumu apstrīdēt un izvēlēties šādu apelāciju izskatīt bez mākslīgā intelekta sistēmas iejaukšanās; aicina dalībvalstis apsvērt nepieciešamību nodrošināt Direktīvā (ES) 2018/958(13) paredzētos aizsardzības pasākumus, piemēram, uzraudzību, ko veiktu kvalificēts speciālists, un noteikumus par profesionālo ētiku;

59.  uzsver, ka prognozes, kuru pamatā ir datu koplietošana, piekļuve tiem un to izmantošana, ir jāreglamentē saskaņā ar kvalitātes, integritātes, pārredzamības, drošības, privātuma un kontroles prasībām; uzsver, ka mākslīgā intelekta, robotikas un saistīto tehnoloģiju izstrādes, ieviešanas un izmantošanas procesos ir jāievēro ES tiesiskais regulējums datu aizsardzības un privātuma jomā, tādējādi palielinot cilvēku drošību un uzticēšanos šīm tehnoloģijām;

60.  konstatē, ka strauji tiek izstrādāti tādi mākslīgā intelekta lietojumi, kuru mērķis ir atpazīt unikālus raksturīgus elementus, piemēram, sejas īpašības, kustības un noskaņojumu; saistībā ar automatizētas atpazīšanas lietojumu izmantošanu brīdina par privātās dzīves aizskāruma, nediskriminācijas un personas datu aizsardzības aspektiem;

61.  uzsver, ka jebkurš lēmums par fizisku personu, kura pamatā ir tikai automatizēta apstrāde, tostarp profilēšana, un kurš rada nelabvēlīgas tiesiskas sekas attiecībā uz datu subjektu vai būtiski ietekmē minēto personu, ir aizliegts saskaņā ar VDAR, izņemot, ja šāda darbība ir atļauta ES vai dalībvalsts tiesību aktos un uz to attiecas atbilstīgi pasākumi ar mērķi nodrošināt datu subjekta pamattiesības un likumīgās intereses;

62.  aicina gadījumos, kad publiskā sektora iestādes izmanto mākslīgo intelektu, izskaidrot algoritmus un nodrošināt pārredzamību un regulatīvo uzraudzību, turklāt veikt ietekmes novērtējumus, pirms valsts iestādes vispār sāk ieviest mākslīgā intelekta tehnoloģijas; aicina Komisiju un Eiropas Datu aizsardzības kolēģiju izdot pamatnostādnes un ieteikumus un izstrādāt paraugpraksi, lai sīkāk precizētu kritērijus un piemērojamos nosacījumus lēmumiem, kuru pamatā ir profilēšana un mākslīgā intelekta izmantošana publiskā sektora iestādēs;

63.  konstatē, ka mākslīgā intelekta loma veselības jomā ir aizvien lielāka, jo īpaši, izmantojot algoritmizēto diagnosticēšanu, robotizēto ķirurģiju, viedās protēzes, personalizētu ārstēšanu, kuras pamatā būs katra pacienta ķermeņa modelēšana trīs dimensijās, sociālos robotus, kuriem būs jāpalīdz vecāka gadagājuma cilvēkiem, digitālās terapijas, kas ir izstrādātas, lai vairotu atsevišķu garīgi slimu cilvēku neatkarību, prognostisko medicīnu un epidēmiju paredzēšanas programmatūru;

64.  tomēr uzstāj, lai visos mākslīgā intelekta pielietojumos sabiedrības veselības jomā tiku ievērota pacientu personas datu aizsardzība un novērsta šādu datu nekontrolēta izplatīšana;

65.  aicina visos mākslīgā intelekta lietojumos sabiedrības veselības jomā ievērot principu par vienlīdzīgu attieksmi pret pacientiem attiecībā uz piekļuvi ārstēšanai, aizsargāt pacienta un ārsta attiecības un vienmēr ievērot Hipokrāta zvērestu, lai ārsts jebkurā gadījumā varētu novirzīties no mākslīgā intelekta ierosinātā risinājuma, tādējādi saglabājot atbildību par jebkādu lēmumu;

66.  norāda, ka mākslīgā intelekta izmantošana noziedzības un kibernoziegumu apkarošanā varētu radīt plašas iespējas un izdevības; vienlaikus apstiprina, ka noteicošajam arī turpmāk būtu jābūt principam, ka tas, kas ir nelikumīgi bezsaistē, ir nelikumīgi arī tiešsaistē;

67.  konstatē, ka mākslīgais intelekts arvien vairāk tiek izmantots tieslietu jomā, lai ātrāk pieņemtu racionālākus lēmumus, kas labāk atbilst spēkā esošajām tiesību normām; atzinīgi vērtē to, ka mākslīgā intelekta izmantošana, visticamāk, paātrinās tiesu procesus;

68.  uzskata, ka ir jāprecizē, vai ir piemēroti tiesībaizsardzības lēmumus daļēji deleģēt mākslīgajam intelektam, vienlaikus saglabājot cilvēku kontroli pār galīgo lēmumu;

69.  uzsver, ka mākslīgā intelekta izmantošana tiesu iestādēs varētu uzlabot datu analīzi un vākšanu un cietušo aizsardzību, turklāt tas būtu noskaidrojams ar pētniecības un izstrādes paņēmieniem un papildināms ar ietekmes novērtējumiem, jo īpaši attiecībā uz pienācīga procesa aizsardzību un cīņu ar neobjektivitāti un diskrimināciju, piemērojot piesardzības principu; tomēr atgādina, ka šādi procesi nedrīkst aizstāt cilvēku iesaistīšanu notiesāšanā vai lēmumu pieņemšanā;

70.  atgādina par pārvaldības, pārredzamības, objektivitātes, pārskatatbildības, taisnīguma un intelektuālās integritātes principu nozīmi gadījumos, kad mākslīgais intelekts tiek izmantots krimināltiesību jomā;

71.  mudina dalībvalstis novērtēt uz mākslīgo intelektu balstīto tehnoloģiju radīto risku, pirms tās izlemj automatizēt darbības, kas ir saistītas ar valsts varas īstenošanu, jo īpaši tieslietu jomā; aicina tās apsvērt nepieciešamību nodrošināt aizsardzības pasākumus, piemēram, kvalificētu speciālistu veiktu uzraudzību un noteikumus par profesionālo ētiku;

72.  norāda, ka noteiktas mākslīgā intelekta tehnoloģijas ļauj automatizēt informācijas apstrādi un rīcību līdz nepieredzētam apjomam, kā tas ir masveida novērošanas gadījumā civilajā un militārajā jomā, un tas apdraud pamattiesības un paver iespēju nelikumīgi iejaukties valstu suverenitātē; aicina saskaņā ar starptautiskajām tiesībām rūpīgi pārbaudīt masveida novērošanas darbības, tostarp attiecībā uz jurisdikcijas un izpildes jautājumiem; pauž nopietnas bažas par to, ka ir izstrādāti ārkārtīgi intruzīvi sociālā novērtējuma lietojumi, kas ievērojami apdraud pamattiesību ievērošanu; aicina viennozīmīgi aizliegt publiskā sektora iestādēm izmantot masveida sociālo novērtēšanu kā veidu pilsoņu tiesību ierobežošanai; aicina uzlabot privāto dalībnieku atbildību saskaņā ar starptautiskajām tiesībām, ņemot vērā lēmumu pieņemšanas augstāko nozīmīgumu un atsevišķu privāto dalībnieku kontroli pār šādu tehnoloģiju attīstību; šajā saistībā aicina Komisiju, Padomi un dalībvalstis tam pievērst īpašu uzmanību sarunās par starptautiskiem nolīgumiem, kas saistīti ar ģimenes pārrobežu lietām, piemēram, par bērnu starptautisku nolaupīšanu, šādu nolīgumu noslēgšanā un ratificēšanā un nodrošināt, ka šajā kontekstā mākslīgā intelekta sistēmas vienmēr tiek izmantotas faktiskā cilvēku veiktā pārraudzībā un atbilstoši pienācīgam procesam Eiropas Savienībā un valstīs, kuras šādus nolīgumus ir parakstījušas;

73.  prasa sabiedrību informēt par mākslīgā intelekta izmantošanu tieslietu jomā un šādos gadījumos neizraisīt diskrimināciju programmēšanas neobjektivitātes dēļ; uzsver, ka ir jāievēro katra indivīda tiesības uz piekļuvi amatpersonai, kā arī atbildīgās amatpersonas tiesības personīgi pieņemt lēmumu un novirzīties no mākslīgā intelekta sniegtās informācijas, ja amatpersona tā uzskata par nepieciešamu, ņemot vērā konkrētās lietas apstākļus; uzsver atbildētāja tiesības apstrīdēt lēmumu saskaņā ar valsts tiesību aktiem, nekad nenovēršot tiesu varas galīgo atbildību;

74.  tāpēc aicina visu šādu publisko un administratīvo izmantošanu uzskatīt par vispārpieejamu informāciju un novērst ar programmēšanas neobjektivitāti saistītu diskrimināciju;

75.  uzsver, cik svarīgi ir nodrošināt MI atbilstīgu ieviešanu un izmantošanu; aicina dalībvalstis nodrošināt saviem civilajiem un militārajiem darbiniekiem atbilstošu apmācību, lai viņi varētu precīzi noteikt diskrimināciju un neobjektivitāti datu kopās un izvairīties no tām;

76.  pauž nopietnas bažas par dziļviltošanas tehnoloģijām, kas ļauj radīt arvien reālistiskākus foto, audio un video viltojumus, kurus varētu izmantot nolūkā šantažēt, radīt viltus ziņu plūsmu, mazināt sabiedrības uzticēšanos un ietekmēt sabiedriskas diskusijas; uzskata, ka šāda prakse var destabilizēt valstis, izplatot dezinformāciju un ietekmējot vēlēšanas; tādēļ prasa, lai autori visus dziļviltojuma materiālus vai jebkādus citus reālistiski veidotus sintētiskus video marķētu kā "neoriģinālus", tiktu stingri ierobežota to izmantošana vēlēšanu ietvaros un šie ierobežojumi tiktu stingri kontrolēti; aicina veikt atbilstošus pētījumus šajā jomā, lai nodrošinātu, ka vienlīdz strauji tiek attīstītas tehnoloģijas, ar kurām pretdarboties mākslīgā intelekta ļaunprātīgai izmantošanai;

Transports

77.  ņem vērā mākslīgā intelekta lietojumu ievērojamo ekonomisko potenciālu, tostarp transporta infrastruktūras un būvju ilgtermiņa veiktspējas, uzturēšanas, defektu prognozēšanas un būvniecības plānošanas optimizēšanā, kā arī drošuma, energoefektivitātes un izmaksu ziņā; tāpēc aicina Komisiju turpināt veicināt pētījumus mākslīgā intelekta jomā un veikt labu prakšu apmaiņu transporta nozarē;

78.  uzsver, ka ir jāsekmē mākslīgais intelekts, lai veicinātu visu transporta veidu multimodalitāti, sadarbspēju un energoefektivitāti, tādējādi uzlabojot preču un pasažieru satiksmes plūsmu organizācijas un pārvaldības efektivitāti, labāk izmantotu infrastruktūru un resursus Eiropas transporta tīklā (TEN‑T) un novērstu šķēršļus patiesas Eiropas vienotās transporta telpas izveidei;

79.  atgādina par priekšrocībām, ko sniedz Eiropas Dzelzceļa satiksmes vadības sistēma (ERTMS) — vienota vilcienu automātiskā aizsardzības sistēma, un atbalsta dzelzceļa darbību automatizācijas izstrādi un starptautisko standartizāciju;

80.  atzinīgi vērtē jaunas paaudzes gaisa satiksmes pārvaldības sistēmas (SESAR) darbu attiecībā uz bezpilota gaisa kuģu sistēmām un gaisa satiksmes pārvaldības sistēmām gan civilajā, gan militārajā jomā;

81.  atgādina, ka autonomiem transportlīdzekļiem ir liels potenciāls uzlabot mobilitāti un drošumu un nodrošināt ieguvumus vides jomā, un aicina Komisiju un dalībvalstis nodrošināt sadarbību starp regulatoriem un visām ieinteresētajām personām, kas saistītas ar automatizētu ceļu transportlīdzekļu ieviešanu Eiropas Savienībā;

82.  norāda, ka pasaules kuģniecības nozare, pateicoties mākslīgā intelekta integrēšanai, pēdējos gados ir ievērojami mainījusies; atgādina par pašreizējām visaptverošajām diskusijām Starptautiskajā Jūrniecības organizācijā par to, kā tiesiskajā regulējumā būtu efektīvi iekļaujamas jaunas un attīstībā esošas tehnoloģijas, piemēram, autonomie kuģi;

83.  uzsver to, ka intelektiskas transporta sistēmas var mazināt satiksmes sastrēgumus, uzlabot drošumu un pieejamību un palīdzēt uzlabot satiksmes plūsmu pārvaldību, efektivitāti un mobilitātes risinājumus; vērš uzmanību uz to, ka tradicionālie transporta tīkli arvien vairāk ir pakļauti kiberdraudiem; atgādina, ka ir svarīgi pietiekami resursi un turpmāki pētījumi par drošības riskiem, lai nodrošinātu automatizēto sistēmu un to datu drošumu; atzinīgi vērtē Komisijas nodomu kiberdrošību iekļaut kā regulāru darba kārtības punktu tādu starptautisku organizāciju diskusijās, kuras ir saistītas ar transporta tematiku;

84.  atzinīgi vērtē centienus ieviest mākslīgā intelekta sistēmas sabiedriskajā sektorā un atbalstīs turpmākas diskusijas par mākslīgā intelekta izvēršanu transporta nozarē; aicina Komisiju veikt mākslīgā intelekta un līdzīgu tehnoloģiju izmantošanas transporta nozarē novērtējumu un sagatavot papildināmu sarakstu ar augsta riska segmentiem tādās mākslīgā intelekta sistēmās, ar kurām varētu aizstāt publiskās pārvaldes prerogatīvā esošus lēmumus šajā jomā;

85.  uzsver, ka Eiropas Aizsardzības fondam un pastāvīgai strukturētai sadarbībai būtu jāveicina dalībvalstu un Eiropas aizsardzības nozaru sadarbība, lai attīstītu jaunas Eiropas aizsardzības spējas mākslīgā intelekta jomā un nodrošinātu piegādes drošību, vienlaikus ņemot vērā ētikas apsvērumus; uzsver, ka, veidojot dažādu dalībnieku un lietojumu jomu saiknes, nedrīkst pieļaut sadrumstalotību, bet ir jāveicina savietojamība un sadarbspēja visos līmeņos un jākoncentrējas uz kopīgu darbu saistībā ar arhitektūras un platformu risinājumiem; turklāt atgādina, ka nākamais Eiropas infrastruktūras savienošanas instruments, ar kuru arī veicina viedu infrastruktūru, nodrošinās līdzekļus civilās/militārās divējāda lietojuma transporta infrastruktūras ieviešanai un attīstībai TEN‑T tīklā, lai palielinātu sinerģijas starp civilajām un aizsardzības vajadzībām un lai Eiropas Savienībā uzlabotu civilo un militāro mobilitāti; tāpēc vērš uzmanību uz to, ka ir vajadzīgas turpmākas Eiropas investīcijas, pētniecība un vadošā loma tādās tehnoloģijās, kurām ir gan liela ietekme uz ekonomikas izaugsmi, gan ievērojams divējāda lietojuma potenciāls;

86.  uzsver, ka daudzas investīcijas jaunās transporta un mobilitātes tehnoloģijās ir tirgus virzītas, bet divējāda lietojuma komerciālas standarta tehnoloģijas un izstrādājumi bieži novatoriskos veidos tiek izmantoti militāriem mērķiem; tāpēc uzsver, ka, izstrādājot standartus mākslīgā intelekta izmantošanai dažādās komerciālās un militārās nozarēs, ir jāņem vērā mākslīgā intelekta iespējoto risinājumu divējāda lietojuma potenciāls; prasa, izstrādājot aizsardzības tehnoloģijas, ražojumus un darbības principus, īstenot augstus ētikas standartus un politiku;

87.  norāda, ka preču, munīcijas, bruņojuma un karaspēka efektīva transportēšana ir sekmīgas militārās operācijas būtiska sastāvdaļa; uzsver mākslīgā intelekta sagaidāmo izšķirošo lomu un daudzskaitlīgās iespējas militārās loģistikas un transporta jomā; norāda, ka dažādās pasaules valstīs, tostarp ES dalībvalstīs, integrē mākslīgo intelektu ieročos un citās sistēmās, ko izmanto sauszemes, jūras un gaisa platformās; atgādina, ka mākslīgā intelekta izmantošana transporta nozarē varētu nodrošināt jaunas spējas un pavērtu iespējas jauna veida taktikai, piemēram, daudzu sistēmu, tādu kā dronu, bezpilota kuģu vai tanku, apvienošanai neatkarīgā un koordinētā operācijā;

Starptautiskās privāttiesības

88.  konstatē, ka, tā kā cilvēka darbības internacionalizācija tiešsaistē vai reālajā pasaulē rada arvien vairāk strīdu, kurus reglamentē starptautiskās privāttiesības, mākslīgais intelekts var palīdzēt tos atrisināt, izveidojot modeļus, ar kuriem ne tikai katrā lietā nosaka piekritīgo jurisdikciju un piemērojamos tiesību aktus, bet arī konstatē vissensitīvākās tiesību kolīziju normas un piedāvā to novēršanas risinājumus;

89.  tomēr uzskata, ka par mākslīgā intelekta izmantošanu starptautiskajās privāttiesībās ir pienācīgi jāinformē sabiedrība un minētajā izmantošanā ir jānovērš programmēšanā pieļautā diskriminācija, pretējā gadījumā sistemātiski vienas valsts tiesību aktiem tiktu dotu priekšroka pār citu valstu tiesību aktiem, un ir jāievēro tiesību aktos paredzētās tiesas tiesības, jāatļauj apelācijas saskaņā ar piemērojamajiem tiesību aktiem un jāļauj jebkuram tiesnesim neņemt vērā mākslīgā intelekta piedāvāto risinājumu;

90.  īpaši atzīmē, ka autonomo transportlīdzekļu kustība Eiropas Savienībā, kas var radīt sevišķi lielu skaitu starptautisko privāttiesību jomā ierosināto tiesas prāvu, ir jāreglamentē specializētās Eiropas normās, kurās tiktu precizēts tiesiskais režīms, kas būtu piemērojams pārrobežu kaitējuma gadījumā;

91.  norāda uz privātā sektora veiktās pētniecības un izstrādes pieaugošo nozīmi un trešo valstu milzīgajām investīcijām, kas Eiropai rada spēcīgu konkurenci; tāpēc atbalsta ES centienus pilnveidot savas konkurences priekšrocības un uzskata, ka ES ir jācenšas būt standartu noteicējam, kurš, ņemot vērā pasaules hipersavienojamību, mākslīgā intelekta jomā pieņem efektīvu, ārējiem partneriem attiecinātu stratēģiju, veicinot tās centienus starptautiskā līmenī noteikt globālas mākslīgo intelektu reglamentējošas ētikas normas, kas atbilstu drošības noteikumiem un patērētāju aizsardzības prasībām un Eiropas vērtībām un pilsoņu tiesībām, tostarp pamattiesībām; uzskata, ka tas ir ļoti svarīgi arī no Eiropas uzņēmumu konkurētspējas un ilgtspējas viedokļa; aicina Komisiju un dalībvalstis stiprināt sadarbību ar trešām valstīm un starptautiskām organizācijām, piemēram, ANO, ESAO, G7 un G20, un iesaistīties plašākā dialogā, lai risinātu problēmas, ko rada šīs strauji mainīgās tehnoloģijas attīstība; uzskata, ka šajos centienos jo īpaši būtu jācenšas noteikt kopējus standartus un uzlabot mākslīgā intelekta iespējoto sistēmu sadarbspēju; aicina Komisiju veicināt dialogu, ciešāku sadarbību un sinerģiju starp dalībvalstīm, pētniekiem, akadēmiskajām aprindām, pilsoniskās sabiedrības rīcībspēkiem un privāto sektoru, jo īpaši vadošajiem uzņēmumiem, un bruņotajiem spēkiem, lai nodrošinātu, ka politikas veidošanas procesos tiktu iekļauti arī ar aizsardzību saistīti mākslīgā intelekta noteikumi;

Pamatprincipi

92.  uzskata, ka ar mākslīgā intelekta tehnoloģijām un tīklu sistēmām ir jācenšas iedzīvotājiem nodrošināt juridisko noteiktību; tāpēc uzsver, ka arī turpmāk būtu jāpiemēro noteikumi par tiesību normu kolīzijām un jurisdikcijām, tajā pašā laikā ņemot vērā iedzīvotāju intereses, kā arī vajadzību samazināt labvēlīgākās tiesas izvēles risku; atgādina, ka mākslīgais intelekts tiesu procesā nevar aizstāt cilvēkus, kad ir jānosaka sods vai jāpieņem jebkāda veida galīgs lēmums, jo šādi lēmumi vienmēr ir jāpieņem cilvēkiem un tiem jābūt stingri pakļautiem cilvēku veiktai pārbaudei un pienācīgam procesam; uzsver, ka, izmantojot mākslīgā intelekta atbalstītu tehnoloģiju sniegtos pierādījumus, tiesu iestādēm jābūt pienākumam sniegt pamatojumu saviem lēmumiem;

93.  atgādina, ka mākslīgais intelekts ir uzskatāms par zinātnisku progresu, kas ne tikai nedrīkst izraisīt tiesību aktu pavājināšanos, bet, gluži pretēji, tas vienmēr ir jāreglamentē ar tiem — Eiropas Savienībā ar tās iestāžu un dalībvalstu izstrādātiem tiesību aktiem, un ka mākslīgais intelekts, robotika un saistītas tehnoloģijas nekādā gadījumā nedrīkst nonākt pretrunā pamattiesībām, demokrātijai un tiesiskumam;

94.  uzsver, ka aizsardzības nolūkos izmantotajam mākslīgajam intelektam jābūt: atbildīgam, taisnīgam, izsekojamam, uzticamam un pārvaldāmam;

95.  uzskata, ka mākslīgais intelekts, robotika un ar to saistītās tehnoloģijas, tostarp programmatūra, algoritmi un dati, ko izmanto vai rada šādas tehnoloģijas, neatkarīgi no to izmantošanas jomas, būtu jāizstrādā drošā un tehniski precīzā veidā;

o
o   o

96.  uzdod priekšsēdētājam šo rezolūciju nosūtīt Padomei un Komisijai.

(1) OV L 180, 19.7.2000., 22. lpp.
(2) OV L 303, 2.12.2000., 16. lpp.
(3) OV L 119, 4.5.2016., 1. lpp.
(4) OV L 119, 4.5.2016., 89. lpp.
(5) OV L 252, 8.10.2018., 1. lpp.
(6) OV C 252, 18.7.2018., 239. lpp.
(7) OV C 307, 30.8.2018., 163. lpp.
(8) OV C 433, 23.12.2019., 86. lpp.
(9) OV C 433, 23.12.2019., 42. lpp.
(10) OV C 449, 23.12.2020., 37. lpp.
(11) Eiropas Parlamenta un Padomes 2005. gada 7. septembra Direktīva 2005/36/EK par profesionālo kvalifikāciju atzīšanu (OV L 255, 30.9.2005., 22. lpp.).
(12) Eiropas Parlamenta un Padomes 2006. gada 17. maija Direktīva 2006/42/EK par mašīnām un ar kuru groza Direktīvu 95/16/EK (OV L 157, 9.6.2006., 24. lpp.).
(13) Eiropas Parlamenta un Padomes 2018. gada 28. jūnija Direktīva (ES) 2018/958 par samērīguma novērtēšanu pirms jaunas profesiju reglamentācijas pieņemšanas (OV L 173, 9.7.2018., 25. lpp.).

Pēdējā atjaunošana: 2021. gada 22. aprīlisJuridisks paziņojums - Privātuma politika