Az Európai Parlament 2021. január 20-i állásfoglalása a mesterséges intelligenciáról: az állami hatóságok szerepét, valamint az MI polgári és katonai felhasználása területén az EU-ra vonatkozó nemzetközi jog értelmezését és alkalmazását érintő kérdések, a büntető igazságszolgáltatás hatályán kívül (2020/2013(INI))
Az Európai Parlament,
– tekintettel az Európai Unióról szóló szerződésre és különösen annak 2., 3., 10., 19., 20., 21., 114., 167., 218., 225. és 227. cikkére,
– tekintettel az Európai Unió működéséről szóló szerződés 20. és 227. cikkében foglalt petíciós jogra,
– tekintettel az Európai Unió Alapjogi Chartájára,
– tekintettel a személyek közötti, faji vagy etnikai származásra való tekintet nélküli egyenlő bánásmód elvének alkalmazásáról szóló, 2000. június 29-i 2000/43/EK tanácsi irányelvre(1) (a faji egyenlőségről szóló irányelv),
– tekintettel a foglalkoztatás és a munkavégzés során alkalmazott egyenlő bánásmód általános kereteinek létrehozásáról szóló, 2000. november 27-i 2000/78/EK tanácsi irányelvre(2) (a munkavégzés során alkalmazott egyenlő bánásmódról szóló irányelv),
– tekintettel a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK irányelv hatályon kívül helyezéséről szóló, 2016. április 27-i (EU) 2016/679 európai parlamenti és tanácsi rendeletre (általános adatvédelmi rendelet)(3) és a személyes adatoknak az illetékes hatóságok által a bűncselekmények megelőzése, nyomozása, felderítése, a vádeljárás lefolytatása vagy büntetőjogi szankciók végrehajtása céljából végzett kezelése tekintetében a természetes személyek védelméről és az ilyen adatok szabad áramlásáról, valamint a 2008/977/IB tanácsi kerethatározat hatályon kívül helyezéséről szóló, 2016. április 27-i (EU) 2016/680 európai parlamenti és tanácsi irányelvre(4),
– tekintettel az európai nagy teljesítményű számítástechnika közös vállalkozás létrehozásáról szóló 2018. szeptember 28-i (EU) 2018/1488 tanácsi rendeletre(5),
– tekintettel a Digitális Európa program 2021–2027 közötti időszakra történő létrehozásáról szóló európai parlamenti és tanácsi rendeletre irányuló, 2018. június 6-i javaslatra (COM(2018)0434),
– tekintettel a robotikára vonatkozó polgári jogi szabályokról szóló, 2017. február 16-i állásfoglalására, amelyet a Bizottságnak szóló ajánlások kísérnek(6),
– tekintettel az európai ipar digitalizációjáról szóló, 2017. június 1-jei állásfoglalására(7),
– tekintettel az autonóm fegyverrendszerekről szóló, 2018. szeptember 12-i állásfoglalására(8),
– tekintettel a digitális korban a nyelvek közötti egyenlőségről szóló, 2018. szeptember 11-i állásfoglalására(9),
– tekintettel a mesterséges intelligenciára és a robotikára vonatkozó átfogó európai iparpolitikáról szóló, 2019. február 12-i állásfoglalására(10),
– tekintettel az Európai Parlamentnek, a Tanácsnak, az Európai Gazdasági és Szociális Bizottságnak és a Régiók Bizottságának címzett, „Az európai zöld megállapodás” című, 2019. december 11-i bizottsági közleményre (COM(2019)0640),
– tekintettel „A mesterséges intelligencia – a kiválóság és a bizalom európai megközelítése” című, 2020. február 19-i bizottsági fehér könyvre (COM(2020)0065),
– tekintettel az Európai Parlamenthez, a Tanácshoz, a Gazdasági és Szociális Bizottsághoz és a Régiók Bizottságához intézett, az európai adatstratégiáról szóló, 2020. február 19-i bizottsági közleményre (COM(2020)0066),
– tekintettel az Európai Parlamenthez, a Tanácshoz, a Gazdasági és Szociális Bizottsághoz és a Régiók Bizottságához intézett, „Európa digitális jövőjének megtervezése” című, 2020. február 19-i bizottsági közleményre (COM(2020)0067),
– tekintettel a Bizottság által 2018 júniusában létrehozott magas szintű szakértői csoport mesterséges intelligenciáról szóló, „Etikai iránymutatások a megbízható mesterséges intelligencia érdekében” című, 2019. április 8-i jelentésére,
– tekintettel az Európa Tanács nemzeti kisebbségek védelméről szóló keretegyezményére, az emberi jogok és alapvető szabadságok védelméről szóló egyezmény 12. jegyzőkönyvére, valamint a Regionális vagy Kisebbségi Nyelvek Európai Kartájára,
– tekintettel az Európa Tanácsnak az igazságszolgáltatás minőségével foglalkozó munkacsoportja (CEPEJ-GT-QUAL) által 2018 decemberében elfogadott, a mesterséges intelligencia igazságszolgáltatási rendszerekben és azok környezetében való alkalmazásáról szóló európai etikai chartára,
– tekintettel az OECD Tanácsának a mesterséges intelligenciáról szóló, 2019. május 22-én elfogadott ajánlására,
– tekintettel eljárási szabályzata 54. cikkére,
– tekintettel a Külügyi Bizottság, a Belső Piaci és Fogyasztóvédelmi Bizottság, a Közlekedési és Idegenforgalmi Bizottság és az Állampolgári Jogi, Bel- és Igazságügyi Bizottság véleményére,
– tekintettel a Jogi Bizottság jelentésére (A9-0001/2021),
Bevezetés
A. mivel nagyon gyors ütemben folyik a mesterséges intelligencia (MI), a robotika és a kapcsolódó technológiák fejlesztése, ami minden téren közvetlen hatást gyakorol társadalmainkra, beleértve az alapvető társadalmi és gazdasági elveket és értékeket is;
B. mivel az MI forradalmasítja a katonai doktrínát és a katonai felszereléseket azáltal, hogy mélyrehatóan megváltoztatja a hadseregek működését, elsősorban az új technológiák és autonóm képességek integrálása és kiaknázása révén;
C. mivel az úgynevezett „mesterséges intelligenciát”, a robotikát és a kapcsolódó technológiákat az emberek fejlesztik és alakítják ki, és döntéseik meghatározzák, hogy a technológia milyen előnyökkel járhat a társadalom számára;
D. mivel közös uniós keretnek kell magában foglalnia a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztését, telepítését és használatát, és biztosítania kell az emberi méltóság és az emberi jogok tiszteletben tartását az Európai Unió Alapjogi Chartájában foglaltaknak megfelelően;
E. mivel az Uniónak és tagállamainak különös felelőssége, hogy ügyeljenek rá, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák emberközpontúak legyenek, vagyis tulajdonképpen az emberiség és a közjó szolgálatába legyenek állítva annak érdekében, hogy hozzájáruljanak polgáraik jóllétéhez és általános érdekéhez; mivel ennek megvalósítása során az Uniónak segítséget kell nyújtania a tagállamoknak, különösen azoknak, amelyek már elkezdték a jogi normák vagy jogszabályi változtatások esetleges kidolgozásának megfontolását;
F. mivel az európai polgárok számára előnyös lehet egy megfelelő, hatékony, átlátható és koherens uniós szintű szabályozási megközelítés, amely kellően egyértelmű feltételeket határoz meg a vállalatok számára az alkalmazások kidolgozásához és üzleti modelljeik megtervezéséhez, ugyanakkor biztosítja, hogy az Unió és tagállamai továbbra is ellenőrzést gyakoroljanak a létrehozandó szabályozás felett annak érdekében, hogy ne kényszerüljenek mások által meghatározott szabványok elfogadására;
G. mivel az etikai útmutatások, például a mesterséges intelligenciával foglalkozó magas szintű szakértői csoport által elfogadott alapelvek jó kiindulási pontot jelentenek, de nem elégségesek annak biztosításához, hogy a vállalkozások tisztességesen járjanak el és garantálják az egyének hatékony védelmét;
H. mivel ebből a különös felelősségből következik, hogy meg kell vizsgálni az EU nemzetközi tárgyalásokon való aktív részvételével összefüggésben a nemzetközi jog értelmezésének és alkalmazásának kérdéseit – amennyiben a mesterséges intelligencia, a robotika és kapcsolódó technológiák e típusainak polgári és katonai felhasználásában az EU is érintett –, továbbá az állami hatóságok e technológiákkal kapcsolatos szerepét illető kérdéseket, a büntető igazságszolgáltatás hatályán kívül;
I. mivel alapvető fontosságú a megfelelő és átfogó jogi keret biztosítása az e technológiákhoz kapcsolódó etikai szempontok, valamint a felelősség, az átláthatóság és az elszámoltathatóság tekintetében (különösen az MI, a robotika és a kapcsolódó, magas kockázatúnak tekintett technológiák tekintetében); mivel ennek a keretnek tükröznie kell, hogy az MI fejlesztése, megvalósítása és felhasználása során a szervesen európai és egyetemes humanista értékek alkalmazandók a teljes értékláncban; mivel ennek az etikai keretnek az uniós jog és az Európai Unió Alapjogi Chartájában meghatározott értékek teljes körű tiszteletben tartása mellett vonatkoznia kell az MI fejlesztésére (beleértve a kutatást és az innovációt), bevezetésére és felhasználására;
J. mivel e vizsgálat célja annak tisztázása, hogy a nemzetközi köz- és magánjogi, illetve uniós jogi szabályok milyen mértékben vannak összhangban e technológiákkal, valamint hogy rávilágítsunk az utóbbiak által az állam számára támasztott kihívásokra és kockázatokra, hogy azokat megfelelően és arányosan lehessen kezelni;
K. mivel az Európai Bizottság fehér könyvében nem tér ki a mesterséges intelligencia felhasználásának katonai vonatkozásaira.
L. mivel e problémák harmonizált európai megközelítése szükségessé teszi az MI közös fogalommeghatározásának elfogadását, továbbá olyan lépések megtételét, amelyek biztosítják az Európai Unió alapvető értékei, az Alapjogi Chartájában foglalt elvek és a nemzetközi emberi jogi jogszabályok megvédését;
M. mivel az MI példa nélküli lehetőségeket kínál a közlekedési ágazat teljesítményének javítására azáltal, hogy kezeli a növekvő utazási kereslet, a biztonsági és környezetvédelmi aggályok jelentette kihívásokat, miközben intelligensebbé, hatékonyabbá és kényelmesebbé teszi az összes közlekedési módot;
N. mivel az uniós védelmi képességek fejlesztése érdekében foglalkozni kell a mesterséges intelligenciának a védelem területén való uniós szintű bevetésének kérdésével;
A mesterséges intelligencia definíciója
1. szükségesnek tartja egy olyan közös európai jogi keret elfogadását, amely harmonizált fogalommeghatározásokat és közös etikai elveket tartalmaz, ideértve az MI katonai célokra történő felhasználását is. ezért felhívja a Bizottságot, hogy fogadja el a következő fogalommeghatározásokat:
–
„mesterségesintelligencia-rendszer” (MI-rendszer): szoftveralapú vagy hardvereszközökbe ágyazott rendszer, amely intelligenciát szimuláló viselkedést mutat többek között adatok gyűjtése és feldolgozása, környezetének elemzése és értelmezése, valamint azáltal, hogy konkrét célok elérése érdekében – bizonyos mértékben autonóm módon – cselekszik;
–
„autonóm”: mesterségesintelligencia-rendszer, amely bizonyos bevitelek értelmezésével és előre meghatározott utasítások alkalmazásával működik, anélkül, hogy ezekre az utasításokra korlátozódna, annak ellenére, hogy a rendszer viselkedése arra korlátozódik és irányul, hogy teljesítse a kitűzött célt és a fejlesztő által hozott egyéb releváns tervezési döntéseket;
2. rámutat, hogy az Európai Unió és a tagállamok biztonság- és védelmi politikái az Európai Unió Alapjogi Chartájában és az ENSZ Alapokmányában – amely felszólítja az összes államot, hogy egymással való kapcsolataikban tartózkodjanak az erőszakkal való fenyegetéstől és erőszak alkalmazásától – rögzített elvein, valamint a nemzetközi jog, valamint az emberi jogok és az emberi méltóság tiszteletben tartásának elvein nyugszanak, és a sérthetetlen és elidegeníthetetlen emberi jogok, a szabadság, a demokrácia, az egyenlőség és a jogállamiság egyetemes értékeinek közös értelmezése vezérli őket; hangsúlyozza, hogy az uniós keretben valamennyi védelemmel kapcsolatos tevékenységnek tiszteletben kell tartania ezeket az egyetemes értékeket, előmozdítva a békét, a stabilitást, a biztonságot és a haladást Európában és a világban;
Nemzetközi közjog és a mesterséges intelligencia katonai felhasználásai
3. úgy véli, hogy a katonai és polgári környezetben használt mesterséges intelligenciát érdemi emberi ellenőrzésnek kell alárendelni annak érdekében, hogy előre nem látható magatartás, véletlen beavatkozás, kibertámadások vagy harmadik felek MI-alapú technológiába való beavatkozása, illetve ilyen technológiához jutása esetén a korrekcióhoz, leállításhoz vagy letiltáshoz szükséges eszközök mindig az ember rendelkezésére álljanak;
4. úgy véli, hogy a nemzetközi közjog, különösen a valamennyi fegyverrendszerre és azok üzemeltetőire egyértelműen alkalmazandó humanitárius jog tiszteletben tartása alapvető követelmény, amelyet a tagállamoknak be kell tartaniuk, különösen a polgári lakosság védelme érdekében vagy támadás, például a katonai agresszió és a kiberháború esetén meghozandó óvintézkedések tekintetében;
5. kiemeli, hogy az MI és a kapcsolódó technológiák a szabálytalan vagy nem hagyományos hadviselésben is szerepet játszhatnak; javasolja, hogy ilyen esetekben az MI kutatására, fejlesztésére és felhasználására a hagyományos konfliktusokban való felhasználásával megegyező feltételek vonatkozzanak;
6. rámutat arra, hogy az MI felhasználása lehetőséget teremt az Európai Unió és polgárai biztonságának megerősítésére, és hogy az EU számára alapvető fontosságú, hogy integrált megközelítést alkalmazzon az e területtel kapcsolatos jövőbeli nemzetközi tárgyalások során;
7. felhívja az MI kutatásával foglalkozó közösséget, hogy ezt az elvet építse be minden fent említett, katonai célú MI-rendszerbe; úgy véli, hogy egyetlen hatóság sem állapíthat meg kivételeket ezen elvek alól, és nem láthat el tanúsítvánnyal ilyen rendszert;
8. ismételten hangsúlyozza, hogy az önálló döntéshozatal nem mentheti fel az embert a felelősség alól, és hogy a döntéshozatali folyamatokért mindig az embernek kell viselnie a végső felelősséget, hogy azonosítani lehessen a döntésért felelős embert;
9. hangsúlyozza, hogy az MI katonai összefüggésben történő felhasználása során a tagállamoknak, a konfliktusban részt vevő feleknek és az egyéneknek mindenkor mindenkor kötelesek betartani az alkalmazandó nemzetközi jog alapján rájuk háruló kötelezettségeiket, és felelősséggel tartoznak az ilyen rendszerek felhasználásával folytatott tevékenységeikért; hangsúlyozza, hogy az Mi-alapú rendszerek várható, véletlen vagy nemkívánatos cselekményei és hatásai minden körülmények között a tagállamok, a konfliktusban részt vevő felek és az egyének felelősségének tekintendők;
10. üdvözli a mesterségesintelligencia-rendszerek képzésekhez és gyakorlatokhoz való felhasználásának lehetőségeit, amelyeket nem szabad alábecsülni, különös tekintettel arra, hogy az EU kettős polgári és katonai jellegű gyakorlatokat folytat;
11. hangsúlyozza, hogy az MI-alapú rendszerek tervezése, fejlesztése, tesztelése, telepítése és felhasználása során mindenkor kellő mértékben figyelembe kell venni a potenciális kockázatokat, különös tekintettel a véletlen polgári áldozatokra és sérültekre, a véletlen halálesetekre és a polgári infrastruktúrában okozott károkra, valamint a nem szándékolt bevetéssel, a manipulációval, a proliferációval, a kibertámadásokkal, az MI-alapú autonóm technológiák felhasználásával történő, harmadik felek általi beavatkozással vagy az ilyen technológiák harmadik felek általi beszerzésével kapcsolatos kockázatokra;
12. emlékeztet arra, hogy a Nemzetközi Bíróság 1996. július 8-i tanácsadó véleményével összhangban az újdonság elvére nem lehet hivatkozni a nemzetközi humanitárius jog jelenlegi szabályaitól való bármely eltérés alátámasztásához;
13. úgy véli, hogy a műveletek támogatása mellett az MI a fegyveres erők kisegítő személyzete számára is előnyös lesz egészségügyi adataik tömeges feldolgozása és az egészségügyi ellenőrzés kiterjesztése révén, azonosítani fogja a fegyveres erők környezetével és munkakörülményeivel kapcsolatos kockázati tényezőket, és megfelelő biztosítékokat fog javasolni a kiszolgáló személyzet egészségére gyakorolt hatás korlátozása érdekében;
14. ismételten hangsúlyozza, hogy a szabályozási erőfeszítéseket érdemi tanúsítási és felügyeleti rendszereknek, valamint egyértelmű ellenőrizhetőségi, megmagyarázhatósági, elszámoltathatósági és nyomon követhetőségi mechanizmusoknak kell támogatniuk annak érdekében, hogy a szabályozási keret ne váljon elavulttá a technológiai fejlődés következtében.
15. hangsúlyozza annak fontosságát, hogy kapcsolatokkal sűrűn átszőtt világunkban az Európai Unió részt vegyen a mesterséges intelligencia felhasználására vonatkozó nemzetközi jogi keret létrehozásában: sürgeti az Uniót, hogy vállaljon vezető szerepet, és az ENSZ-szel és a nemzetközi közösséggel együtt töltsön be aktív szerepet az MI katonai és egyéb célokra való felhasználását szabályozó globális keret előmozdításában, gondoskodva arról, hogy a felhasználás a nemzetközi jog és a nemzetközi humanitárius jog, különösen az 1949. augusztus 12-i genfi egyezmények által meghatározott szigorú korlátokon belül maradjon; hangsúlyozza, hogy ez a keret soha nem sértheti közös lelkiismeretünk és az emberiesség Martens-záradékban meghatározott parancsait, és nem is teheti lehetővé ezek megsértését, és összhangban kell lennie a biztonsági szabályokkal és a fogyasztóvédelmi követelményekkel; sürgeti az Uniót és a tagállamokat, hogy határozzanak meg stabil felügyeleti és értékelési rendszereket az MI-technológiák – különösen az autoriter államokban katonai célokra használt technológiák – fejlesztése tekintetében;
16. kiemeli, hogy a robotika nemcsak lehetővé teszi a katonai személyzet számára, hogy távolságot tartson, hanem jobb önvédelmet is nyújt, például a szennyezett környezetben végzett műveletek, a tűzoltás, a szárazföldi vagy tengeri aknamentesítés és a robotrepülőgép-rajok elleni védelem során;
17. hangsúlyozza, hogy az MI fejlesztésének, bevezetésének, használatának és kezelésének tiszteletben kell tartania az uniós szerződésekben kifejezett alapvető jogokat, értékeket és szabadságokat, és felszólítja a tagállamokat, hogy tartózkodjanak az alapvető jogokat veszélyeztető, magas kockázatú mesterségesintelligencia-rendszerek bevezetésétől; tudomásul veszi a Bizottság mesterséges intelligenciáról szóló fehér könyvének közzétételét, és ösztönzi az MI állami hatóságok, valamint az Európai Unió ügynökségei, szervei és intézményei általi használatának az alapvető jogokat érintő potenciális kockázataira irányuló mélyrehatóbb kutatását;
18. felszólítja a Bizottságot, hogy segítse elő a mesterséges intelligencia katasztrófasegélyezésben, válságmegelőzésben és békefenntartásban való felhasználásának lehetőségeivel kapcsolatos kutatást és vitát;
19. üdvözli a nemzetközi biztonság összefüggésében az államok kibertérben való felelősségteljes magatartását előmozdító, ENSZ-en belüli kormányzati szakértői csoport létrehozását, és felszólítja az Uniót, hogy teljes mértékben vegyen részt annak munkájában;
20. felhívja a Bizottság alelnökét/az Unió külügyi és biztonságpolitikai főképviselőjét, hogy egyengesse az utat azon globális tárgyalások előtt, amelyek az MI-alapú fegyverzetek ellenőrzési rendszerének bevezetésére és a fegyverzet-ellenőrzésre, leszerelésre és nonproliferációra vonatkozó valamennyi meglévő szerződéses eszköz aktualizálására irányulnak, hogy azok figyelembe vegyék a hadviselésben alkalmazott MI-rendszereket is; kéri, hogy a katonai technológia és felszerelések kivitelének ellenőrzésére vonatkozó közös szabályok meghatározásáról szóló tanácsi közös álláspont teljes mértékben vegye figyelembe és tartalmazza az MI-alapú fegyverrendszereket is;
21. megerősíti, hogy e szabályoknak mindig összhangban kell lenniük a népirtás, az emberiesség elleni és a háborús bűncselekmények tilalmát magukban foglaló, az 1998. július 17-i Római Egyezményben is szereplő elvekkel;
22. rámutat arra, hogy világos kockázatokkal jár, ha az emberi döntések kizárólag gépek által létrehozott adatokra, profilokra és ajánlásokra támaszkodnak; rámutat arra, hogy a mesterségesintelligencia-rendszerek átfogó tervezésének az emberi felügyeletre és áttekintésre vonatkozó iránymutatásokat is tartalmaznia kell; kéri, hogy írjanak elő kötelezettséget az MI-alkalmazások átláthatósága és megmagyarázhatósága, valamint az emberi beavatkozás szükségessége tekintetében, továbbá vezessenek be a megfelelés elősegítésére és kikényszerítésére irányuló egyéb intézkedéseket, például független ellenőrzéseket és specifikus stresszteszteket; hangsúlyozza, hogy ezeket az ellenőrzéseket rendszeres időközönként egy olyan független hatóságnak kell elvégeznie, amely az állami hatóságok vagy a katonaság által használt, magas kockázatú MI-alkalmazásokat felügyelné;
23. hangsúlyozza annak fontosságát, hogy ellenőrizzék, hogy a magas kockázatú MI-technológiák hogyan jutnak döntésre; emlékeztet arra, hogy tiszteletben kell tartani a megkülönböztetésmentesség és az arányosság elvét, és tisztázni kell az ok-okozati összefüggés, a felelősség, valamint az átláthatóság, az elszámoltathatóság és a megmagyarázhatóság kérdését annak meghatározása érdekében, hogy az állam a nemzetközi közjog szereplőjeként, de saját hatáskörében is eljárhat-e – és ha igen, milyen mértékben – a mesterséges intelligencián alapuló, bizonyos autonómiával rendelkező rendszerek segítségével, a nemzetközi jogból eredő kötelezettségek, például a tisztességes eljárás megsértése nélkül;
24. hangsúlyozza az emberi készségekbe – többek között a digitális készségekbe – való befektetés fontosságát annak érdekében, hogy alkalmazkodni lehessen a tudományos fejlődéshez, ideértve a mesterséges intelligencián alapuló megoldásokat a szabályozott szakmákat gyakorló egyének számára, beleértve az állami hatósági hatáskörök gyakorlásához kapcsolódó tevékenységeket, például az igazságszolgáltatást; felhívja a tagállamokat és a Bizottságot, hogy ezt megfelelően vegyék figyelembe a 2005/36/EK irányelv(11) végrehajtása során;
25. kitart amellett, hogy az MI-rendszereknek mindig meg kell felelniük a felelősség, a méltányosság, az irányíthatóság, az elővigyázatosság, az elszámoltathatóság, a betudhatóság, a kiszámíthatóság, a nyomonkövethetőség, a megbízhatóság, a szavahihetőség, az átláthatóság, a megmagyarázhatóság, a körülmények és a működési környezet esetleges változásainak észlelésére való képesség, a harcolók és a nem harcolók közötti különbségtétel, valamint az arányosság elvének; hangsúlyozza, hogy ez utóbbi elv az elérni kívánt cél és a felhasznált eszközök közötti egyensúlytól teszi függővé a katonai beavatkozás jogosságát, és ezen arányosság értékelését minden esetben emberre kell bízni vagy embernek kell jóváhagynia;
26. hangsúlyozza, hogy az MI-n alapuló rendszerek biztonsági és védelmi területen történő felhasználása során az átfogó helyzetfelismerés az emberi kezelő részéről, az MI-n alapuló rendszernek és az emberi kezelőnek a körülmények és a műveleti környezet esetleges megváltozásának észlelésére való képességének és a támadásba való beavatkozásra vagy annak leállítására való képességének kiszámíthatósága, megbízhatósága és rezilienciája a teljes parancsnoki és ellenőrzési láncban maradéktalanul szükséges a nemzetközi humanitárius jog elveinek – különösen a megkülönböztetésnek, az arányosságnak és a támadással kapcsolatos elővigyázatnak – való megfelelés érdekében; hangsúlyozza, hogy az MI-n alapuló rendszereknek mindenkor lehetővé kell tenniük az irányítással megbízott emberek számára, hogy érdemi irányítást gyakoroljanak, teljes körű felelősséget vállaljanak a rendszerekért, és elszámoltathatók legyenek valamennyi felhasználási módjukért; felhívja a Bizottságot, hogy mozdítsa elő a párbeszédet, a szorosabb együttműködést és a szinergiákat a tagállamok, a kutatók, a tudományos élet képviselői, a civil társadalom szereplői, a magánszektor – különösen a vezető vállalatok – és a katonaság között annak biztosítása érdekében, hogy az MI-re vonatkozó szabályozással kapcsolatos politikai döntéshozatali folyamatok inkluzívak legyenek;
27. hangsúlyozza, hogy a Parlament több alkalommal szorgalmazta a halált okozó autonóm fegyverrendszerekkel kapcsolatosan az érdemi emberi ellenőrzés nélküli támadásra képes, halált okozó autonóm fegyverrendszerek fejlesztését, gyártását és használatát megakadályozó közös álláspont kialakítását és mielőbbi elfogadását, valamint az ilyen rendszerek tilalmáról szóló tényleges tárgyalások megkezdését; e tekintetben emlékeztet az autonóm fegyverrendszerekről szóló, 2018. szeptember 12-i állásfoglalására; emlékeztet arra, hogy a „halált okozó autonóm fegyverrendszerek” kifejezés olyan fegyverrendszereket jelent, amelyeknél a célpontok kiválasztásának és megtámadásának kritikus funkciója felett nincs érdemi emberi ellenőrzés; hangsúlyozza, hogy a bizonyos fokú autonómiával rendelkező fegyverrendszerek útján a célpontok kiválasztásáról és halált okozó fellépésről való döntést minden esetben emberi szereplőknek kell meghozniuk érdemi ellenőrzés és felügyelet, valamint megfelelő mérlegelés alapján, összhangban az arányosság és a szükségesség elvével; hangsúlyozza, hogy az MI-n alapuló rendszerek semmilyen körülmények között nem helyettesíthetik az emberi döntéshozatalt ezen a területen;
28. megjegyzi továbbá, hogy az autonóm fegyverrendszereket – mint a mesterséges intelligencia katonai területen alkalmazott különleges kategóriáját – nemzetközi szinten kell megvitatni és megállapodás tárgyává tenni, különösen az egyes hagyományos fegyverekről szóló ENSZ-egyezmény fórumán; felhívja a figyelmet a halált okozó autonóm fegyverrendszerekről szóló, a kialakulóban lévő katonai technológiák szabályozására irányuló folyamatban lévő nemzetközi vitára, amelynek keretében eddig nem sikerült egyetértésre jutni; rámutat arra, hogy az EU csak a közelmúltban állapodott meg arról, hogy megvitatja a mesterséges intelligenciával kapcsolatos fejlemények és a digitalizáció védelmi ágazatra gyakorolt hatásait; úgy véli, hogy az EU döntő szerepet játszhat abban, hogy segítse a tagállamokat a katonai mesterséges intelligenciával kapcsolatos megközelítésük összehangolásában, hogy vezető szerepet tölthessenek be a nemzetközi megbeszélések során.
29. kitart amellett, hogy uniós szintű stratégiára van szükség a halált okozó autonóm fegyverrendszerekkel szemben, és be kell tiltani az úgynevezett „gyilkos robotokat”;
30. hangsúlyozza, hogy a katonai környezetben használt mesterséges intelligenciának meg kell felelnie bizonyos minimumkövetelményeknek, nevezetesen képesnek kell lennie arra, hogy megkülönböztesse a harcosokat a nem harcolóktól, felismerje a harctéren a harcosokat, illetve amikor egy harcos megadja magát vagy harcképtelen, ne okozzon megkülönböztetés nélküli hatásokat, ne okozzon szükségtelen emberi szenvedést, ne legyen részrehajló vagy betanítása ne szándékosan hiányos adatokon alapuljon, és eleget tegyen a nemzetközi humanitárius jog elveinek, az arányosság elvének az erőszak alkalmazása során, valamint az elővigyázatosság elvének a beavatkozás előtt;
31. úgy véli, hogy a halált okozó autonóm fegyverrendszerek alkalmazása alapvető etikai és jogi kérdéseket vet fel azzal kapcsolatban, hogy az emberek képesek-e ellenőrizni ezeket a rendszereket, és megköveteli, hogy az MI-alapú technológia ne legyen képes olyan önálló döntéseket hozni, amelyek a megkülönböztetés, az arányosság és az elővigyázatosság jogi elveit érintik;
32. szorgalmazza átlátható és kockázatcsökkentő intézkedések meghozatalát nemzetközi szinten a katonai mesterséges intelligencia fejlesztése és használata tekintetében, különös tekintettel a területi integritás és a be nem avatkozás elvére, valamint az erőszak alkalmazására; hangsúlyozza a katonai szempontok figyelembevételének fontosságát a mesterséges intelligenciára vonatkozó európai keret jogi és etikai kérdéseinek kezelése során; emlékeztet a halált okozó autonóm fegyverrendszerek fejlesztésének, gyártásának és használatának tilalmával kapcsolatos álláspontjára; sajnálatát fejezi ki amiatt, hogy nincsenek kimondottan e fegyverek használatával kapcsolatos globális egyezmények;
33. elismeri, hogy a jelentős katonai erővel rendelkező nemzetállamok között a halált okozó autonóm fegyverrendszerek fejlesztésének eredményeként napjainkra kialakult fegyverkezési verseny dinamikája meghaladja a közös szabályok és jogi keretek kidolgozásának és tényleges, egyetemes alkalmazásának és érvényre juttatásának ütemét, mivel az e rendszerek fejlesztésére és hadrendbe állítására vonatkozó információk titkosítva vannak, és a nemzetállamoknak alapvető érdekük, hogy a leggyorsabb és leghatékonyabb támadóképességet hozzák létre, az aktuális vagy lehetséges jövőbeli jogi keretektől és elvektől függetlenül;
34. úgy véli, hogy a halált okozó autonóm fegyverrendszereket csak végső esetben szabad alkalmazni, és az csak akkor jogszerű, ha szigorú emberi ellenőrzésnek vetik alá, és az ember bármikor képes átvenni az irányítást, mivel az érdemi emberi beavatkozás és felügyelet alapvető fontosságú a halált okozó döntések meghozatalának folyamatában, és mivel az élet és halál feletti döntés felett mindig az embernek kell viselnie a felelősséget; úgy véli, hogy az emberi irányítás (emberi beavatkozás) és emberi felügyelet nélküli rendszereket kivétel nélkül és minden körülmények között be kell tiltani;
35. felhívja a alelnököt/főképviselőt, a tagállamokat és az Európai Tanácsot, hogy sürgősséggel dolgozzanak ki és fogadjanak el közös álláspontot a fegyverrendszerek kritikus funkciói felett – a bevetés időtartama alatt is – érdemi emberi ellenőrzést lehetővé tevő autonóm fegyverrendszerekről, valamint hogy a megfelelő fórumokon egységesen szólaljanak fel, és ennek megfelelően járjanak el; ezzel összefüggésben felhívja az alelnököt/főképviselőt, a tagállamokat és a Tanácsot, hogy osszák meg a bevált gyakorlatokat és gyűjtsék össze a szakértők, a tudományos élet képviselői és a civil társadalom észrevételeit, amint azt az autonóm fegyverrendszerekről szóló 2018. szeptember 12-i állásfoglalás is tükrözi, amely kimondja, hogy a támadásokat mindig érdemi emberi beavatkozással kell végrehajtani;
36. arra buzdít minden államot, hogy végezzék el annak értékelését, hogy az autonóm katonai eszközök hozzájárultak-e nemzetbiztonságukhoz – és ha igen, hogyan –, illetve nemzetbiztonságuk mit nyerhetne az MI-n alapuló fegyverrendszerek révén, különösen ami e technológiák emberi döntéshozatalt támogató és erősítő lehetőségeit a nemzetközi humanitárius jognak és elveknek megfelelően; emlékeztet arra, hogy bármely halált okozó autonóm fegyverrendszer vagy nagyfokú autonómiával rendelkező fegyver meghibásodhat rosszul megírt kód, illetve ellenséges állam vagy nem állami szereplő által elkövetett esetleges kibertámadás miatt;
37. hangsúlyozza, hogy halált okozó autonóm fegyverrendszerek csakis pontosan meghatározott esetekben és részletes engedélyezési eljárások alapján alkalmazhatók, mely eljárásokat előre rögzített szövegek formájában az érintett állam – függetlenül attól, hogy az Észak-atlanti Szerződés Szervezetének tagja-e vagy sem – hozzáférhetővé tesz a nyilvánosság vagy legalább nemzeti parlamentje számára;
38. véleménye szerint a halált okozó autonóm fegyverrendszerek esetében tiszteletben kell tartani az egyes hagyományos fegyverekről szóló 1980. október 10-i egyezmény rendelkezéseit, nevezetesen a „mértéktelen szenvedés” okozására vonatkozó tilalmat;
39. ellenőrizetlen elterjedésük megelőzése céljából javasolja a halált okozó autonóm fegyverrendszerek felvételét a 2013. április 2-i fegyverkereskedelmi szerződés rendelkezéseinek hatálya alá tartozó fegyverek listájára, mely lista az említett szerződés 2. cikkében szerepel;
40. szorgalmazza a halált okozó autonóm fegyverrendszerek emberi külsővel való felruházásának tiltását a robotok és emberek összetévesztése lehetőségének kizárása érdekében;
41. üdvözli, hogy a Tanács és a Parlament egyetért abban, hogy azok a halált okozó autonóm fegyverek, amelyek a „támadások során nem teszik lehetővé az érdemi emberi ellenőrzést a cél kiválasztására és a csapás végrehajtására vonatkozó döntések kapcsán”, nem jogosultak az Európai Védelmi Alap (EDF) által nyújtott pénzügyi támogatásra; emlékeztet azon álláspontjára, hogy a halált okozó, érdemi emberi ellenőrzés nélküli autonóm fegyverek használata, fejlesztése vagy gyártása nem támogatható az EDF keretében;
42. felhívja a Bizottságot, hogy támogassa az MI békefenntartás és konfliktusmegelőzés céljából történő kutatását, fejlesztését, bevezetését és alkalmazását;
43. megjegyzi, hogy a mesterséges intelligenciával kapcsolatos globális ökoszisztémát olyan amerikai és kínai digitális óriáscégek uralják, amelyek hazai kapacitásaikat fejlesztik, és sok ígéretes vállalatot vásárolnak fel; ezért szilárd meggyőződése, hogy a mesterséges intelligenciával kapcsolatos technológiai lemaradás elkerülése érdekében az EU-nak az alapkutatás és az ipari alkalmazások közötti jobb egyensúly felé kell elmozdulnia, egyúttal pedig – saját potenciáljának és erőforrásainak további kiépítése révén – komparatív stratégiai előnyökre kell szert tennie;
44. hangsúlyozza, hogy amennyiben a 2006/42/EK irányelvben(12) szereplő „gép” fogalommeghatározása alá tartoznak, a robotokat az abban meghatározott szabványoknak és biztonsági intézkedéseknek megfelelően kell megtervezni és összeszerelni;
45. emlékeztet az EU azon törekvésére, hogy a békét szolgáló szereplő legyen, és szorgalmazza szerepének kiterjesztését a globális leszerelésre és a fegyverek elterjedésének megakadályozására irányuló erőfeszítésekben, továbbá kéri, hogy fellépései és politikái a nemzetközi béke és biztonság fenntartására irányuljanak, garantálva a nemzetközi humanitárius és emberi jogokat, valamint a polgári személyek és a polgári infrastruktúra védelmét;
46. hangsúlyozza, hogy meg kell vizsgálni, hogy a mesterséges intelligencia milyen hatást gyakorolhat stratégiai tényezőként az EU közös biztonság- és védelempolitikájára (KBVP), különös tekintettel a katonai és polgári missziókra és műveletekre, valamint az uniós képességek fejlesztésére;
47. emlékeztet arra, hogy a nemzeti, a NATO vagy az EU keretein belüli szövetségeseink maguk is azon munkálkodnak, hogy a mesterséges intelligenciát beépítsék katonai rendszereikbe; úgy véli, hogy közös szabványok révén meg kell őrizni a szövetségeseinkkel való interoperabilitást, amely elengedhetetlen a koalíciós műveletek lebonyolításához; emellett emlékeztet arra, hogy a mesterséges intelligenciával kapcsolatos együttműködésre európai keretek között kell sort keríteni, amely az EU mesterséges intelligenciára vonatkozó stratégiájában javasoltaknak megfelelően az egyetlen releváns keret a valóban hatékony szinergiák megteremtéséhez;
48. úgy véli, hogy az EU-nak gondosan nyomon kell követnie és meg kell vitatnia az MI fejlődésének a védelemre és a hadviselésre gyakorolt hatásait, beleértve a potenciálisan destabilizáló fejlesztéseket és alkalmazásokat, valamint irányítania kell az etikus kutatást és tervezést, biztosítva a személyes adatok integritását, az egyéni hozzáférést és ellenőrzést, illetve figyelembe véve a gazdasági és humanitárius kérdéseket;
49. emlékeztet a teljesen autonóm fegyverrendszerekkel kapcsolatos, 2018. szeptember 12-i álláspontjára, amely kimondja, hogy érdemi emberi ellenőrzés nélkül nem szabad támadásokat végrehajtani; felhívja az alelnököt/főképviselőt, a tagállamokat és az Európai Tanácsot, hogy fogadjanak el közös álláspontot a fegyverrendszerek kritikus funkciói felett – a bevetés időtartama alatt is – érdemi emberi ellenőrzést biztosító autonóm fegyverrendszerekről; ismételten támogatását fejezi ki az egyes hagyományos fegyverekről szóló ENSZ-egyezmény (CCW) magas szerződő feleinek a halált okozó autonóm fegyverrendszerekkel foglalkozó kormányzati szakértői csoportja által végzett munka iránt, amely továbbra is az autonóm fegyverrendszerek által jelentett jogi kihívásokkal kapcsolatos egyeztetések és tárgyalások illetékes nemzetközi fóruma; kéri valamennyi folyamatban lévő többoldalú erőfeszítés felgyorsítását annak érdekében, hogy a technológiai fejlődés és az új hadviselési módszerek ne haladják meg a normatív és szabályozási keretrendszereket; felszólítja az alelnököt/főképviselőt, hogy a CCW-egyezmény részes államai között a halált okozó autonóm fegyverrendszerek nemzetközi szabályozásáról jelenleg folytatott megbeszélések keretében maradjon elkötelezett és haladéktalanul járuljon hozzá egy új globális szabályozási keret és egy jogilag kötelező érvényű eszköz kidolgozásához, amely olyan kérdésekre összpontosít, mint a halált okozó autonóm fegyverrendszerek területén kialakulóban lévő technológiákkal kapcsolatos fogalmak, koncepciók és jellemzők, az emberi ellenőrzés etikai és jogi kérdései – különös tekintettel a kritikus funkciókra, például a célpontok kiválasztására és megtámadására –, az emberi felelősség és elszámoltathatóság fenntartása, valamint az ember és gép közti interakció szükséges foka, beleértve az emberi ellenőrzés és emberi ítélőképesség fogalmát; kéri, hogy ezek az erőfeszítések biztosítsák a nemzetközi humanitárius és emberi jogi jogszabályoknak való megfelelést a mesterséges intelligencián alapuló fegyverek életciklusának különböző szakaszaiban, azzal a céllal, hogy konkrét ajánlások szülessenek a halált okozó autonóm fegyverrendszerek területén kialakulóban lévő technológiákkal kapcsolatos normatív keret szempontjainak tisztázására, mérlegelésére és fejlesztésére vonatkozóan;
50. a globális biztonság szempontjából kiemelkedő fontosságúnak tart egy olyan hatékony mechanizmust, amely érvényre juttatta a halált okozó autonóm fegyverrendszerek elterjedésének megakadályozását célzó szabályokat és a mesterséges intelligencián alapuló jövőbeli offenzív technológiákat;
Állami fennhatóság: példák polgári területekről, beleértve az egészségügyet és az igazságszolgáltatást
51. hangsúlyozza, hogy a tagállamoknak hatékonyan kell fellépniük a külföldi adatoktól való függésük csökkentése érdekében, és – a piac jelentős torzítása nélkül – ügyelniük kell arra, hogy ne eredményezze az állami fennhatóság megkérdőjelezését vagy akár magánérdekek hatalmi pozícióba emelését az, hogy a legfejlettebb MI-technológiák erős magáncsoportok kezében vannak, különösen, ha e vállalatok az Európai Unión kívüli harmadik ország tulajdonában vannak;
52. hangsúlyozza, hogy a polgárokat negatívan érintő, elfogult határozatok születhetnek, ha a hatóságok MI-rendszereket alkalmaznak a döntéshozatali eljárásokban, és ezért szigorú ellenőrzési kritériumoknak kell vonatkozni rájuk többek között a biztonság, az átláthatóság, az elszámoltathatóság, a megkülönböztetésmentesség, valamint a társadalmi és környezeti felelősségvállalás terén; sürgeti a tagállamokat, hogy mérjék fel az állami fennhatóság gyakorlásához kapcsolódó, MI-n alapuló döntésekhez kapcsolódó kockázatokat, és gondoskodjanak biztosítékokról, például érdemi emberi felügyeletről, átláthatósági követelményekről és az ilyen döntések megtámadásának lehetőségéről;
53. sürgeti a tagállamokat, hogy mérjék fel az MI-n alapuló technológiákkal kapcsolatos kockázatokat, mielőtt automatizált tevékenységeket összekapcsolnak az állami fennhatóság – például az igazságszolgáltatás – gyakorlásával; felhívja a tagállamokat, hogy fontolják meg biztosítékok – így illetékes szakmai testület általi ellenőrzés és szigorú szakmai etikai szabályok – alkalmazásának szükségességét;
54. hangsúlyozza, hogy európai szintű fellépésre van szükség az égetően szükséges beruházások, az adatinfrastruktúra, a mesterséges intelligencia hatóságok általi felhasználására irányuló kutatást is magában foglaló kutatás és egy közös etikai keret előmozdítása érdekében;
55. hangsúlyozza, hogy az Európai Uniónak törekednie kell a stratégiai reziliencia elérésére, hogy az esetleges válsághelyzetek többé ne érjék felkészületlenül, és hangsúlyozza, hogy ennek különösen az MI és katonai alkalmazásai tekintetében van döntő jelentősége; hangsúlyozza, hogy az MI-rendszerek esetlegesen technológiai függőséghez vezető ellátási láncait felül kell vizsgálni és e függőséget fokozatosan meg kell szüntetni; szorgalmazza a védelmi célú európai mesterséges intelligenciába és az azt kiszolgáló kritikus infrastruktúrába történő beruházások fokozását;
56. felkéri a Bizottságot, hogy értékelje az arcfelismerő rendszerek használatára vonatkozó moratórium következményeit, és az értékelés eredményétől függően mérlegelje az említett rendszerek nyilvános tereken, valamint az oktatási és egészségügyi létesítményekben való, hatóságok általi használatára vonatkozó moratórium bevezetését, illetve az arcfelismerő rendszerek bűnüldöző hatóságok által a félig nyilvános tereken (például repülőtereken) való használatára vonatkozó moratórium bevezetését mindaddig, amíg a műszaki szabványok teljes mértékben megfelelnek az alapvető jogoknak, a kapott eredmények elfogulatlanok és megkülönböztetésmentesek, és szigorú biztosítékok vannak érvényben a visszaélések ellen, illetve annak biztosítására, hogy az ilyen technológiák alkalmazása szükséges és arányos legyen;
57. hangsúlyozza a kiberbiztonság jelentőségét az MI szempontjából offenzív és defenzív forgatókönyvekben egyaránt; e tekintetben tudomásul veszi a nemzetközi együttműködés, valamint az informatikai biztonsági sebezhetőségek és megoldások közzétételének és megosztásának fontosságát; nemzetközi kiberbiztonsági együttműködésre szólít fel az MI hatékony használata és bevezetése, valamint a mesterséges intelligenciával való visszaélések és a kibertámadások elleni biztosítékok érdekében; megjegyzi továbbá, hogy az informatikai rendszerek – ahogyan az MI is – kettős felhasználásúak (azaz polgári és katonai célokra egyaránt felhasználják azokat), és felszólít ennek hatékony szabályozására;
58. véleménye szerint a tagállamoknak az emberek érdekét szolgáló MI-technológiákat kell támogatniuk, és figyelmeztetni kell mindazokat, akikre vonatkozóan egy hatóság MI-rendszerből származó információk alapján hozott határozatot, és gyorsan rendelkezésükre kell bocsátani a megelőző bekezdésben említett információkat, továbbá biztosítani kell számukra a jogot, hogy fellebbezzenek e határozat ellen, és úgy döntsenek, hogy a fellebbezésről MI-rendszer beavatkozása nélkül határoznak; felhívja a tagállamokat, hogy fontolják meg az (EU) 2018/958 irányelvben(13) előirányzott biztosítékok – így illetékes szakmai testület általi ellenőrzés és szakmai etikai szabályok – alkalmazásának szükségességét;
59. hangsúlyozza, hogy az adatok megosztása, az azokhoz való hozzáférés vagy azok felhasználása alapján adott előrejelzések készítését a minőség, az integritás, az átláthatóság, a biztonság, az adatvédelem és az ellenőrzés követelményeivel összhangban kell szabályozni; hangsúlyozza, hogy az MI, a robotika és a kapcsolódó technológiák fejlesztése, bevezetése és használata során tiszteletben kell tartani az adatvédelemre és a magánélet védelmére vonatkozó uniós jogi keretet a polgárok biztonságának és az e technológiákba vetett bizalmuk növelése érdekében;
60. megállapítja, hogy az MI-alkalmazások gyorsan fejlődnek az olyan egyedi jellemzők felismerése érdekében, mint az arc, a mozgás és az attitűdök; figyelmeztet a magánélet megsértésének, a megkülönböztetésmentességnek és a személyes adatok védelmének az automatizált felismerési rendszerek használatával kapcsolatos kérdéseire;
61. hangsúlyozza, hogy az általános adatvédelmi rendelet tiltja olyan, kizárólag automatizált adatkezelésen – többek között profilalkotáson – alapuló döntés meghozatalát, amely az érintettre nézve hátrányos joghatással jár vagy őt jelentős mértékben érinti, kivéve, ha azt az érintettek jogaira, szabadságaira és jogos érdekeire vonatkozó megfelelő biztosítékokról is rendelkező uniós vagy tagállami jogszabály teszi lehetővé;
62. szorgalmazza az algoritmusok megmagyarázhatóságát, az átláthatóságot és a szabályozási felügyeletet az MI hatóságok általi használata során, valamint kéri, hogy végezzenek hatásvizsgálatokat azt megelőzően, hogy az állami hatóságok MI-technológiákat alkalmazó eszközöket vezetnének be; felhívja a Bizottságot és az Európai Adatvédelmi Testületet, hogy tegyenek közzé iránymutatásokat, ajánlásokat és bevált gyakorlatokat a profilalkotáson alapuló döntésekre és az MI hatóságok általi használatára vonatkozó kritériumok és feltételek további meghatározása érdekében;
63. megállapítja, hogy a mesterséges intelligenciára egyre alapvetőbb szerep vár az egészségügy területén, nevezetesen a diagnosztizálást támogató algoritmusoknak, a robotsebészetnek, az intelligens protéziseknek, az egyes páciensek testének háromdimenziós modellezésén alapuló, egyénre szabott kezeléseknek, az időskorúakat segítő szociális robotoknak, az egyes mentális betegségekben szenvedők autonómiájának javítására alkalmas digitális terápiáknak, a prediktív orvoslásnak és a járványkezelő szoftvereknek köszönhetően;
64. hangsúlyozza azonban, hogy az MI valamennyi közegészségügyi felhasználásának tiszteletben kell tartania a páciensek személyes adatainak védelmét és meg kell előzniük az adatok ellenőrizetlen terjesztését;
65. felszólít arra, hogy a mesterséges intelligenciának a közegészségügy területén történő valamennyi felhasználása tartsa tiszteletben a betegek egyenlőségének elvét az ellátáshoz való hozzáférés tekintetében, tartsa fenn beteg-orvos kapcsolatot, és mindenkor megfeleljen a hippokratészi eskünek, hogy az orvos mindig el tudjon térni az MI által javasolt megoldástól, ily módon fenntartva a felelősséget bármely döntésért;
66. megjegyzi, hogy a mesterséges intelligenciának a bűnözés és a kiberbűnözés elleni küzdelemben való felhasználása számos lehetőséget és alkalmat kínál; megerősíti ugyanakkor, hogy továbbra is érvényesülnie kell annak az elvnek, hogy ami jogellenes offline, az online is jogellenes;
67. megállapítja, hogy az MI-t egyre gyakrabban veszik igénybe az igazságszolgáltatásban annak érdekében, hogy minél gyorsabban észszerűbb és a hatályos jognak megfelelőbb döntéseket lehessen hozni; üdvözli, hogy az MI használata várhatóan felgyorsítja a bírósági eljárásokat;
68. úgy véli, hogy tisztázni kell, hogy helyénvaló-e a bűnüldözési határozatok meghozatalának részleges átruházása a mesterséges intelligenciára, fenntartva ugyanakkor a végső döntés felett az ember általi ellenőrzést;
69. hangsúlyozza, hogy az MI igazságszolgáltatásban való felhasználása javíthatná az adatok elemzését és gyűjtését, valamint az áldozatok védelmét, és hogy ezt meg lehetne vizsgálni a kutatás és fejlesztés során, az elővigyázatosság elvét alkalmazó hatásvizsgálatok mellett, különös tekintettel a jogszerű eljárás biztosítékaira, valamint az előítéletek és a megkülönböztetés elleni védelemre; emlékeztet ugyanakkor arra, hogy az ítélet- vagy döntéshozatal során ez nem helyettesítheti az emberi részvételt;
70. emlékeztet az irányítás, az átláthatóság, a pártatlanság, az elszámoltathatóság, a méltányosság és a szellemi integritás elvének fontosságára az MI büntető igazságszolgáltatásban való felhasználása során;
71. sürgeti a tagállamokat, hogy mérjék fel az MI-re alapozó technológiákkal kapcsolatos kockázatokat, mielőtt az állami fennhatóság gyakorlásával összefüggő tevékenységeket automatizálnának, különösen az igazságszolgáltatás területén; felhívja a tagállamokat, hogy fontolják meg biztosítékok – így illetékes szakmai testület általi ellenőrzés és szakmai etikai szabályok – alkalmazásának szükségességét;
72. megjegyzi, hogy egyes MI-technológiák lehetővé teszik az információfeldolgozás és a fellépések példa nélküli mértékű automatizálását, például a tömeges megfigyelést a polgári és katonai területeken, ami fenyegetést jelent az alapvető jogokra és utat nyit az állami szuverenitásba való jogellenes beavatkozás előtt; szorgalmazza, hogy a nemzetközi jog hatálya alatt ellenőrizzék a tömeges megfigyelési tevékenységeket, többek között a joghatósággal és a végrehajtással kapcsolatos kérdések tekintetében; komoly aggodalmának ad hangot amiatt, hogy az erősen beavatkozó jellegű társadalmi pontozási alkalmazások bevetése rendkívül veszélyes az alapvető jogok tiszteletben tartására nézve; kéri, hogy kifejezetten tiltsák be a hatóságok által a polgárok jogainak korlátozása céljából használt tömeges társadalmi pontozás alkalmazását; felszólít a magánszereplők nemzetközi jog szerinti elszámoltathatóságának fokozására, tekintettel a döntéshozatal hegemóniájára és bizonyos magánszereplők által e technológiák fejlesztése felett gyakorolt ellenőrzésre; ezzel összefüggésben felhívja a Bizottságot, a Tanácsot és a tagállamokat, hogy fordítsanak különös figyelmet a határokon átnyúló családjogi ügyekkel – például a gyermekek jogellenes külföldre vitelével – kapcsolatos nemzetközi megállapodások tárgyalása, megkötése és ratifikálása során, és ennek kapcsán biztosítsák, hogy az MI-rendszereket mindig hatékony, ember által ellenőrzött és tisztességes eljárás mellett használják az EU-ban és az e megállapodásokat aláíró országokban;
73. kéri, hogy tájékoztassák a nyilvánosságot az MI igazságszolgáltatás területén történő felhasználásáról, és hogy e felhasználások ne okozzanak a programozás elfogultságából adódó megkülönböztetést; hangsúlyozza, hogy tiszteletben kell tartani bármely személy azon jogát, hogy egy köztisztviselőhöz forduljon, valamint bármely köztisztviselő azon jogát, hogy személyesen hozza meg a döntést és eltérjen az MI által javasolt megoldástól, amennyiben ezt a konkrét ügy részletei alapján szükségesnek tartja; kiemeli az alperes azon jogát, hogy a nemzeti jogszabályoknak megfelelően fellebbezzen a határozat ellen anélkül, hogy kizárná a bírói felelősséget;
74. kéri ezért, hogy a közéleti és közigazgatási szférában történő összes felhasználás nyilvánosan hozzáférhető információnak minősüljön, és ne vezessen a programozás elfogultságából adódó megkülönböztetéshez;
75. hangsúlyozza az MI megfelelő bevezetése és használata lehetővé tételének fontosságát; felhívja a tagállamokat, hogy nyújtsanak megfelelő képzést polgári és katonai személyzetük számára annak érdekében, hogy lehetővé tegyék számukra az adatkészleteken belüli megkülönböztetés és elfogultság pontos azonosítását és elkerülését;
76. mélységesen aggasztják a deepfake technológiák, amelyek lehetővé teszik a zsarolásra, hamis híradások készítésére, a közbizalom aláásására és a nyilvános vita befolyásolására használható, egyre realisztikusabb fénykép-, hang- és videohamisítások készítését; úgy véli, hogy az ilyen gyakorlatok magában hordozzák az országok destabilizálásának, a dezinformációk terjesztésének és a választások befolyásolásának lehetőségét; ezért felszólít arra, hogy írjanak elő kötelezettséget minden deepfake anyag vagy más realisztikusan előállított szintetikus videó tekintetében annak az alkotó általi feltüntetésére vonatkozóan, hogy nem eredeti felvételről van szó, továbbá vezessenek be szigorú korlátozást a választási célokra való felhasználás tekintetében, valamint gondoskodjanak a szabályok szigorú érvényesítéséről; e téren megfelelő kutatásokra szólít fel annak biztosítása érdekében, hogy az e jelenségek elleni fellépést szolgáló technológiák lépést tartsanak az MI rosszindulatú használatával;
Közlekedés
77. tudomásul veszi az MI-alkalmazásokban rejlő jelentős gazdasági potenciált, többek között a közlekedési infrastruktúra és épületek hosszú távú teljesítményének, karbantartásának, meghibásodás-előrejelzésének és építési tervezésének optimalizálása érdekében, valamint a biztonság, az energiahatékonyság és a költségek tekintetében; felhívja ezért a Bizottságot, hogy továbbra is mozdítsa elő a mesterséges intelligenciával kapcsolatos kutatást és a közlekedés terén bevált gyakorlatok cseréjét;
78. hangsúlyozza, hogy elő kell mozdítani az MI alkalmazását a közlekedési és logisztikai ágazatban valamennyi közlekedési mód multimodalitásának, interoperabilitásának és energiahatékonyságának előmozdítása, az áru- és utasforgalom szervezése és irányítása hatékonyságának növelése, továbbá a transzeurópai közlekedési hálózat (TEN-T) infrastruktúrájának és erőforrásainak jobb kihasználása, valamint egy valódi „egységes európai közlekedési térség” létrehozása előtt álló akadályok felszámolása érdekében;
79. emlékeztet az Európai Vasúti Forgalomirányítási Rendszer (ERTMS) – egy folyamatos működésű automatikus vonatvédelmi rendszer – előnyeire, és támogatja a vasúti műveletek automatizálásának fejlesztését és nemzetközi szabványosítását;
80. üdvözli az „Egységes európai égbolt – légiforgalom-irányítási kutatóprogram” (SESAR) tevékenységét a pilóta nélküli légijármű-rendszerek és a légiforgalmi szolgáltatási rendszerek vonatkozásában, polgári és katonai területen egyaránt;
81. emlékeztet arra, hogy az önvezető járművekben nagy lehetőségek rejlenek a mobilitás és a biztonság javítására, és környezeti előnyökkel járnak, és felhívja a Bizottságot és a tagállamokat, hogy biztosítsák az együttműködést a szabályozók és az automatizált közúti járművek EU-n belüli bevezetésében érintett valamennyi érdekelt fél között;
82. rámutat, hogy a globális hajózási ágazat az elmúlt években az MI integrációjának köszönhetően jelentős változásokon ment keresztül; emlékeztet a Nemzetközi Tengerészeti Szervezetben az új és felemelkedő technológiák – például önjáró hajók – szabályozási környezetbe való hatékony integrálásáról jelenleg folytatott átfogó megbeszélésekre;
83. hangsúlyozza, hogy a intelligens közlekedési rendszerek csökkentik a forgalom zsúfoltságát, növelik a biztonságot és az akadálymentességet, és hozzájárulnak a forgalom irányításához, valamint a hatékonyságot és mobilitást érintő megoldások javításához; felhívja a figyelmet a hagyományos közlekedési hálózatok kiberfenyegetésekkel szembeni növekvő kitettségére; emlékeztet az elegendő erőforrások és a biztonsági kockázatokkal kapcsolatos további kutatások fontosságára az automatizált rendszerek és adataik biztonságának garantálása szempontjából; üdvözli a Bizottság azon szándékát, hogy rendszeresen napirendre tűzi a kiberbiztonságot a közlekedéssel foglalkozó nemzetközi szervezetekben folytatandó megbeszélések során;
84. üdvözli az MI-rendszerek közszférába való bevezetésére irányuló erőfeszítéseket, és támogatni fogja az MI közlekedési felhasználásáról szóló további vitákat; felhívja a Bizottságot, hogy végezze el a közlekedési ágazatban alkalmazott MI és hasonló technológiák értékelését, és állítsa össze azon területek nem kimerítő listáját, amelyek magas fokú kockázatoknak vannak kitéve, amennyiben az ágazatot érintő közpolitikai előjogok keretében hozott döntéseket MI-rendszerekre bíznák;
85. hangsúlyozza, hogy az Európai Védelmi Alapnak és az állandó strukturált együttműködésnek (PESCO) ösztönözniük kellene a tagállamok közötti együttműködést, illetve az európai védelmi iparágakat arra, hogy új európai védelmi képességeket fejlesszenek ki az MI terén, gondot fordítva az utánpótlás biztonságára is, továbbá figyelembe véve az etikai megfontolásokat; hangsúlyozza, hogy el kell kerülni a széttöredezettséget a különböző szereplők és alkalmazási területek közötti kapcsolatok kiépítése, a kompatibilitás és az interoperabilitás valamennyi szinten történő előmozdítása, valamint a közös mérnöki szintű munkára és platformmegoldásokra való összpontosítás révén; emlékeztet ezenfelül arra, hogy a következő Európai Hálózatfinanszírozási Eszköz – amely szintén támogatja az intelligens infrastruktúrát – finanszírozást fog biztosítani a TEN-T polgári/katonai kettős felhasználású közlekedési infrastruktúrájának átalakítására és fejlesztésére a polgári vagy védelmi szükségletek közötti szinergiák növelése érdekében, célul tűzve ki az Unió civil és katonai mobilitásának javítását; hangsúlyozza ezért, hogy további európai beruházásokra, kutatásra és vezetői szerepvállalásra van szükség a magas gazdasági növekedési hatással és jelentős kettős felhasználási potenciállal egyaránt rendelkező technológiák terén;
86. hangsúlyozza, hogy a közlekedés és a mobilitás területén az új technológiákba történő beruházások közül sok piacvezérelt, de a kettős felhasználású, felhasználásra kész kereskedelmi technológiákat és termékeket gyakran innovatív módon katonai célokra használják; hangsúlyozza ezért, hogy a mesterséges intelligencián alapuló megoldások kettős felhasználási potenciálját figyelembe kell venni a mesterséges intelligenciának a kereskedelmi és katonai ágazatok különböző területein történő felhasználására vonatkozó normák kidolgozásakor; kéri, hogy a védelmi technológiák, termékek és működési elvek fejlesztési folyamatába építsenek be magas szintű etikai normákat és politikákat;
87. hangsúlyozza, hogy a készletek, a lőszerek, a fegyverek és a csapatok hatékony szállítása a sikeres katonai műveletek alapvető eleme; hangsúlyozza, hogy az MI várhatóan döntő szerepet fog játszani és számos lehetőséget fog teremteni a katonai logisztikában és szállításban; rámutat arra, hogy világszerte az országok – köztük az uniós tagállamok – mesterséges intelligenciát alkalmazó fegyvereket és egyéb rendszereket építenek be szárazföldi, haditengerészeti és légi platformjaikba; emlékeztet arra, hogy a mesterséges intelligenciának a közlekedési ágazatban történő alkalmazása új képességeket biztosíthat és új taktikákat tehet lehetővé, mint például számos rendszer – például drónok, pilóta nélküli hajók vagy tankok – független és összehangolt műveletek keretében történő kombinációja;
Nemzetközi magánjog
88. megállapítja, hogy mivel az online vagy a valós világban zajló emberi tevékenységek nemzetközivé válásával megnőtt a nemzetközi magánjogra tartozó jogesetek száma, az MI segíthet ezek megoldásában olyan modellek megalkotásával, amelyek az egyes ügyekben lehetővé teszik az illetékes joghatóság és az alkalmazandó jog meghatározását, továbbá a legkényesebb jogszabályi ütközések feltárását, javaslatokat téve ezek megoldására is;
89. úgy véli azonban, hogy az MI nemzetközi magánjog területén történő valamennyi felhasználásáról megfelelően tájékoztatni kell a nyilvánosságot, és el kell kerülni a programozás torzításaiból adódó olyan megkülönböztetéseket, amelyek az egyik nemzeti jog számára rendszerszerűen előnyt biztosítanának egy másikkal szemben, és tiszteletben kell tartaniuk a bíróság törvény által előre meghatározott jogait, az alkalmazandó joggal összhangban lehetővé kell tenniük a fellebbezést, valamint azt, hogy bármely bíró figyelmen kívül hagyhassa az MI által javasolt megoldást;
90. hangsúlyozza, hogy az önvezető járművek Európai Unióban való közlekedésére vonatkozóan – mivel várhatóan nagymértékben megszaporodnak a nemzetközi magánjogra tartozó jogesetek – külön európai szabályozást kell alkotni, meghatározva a határokon átnyúló káresetek esetében alkalmazandó jogi szabályrendszert;
91. rámutat, hogy – tekintettel a kutatás és fejlesztés növekvő jelentőségére a magánszektorban, valamint harmadik országok hatalmas befektetéseire – Európa komoly versenyben áll; ezért támogatja az EU arra irányuló erőfeszítéseit, hogy javítsa versenyelőnyét, és úgy véli, hogy az EU-nak törekednie kell arra, hogy az MI terén normatív szereplőként lépjen fel egy rendkívül összekapcsolt világban azáltal, hogy külső partnereivel szemben hatékony stratégiát fogad el és előmozdítja az arra irányuló erőfeszítéseit, hogy – a biztonsági szabályokkal és a fogyasztóvédelmi követelményekkel, valamint az európai értékekkel és a polgárok jogaival, köztük az alapvető jogokkal összhangban – nemzetközi szinten meghatározza a mesterséges intelligenciára vonatkozó globális etikai normákat; úgy véli, hogy ez az európai vállalatok versenyképessége és fenntarthatósága szempontjából is kulcsfontosságú; felhívja a Bizottságot és a tagállamokat, hogy erősítsék meg az együttműködést a harmadik országokkal és a nemzetközi szervezetekkel – amilyen például az ENSZ, az OECD, a G7 és a G20 – és folytassanak szélesebb körű párbeszédet e gyorsan változó technológia fejlődéséből eredő kihívások kezelése érdekében; véleménye szerint ezeknek az erőfeszítéseknek különösen a közös szabványok létrehozására és a mesterséges intelligencián alapuló rendszerek interoperabilitásának javítására kell irányulnia; felhívja a Bizottságot, hogy mozdítsa elő a párbeszédet, a szorosabb együttműködést és a szinergiákat a tagállamok, a kutatók, a tudományos élet képviselői, a civil társadalom szereplői, a magánszektor – különösen a vezető vállalatok – és a katonaság között annak biztosítása érdekében, hogy az MI-re vonatkozó szabályozással kapcsolatos politikai döntéshozatali folyamatok inkluzívak legyenek;
Irányadó elvek
92. úgy véli, hogy az MI-technológiáknak és hálózati rendszereknek arra kell törekedniük, hogy garantálják a jogbiztonságot a polgárok számára; ezért hangsúlyozza, hogy a kollíziós és joghatósági szabályokat továbbra is alkalmazni kell, figyelembe véve a polgárok érdekeit, valamint azt, hogy csökkenteni kell a legkedvezőbb igazságszolgáltatási fórum kiválasztásának (forum-shopping) kockázatát; emlékeztet arra, hogy az MI nem helyettesítheti az embereket a bírósági eljárásban az ítélethozatal vagy a végső döntés meghozatala során, mivel az ilyen döntéseket mindig embernek kell meghoznia, és azokat szigorú emberi ellenőrzésnek és jogszerű eljárásnak kell alávetni; kitart amellett, hogy a mesterséges intelligenciával támogatott technológiák által szolgáltatott bizonyítékok felhasználása során az igazságügyi hatóságoknak meg kell indokolniuk döntéseiket;
93. emlékeztet rá, hogy az MI olyan tudományos vívmány, amely nem áshatja alá a jogszabályokat, hanem éppen ellenkezőleg, állandó – az Európai Unióban az uniós intézményekből és a tagállamok jogából eredő – jogi szabályozást igényel, és az MI, a robotika és a kapcsolódó technológiák semmilyen körülmények között sem sérthetik az alapvető jogokat, a demokráciát és a jogállamiságot;
94. hangsúlyozza, hogy a védelmi célokra használt mesterséges intelligenciának felelősnek, méltányosnak, nyomon követhetőnek, megbízhatónak és irányíthatónak kell lennie;
95. úgy véli, hogy a mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat – ideértve az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat azok alkalmazási területétől függetlenül – biztonságos, műszakilag szigorú módon kell fejleszteni;
o o o
96. utasítja elnökét, hogy továbbítsa ezt az állásfoglalást a Tanácsnak és a Bizottságnak.
Az Európai Parlament és a Tanács 2006/42/EK irányelve (2006. május 17.) a gépekről és a 95/16/EK irányelv módosításáról (HL L 157., 2006.6.9., 24. o.).
Az Európai Parlament és a Tanács (EU) 2018/958 irányelve (2018. június 28.) a szakmák új szabályozásának elfogadását megelőző arányossági tesztről (HL L 173., 2018.7.9., 25. o.).