Index 
 Előző 
 Következő 
 Teljes szöveg 
Eljárás : 2020/2012(INL)
A dokumentum állapota a plenáris ülésen
Válasszon egy dokumentumot : A9-0186/2020

Előterjesztett szövegek :

A9-0186/2020

Viták :

PV 19/10/2020 - 15
PV 19/10/2020 - 18
CRE 19/10/2020 - 15
CRE 19/10/2020 - 18

Szavazatok :

PV 20/10/2020 - 17
PV 20/10/2020 - 21

Elfogadott szövegek :

P9_TA(2020)0275

Elfogadott szövegek
PDF 363kWORD 123k
2020. október 20., Kedd - Brüsszel
A mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai szempontjainak kerete
P9_TA(2020)0275A9-0186/2020
Állásfoglalás
 Függelék
 Függelék

Az Európai Parlament 2020. október 20-i állásfoglalása a Bizottsághoz intézett ajánlásokkal a mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai szempontjainak keretéről (2020/2012(INL))

Az Európai Parlament,

–  tekintettel az Európai Unió működéséről szóló szerződés 225. cikkére,

–  tekintettel az Európai Unió működéséről szóló szerződés 114. cikkére,

–  tekintettel az Európai Unió Alapjogi Chartájára,

–  tekintettel az európai nagy teljesítményű számítástechnika közös vállalkozás létrehozásáról szóló, 2018. szeptember 28-i (EU) 2018/1488 tanácsi rendeletre(1),

–  tekintettel a személyek közötti, faji vagy etnikai származásra való tekintet nélküli egyenlő bánásmód elvének alkalmazásáról szóló, 2000. június 29-i 2000/43/EK tanácsi irányelvre(2) (a faji egyenlőségről szóló irányelv),

–  tekintettel a foglalkoztatás és a munkavégzés során alkalmazott egyenlő bánásmód általános kereteinek létrehozásáról szóló, 2000. november 27-i 2000/78/EK tanácsi irányelvre(3) (a munkavégzés során alkalmazott egyenlő bánásmódról szóló irányelv),

–  tekintettel a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK irányelv hatályon kívül helyezéséről szóló, 2016. április 27-i (EU) 2016/679 európai parlamenti és tanácsi rendeletre(4) (általános adatvédelmi rendelet (GDPR)) és a személyes adatoknak az illetékes hatóságok által a bűncselekmények megelőzése, nyomozása, felderítése, a vádeljárás lefolytatása vagy büntetőjogi szankciók végrehajtása céljából végzett kezelése tekintetében a természetes személyek védelméről és az ilyen adatok szabad áramlásáról, valamint a 2008/977/IB tanácsi kerethatározat hatályon kívül helyezéséről szóló, 2016. április 27-i (EU) 2016/680 európai parlamenti és tanácsi irányelvre(5),

–  tekintettel a jogalkotás minőségének javításáról szóló, 2016. április 13-i intézményközi megállapodásra(6),

–  tekintettel a Digitális Európa program 2021–2027 közötti időszakra történő létrehozásáról szóló európai parlamenti és tanácsi rendeletre irányuló, 2018. június 6-i javaslatra (COM(2018)0434),

–  tekintettel az Európai Parlamentnek, a Tanácsnak, az Európai Gazdasági és Szociális Bizottságnak és a Régiók Bizottságának címzett, „Az európai zöld megállapodás” című, 2019. december 11-i bizottsági közleményre (COM(2019)0640),

–  tekintettel az Európai Parlamentnek, a Tanácsnak, az Európai Gazdasági és Szociális Bizottságnak és a Régiók Bizottságának címzett, „Fehér könyv a mesterséges intelligenciáról: a kiválóság és a bizalom európai megközelítése” című, 2020. február 19-i bizottsági közleményre (COM(2020)0065),

–  tekintettel az Európai Parlamenthez, a Tanácshoz, a Gazdasági és Szociális Bizottsághoz és a Régiók Bizottságához intézett, az európai adatstratégiáról szóló, 2020. február 19-i bizottsági közleményre (COM(2020)0066),

–  tekintettel az Európai Parlamenthez, a Tanácshoz, a Gazdasági és Szociális Bizottsághoz és a Régiók Bizottságához intézett, Európa digitális jövőjének megtervezéséről szóló, 2020. február 19-i bizottsági közleményre (COM(2020)0067),

–  tekintettel az Európai Unió Tanácsa Európa digitális jövőjének alakításáról szóló, 2020. júniusi következtetéseire,

–  tekintettel a Bizottságnak címzett, a robotikára vonatkozó polgári jogi szabályokról szóló ajánlásokat tartalmazó, 2017. február 16-i állásfoglalására(7),

–  tekintettel az európai ipar digitalizálásáról szóló, 2017. június 1-jei állásfoglalására(8),

–  tekintettel az autonóm fegyverrendszerekről szóló, 2018. szeptember 12-i állásfoglalására(9),

–  tekintettel a digitális korban a nyelvek közötti egyenlőségről szóló, 2018. szeptember 11-i állásfoglalására(10),

–  tekintettel a mesterséges intelligenciára és a robotikára vonatkozó átfogó európai iparpolitikáról szóló, 2019. február 12-i állásfoglalására(11),

–  tekintettel a Bizottság által létrehozott, mesterséges intelligenciával foglalkozó magas szintű szakértői csoport „Etikai iránymutatás a megbízható mesterséges intelligenciára vonatkozóan” címmel készült, 2019. április 8-i jelentésére,

–  tekintettel az Európai Parlament Kutatószolgálata által készített, „A mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai szempontjainak európai keretrendszere: európai hozzáadott érték értékelése” című európai hozzáadott értéket elemző tanulmányra(12),

–  tekintettel az Európai Parlament Kutatószolgálatának Jövőkutatás Osztálya által irányított, a Tudomány és a Technológia Jövőjével Foglalkozó Testület (STOA) kérésére a következő címmel készített tájékoztatókra és tanulmányokra: „What if algorithms could abide by ethical principles?” (Mi lenne, ha az algoritmusok etikai elvekhez tudnák tartani magukat?), „Artificial Intelligence ante portas: Legal & ethical reflections” (Küszöbön a mesterséges intelligencia: jogi és etikai elgondolások), „A governance framework for algorithmic accountability and transparency” (Az algoritmusokkal kapcsolatos elszámoltathatóság és átláthatóság irányítási kerete), „Should we fear artificial intelligence?” (Tartanunk kell a mesterséges intelligenciától?) és „The ethics of artificial intelligence: Issues and initiatives” (A mesterséges intelligencia etikája: kérdések és kezdeményezések),

–  tekintettel az Európa Tanács nemzeti kisebbségek védelméről szóló keretegyezményére, az emberi jogok és alapvető szabadságok védelméről szóló egyezmény 12. jegyzőkönyvére, valamint a Regionális vagy Kisebbségi Nyelvek Európai Kartájára,

–  tekintettel az OECD Tanácsának a mesterséges intelligenciáról szóló, 2019. május 22-én elfogadott ajánlására,

–  tekintettel eljárási szabályzata 47. és 54. cikkére,

–  tekintettel a Külügyi Bizottság, a Belső Piaci és Fogyasztóvédelmi Bizottság, a Közlekedési és Idegenforgalmi Bizottság, az Állampolgári Jogi, Bel- és Igazságügyi Bizottság, a Foglalkoztatási és Szociális Bizottság, a Környezetvédelmi, Közegészségügyi és Élelmiszer-biztonsági Bizottság és a Kulturális és Oktatási Bizottság véleményére,

–  tekintettel a Jogi Bizottság jelentésére (A9-0186/2020),

Bevezetés

A.  mivel a mesterséges intelligenciát (más néven MI), a robotikát és a kapcsolódó technológiákat emberek fejlesztik, vezetik be és használják, és döntéseik meghatározzák, hogy az ilyen technológiák milyen előnyökkel járhatnak a társadalom számára;

B.  mivel gyorsan népszerűsítik és fejlesztik a mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat, amelyek lehetőségeket teremthetnek a vállalkozások és a polgárok számára, és közvetlenül befolyásolhatják társadalmaink valamennyi aspektusát, beleértve az alapvető jogokat, valamint a társadalmi és gazdasági elveket és értékeket, továbbá tartós hatást gyakorolhatnak valamennyi tevékenységi területre;

C.  mivel a mesterséges intelligencia, a robotika és a kapcsolódó technológiák jelentős változásokat fognak eredményezni a munkaerőpiacokon és a munkahelyeken is; mivel ezek helyettesíthetik az ismétlődő tevékenységeket végző munkavállalókat, megkönnyíthetik az ember és gép közötti együttműködésen alapuló munkarendszereket, növelhetik a versenyképességet és a jólétet, valamint új munkalehetőségeket teremthetnek a képzett munkavállalók számára, ugyanakkor komoly kihívást jelentenek a munkaerő átszervezése szempontjából;

D.  mivel a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztése egyúttal számos különböző ágazatban hozzájárulhat az európai zöld megállapodás fenntarthatósági céljainak eléréséhez; mivel a digitális technológiák fokozhatják a szakpolitikák környezetvédelem tekintetében kifejtett hatását; mivel szintén hozzájárulhatnak a forgalmi torlódások, valamint az üvegházhatást okozó gázok és a légszennyező anyagok kibocsátásának csökkentéséhez;

E.  mivel az olyan ágazatokban, mint a tömegközlekedés, a mesterséges intelligenciával támogatott intelligens közlekedési rendszerek felhasználhatók a sorban állás minimalizálására, az útvonal optimalizálására, a fogyatékossággal élő személyek függetlenségének növelésére és az energiahatékonyság javítására, ezáltal fokozva a dekarbonizációs erőfeszítéseket és csökkentve a környezeti lábnyomot;

F.  mivel ezek a technológiák új üzleti lehetőségeket teremtenek, amelyek hozzájárulhatnak az uniós ipar fellendüléséhez a jelenlegi egészségügyi és gazdasági válságot követően, ha jobban kihasználják őket, például a közlekedési ágazatban; mivel ezek a lehetőségek új munkahelyeket teremthetnek, mert e technológiák elterjedése növelheti a vállalkozások termelékenységét és hozzájárulhat a hatékonyság fokozásához; mivel az e területen működő innovációs programok elősegíthetik a regionális klaszterek fejlődését;

G.  mivel az Unió és tagállamai különösen felelősek a mesterséges intelligencia hozzáadott értékének kiaknázásáért, előmozdításáért és növeléséért, valamint annak biztosításáért, hogy a mesterséges intelligencián alapuló technológiák biztonságosak legyenek és hozzájáruljanak polgáraik jólétéhez és általános érdekeihez, mivel ezek jelentősen hozzájárulhatnak a polgárok életének javítására és az Unión belüli jólét előmozdítására irányuló közös cél eléréséhez azáltal, hogy számos területen és ágazatban hozzájárulnak jobb stratégiák és innováció kidolgozásához; mivel a mesterséges intelligenciában rejlő potenciál teljes körű kiaknázása, valamint annak érdekében, hogy a felhasználókban tudatosítsuk az MI-technológiák használatának előnyeit és a velük kapcsolatos kihívásokat, az oktatás és képzés során foglalkozni kell az MI-vel vagy a digitális jártassággal, többek között a digitális társadalmi befogadás előmozdítása tekintetében, és európai szintű tájékoztató kampányokat kell folytatni, amelyek pontos képet adnak a mesterséges intelligencia fejlesztésének valamennyi aspektusáról;

H.  mivel a mesterséges intelligencia, a robotika és a kapcsolódó technológiák Unión belüli fejlesztésére, bevezetésére és használatára vonatkozó közös uniós szabályozási keretnek (az MI-re vonatkozó szabályozási keretnek) lehetővé kell tennie a polgárok számára, hogy osztozzanak a bennük rejlő lehetőségekben, ugyanakkor védelmet kell biztosítania a polgárok számára az ilyen technológiák potenciális kockázataival szemben, valamint elő kell mozdítania az ilyen technológiák megbízhatóságát az Unióban és máshol; mivel ennek a keretnek az uniós jogon és értékeken kell alapulnia, valamint az átláthatóság, a megmagyarázhatóság, a méltányosság, az elszámoltathatóság és a felelősség elvét kell követnie;

I.  mivel egy ilyen szabályozási keret kulcsfontosságú a belső piac különböző nemzeti jogszabályokból eredő széttöredezettségének elkerüléséhez, és elő fogja segíteni a különösen szükséges beruházásokat, az adatinfrastruktúra fejlesztését és a kutatás támogatását; mivel ennek az ezen állásfoglalás mellékletében található rendeletre irányuló javaslatban meghatározott közös jogi kötelezettségekből és etikai elvekből kell állnia; mivel ezt a keretet a minőségi jogalkotásra vonatkozó iránymutatásokkal összhangban kell létrehozni;

J.  mivel az Unió szigorú jogi kerettel rendelkezik, amely biztosítja többek között a személyes adatok és a magánélet védelmét, valamint a megkülönböztetésmentességet, annak érdekében, hogy előmozdítsa a nemek közötti egyenlőséget, a környezetvédelmet és a fogyasztók jogait; mivel ez a kiterjedt horizontális és ágazati jogszabályokból, többek között a termékbiztonságra és a felelősségre vonatkozó meglévő szabályokból álló jogi keret továbbra is alkalmazandó lesz a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal kapcsolatban, bár a digitális transzformáció tükrözése és a mesterséges intelligencia használatából eredő új kihívások kezelése érdekében szükség lehet egyes jogi eszközök bizonyos kiigazítására;

K.  mivel aggályok merülnek fel azzal kapcsolatban, hogy a jelenlegi uniós jogi keret, többek között a fogyasztóvédelmi jog, a foglalkoztatási és szociális vívmányok, az adatvédelmi jogszabályok, a termékbiztonságra és a piacfelügyeletre vonatkozó jogszabályok, valamint a megkülönböztetés elleni jogszabályok alkalmasak-e a mesterséges intelligencia, a robotika és a kapcsolódó technológiák jelentette kockázatok hatékony kezelésére;

L.  mivel a meglévő jogszabályok kiigazításán túl az MI-technológiákkal kapcsolatos jogi és etikai kérdésekkel egy hatékony, átfogó és időtálló uniós jogi szabályozási keret révén kell foglalkozni, amely tükrözi az Uniónak a Szerződésekben és az Európai Unió Alapjogi Chartájában (a továbbiakban: a Charta) foglalt elveit és értékeit, azonban tartózkodik a túlszabályozástól, és csupán a meglévő joghézagok megszüntetésére, valamint mind a vállalkozások, mind a polgárok jogbiztonságának növelésére, nevezetesen az alapvető jogokat kétségtelenül aláásó gyakorlatok megelőzésére irányuló kötelező intézkedések bevezetésére irányul;

M.  mivel az új szabályozási keretnek valamennyi szóban forgó érdeket figyelembe kell vennie; mivel az új szabályozási keret valamennyi szereplőre gyakorolt hatásainak hatásvizsgálat keretében történő alapos vizsgálatát a további jogalkotási lépések előfeltételének kell tekinteni; mivel a kis- és középvállalkozások (kkv-k) és az induló innovatív vállalkozások – különösen az uniós gazdaságban betöltött – kulcsfontosságú szerepe indokolja a szigorúan arányos megközelítést, amely lehetővé teszi számukra a fejlődést és az innovációt;

N.  mivel a mesterséges intelligencia, a robotika és a kapcsolódó technológiák súlyos következményekkel járhatnak az egyének, csoportok és a társadalom egésze anyagi és nem anyagi integritására nézve, és ezeket a potenciális egyéni és kollektív károkat orvosolni kell a jogalkotási válaszokban;

O.  mivel a mesterséges intelligenciára vonatkozó uniós szabályozási keret tiszteletben tartása érdekében szükség lehet az Unió közlekedési ágazatára vonatkozó egyedi szabályok elfogadására;

P.  mivel az MI-technológiák stratégiai fontosságúak a közlekedési ágazat számára, többek között azért, mert növelik valamennyi közlekedési mód biztonságát és hozzáférhetőségét, valamint új foglalkoztatási lehetőségeket és fenntarthatóbb üzleti modelleket teremtenek; mivel a közlekedés területén a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésének uniós megközelítése növelheti az uniós gazdaság globális versenyképességét és stratégiai autonómiáját;

Q.  mivel az Unióban az összes közúti baleset mintegy 95%-ánál még mindig közrejátszik emberi hiba; mivel az Unió célja az volt, hogy 2020-ig 2010-hez képest 50%-kal csökkentse az évente bekövetkező halálos kimenetelű közúti balesetek számát az Unióban, de a stagnálásra tekintettel megújította erőfeszítéseit „Az EU 2021–2030 közötti időszakra vonatkozó közúti közlekedésbiztonsági szakpolitikai kerete – a következő lépések a »zéró-elképzelés« felé” című kiadványban; mivel e tekintetben az MI, az automatizálás és más új technológiák az emberi hibák lehetőségének csökkentése révén nagy lehetőségek rejtenek magukban a közúti biztonság növelésére, és fontos szerepet játszanak e téren;

R.  mivel a mesterséges intelligenciára vonatkozó uniós szabályozási keretnek azt is tükröznie kell, hogy biztosítani kell a munkavállalók jogainak tiszteletben tartását; mivel figyelembe kell venni az európai szociális partnerek digitalizációról szóló, 2020. júniusi keretmegállapodását;

S.  mivel a mesterséges intelligenciára vonatkozó uniós szabályozási keret hatókörének megfelelőnek és arányosnak kell lennie, és azt alapos elemzés tárgyává kell tenni; mivel ennek a technológiák és összetevőik széles körére ki kell terjednie, beleértve az általuk használt vagy előállított algoritmusokat, szoftvereket és adatokat is, célzott kockázatalapú megközelítésre van szükség a jövőbeli innováció akadályozásának és a szükségtelen terhek kialakulásának elkerülése érdekében, különösen a kkv-k számára; mivel a mesterséges intelligencia, a robotika és a kapcsolódó technológiák által működtetett alkalmazások sokfélesége megnehezíti a kockázatok teljes spektrumának megfelelő egységes megoldás megtalálását;

T.  mivel az adatelemzés és az MI egyre nagyobb mértékben befolyásolja a polgárok számára hozzáférhetővé tett információkat; mivel helytelen használat esetén ezek a technikák veszélyeztethetik a véleménynyilvánítás szabadságához és a tájékoztatáshoz való alapvető jogot, valamint a média szabadságát és a pluralizmust;

U.  mivel a mesterséges intelligenciára vonatkozó uniós szabályozási keret földrajzi hatályának az Unióban fejlesztett, bevezetett vagy használt mesterséges intelligencia, robotika és kapcsolódó technológiák valamennyi alkotóelemére ki kell terjednie, azokat az eseteket is beleértve, amikor a technológiák egy része az Unión kívül található vagy elhelyezkedése nem meghatározott;

V.  mivel az MI-re vonatkozó uniós szabályozási keretnek magában kell foglalnia az összes releváns szakaszt, nevezetesen a vonatkozó technológiák és alkotóelemeik fejlesztését, bevezetését és használatát, megkövetelve a vonatkozó jogi kötelezettségek és etikai elvek kellő figyelembevételét, és meg kell határoznia azokat a feltételeket, amelyek biztosítják, hogy a fejlesztők, a bevezetők és a felhasználók teljes mértékben megfeleljenek ezeknek a kötelezettségeknek és elveknek;

W.  mivel a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal kapcsolatos etikai elvek harmonizált megközelítése megköveteli, hogy az Unióban egységesen értelmezzék a technológiák alapját képező fogalmakat, például az algoritmusokat, a szoftvert, az adatokat, illetve a biometrikus azonosítást;

X.  mivel az uniós szintű fellépést az indokolja, hogy el kell kerülni a szabályozási széttöredezettséget, vagy egy sor olyan nemzeti szabályozási rendelkezés kialakítását, amelyeknek nincs közös nevezője, valamint biztosítani kell a jogszabályokban foglalt közös etikai elvek azonos módon történő alkalmazását a magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztése, bevezetése és használata során; mivel jelentős kockázatok fennállása esetén egyértelmű szabályokra van szükség;

Y.  mivel a közös etikai elvek csak akkor hatékonyak, ha jogszabályba foglalják őket, továbbá ha azonosítják az elvek betartásának biztosításáért, értékeléséért és nyomon követéséért felelős személyeket;

Z.  mivel az etikai útmutatások, például a mesterséges intelligenciával foglalkozó magas szintű szakértői csoport által elfogadott alapelvek jó kiindulási pontot jelentenek, de nem tudják biztosítani, hogy a fejlesztők, a bevezetők és a felhasználók tisztességesen járjanak el, továbbá nem tudják garantálni az egyének hatékony védelmét; mivel az ilyen útmutatások különösen fontosak a magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák tekintetében;

AA.  mivel minden tagállamnak ki kell jelölnie egy nemzeti felügyeleti hatóságot, amely felelős annak biztosításáért, értékeléséért és felügyeletéért, hogy a magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztése, bevezetése és használata megfeleljen az MI-re vonatkozó uniós szabályozási keretnek, felelős továbbá a vita és a nézőpontok cseréjének lehetővé tételéért, szoros együttműködésben az érintett érdekelt felekkel és a civil társadalommal; mivel a nemzeti felügyeleti hatóságoknak együtt kell működniük egymással;

AB.  mivel az Unió-szerte harmonizált megközelítés és a digitális egységes piac optimális működésének biztosítása érdekében értékelni kell a Bizottság és/vagy az Unió bármely ilyen összefüggésben kijelölt intézménye, szerve, hivatala és ügynöksége általi uniós szintű koordinációt a folyamatban lévő technológiai fejlődésből eredő új lehetőségek és kihívások – különösen a határokon átnyúló jellegű lehetőségek és kihívások – tekintetében; mivel e célból a Bizottságot meg kell bízni azzal, hogy találjon megfelelő megoldást az ilyen uniós szintű koordináció strukturálására;

Emberközpontú és ember alkotta mesterséges intelligencia

1.  úgy véli, hogy az ágazatspecifikus jogszabályok sérelme nélkül hatékony és harmonizált szabályozási keretre van szükség, amely az uniós jogon, aChartán és a nemzetközi emberi jogi jogszabályokon alapul, és különösen a magas kockázatú technológiákra alkalmazandó annak érdekében, hogy Unió-szerte azonos normákat lehessen megállapítani és hatékonyan lehessen védeni az uniós értékeket;

2.  véleménye szerint a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó, jogi kötelezettségekből és etikai elvekből álló, az MI-re vonatkozó új szabályozási keretnek maradéktalanul tiszteletben kell tartania a Chartát, és ezáltal tiszteletben kell tartania az emberi méltóságot, az egyén autonómiáját és önrendelkezését, törekednie kell a károkozás megelőzésére, a tisztesség, az inklúzió és az átláthatóság előmozdítására, az előítéletek és a – többek között a kisebbségi csoportokat érintő – megkülönböztetés kiküszöbölésére, továbbá azon elvek tiszteletben tartására és az azoknak való megfelelésre, melyek szerint korlátozni kell a felhasznált technológiák negatív következményeit, biztosítani kell a technológiák megmagyarázhatóságát és garantálni kell, hogy e technológiák az embereket szolgálják és ne helyettesítsék őket, illetve ne hozzanak döntéseket helyettük, mivel a végső cél minden ember jóllétének növelése;

3.  hangsúlyozza az MI-technológiákat alkalmazók, valamint a velük kapcsolatba lépők és a tőlük függők közötti erőviszonyokban tapasztalható aszimmetriára; hangsúlyozza e tekintetben, hogy a polgárok MI iránti bizalmát csak az alapértelmezés szerinti etika és a beépített etika elvét követő szabályozási keretre építve lehet kialakítani, amely biztosítja, hogy bármely üzembe helyezett MI maradéktalanul tiszteletben tartsa a Szerződéseket, a Chartát és az Unió másodlagos jogát, valamint megfeleljen azoknak; úgy véli, hogy az ilyen megközelítésnek összhangban kell állnia az uniós jogalkotást vezérlő elővigyázatosság elvével, és az MI-re vonatkozó bármely szabályozási keret középpontjában kell állnia; e tekintetben egyértelmű és koherens irányítási modellt szorgalmaz, amely lehetővé teszi a vállalatok és az innovátorok számára a mesterséges intelligencia, a robotika és a kapcsolódó technológiák továbbfejlesztését;

4.   úgy véli, hogy a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal kapcsolatos bármely jogalkotási intézkedésnek összhangban kell lennie a szükségesség és az arányosság elvével;

5.   úgy véli, hogy ez a megközelítés lehetővé teszi a vállalatok számára, hogy innovatív termékeket vezessenek be a piacra, és új lehetőségeket teremtsenek, miközben biztosítja az uniós értékek védelmét azáltal, hogy olyan MI-rendszerek kifejlesztéséhez vezet, amelyek beépített módon magukban foglalják az uniós etikai elveket; úgy véli, hogy egy ilyen értékalapú szabályozási keret hozzáadott értéket képviselne azáltal, hogy egyedülálló versenyelőnyt biztosítana az Unió számára, és a belső piac fellendítése révén jelentősen hozzájárulna az uniós polgárok és vállalkozások jóllétéhez és jólétéhez; hangsúlyozza, hogy egy ilyen MI-re vonatkozó szabályozási keret az innováció belső piacon történő előmozdítása tekintetében is hozzáadott értéket fog képviselni; úgy véli, hogy például a közlekedési ágazatban ez a megközelítés lehetőséget nyújt az uniós vállalkozások számára arra, hogy globális vezetővé váljanak ezen a területen;

6.  megjegyzi, hogy az uniós jogi keretnek vonatkoznia kell a mesterséges intelligenciára, a robotikára és a kapcsolódó technológiákra, többek között az ilyen technológiák által használt vagy előállított szoftverekre, algoritmusokra és adatokra;

7.  megjegyzi, hogy a mesterséges intelligencián, a robotikán és a kapcsolódó technológiákon alapuló lehetőségek a nagy adathalmazokra („Big Data”) támaszkodnak, valamint hogy az algoritmusok tanításához és az eredmények finomításához szükség van az adatok kritikus tömegére; e tekintetben üdvözli a Bizottság javaslatát egy közös uniós adattér létrehozására az adatcsere megerősítése és a kutatás támogatása érdekében, az európai adatvédelmi szabályok teljes körű tiszteletben tartása mellett;

8.  úgy véli, hogy a – különösen a magánélet és a személyes adatok védelmére vonatkozó – hatályos uniós jogi keret teljes mértékben alkalmazandó a mesterséges intelligenciára, a robotikára és a kapcsolódó technológiákra, és azt rendszeresen felül kell vizsgálni és ellenőrizni kell, szükség esetén pedig naprakésszé kell tenni az említett technológiák által okozott kockázatok hatékony kezelése végett, továbbá hogy e tekintetben előnyös lehet, ha szilárd etikai iránymutatásokkal egészül ki; rámutat, hogy ahol korai lenne jogi aktus elfogadása, ott puha jogi keretet kell alkalmazni;

9.  elvárja a Bizottságtól, hogy a mesterséges intelligenciáról szóló fehér könyv alapján olyan szilárd etikai megközelítést építsen be az ezen állásfoglalás mellékletében kért jogalkotási javaslatba, többek között a biztonságra, a felelősségre és az alapvető jogokra vonatkozóan, amely maximalizálja az MI-vel kapcsolatos technológiákban rejlő lehetőségeket és minimalizálja azok kockázatait; elvárja, hogy a kért jogalkotási javaslat tartalmazzon szakpolitikai megoldásokat a mesterséges intelligencia jelentős elismert kockázataira, többek között a nagy adathalmazok etikus gyűjtésére és felhasználására, valamint az algoritmikus átláthatóság és az algoritmikus torzítás kérdésére; felszólítja a Bizottságot, hogy dolgozzon ki az MI-technológia jelölésére szolgáló kritériumokat és mutatókat az átláthatóság, a megmagyarázhatóság és az elszámoltathatóság előmozdítása, valamint a fejlesztők további óvintézkedésekre való ösztönzése érdekében; hangsúlyozza, hogy be kell fektetni a nem műszaki tudományágaknak az MI-vel kapcsolatos tanulmányokba és kutatásokba való integrálásába, figyelembe véve a társadalmi összefüggéseket;

10.  úgy véli, hogy a mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat az emberi szükségletekhez kell igazítani azzal az elvvel összhangban, amely szerint fejlesztésüknek, bevezetésüknek és használatuknak mindig az emberek szolgálatában kell állnia, és sohasem fordítva, továbbá törekedniük kell a jóllét és az egyéni szabadság növelésére, a béke megőrzésére, a konfliktusok megelőzésére és a nemzetközi biztonság megerősítésére, miközben maximalizálják a kínált előnyöket, valamint megelőzik és csökkentik a kockázatokat;

11.  kijelenti, hogy a magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák többek között, de nem kizárólag emberek általi fejlesztését, bevezetését és használatát mindig az etikának kell vezérelnie, és azokat úgy kell megtervezni, hogy tiszteletben tartsák és lehetővé tegyék az emberi beavatkozást és a demokratikus felügyelet gyakorlását, valamint szükség esetén a megfelelő kontrollintézkedések végrehajtása révén lehetővé tegyék az emberi ellenőrzés visszavételét;

Kockázatértékelés

12.  hangsúlyozza, hogy minden jövőbeli szabályozásnak differenciált és jövőorientált kockázatalapú megközelítést kell követnie a mesterséges intelligencia, a robotika és a kapcsolódó technológiák szabályozása terén, ideértve a technológiasemleges szabványokat valamennyi ágazatban, adott esetben ágazatspecifikus szabványokkal kiegészítve; megjegyzi, hogy a kockázatértékelési rendszer egységes végrehajtásának biztosítása, valamint a tagállamok közötti egyenlő versenyfeltételek biztosítására és a belső piac szétaprózódásának megelőzésére vonatkozó jogi kötelezettségeknek való megfelelés érdekében szükség van a magas kockázatú ágazatok és a magas kockázatú felhasználások vagy célok kimerítő és összesített jegyzékére; hangsúlyozza, hogy ezt a jegyzéket rendszeresen felül kell vizsgálni, és megjegyzi, hogy e technológiák változó természete miatt a jövőben szükség lehet a kockázatértékelésük elvégzési módjának újragondolására;

13.  úgy véli, hogy annak eldöntésének, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák magas kockázatúaknak tekintendők-e, és így a mesterséges intelligenciára vonatkozó szabályozási keretben meghatározott jogi kötelezettségeknek és etikai elveknek való kötelező megfelelés hatálya alá tartoznak-e, minden esetben pártatlan, szabályozott és külső, konkrét és meghatározott kritériumok szerint elvégzett előzetes értékelésen kell alapulnia;

14.  e tekintetben úgy véli, hogy amennyiben a mesterséges intelligencia, robotika és a kapcsolódó technológiák fejlesztése, bevezetése és használata során jelentős a kockázata annak, hogy egyes személyek vagy a társadalom számára sérülést vagy kárt okoznak az uniós jogban meghatározott alapvető jogok és biztonsági szabályok megsértésével, akkor azokat magas kockázatú technológiáknak kell tekinteni; úgy véli, hogy az arra irányuló értékelés során, hogy az MI-technológiák ilyen kockázatot jelentenek-e, figyelembe kell venni azt az ágazatot, amelyben e technológiákat fejlesztik, bevezetik vagy használják, valamint konkrét felhasználásukat vagy céljukat és a lehetséges sérülés vagy kár súlyosságát; az első és a második kritériumot, nevezetesen az ágazatot és a konkrét felhasználást vagy célt együttesen kell figyelembe venni;

15.  hangsúlyozza, hogy e technológiák kockázatértékelését a magas kockázatú ágazatok, valamint a magas kockázatú felhasználások és célok kimerítő és összesített jegyzéke alapján kell elvégezni; határozottan úgy véli, hogy e technológiák kockázatértékelésének az Unión belül koherensnek kell lennie, különösen abban az esetben, ha azokat mind az MI-re vonatkozó szabályozási keretnek való megfelelésük fényében, mind pedig az alkalmazandó esetleges ágazatspecifikus jogszabályokkal összhangban értékelik;

16.  úgy véli, hogy ezt a kockázatalapú megközelítést úgy kell kidolgozni, hogy az a meglévő eszközök felhasználásával a lehető legnagyobb mértékben korlátozza a vállalatok és különösen a kkv-k adminisztratív terheit; az ilyen eszközök közé tartozik többek között az (EU) 2016/679 rendeletben előírt adatvédelmi hatásvizsgálatok jegyzéke;

Biztonsági jellemzők, átláthatóság és elszámoltathatóság

17.  emlékeztet arra, hogy a fogyasztók tájékoztatáshoz való jogát az uniós jog kulcsfontosságú elvként rögzíti, és hangsúlyozza, hogy ezért teljes mértékben végre kell hajtani azt a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal összefüggésben; úgy véli, hogy ennek különösen ki kell terjednie az átláthatóságra a mesterségesintelligencia-rendszerekkel való interakció tekintetében, többek között az automatizálási folyamatokat illetően, valamint a rendszerek működési módját, képességeit, például az információk szűrésének és megjelenítésének módját, pontosságát és korlátait illetően; úgy véli, hogy ezt az információt a nemzeti felügyeleti hatóságok és a nemzeti fogyasztóvédelmi hatóságok rendelkezésére kell bocsátani;

18.   hangsúlyozza, hogy a fogyasztói bizalom elengedhetetlen e technológiák fejlesztéséhez és alkalmazásához, amelyek eredendő kockázatokat hordozhatnak, amennyiben átláthatatlan algoritmusokon és torzított adathalmazokon alapulnak; úgy véli, hogy a fogyasztóknak jogot kell biztosítani ahhoz, hogy érthetően, kellő időben, szabványosítottan, pontos és akadálymentes módon megfelelően tájékoztassák őket az algoritmikus rendszerek létezéséről, indokolásáról, lehetséges eredményéről és fogyasztókra gyakorolt hatásairól, arról, hogy hogyan lehet elérni egy döntéshozatali hatáskörrel rendelkező embert, valamint arról, hogy hogyan lehet ellenőrizni, érdemben vitatni és korrigálni a rendszer döntéseit; e tekintetben hangsúlyozza, hogy figyelembe kell venni és tiszteletben kell tartani azokat a tájékoztatási és közzétételi elveket, amelyekre a fogyasztóvédelmi jog vívmányai épülnek; úgy véli, hogy részletes tájékoztatást kell nyújtani a végfelhasználók számára a közlekedési rendszerek és a mesterséges intelligencia által támogatott járművek működéséről;

19.  megjegyzi, hogy alapvető fontosságú, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák által használt vagy előállított algoritmusok és adathalmazok megmagyarázhatóak legyenek, és amennyiben feltétlenül szükséges, az adatvédelemre, a magánélet védelmére, a szellemi tulajdonjogokra és az üzleti titkokra vonatkozó uniós jogszabályok maradéktalan tiszteletben tartása mellett hozzáférhetőek legyenek a hatóságok, például a nemzeti felügyeleti hatóságok és a piacfelügyeleti hatóságok számára; megjegyzi továbbá, hogy a lehető legszigorúbb és alkalmazandó ágazati szabványokkal összhangban azoknak kell tárolniuk a dokumentációt, akik részt vesznek a magas kockázatú technológiák fejlesztésének különböző szakaszaiban; megjegyzi, hogy a piacfelügyeleti hatóságok e tekintetben további előjogokkal rendelkezhetnek; e tekintetben hangsúlyozza a jogszerű visszafejtés szerepét; úgy véli, hogy szükség lehet a piacfelügyeletre vonatkozó jelenlegi jogszabályok vizsgálatára annak érdekében, hogy biztosítható legyen, hogy az etikai kérdések szempontjából megfelelően reagálnak a mesterséges intelligencia, a robotika és a kapcsolódó technológiák elterjedésére;

20.  kéri, hogy a magas kockázatú technológiák fejlesztői és bevezetői számára írják elő, hogy amennyiben a kockázatértékelés azt jelzi, bocsássák a hatóságok rendelkezésére a felhasználásra, a tervezésre és a biztonsági utasításokra vonatkozó megfelelő dokumentációt, többek között – amennyiben az feltétlenül szükséges, és teljes mértékben tiszteletben tartva az adatvédelemre, a magánélet védelmére, a szellemitulajdon-jogokra és az üzleti titkokra vonatkozó uniós jogszabályokat – a forráskódokat, a fejlesztési eszközöket és a rendszer által használt adatokat; megjegyzi, hogy egy ilyen kötelezettség lehetővé tenné annak értékelését, hogy azok megfelelnek-e az uniós jognak és az etikai elveknek, és e tekintetben rámutat a nemzeti könyvtárak kiadványainak hivatalos letétbe helyezésével kapcsolatos példára; megjegyzi, hogy fontos különbséget tenni az algoritmusok átláthatósága és az algoritmusok használatának átláthatósága között;

21.  megjegyzi továbbá, hogy az emberi méltóság, az autonómia és a biztonság tiszteletben tartása érdekében kellő figyelmet kell fordítani a létfontosságú és fejlett orvosi berendezésekre, valamint annak szükségességére, hogy független megbízható hatóságok megőrizzék az e berendezéseket hordozó személyek számára történő szolgáltatásnyújtáshoz szükséges eszközöket, amennyiben azokat az eredeti fejlesztő vagy beépítő már nem nyújtja; az ilyen szolgáltatások magukban foglalnák például a karbantartást, a javítást és a fejlesztést, beleértve a működési hibákat és a sebezhetőségeket korrigáló szoftverfrissítéseket is;

22.  fenntartja, hogy a magas kockázatú mesterséges intelligenciát, robotikát és kapcsolódó technológiákat, többek között az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat, fejlesztésük, bevezetésük és felhasználásuk helyétől függetlenül, tervezés szerint biztonságos, nyomon követhető, technikailag stabil, megbízható, etikus és jogilag kötelező módon kell kifejleszteni, és független ellenőrzésnek és felügyeletnek kell alávetni őket; különösen úgy véli, hogy a mesterséges intelligenciával kapcsolatos termékek és szolgáltatások fejlesztési és ellátási láncában részt vevő valamennyi szereplőnek jogilag elszámoltathatónak kell lennie, és hangsúlyozza, hogy mechanizmusokra van szükség a felelősség és az elszámoltathatóság biztosításához;

23.  hangsúlyozza, hogy a megmagyarázhatóságra, az ellenőrizhetőségre, a nyomonkövethetőségre és az átláthatóságra vonatkozó szabályozás és iránymutatások, továbbá – amennyiben a kockázatértékelés ezt megköveteli, és feltétlenül szükséges, valamint az uniós jog – például az adatvédelemre, a magánélet védelmére, a szellemitulajdon-jogokra és az üzleti titkokra vonatkozó jogszabályok – teljes körű tiszteletben tartása mellett – a hatóságoknak az ilyen technológiák alapjául szolgáló technológiákhoz, adatokhoz és számítástechnikai rendszerekhez való hozzáférése elengedhetetlen a polgárok e technológiákba vetett bizalmának biztosításához, még akkor is, ha a megmagyarázhatóság mértéke a technológiák összetettségéhez kapcsolódik; rámutat arra, hogy nem mindig lehet magyarázatot adni arra, hogy egy modell miért vezetett egy adott eredményhez, például a „fekete doboz” jellegű algoritmusok esetében; ezért úgy véli, hogy ezen elvek tiszteletben tartása az elszámoltathatóság biztosításának előfeltétele;

24.  úgy véli, hogy a polgárokat, köztük a fogyasztókat tájékoztatni kell, ha mesterséges intelligenciát használó rendszerrel lépnek interakcióba, különösen annak érdekében, hogy egy terméket vagy szolgáltatást személyre szabjanak a felhasználók számára, hogy ki tudják-e kapcsolni vagy korlátozni tudják-e a személyre szabást, és ha igen, hogyan;

25.   e tekintetben hangsúlyozza, hogy ahhoz, hogy megbízhatóak legyenek, a mesterséges intelligenciának, a robotikának és kapcsolódó technológiáiknak technikailag stabilaknak és pontosaknak kell lenniük;

26.  hangsúlyozza, hogy fontos az összekapcsolt MI- és robotikai hálózatok védelme, és erőteljes intézkedésekkel ki kell küszöbölni a biztonsági réseket, az adatszivárgásokat, az adatmérgezéseket, a kibertámadásokat és a személyes adatokkal való visszaéléseket, továbbá hogy ehhez az érintett ügynökségeknek, szerveknek és intézményeknek mind uniós, mind nemzeti szinten együtt kell működniük egymással és e technológiák végfelhasználóival; felhívja a Bizottságot és a tagállamokat, hogy az MI-technológiák fejlesztése és telepítése során mindenkor biztosítsák az uniós értékek és az alapvető jogok tiszteletben tartását az Unió digitális infrastruktúrája biztonságának és ellenálló képességének garantálása végett;

A torzítás és a megkülönböztetés tilalma

27.  emlékeztet rá, hogy – attól függően, hogy miképpen fejlesztették és használják – a mesterséges intelligenciában benne rejlik a lehetőség a torzítások megteremtésére és megerősítésére, többek között a kiindulási adatállományokban meglevő torzítások révén, és ily módon létrejöhet az automatikus megkülönböztetés, többek között a közvetett megkülönböztetés számos formája hasonló jellemzőkkel rendelkező egyes embercsoportokkal szemben; felszólítja a Bizottságot és a tagállamokat, hogy hozzanak meg minden lehetséges intézkedést az ilyen torzítások megelőzése és az alapvető jogok maradéktalan védelmének biztosítása céljából;

28.  aggódik a magas kockázattal járó mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztése, bevezetése és használata során jelentkező torzítás és megkülönböztetés kockázata miatt; emlékeztet arra, hogy minden körülmények között tiszteletben kell tartaniuk az uniós jogot, valamint az emberi jogokat és méltóságot, az egyén autonómiáját és önrendelkezését, és mindenki számára biztosítaniuk kell az egyenlő bánásmódot és a megkülönböztetésmentességet;

29.  hangsúlyozza, hogy a mesterségesintelligencia-technológiákat úgy kell megtervezni, hogy tiszteletben tartsák, szolgálják és védjék az uniós értékeket és a fizikai és szellemi integritást, fenntartsák az Unió kulturális és nyelvi sokféleségét, és hozzájáruljanak az alapvető szükségletek kielégítéséhez; hangsúlyozza, hogy el kell kerülni az olyan használatokat, amelyek elfogadhatatlan közvetlen vagy közvetett kényszerhez vezethetnek, alááshatják a pszichológiai autonómiát és a mentális egészséget, illetve indokolatlan megfigyeléshez, megtévesztéshez vagy elfogadhatatlan manipulációhoz vezethetnek;

30.  szilárd meggyőződése, hogy a Chartában foglalt alapvető emberi jogokat szigorúan tiszteletben kell tartani annak biztosítása érdekében, hogy ezek a kialakulóban lévő technológiák ne okozzanak hézagokat a védelem terén;

31.  megerősíti, hogy a szoftverekben, algoritmusokban és adatokban rejlő lehetséges torzítás és az általuk okozott lehetséges megkülönböztetés nyilvánvaló károkat okozhat az egyéneknek és a társadalomnak, ezért ezeket ellensúlyozó stratégiák – például a kutatásban és fejlesztésben alkalmazott adathalmazok torzításának megszüntetése – kidolgozásának és megosztásának ösztönzésével, valamint az adatfeldolgozására vonatkozó szabályok kidolgozásával kell kezelni; úgy véli, hogy ez a megközelítés lehetőséget kínál arra, hogy a szoftvereket, algoritmusokat és adatokat bizonyos helyzetekben a torzítás és a megkülönböztetés elleni küzdelem eszközévé, valamint az egyenlő jogok és a pozitív társadalmi változás hajtóerejévé alakítsák;

32.  úgy véli, hogy e technológiák alapját a méltányosság, a pontosság, a titoktartás és az átláthatóság etikai értékeinek kell képezniük, ami ebben az összefüggésben azt jelenti, hogy működésüknek olyannak kell lennie, hogy ne generáljon torzított kimeneti adatokat;

33.  hangsúlyozza a mesterséges intelligenciához, a robotikához és a kapcsolódó technológiákhoz használt adathalmazok minőségének fontosságát azok kontextusától függően, különös tekintettel a betanító adatok reprezentatív jellegére, az adathalmazok torzításainak megszüntetésére, a használt algoritmusokra, valamint az adatokra és az aggregálásra vonatkozó szabványokra; hangsúlyozza, hogy ezeknek az adathalmazoknak a nemzeti felügyeleti hatóságok által ellenőrizhetőknek kell lenniük minden olyan esetben, amikor felhívás érkezik annak biztosítására, hogy megfeleljenek a korábban említett elveknek;

34.   hangsúlyozza, hogy a különösen a nem európai szereplők által vezetett kiterjedt dezinformációs háború összefüggésében az MI-technológiák etikailag káros hatásokkal járhatnak az adatok és algoritmusok torzításainak kihasználása vagy annak révén, hogy valamely harmadik ország szándékosan megváltoztathatja a betanító adatokat, továbbá előre nem látható módon és kiszámíthatatlan következményekkel ki lehetnek téve a rosszindulatú manipuláció egyéb veszélyes formáinak is; ezért egyre nagyobb szükség van arra, hogy az Unió továbbra is beruházzon a kutatásba, az elemzésbe, az innovációba, valamint a határokon és ágazatokon átnyúló tudástranszferbe annak érdekében, hogy olyan MI-technológiákat fejlesszenek ki, amelyek egyértelműen mentesek lennének a profilalkotás, a torzítás és a megkülönböztetés minden formájától, és amelyek hatékonyan hozzá tudnának járulni az álhírek és a dezinformáció elleni küzdelemhez, tiszteletben tartva ugyanakkor az adatvédelmet és az uniós jogi kereteket;

35.  emlékeztet annak fontosságára, hogy az egyének számára hatékony jogorvoslati lehetőségeket biztosítsanak, és felhívja a tagállamokat annak biztosítására, hogy hozzáférhető, megfizethető, független és hatékony eljárások és felülvizsgálati mechanizmusok álljanak rendelkezésre a polgárok jogainak, például a fogyasztói vagy polgári jogoknak az algoritmikus rendszerek használata révén történő megsértésével kapcsolatos valamennyi panasz pártatlan kivizsgálásának biztosítására, függetlenül attól, hogy annak forrásai állami vagy magánszektorbeli szereplők; hangsúlyozza a fogyasztók kollektív érdekeinek védelmére irányuló képviseleti eljárásokról és a 2009/22/EK irányelv hatályon kívül helyezéséről szóló európai parlamenti és tanácsi irányelvtervezet fontosságát, amelyről 2020. június 22-én politikai megállapodás született a fogyasztói jogok megsértésének kockázatával járó mesterségesintelligencia-rendszer bevezetését vagy folyamatban lévő használatát vitató, illetve a jogok megsértése esetén jogorvoslatot kérő jövőbeli ügyek tekintetében; kéri a Bizottságot és a tagállamokat annak biztosítására, hogy a nemzeti és uniós fogyasztói szervezetek elegendő finanszírozásban részesüljenek ahhoz, hogy segítsék a fogyasztókat jogorvoslathoz való joguk gyakorlásában olyan esetekben, amikor jogaikat megsértették;

36.   ezért úgy véli, hogy bármely természetes vagy jogi személy számára lehetővé kell tenni, hogy jogorvoslatot kérjen a mesterséges intelligenciával, robotikával vagy kapcsolódó technológiával az ő kárára, az uniós vagy a nemzeti jogot megsértve hozott döntésért;

37.  úgy véli, hogy ebben az összefüggésben az uniós szabályozási keret megsértésének gyanúja esetén első kapcsolattartó pontként a fogyasztók a nemzeti felügyeleti hatóságokat is megkereshetik jogorvoslat iránti kérelmekkel, a fent említett keret hatékony érvényesítésének biztosítása érdekében;

Társadalmi felelősség és a nemek közötti egyensúly

38.  hangsúlyozza, hogy a társadalmilag felelős mesterséges intelligenciának, robotikának és kapcsolódó technológiáknak szerepet kell játszaniuk olyan megoldások keresésében, amelyek védik és előmozdítják társadalmunk olyan alapvető jogait és értékeit, mint a demokrácia, a jogállamiság, a sokszínű és független média és az objektív és szabadon hozzáférhető tájékoztatás, az egészség és a gazdasági jólét, az esélyegyenlőség, a munkavállalói és szociális jogok, a jó minőségű oktatás, a gyermekek védelme, a kulturális és nyelvi sokszínűség, a nemek közötti egyenlőség, a digitális jártasság, az innováció és a kreativitás; emlékeztet arra, hogy biztosítani kell valamennyi polgár – köztük a perifériára szorult vagy kiszolgáltatott helyzetben lévők, például a fogyatékossággal élők – érdekeinek megfelelő figyelembevételét és képviseletét;

39.  hangsúlyozza annak fontosságát, hogy ezen a területen is magas szintű általános digitális jártasságot érjenek el és magasan képzett szakembereket képezzenek, valamint biztosítsák az ilyen képesítések Unió-szerte történő kölcsönös elismerését; kiemeli, hogy sokszínű fejlesztői-mérnöki csapatokra van szükség, amelyek társadalmi kulcsszereplőkkel együtt dolgoznak a nemi alapú és kulturális torzítások megelőzése céljából, amelyek óvatlan módon bekerülhetnek az MI-algoritmusokba, -rendszerekbe és -alkalmazásokba; támogatja a mesterséges intelligencia társadalmi, jogi és etikai hatásaival kapcsolatos oktatási tantervek és lakossági kampányok létrehozását;

40.  hangsúlyozza annak alapvető fontosságát, hogy biztosítsák a gondolat- és véleménynyilvánítás szabadságát, így biztosítva, hogy ezek a technológiák ne mozdítsák elő a gyűlöletbeszédet vagy az erőszakot; ezért úgy véli, hogy a digitálisan gyakorolt véleménynyilvánítás szabadságának akadályozása vagy korlátozása az Unió alapelvei szerint jogellenes, kivéve, ha ezen alapvető jog gyakorlása jogellenes cselekményekkel jár;

41.  hangsúlyozza, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák hozzájárulhatnak a társadalmi egyenlőtlenségek csökkentéséhez, és kijelenti, hogy fejlődésük európai modelljének a polgárok bizalmán és a nagyobb társadalmi kohézión kell alapulnia;

42.  hangsúlyozza, hogy semmilyen mesterségesintelligencia-rendszer bevezetése nem korlátozhatja indokolatlanul a felhasználók közszolgáltatásokhoz, például a társadalombiztosításhoz való hozzáférését; ezért felhívja a Bizottságot, hogy értékelje, hogyan érhető el ez a célkitűzés;

43.  hangsúlyozza a felelősségteljes kutatás és fejlesztés fontosságát, amelynek célja a mesterséges intelligencia, a robotika és a kapcsolódó technológiák teljes potenciáljának kihasználása a polgárok és a közjó érdekében; kéri, hogy az Unió és tagállamai mozgósítsanak forrásokat a felelős innováció fejlesztése és támogatása érdekében;

44.  hangsúlyozza, hogy a technológiai szakértelem egyre fontosabb lesz, és ezért folyamatosan naprakésszé kell tenni a képzéseket, különösen a jövő nemzedékek számára, valamint elő kell mozdítani a munkaerőpiacon már jelen lévők szakmai átképzését; e tekintetben kitart amellett, hogy az innovációt és a képzést nemcsak a magánszektorban, hanem a közszférában is elő kell mozdítani;

45.  kitart amellett, hogy e technológiák fejlesztése, bevezetése és használata semmilyen sérülést vagy kárt nem okozhat az egyéneknek, a társadalomnak vagy a környezetnek, és hogy ennek megfelelően a vonatkozó uniós és nemzeti felelősségi szabályokkal összhangban e technológiák fejlesztőit, bevezetőit és felhasználóit felelősségre kell vonni az ilyen sérülésért vagy kárért;

46.  felhívja a tagállamokat annak értékelésére, hogy a munkahelyeknek az e technológiák bevezetéséből eredő megszűnését megfelelő közpolitikáknak, például a munkaidő csökkentésének kell-e követnie;

47.  fenntartja, hogy egyértelmű szükség mutatkozik az uniós értékeken és etikai elveken alapuló tervezési megközelítésre a mesterséges intelligencia, a robotika és a kapcsolódó technológiák széles körű társadalmi elfogadásához szükséges feltételek kialakítása érdekében; úgy véli, hogy ez a megközelítés, amely a megbízható, etikailag felelős és technikailag stabil mesterséges intelligencia kialakítását kívánja elérni, a fenntartható, intelligens, biztonságos és hozzáférhető mobilitás fontos ösztönzője;

48.  felhívja a figyelmet az autonóm járművek által a csökkent mozgásképességű személyek számára nyújtott magas hozzáadott értékre, mivel e járművek révén hatékonyabban vehetnek részt a közúti közlekedésben, ami egyszerűbbé teszi a mindennapi életüket; hangsúlyozza a hozzáférhetőség fontosságát, különösen a MaaS-rendszerek (mobilitási szolgáltatás) tervezésekor;

49.  felhívja a Bizottságot, hogy továbbra is támogassa a megbízható mesterségesintelligencia-rendszerek fejlesztését annak érdekében, hogy a közlekedés biztonságosabbá, hatékonyabbá, hozzáférhetőbbé, megfizethetőbbé és befogadóbbá váljon, többek között a csökkent mozgásképességű személyek, különösen a fogyatékossággal élő személyek számára, figyelembe véve az (EU) 2019/882 európai parlamenti és tanácsi irányelvet(13) és az utasok jogairól szóló uniós jogot;

50.  úgy véli, hogy a mesterséges intelligencia segíthet a fogyatékossággal élő személyek készségeinek és kompetenciáinak jobb kihasználásában, és hogy a mesterséges intelligencia munkahelyi alkalmazása hozzájárulhat a befogadó munkaerőpiacokhoz és a fogyatékossággal élő személyek magasabb foglalkoztatási arányához;

Környezetvédelem és fenntarthatóság

51.  kijelenti, hogy a kormányoknak és a vállalkozásoknak alkalmazniuk kell a mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat az emberek és a bolygó javára, hozzájárulva a fenntartható fejlődés, a környezetvédelem, a klímasemlegesség és a körforgásos gazdaság céljainak eléréséhez; e technológiák fejlesztésének, bevezetésének és használatának hozzá kell járulnia a zöld átálláshoz, a környezet megőrzéséhez, valamint a technológiák életciklusa során és a teljes szállítói láncban a környezetben okozott kár minimalizálásához és helyreállításához az uniós jogszabályokkal összhangban;

52.  tekintettel jelentős környezeti hatásukra, az előző bekezdés alkalmazásában a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésének, bevezetésének és használatának környezeti hatását – adott esetben – az ágazatspecifikus hatóságok egész élettartamuk alatt értékelhetik; ez az értékelés magában foglalhatja a szükséges anyagok kitermelésének becsült hatását, valamint a fejlesztésük, bevezetésük és felhasználásuk által okozott energiafogyasztást és üvegházhatásúgáz-kibocsátást;

53.  javasolja, hogy a felelősségteljes és élvonalbeli mesterségesintelligencia-megoldások kifejlesztése érdekében fel kell tárni, ösztönözni és maximalizálni kell a mesterséges intelligenciában, a robotikában és a kapcsolódó technológiákban rejlő lehetőségeket, felelősségteljes kutatás és fejlesztés révén, ami pedig források mozgósítását igényli az Unió és tagállamai részéről;

54.  kiemeli, hogy e technológiák fejlesztése, bevezetése és használata számos lehetőséget kínál az ENSZ által körvonalazott fenntartható fejlődési célok, a globális energetikai átállás és a dekarbonizáció előmozdításához;

55.  úgy véli, hogy a társadalmi felelősségvállalás, a nemek közötti egyenlőség, a környezetvédelem és a fenntarthatóság célkitűzései nem érinthetik az e területeken meglévő általános és ágazati kötelezettségeket; úgy véli, hogy nem kötelező érvényű végrehajtási iránymutatásokat kell kidolgozni a fejlesztők, a bevezetők és a felhasználók számára – különösen a magas kockázatú technológiák esetében – az e rendeletnek való megfelelésük és e célkitűzések elérésének értékelésére szolgáló módszertan tekintetében;

56.  felhívja az Uniót, hogy mozdítsa elő és finanszírozza az emberközpontú mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztését, amelyek kezelik a környezeti és éghajlati kihívásokat, és adózási, közbeszerzési vagy egyéb ösztönzők révén biztosítják az alapvető jogok tiszteletben tartását;

57.  hangsúlyozza, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák, többek között az automatizált döntések és a gépi tanulás fejlesztésének, bevezetésének és használatának jelenlegi magas szénlábnyoma ellenére ezek a technológiák hozzájárulhatnak az IKT-ágazat jelenlegi környezeti lábnyomának csökkentéséhez; hangsúlyozza, hogy ezeknek és más megfelelően szabályozott kapcsolódó technológiáknak számos különböző ágazatban döntő szerepet kell játszaniuk a zöld megállapodás, az ENSZ fenntartható fejlődési céljai és a Párizsi Megállapodás céljainak elérésében, és fokozniuk kell a környezetvédelmi politikák, például a hulladékcsökkentést és a környezetkárosodást érintő szakpolitikák hatását;

58.  felhívja a Bizottságot, hogy készítsen tanulmányt az MI-technológia szénlábnyomáról, valamint a fogyasztók MI-technológia alkalmazására való áttérése miatti pozitív és negatív hatásokról;

59.  megjegyzi, hogy tekintettel az MI-alkalmazások fokozódó fejlődésére, amely számítástechnikai, tárolási és energiaforrásokat igényel, az MI-rendszerek környezeti hatásait egész életciklusuk során figyelembe kell venni;

60.  úgy véli, hogy például az egészségügy területén a végső felelősséget egy természetes vagy jogi személynek kell viselnie; hangsúlyozza, hogy az algoritmusok számára nyomon követhető és nyilvánosan hozzáférhető tanulóadatokat kell rendelkezésre bocsátani;

61.  határozottan támogatja a Bizottság által az Európai adatstratégiára vonatkozó közleményében javasolt európai egészségügyi adattér létrehozását, amelynek célja az egészségügyi adatcsere előmozdítása és a kutatás támogatása az adatvédelem teljes tiszteletben tartása mellett, ideértve az adatok MI-technológiával történő feldolgozását is, és amely megerősíti és kiterjeszti az egészségügyi adatok felhasználását és újrafelhasználását; ösztönzi az egészségügyi adatok határokon átnyúló cseréjének fokozását, azok összekapcsolását és felhasználását biztonságos, egyesített adattárak, egyedi típusú egészségügyi információk, például az európai egészségügyi nyilvántartások, a genomadatok és a digitális egészségügyi képek révén az Unió egészére kiterjedő interoperábilis nyilvántartások vagy adatbázisok olyan területeken történő előmozdítása érdekében, mint amilyen a kutatás, a tudomány és az egészségügyi ágazatok;

62.  kiemeli az MI előnyeit a betegségmegelőzés, a betegségkezelés és a járványvédelem terén, amit az is jól példáz, hogy a Covid19-járványt az MI már a WHO-t megelőzően előre jelezte; sürgeti a Bizottságot, hogy megfelelően lássa el az ECDC-t a szükséges, anonimizált, valós idejű globális egészségügyi adatok független, a tagállamokkal együttműködve végzett gyűjtéséhez szükséges szabályozási kerettel és erőforrásokkal, többek között a Covid19-válság nyomán felmerült problémák kezelése érdekében;

Magánélet és biometrikus azonosítás

63.  megállapítja, hogy gyors ütemben nő a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztéséből, bevezetéséből és használatából származó adatok – ezen belül személyes adatok, így például biometrikus adatok – előállítása és használata, ami még inkább megerősíti, hogy az uniós joggal összhangban tiszteletben kell tartani és érvényesíteni kell a polgárok magánélethez való jogát és a személyes adatok védelmét;

64.  rámutat arra, hogy az e technológiák által a személyes adatok és a nem személyes adatok személyek kategorizálására és mikrocélzására, az egyének sérülékeny pontjainak azonosítására vagy az előrejelzésen alapuló pontos ismeretek kiaknázására való felhasználására biztosított lehetőséget ellensúlyozni kell a hatékonyan végrehajtott adatvédelemmel és olyan adatvédelmi elvekkel, mint az adattakarékosság, a profilalkotással szembeni tiltakozáshoz való jog, a saját adatok felhasználása fölötti ellenőrzéshez való jog, az automatizált feldolgozáson alapuló döntések magyarázatához való jog és a beépített adatvédelem elve, valamint az arányosság, a szükségesség és az általános adatvédelmi rendeletnek (GDPR) megfelelő szigorú célhozkötöttség elve;

65.  hangsúlyozza, hogy amikor a hatóságok – jelentős közérdekű célból – olyan távoli felismerési technológiákat alkalmaznak, mint például a biometrikus jellemzők felismerése, nevezetesen az arcfelismerés, akkor azok használatáról mindig tájékoztatást kell nyújtani, annak mindig arányosnak és célzottnak kell lennie, konkrét célkitűzésekre kell korlátozódnia, az uniós joggal összhangban időben korlátozottnak kell lennie, valamint kellően figyelembe kell vennie az emberi méltóságot és autonómiát és a Chartában foglalt alapvető jogokat. Az ilyen felhasználás kritériumait és korlátait bírósági felülvizsgálatnak és demokratikus ellenőrzésnek kell alávetni, valamint figyelembe kell venni a felhasználás civil társadalomra gyakorolt pszichológiai és szociokulturális hatását;

66.  hangsúlyozza, hogy bár a mesterséges intelligencia, a robotika és a kapcsolódó technológiák közhatalmi döntések keretében történő alkalmazásának vannak előnyei, eredményezhet súlyos visszaéléseket is, mint például a tömeges megfigyelés, a prediktív rendészet és a tisztességes eljáráshoz való jog megsértése;

67.  úgy véli, hogy azokat a technológiákat, amelyek képesek automatizált döntéseket hozni, így felváltják a hatóságok általi döntéshozatalt, a lehető legnagyobb körültekintéssel kell kezelni, különösen az igazságszolgáltatás és a bűnüldözés területén;

68.  úgy véli, hogy a tagállamoknak csak akkor szabadna alkalmazniuk ilyen technológiákat, ha alapos bizonyítékok támasztják alá azok megbízhatóságát és ha az érdemi emberi beavatkozás és felülvizsgálat lehetséges vagy szisztematikus azokban az esetekben, amikor alapvető szabadságokról van szó; hangsúlyozza annak fontosságát, hogy a nemzeti hatóságok végezzenek szigorú alapjogi hatásvizsgálatot az ilyen esetekben alkalmazott mesterségesintelligencia-rendszerekre vonatkozóan, különösen miután e technológiákat magas kockázatúként értékelték;

69.  véleménye szerint a mesterséges intelligencia, robotika vagy kapcsolódó technológiák segítségével a közhatalom előjogai keretében hozott határozatokat érdemi emberi beavatkozásnak és megfelelő eljárásnak kell alávetni, különösen miután e technológiákat magas kockázatúként értékelték;

70.  úgy véli, hogy a technológiai fejlődés nem vezethet ahhoz, hogy a mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat olyan közszektorbeli döntések önálló meghozatalához használják, amelyek közvetlen és jelentős hatást gyakorolnak a polgárok jogaira és kötelezettségeire;

71.  megállapítja, hogy az MI, a robotika és a kapcsolódó technológiák használata a bűnüldözés és a határellenőrzés területén erősítheti a közbiztonságot és a védettséget, de ugyanakkor kiterjedt és szigorú ellenőrzést, valamint a lehető legmagasabb fokú átláthatóságot igényli mind az egyes alkalmazások kockázatértékelése, mind pedig az MI, a robotika és a kapcsolódó technológiák használatának általános áttekintése tekintetében e területeken; véleménye szerint az ilyen technológiák jelentős és ennek megfelelően kezelendő etikai kockázatot hordoznak, mivel hátrányosan érinthetik az egyéneket, különösen a magánélethez, az adatvédelemhez és megkülönböztetésmentességhez való joguk tekintetében; hangsúlyozza, hogy helytelen felhasználásuk közvetlen veszélyt jelenthet a demokráciára, és bevezetésük és használatuk során tiszteletben kell tartani az arányosság és a szükségesség elvét, az Alapjogi Chartát, valamint a vonatkozó másodlagos uniós jogot, így az adatvédelmi szabályokat; hangsúlyozza, hogy a MI-nek soha nem szabad felváltania az embereket az ítéletek meghozatala terén; úgy véli, hogy az egyénekre vonatkozóan joghatással bíró vagy őket jelentősen érintő határozatok, így óvadék meghatározása vagy próbára bocsátás, bíróság előtti meghallgatás vagy kizárólag automatizált feldolgozásra alapozott döntések esetében mindig szükség van egy ember érdemi értékelésére és ítéletére;

Megfelelő irányítás

72.  hangsúlyozza, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák, különösen a magas kockázatú technológiák fejlesztésének, bevezetésének és használatának megfelelő irányítása, amely többek között az elszámoltathatóságot a középpontba helyező intézkedések bevezetése, valamint a torzítás és a megkülönböztetés potenciális kockázatainak a kezelése révén valósulhat meg, növelheti a polgárok biztonságát és az e technológiák iránti bizalmát;

73.  úgy véli, hogy e technológiák irányítására a Bizottság és/vagy az e tekintetben e feladatra kijelölt más illetékes uniós intézmény, szerv, hivatal vagy ügynökség által koordinált, az egyes tagállamok nemzeti felügyeleti hatóságai által végrehajtott közös irányítási keret biztosítaná a koherens uniós megközelítést és az egységes piac széttagolódásának megelőzését;

74.  megállapítja, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztése során nagy mennyiségben használnak fel adatokat, és az ilyen adatok feldolgozását, megosztását, az ezekhez való hozzáférést és ezek felhasználását a jogszabályokkal és a minőség, az integritás, az interoperabilitás, az átláthatóság, a biztonság, az adatvédelem és az ellenőrzés azokban foglalt követelményeivel összhangban kell szabályozni;

75.  emlékeztet arra, hogy az adatokhoz való hozzáférés nélkülözhetetlen eleme a digitális gazdaság növekedésének; e tekintetben rámutat arra, hogy az adatok interoperabilitása – a bezártsági hatások korlátozása révén – kulcsfontosságú szerepet játszik a digitális egységes piacon a tisztességes piaci feltételek biztosításában és az egyenlő versenyfeltételek előmozdításában;

76.  hangsúlyozza, hogy biztosítani kell a személyes adatok, különösen a kiszolgáltatott csoportokra, így például a fogyatékossággal élő személyekre, a betegekre, a gyermekekre, az idősekre, a kisebbségekre, a migránsokra és a kirekesztés által veszélyeztetett egyéb csoportokra vonatkozó vagy tőlük származó adatok megfelelő védelmét;

77.   megjegyzi, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák hatóságok általi fejlesztését, bevezetését és használatát gyakran kiszervezik magán szerződő feleknek; úgy véli, hogy ez semmilyen módon nem veszélyeztetheti a közös értékek és az alapvető jogok védelmét; úgy véli, hogy a közbeszerzési feltételeknek adott esetben tükrözniük kell a hatóságok számára előírt etikai normákat;

A fogyasztók és a belső piac

78.   hangsúlyozza annak fontosságát, hogy a szabályozási keret akkor legyen alkalmazandó, ha az Unión belüli fogyasztók algoritmikus rendszer felhasználói, alanyai, célpontjai, vagy ha a fogyasztókat ilyen rendszerbe irányítják, függetlenül a rendszert kifejlesztő, értékesítő vagy alkalmazó szervezetek letelepedési helyétől; úgy véli továbbá, hogy a jogbiztonság érdekében az e keretrendszerben megállapított szabályokat valamennyi fejlesztőre és az értéklánc egészére alkalmazni kell, nevezetesen a vonatkozó technológiák és összetevőik fejlesztésére, bevezetésére és használatára, valamint magas szintű fogyasztóvédelmet kell garantálniuk;

79.  megállapítja, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok, valamint az olyan területek, mint a dolgok internete, a gépi tanulás, a szabályokon alapuló rendszerek vagy az automatizált és a támogatott döntéshozatali folyamatok szervesen kapcsolódnak egymáshoz; megjegyzi továbbá, hogy szabványosított ikonokat lehetne kidolgozni annak érdekében, hogy segítsék az ilyen rendszerek fogyasztókkal való megismertetését minden olyan esetben, amikor ezeket a rendszereket összetettség jellemzi, vagy amikor olyan döntések meghozatalához vezetnek, amelyek jelentős hatással vannak a fogyasztók életére;

80.  emlékeztet arra, hogy a Bizottságnak meg kell vizsgálnia a meglévő jogi keretet és annak alkalmazását, beleértve a fogyasztóvédelmi jog vívmányait, a termékfelelősségre, a termékbiztonságra és a piacfelügyeletre vonatkozó jogszabályokat a joghézagok és a meglévő szabályozási kötelezettségek azonosítása érdekében; úgy véli, hogy erre annak megállapítása érdekében van szükség, hogy a jogi keret képes-e reagálni a mesterséges intelligencia, a robotika és a kapcsolódó technológiák megjelenéséből fakadó új kihívásokra, és biztosítani a fogyasztóvédelem magas szintjét;

81.  hangsúlyozza, hogy hatékonyan kell kezelni a mesterséges intelligencia, a robotika és a kapcsolódó technológiák jelentette kihívásokat, és biztosítani kell a fogyasztók tudatosságát és megfelelő védelmét; hangsúlyozza, hogy meg kell haladni a tájékoztatásnak és a közzétételnek a fogyasztóvédelmi jog vívmányainak alapjául szolgáló hagyományos elveit, mivel a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó erősebb fogyasztói jogokra és egyértelmű korlátozásokra lesz szükség annak biztosítása érdekében, hogy a technológia hozzájáruljon a fogyasztók életének javításához, és olyan módon fejlődjön, amely tiszteletben tartja az alapvető jogokat és a fogyasztói jogokat, valamint az uniós értékeket;

82.  felhívja a figyelmet arra, hogy a 768/2008/EK határozattal(14) bevezetett jogszabályi keret a gyártókra, importőrökre és forgalmazókra vonatkozó kötelezettségek harmonizált jegyzékét írja elő, ösztönzi a szabványok alkalmazását, és a termék veszélyességétől függően többszintű ellenőrzést ír elő; úgy véli, hogy ezt az elvet a mesterséges intelligenciát alkalmazó termékekre is alkalmazni kell;

83.  megjegyzi, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fogyasztókra gyakorolt hatásainak elemzése céljából az adatokhoz való hozzáférést az uniós jog – például az adatvédelemre, a magánélet védelmére és az üzleti titkokra vonatkozó jogszabályok – teljes körű tiszteletben tartása mellett ki lehetne terjeszteni az illetékes nemzeti hatóságokra; emlékeztet annak fontosságára, hogy a fogyasztók oktatásban részesüljenek, hogy tájékozottak legyenek és megszerezzék a készségeket ahhoz, hogy kezelni tudják a mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat, annak érdekében, hogy megvédjék őket az esetleges kockázatoktól és fenntartsák jogaikat;

84.  felhívja a Bizottságot, hogy javasoljon intézkedéseket az adatok nyomon követhetősége érdekében, szem előtt tartva mind az adatszerzés jogszerűségét, mind a fogyasztói jogok és az alapvető jogok védelmét az uniós jog – például az adatvédelemre, a magánélet védelmére, a szellemitulajdon-jogokra és az üzleti titkokra vonatkozó uniós jogszabályok – teljes körű tiszteletben tartása mellett;

85.   megjegyzi, hogy e technológiáknak felhasználóközpontúnak kell lenniük, és oly módon kell kialakítani azokat, hogy életkorra, nemre, képességre vagy tulajdonságra való tekintet nélkül mindenki igénybe vehesse a mesterségesintelligencia-termékeket vagy -szolgáltatásokat; megjegyzi, hogy az ezekhez való hozzáférés különösen fontos a fogyatékossággal élő személyek számára; megjegyzi, hogy nem szabad egyenmegoldásokat alkalmazni, és a felhasználók lehető legszélesebb körét lefedő és a vonatkozó akadálymentesítési szabványokat követő tervezési elveket kell figyelembe venni; hangsúlyozza, hogy ez lehetővé teszi az egyének számára, hogy egyenlően hozzáférjenek a meglévő és a kialakulóban lévő, számítógépen keresztül közvetített emberi tevékenységekhez és támogató technológiákhoz, és aktívan részt vegyenek azokban;

86.  hangsúlyozza, hogy amennyiben mesterséges intelligencia, robotika vagy kapcsolódó technológiák fejlesztésének, bevezetésének vagy használatának megvalósításához jelentős mértékben járulnak hozzá közpénzek, a nyílt közbeszerzés és a nyílt szerződési szabványok mellett figyelembe kell venni azt a lehetőséget, hogy a kódnak, a generált adatoknak – amennyiben azok nem személyhez kötődőek – és a betanított modellnek alapértelmezés szerint nyilvánosnak kell lenniük a fejlesztővel kötött megállapodás alapján, az átláthatóság garantálása, a kiberbiztonság fokozása és az innováció előmozdítását célzó újrafelhasználásuk lehetővé tétele érdekében; hangsúlyozza, hogy ily módon teljes mértékben ki lehet aknázni az egységes piacban rejlő lehetőségeket, elkerülve a piac széttöredezését;

87.  úgy véli, hogy az MI-ben, a robotikában és a kapcsolódó technológiákban hatalmas potenciál rejlik abban a tekintetben, hogy lehetőségeket biztosítsanak a fogyasztók számára ahhoz, hogy a jobb termékek és szolgáltatások mellett az életminőségüket javító tényezőkhöz juthassanak hozzá az életük számos területén, továbbá élvezhessék a hatékonyabb piacfelügyelet előnyeit, amennyiben továbbra is érvényben marad valamennyi alkalmazandó alapelv, feltétel és szabályozás, ideértve az átláthatóság és az ellenőrizhetőség követelményét;

Biztonság és védelem

88.  hangsúlyozza, hogy az Európai Unió és tagállamai biztonság- és védelempolitikáját z Chartában rögzített alapelvek és az Egyesült Nemzetek Alapokmányának elvei, valamint az emberek sérthetetlen és elidegeníthetetlen jogai, az emberi méltóság, a szabadság, a demokrácia, az egyenlőség és a jogállamiság egyetemes értékeinek közös értelmezése és tisztelete vezérli; hangsúlyozza, hogy az uniós kereten belüli valamennyi védelmi vonatkozású erőfeszítésnek tiszteletben kell tartania ezeket az egyetemes értékeket, miközben előmozdítja a békét, a biztonságot és a haladást Európában és a világban;

89.  üdvözli, hogy az egyes hagyományos fegyverekről szóló ENSZ-egyezmény (CCW) magas szerződő feleinek 2019. évi ülésén támogatták az autonóm fegyverrendszerek kifejlesztésére és használatára vonatkozó 11 irányadó elvet; sajnálja azonban, hogy nem sikerült megállapodni a halált okozó autonóm fegyvereket szabályozó, hatékony végrehajtási mechanizmussal rendelkező, jogilag kötelező erejű eszközről; üdvözli és támogatja a Bizottság mesterséges intelligenciával foglalkozó magas szintű szakértői csoportja által 2019. április 9-én közzétett „Etikai iránymutatások a megbízható mesterséges intelligencia érdekében” című jelentést, és a halált okozó autonóm fegyverrendszerekkel kapcsolatos álláspontját; sürgeti a tagállamokat, hogy dolgozzanak ki nemzeti stratégiákat a halált okozó autonóm fegyverek meghatározására és jogi státusára vonatkozóan egy átfogó uniós szintű stratégia kialakítása érdekében, és az Unió főképviselőjével/a Bizottság alelnökével (főképviselő/alelnök) és a Tanáccsal együtt mozdítsák elő a halált okozó autonóm fegyverekről az ENSZ CCW-egyezménye keretében és más releváns fórumokon folytatott vitát, továbbá állapítsanak meg a teljesen autonóm, félautonóm és távirányítású halált okozó fegyverrendszerek kifejlesztésének és használatának etikai és jogi paramétereire vonatkozó nemzetközi normákat; emlékeztet e tekintetben a halált okozó autonóm fegyverrendszerekkel kapcsolatos 2018. szeptember 12-i állásfoglalására, és ismételten felszólít a halált okozó autonóm fegyverrendszerekkel kapcsolatban egy közös álláspont sürgős kidolgozására és elfogadására, továbbá az érdemi emberi irányítás nélküli és az emberi beavatkozás elvének tiszteletben tartása nélküli támadások végrehajtását lehetővé tevő halált okozó autonóm fegyverrendszerek kifejlesztésének, gyártásának és használatának nemzetközi szintű betiltására, összhangban a legnevesebb mesterséges intelligencia kutatók 2015-ös nyílt levelében foglalt nyilatkozattal; üdvözli, hogy a Tanács és a Parlament egyetért abban, hogy a halált okozó olyan autonóm fegyvereket, amelyek a „támadások során nem teszik lehetővé az érdemi emberi ellenőrzést a cél kiválasztására és a csapás végrehajtására vonatkozó döntésekkel kapcsolatban” ki kell zárni az Európai Védelmi alap keretében finanszírozott fellépések közül; úgy véli, hogy a mesterséges intelligenciának a védelem – például a hírszerzés, a megfigyelés és felderítés (ISR) vagy a kiberműveletek – területén való alkalmazására vonatkozó etikai szempontokat nem szabad figyelmen kívül hagyni, és különös figyelmet kell fordítani a katonai műveletekben használt drónok fejlesztésére és bevetésére;

90.  hangsúlyozza, hogy a nemzetközi jogban nem szabályozott, a biztonsági és védelmi területen kialakulóban lévő technológiákat az emberiség tiszteletének elve és a közös lelkiismeret parancsai alapján kell megítélni;

91.  javasolja, hogy az MI-n alapuló rendszerek védelmi célú, harci és nem harci helyzetekben történő használatát szabályozó bármely európai keretnek tiszteletben kell tartania valamennyi alkalmazandó jogi rendszert, különösen a nemzetközi humanitárius jogot és a nemzetközi emberi jogi jogszabályokat, valamint meg kell felelnie az uniós jognak, elveknek és értékeknek, figyelembe véve az Unión belüli műszaki és biztonsági infrastruktúrák különbségeit;

92.  elismeri, hogy a védelmi ipari bázisoktól eltérően a mesterséges intelligenciával kapcsolatos döntő jelentőségű innovációk a kisebb tagállamokból is származhatnak, ezért egy, a KBVP szempontjából szabványosított megközelítés révén biztosítani kell, hogy a kisebb tagállamok és a kkv-k ne szoruljanak ki; hangsúlyozza, hogy a mesterséges intelligenciával kapcsolatos közös uniós képességek és a tagállamok műveleti koncepcióinak összehangolása áthidalhatja az olyan technikai hiányosságokat, amelyek miatt a megfelelő technológiával, iparági szakértelemmel vagy a mesterségesintelligencia-rendszereknek a védelmi minisztériumaikban történő alkalmazásához szükséges képeségekkel nem rendelkező tagállamok kimaradhatnak;

93.  úgy véli, hogy az uniós kereten belül a biztonsággal és védelemmel kapcsolatos jelenlegi és jövőbeli tevékenységek a mesterséges intelligenciára, a robotikára és az autonómiára, valamint a kapcsolódó technológiákra fognak támaszkodni, valamint hogy a megbízható, szilárd és bizalomra érdemes mesterséges intelligencia hozzájárulhat egy modern és hatékony haderőhöz; az Uniónak ezért vezető szerepet kell vállalnia a mesterségesintelligencia-rendszerek kutatásában és fejlesztésében a biztonság és a védelem területén; úgy véli, hogy a mesterséges intelligencián alapuló alkalmazások biztonsági és védelmi célú használata számos közvetlen előnyt kínálhat a művelet vezénylője számára, például az összegyűjtött adatok jobb minőségét, nagyobb helyzetismeretet, gyorsabb döntéshozatalt, a jobb kábelezésnek köszönhetően a járulékos károk csökkent kockázatát, a helyszíni erők védelmét, valamint a katonai felszerelések nagyobb megbízhatóságát és így az embereket érő kockázatok és az emberáldozatok kockázatának csökkenését; hangsúlyozza, hogy a képességek és a műveletek terén az európai stratégiai autonómia biztosításához elengedhetetlen a mesterséges intelligencia fejlesztése a védelem területén; emlékeztet arra, hogy a mesterségesintelligencia-rendszerek fokozatosan az újonnan megjelenő biztonsági fenyegetések, például a kiber- és hibrid hadviselés elleni küzdelem kulcsfontosságú elemévé válnak az online és offline terekben egyaránt; hangsúlyozza ugyanakkor a mesterséges intelligencia szabályozatlan használatából eredő valamennyi kockázatot és kihívást; megjegyzi, hogy a mesterséges intelligencia manipulációnak, hibáknak és pontatlanságoknak lehet kitéve;

94.  hangsúlyozza, hogy az MI-technológiák lényegében kettős felhasználásúak, és a védelmi tevékenységekben használt mesterséges intelligencia fejlesztése szempontjából előnyös a katonai és civil technológiák egymásra hatása; kiemeli, hogy a védelmi tevékenységekhez használt mesterséges intelligencia egy transzverzális diszruptív technológia, amelynek fejlesztése lehetőségeket nyújthat az Unió versenyképessége és stratégiai autonómiája szempontjából;

95.  elismeri, hogy napjainkban, a hibrid és fejlett fegyverkezés korában az információ mennyisége és gyorsasága a válsághelyzetek korai szakaszában megterhelő lehet az emberi elemzők számára, és egy mesterségesintelligencia-rendszer olyan módon lehet képes az információk feldolgozására, amely biztosítaná, hogy a gyors reagálás érdekében az emberi döntéshozók a megfelelő időn belül az információk teljes spektrumát követni tudják;

96.  hangsúlyozza, hogy rendkívül fontos a mesterséges intelligencia területén a humántőke fejlesztésébe való beruházás, a biztonság és a védelem területén használt mesterségesintelligencia-technológiákkal kapcsolatos szükséges készségek és oktatás támogatása, különös hangsúlyt fektetve a félautonóm és autonóm műveleti rendszerek etikai kérdéseire a mesterséges intelligenciát alkalmazó világban érvényesülő emberi elszámoltathatóság alapján; hangsúlyozza különösen annak fontosságát, hogy az e területen tevékenykedő etikával foglalkozó szakemberek megfelelő készségekkel rendelkezzenek és megfelelő képzésben részesüljenek; felszólítja a Bizottságot, hogy a lehető leghamarabb terjessze elő a 2020. február 19-én a mesterséges intelligenciáról szóló fehér könyvben bejelentett „készségfejlesztési program megerősített változatát”;

97.  hangsúlyozza, hogy az atomfegyverek megjelenése óta a kvantuminformatika lehet a legforradalmibb változás a konfliktusok tekintetében, és ezért sürgeti az Uniót és a tagállamokat, hogy kvantuminformatikai technológiák további fejlődését kezeljék prioritásként; elismeri, hogy a kvantuminformatika által segített, agressziónak minősülő cselekmények, többek között a kritikus infrastruktúrák elleni támadások olyan konfliktuskörnyezetet fognak teremteni, amelyben a döntéshozatalra rendelkezésre álló idő drasztikus módon napokról órákra, majd percekről másodpercekre fog csökkenni, ami arra kényszeríti majd a tagállamokat, hogy a saját védelmüket szolgáló képességeket fejlesszenek ki, és arra képezzék ki döntéshozóikat és katonai személyzetüket, hogy ilyen rövid időn belül hatékonyan reagáljanak;

98.  szorgalmazza a védelmi célú európai mesterséges intelligenciába és az azt kiszolgáló kritikus infrastruktúrába történő beruházások fokozását;

99.  emlékeztet arra, hogy a világ jelenlegi katonai hatalmainak többsége már jelentős kutatási-fejlesztési erőfeszítéseket tesz a mesterséges intelligencia katonai dimenziójával kapcsolatban; úgy véli, hogy az Uniónak biztosítania kell, hogy ezen a téren ne maradjon le;

100.  felszólítja a Bizottságot, hogy a biztonságos, ellenállóképes és stabil mesterségesintelligencia- és robotikai rendszerek kifejlesztésének és alkalmazásának biztosítása érdekében az iparpolitikájába építse be a kiberbiztonsági kapacitásépítést; kéri a Bizottságot, hogy vizsgálja meg a blokkláncalapú kiberbiztonsági protokollok és alkalmazások felhasználását a mesterségesintelligencia-infrastruktúrák ellenálló képességének, megbízhatóságának és szilárdságának az adattitkosítás közvetítő nélküli modelljei útján történő javítása érdekében; ösztönzi az európai érdekelt feleket olyan fejlett funkciók kutatására és kifejlesztésére, amelyek elősegíthetik az Unió és polgárai biztonságát veszélyeztető hibás és rosszindulatú mesterségesintelligencia- és robotikai rendszerek felismerését;

101.  hangsúlyozza, hogy a védelem területén alkalmazott valamennyi mesterségesintelligencia-rendszernek a harcfeladatára vonatkozóan konkrét és jól meghatározott bevetési kerettel kell rendelkeznie, amely révén az embereknek megmarad a lehetősége a telepített rendszerek észlelésére, kikapcsolására vagy deaktiválására, amennyiben azok túlterjeszkednek az emberi irányító által meghatározott és hozzárendelt bevetési kereten, illetve eszkaláló vagy nem rendeltetésszerű tevékenységbe kezdenek; úgy véli, hogy a mesterséges intelligencián alapuló, katonai felhasználásra szánt rendszereket, termékeket és technológiát fel kell szerelni egy „fekete dobozzal”, amely rögzíti a gép által végzett valamennyi adattranzakciót;

102.  hangsúlyozza, hogy a mesterségesintelligencia-rendszerek tervezésével, fejlesztésével, bevezetésével és használatával kapcsolatos döntésért a teljes felelősséget és elszámoltathatóságot az emberi kezelőknek kell viselniük, mivel biztosítani kell a fegyverrendszerek feletti érdemi emberi ellenőrzést és irányítást és az erőszak alkalmazására vonatkozó döntés mögötti emberi szándékot a mesterségesintelligencia-alapú fegyverrendszerek bármely olyan döntésének végrehajtása esetén, amely halálos következményekkel járhat; hangsúlyozza, hogy a mesterséges intelligencián alapuló rendszerek vezérlését és irányítását továbbra is tényleges emberi ellenőrzés alatt kell tartani, a katonai vezetés szintjén követve az emberi beavatkozás („human-in-the loop”), az emberi felügyelet („human-on-the-loop”) és az emberi vezérlés („human-in-command”) elvét; hangsúlyozza, hogy a mesterséges intelligencián alapuló rendszereknek lehetővé kell tenniük a hadseregek katonai vezetése számára, hogy a halált okozó erőszak alkalmazásáért teljes felelősségvállalás és elszámoltathatóság mellett járjanak el és rendelkezzenek a szükséges mértékű döntéshozatali képességgel, amelyet nem lehet gépekre átruházni, mivel e döntéshozatalnak megkülönböztetésen, arányosságon és elővigyázatosságon kell alapulnia, ha ilyen rendszerek segítségével halált okozó vagy nagyléptékű pusztítással járó fellépést hajtanak végre; hangsúlyozza, hogy az intelligens fegyverek és egyéb, mesterséges intelligencián alapuló rendszerek bevetésére vonatkozóan egyértelmű és nyomon követhető olyan felhatalmazási és elszámoltathatósági keretrendszereket kell létrehozni, amelyek a felhasználók egyedi jellemzőit, például biometrikus jellemzőket használnak annak érdekében, hogy a bevetést kizárólag az erre felhatalmazással rendelkező személyzetnek tegyék lehetővé;

Közlekedés

103.  hangsúlyozza a mesterséges intelligencia, a robotika és a kapcsolódó technológiák használata által valamennyi autonóm közúti, vasúti, vízi és légi közlekedési eszköz, valamint a modális váltás és az intermodalitás ösztönzése számára kínált lehetőségeket, mivel ezek a technológiák hozzájárulhatnak az áru- és személyszállítás szállítási módjai optimális kombinációjának megtalálásához; hangsúlyozza továbbá az ezekben rejlő lehetőségeket a közlekedés, a logisztika és a forgalom hatékonyabbá tételére, valamint valamennyi közlekedési mód biztonságosabbá, intelligensebbé és környezetbarátabbá tételére; rámutat, hogy a mesterséges intelligencia etikai megközelítése korai előrejelző rendszernek is tekinthető, különösen a közlekedés biztonsága és hatékonysága tekintetében;

104.  hangsúlyozza, hogy a vállalatok és a gazdasági régiók közötti globális verseny azt jelenti, hogy az Uniónak elő kell mozdítania a beruházásokat és meg kell erősítenie a közlekedési ágazatban működő vállalatok nemzetközi versenyképességét azáltal, hogy kedvező környezetet teremt a mesterségesintelligencia-megoldások és további innovációk fejlesztéséhez és alkalmazásához, amelyben az uniós székhelyű vállalkozások világelsővé válhatnak a mesterségesintelligencia-technológiák fejlesztése terén;

105.  hangsúlyozza, hogy az uniós közlekedési ágazatnak naprakésszé kell tennie az ezen kialakulóban lévő technológiákra és a közlekedési ágazatban való felhasználásukra vonatkozó szabályozási keretet, valamint a megbízható mesterséges intelligencia – többek között a biztonság, a védelem, az emberi autonómia tiszteletben tartása, a felügyelet és a felelősség – megvalósításához szükséges egyértelmű etikai keretet igényel, amely növelni fogja a mindenki számára közös előnyöket, és kulcsfontosságú szerepet fog játszani a kutatásba és innovációba történő beruházások ösztönzésében, a készségek fejlesztésében és a mesterséges intelligencia közszolgáltatások, kkv-k, induló vállalkozások és vállalkozások általi adoptálásában, ugyanakkor biztosítani fogja az adatvédelmet és az interoperabilitást, szükségtelen adminisztratív terhek nélkül a vállalkozások és a fogyasztók számára;

106.  megjegyzi, hogy a mesterséges intelligencia fejlesztése és megvalósítása a közlekedési ágazatban nem lesz lehetséges modern infrastruktúra nélkül, amely az intelligens közlekedési rendszerek alapvető részét képezi; hangsúlyozza, hogy a tagállamok fejlettségi szintjei közötti tartós eltérések annak kockázatához vezetnek, hogy a legkevésbé fejlett régiók és lakóik elesnek az autonóm mobilitás fejlesztésének előnyeitől; felhív az uniós közlekedési infrastruktúra korszerűsítésének – többek között az 5G hálózatba való integrálásának – megfelelő finanszírozására;

107.  ajánlja uniós szintű, megbízható mesterségesintelligencia-szabványok kidolgozását valamennyi közlekedési módra, beleértve a gépjárműipart is, valamint a mesterséges intelligenciával működő járművek és kapcsolódó termékek és szolgáltatások tesztelése számára;

108.  megjegyzi, hogy az MI-rendszerek segíthetnek a közúti halálesetek számának jelentős csökkentésében, például a jobb reakcióidő és a szabályok megfelelőbb betartása által; úgy véli azonban, hogy az önvezető járművek használata nem vezethet az összes baleset kiküszöböléséhez, és hangsúlyozza, hogy ez növeli a mesterséges intelligenciával kapcsolatos döntések megmagyarázhatóságának fontosságát a mesterséges intelligencia által hozott döntések hiányosságainak és nem szándékos következményeinek indoklása terén;

Foglalkoztatás, munkavállalói jogok, digitális készségek és a munkahely

109.  megjegyzi, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák munkahelyi alkalmazása hozzájárulhat a befogadó munkaerőpiachoz, javíthatja a munkahelyi egészségvédelmet és biztonságot, ugyanakkor pedig felhasználható olyan munkavállalók teljesítményének nyomon követésére, értékelésére, előrejelzésére és irányítására is, akiknek a karrierjére és mentális jólétére nézve közvetett és közvetlen következményekkel jár; mivel a mesterséges intelligenciának pozitív hatást kell gyakorolnia a munkakörülményekre, és azt az emberi jogok, valamint az Unió alapvető jogai és értékei tiszteletben tartásának kell vezérelnie; mivel a mesterséges intelligenciának emberközpontúnak kell lennie, fokoznia kell az emberek és a társadalom jólétét, és hozzá kell járulnia a méltányos és igazságos átálláshoz; e technológiáknak ezért pozitív hatást kell gyakorolniuk a munkakörülményekre, az emberi jogok, valamint az Unió alapvető jogai és értékei tiszteletben tartása által vezérelve;

110.  kiemeli a munkavállalók és képviselőik munkahelyi mesterséges intelligenciával kapcsolatos képzésén és oktatásán keresztüli kompetenciafejlesztés szükségességét a mesterséges intelligenciára vonatkozó megoldások következményeinek jobb megértése érdekében; hangsúlyozza, hogy a jelentkezőket és munkavállalókat írásban kell megfelelő módon tájékoztatni arról, ha a felvételi eljárás vagy a humánerőforrásokkal kapcsolatos más döntéshozatal során MI-t alkalmaznak, és arról, hogy ebben az esetben hogyan lehet emberi felülvizsgálatot kérni az automatikus döntés felülvizsgálata céljából;

111.  hangsúlyozza, hogy szükséges arról gondoskodni, hogy az MI és a robotika fejlődéséből és felhasználásából eredő termelékenységnövekedés ne csupán a vállalatok tulajdonosai és részvényesei számára járjon haszonnal, hanem a profitorientált vállalatoknak és a munkaerőnek is a jobb munka- és foglalkoztatási feltételek – többek között a bérek, a gazdasági növekedés és a fejlődés – révén, és szélesebb körben a társadalom javára szolgáljon, különösen ott, ahol ez a növekedés a foglalkoztatottság kárára valósul meg; felhívja a tagállamokat, hogy gondosan tanulmányozzák a mesterséges intelligencia által a munkaerőpiacra és a szociális biztonsági rendszerekre gyakorolt lehetséges hatásokat, és dolgozzanak ki stratégiákat arra vonatkozóan, hogy miként biztosítható a hosszú távú stabilitás az adók és járulékok, valamint egyéb intézkedések reformja révén alacsonyabb állami bevételek esetén;

112.  hangsúlyozza a formális és informális képzésbe és az egész életen át tartó tanulásba történő vállalati beruházások fontosságát a digitális gazdaságra való igazságos átállás támogatása érdekében; ezzel összefüggésben hangsúlyozza, hogy a mesterséges intelligenciát alkalmazó vállalatok felelőssége, hogy valamennyi érintett munkavállaló számára megfelelő átképzést és továbbképzést biztosítsanak annak érdekében, hogy ez utóbbiak megtanulják, miként kell használni a digitális eszközöket, és miként dolgozzanak a társbotokkal és más új technológiákkal, ezáltal alkalmazkodva a változó munkaerőpiaci igényekhez és megőrizve a foglalkoztatást;

113.  úgy véli, hogy ebben az összefüggésben különös figyelmet kell fordítani az új technológiák alkalmazásából eredő új munkavégzési formákra, például az alkalmi jellegű és a platformalapú munkavégzésre; hangsúlyozza, hogy a távmunka feltételei szabályozásának Unió-szerte, valamint a tisztességes munka- és foglalkoztatási feltételek biztosításának a digitális gazdaságban szintén figyelembe kell vennie a mesterséges intelligencia hatását; felhívja a Bizottságot, hogy e tekintetben konzultáljon a szociális partnerekkel, a mesterségesintelligencia-fejlesztőkkel, a kutatókkal és más érdekelt felekkel;

114.  hangsúlyozza, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák nem befolyásolhatják semmilyen módon sem a tagállamokban és uniós szinten elismert alapvető jogoknak – beleértve a sztrájkjognak vagy a sztrájk szabadságának vagy a tagállamokban fennálló konkrét munkaügyi kapcsolatrendszerek keretébe tartozó egyéb lépések megtétele jogának vagy szabadságának – a nemzeti jog és/vagy gyakorlat szerinti gyakorlását, és nem érintheti továbbá a nemzeti joggal és/vagy gyakorlattal összhangban lévő, kollektív szerződésekkel kapcsolatos tárgyalásokhoz, azok megkötéséhez és érvényesítéséhez való jogot, vagy a kollektív fellépéshez való jogot;

115.  ismételten hangsúlyozza az oktatás és a folyamatos tanulás fontosságát a digitális korban szükséges képesítések fejlesztése és a digitális kirekesztés kezelése szempontjából; felhívja a tagállamokat, hogy fektessenek be a magas színvonalú, reagálóképes és befogadó oktatásba, szakképzésbe és egész életen át tartó tanulási rendszerekbe, valamint a mesterséges intelligencia által potenciálisan súlyosan érintett ágazatokban dolgozó munkavállalókra vonatkozó átképzési és továbbképzési szakpolitikákba; hangsúlyozza, hogy a jelenlegi és jövőbeli munkaerő számára biztosítani kell a szükséges írás-olvasási, számolási és digitális készségeket, valamint a természettudományok, a technológia, a műszaki tudományok és a matematika (STEM) terén szerzett kompetenciákat, továbbá az olyan átfogó humán készségeket, mint a kritikus gondolkodás, a kreativitás és a vállalkozói készség; hangsúlyozza, hogy e tekintetben külön figyelmet kell fordítani a hátrányos helyzetű csoportok bevonására;

116.  emlékeztet, hogy a munkahelyen alkalmazott mesterséges intelligenciának, robotikának és kapcsolódó technológiáknak mindenki számára hozzáférhetőnek kell lenniük, az egyetemes tervezés elve alapján;

Oktatás és kultúra

117.  hangsúlyozza, hogy kritériumokat kell kidolgozni a mesterséges intelligencia fejlesztésére, bevezetésére és alkalmazására vonatkozóan, szem előtt tartva az oktatásra, a médiára, az ifjúságra, a kutatásra, a sportra, továbbá a kulturális és kreatív ágazatokra gyakorolt hatására, az e területeken megfelelően alkalmazható mesterségesintelligencia-technológiák etikailag felelős és elfogadott felhasználására vonatkozó referenciaértékek kidolgozása és alapelvek meghatározása révén, beleértve egy, a mesterséges intelligencia felhasználásából eredő termékekre vonatkozó világos felelősségi rendszert is;

118.  megjegyzi, hogy minden gyermeket minden szinten megillet a jó minőségű közoktatáshoz való jog; ezért olyan jó minőségű mesterségesintelligencia-rendszerek fejlesztését, bevezetését és használatát szorgalmazza, amelyek mindenki számára minden szinten jó minőségű oktatási eszközöket segítenek elő és biztosítanak, és hangsúlyozza, hogy az új mesterségesintelligencia-rendszerek iskolákban való bevezetése nem eredményezheti még szélesebb társadalmi szakadék létrejöttét; elismeri, hogy a mesterséges intelligencia és a robotika hatalmas mértékben hozzájárulhat az oktatáshoz; megjegyzi, hogy a mesterséges intelligencia személyre szabott tanulási rendszerei nem helyettesíthetik a tanárokkal az oktatás során kialakított kapcsolatot, és hogy az oktatás hagyományos formáit nem szabad megszüntetni, ugyanakkor rámutat arra, hogy pénzügyi, technológiai és oktatási támogatást – többek között az információs és kommunikációs technológiákkal kapcsolatos speciális képzést – kell nyújtani azoknak a tanároknak, akik megfelelő készségeket kívánnak elsajátítani a technológiai változásokhoz való alkalmazkodás érdekében, és nem csupán a mesterséges intelligenciában rejlő lehetőségek kiaknázása, hanem korlátainak megértése terén is; szorgalmazza uniós szintű stratégia kialakítását oktatási rendszereink átalakításának és naprakésszé tételének elősegítése, oktatási intézményeink valamennyi szinten történő felkészítése, valamint a tanárok és diákok a szükséges készségekkel és képességekkel való felvértezése érdekében;

119.  hangsúlyozza, hogy az oktatási intézményeknek törekedniük kell arra, hogy azokat a mesterségesintelligencia-rendszereket használják oktatási célokra, amelyek rendelkeznek európai etikai megfelelőségi tanúsítvánnyal;

120.  hangsúlyozza, hogy a digitalizáció és az új technológiák által kínált lehetőségek nem vezethetnek a munkahelyek számának általános csökkenéséhez a kulturális és kreatív ágazatokban, sem az eredeti művek megőrzésének elhanyagolásához vagy a kulturális örökséghez való hagyományos hozzáférés lehetőségeinek szűküléséhez, hanem e lehetőségek biztosítását is ösztönözni kell; megállapítja, hogy az Unióban kifejlesztett, bevezetett és alkalmazott mesterségesintelligencia-rendszereknek tükrözniük kell az Unió kulturális sokszínűségét és többnyelvűségét;

121.  elismeri, hogy a mesterséges intelligenciában növekvő lehetőségek rejlenek a tájékoztatás, a média és az online platformok területén, többek között a dezinformáció elleni küzdelem terén is eszközt kínál az uniós joggal összhangban; hangsúlyozza, hogy szabályozás hiányában e technológiáknak etikai szempontból káros hatásaik lehetnek az adatokba és az algoritmusokba beépített torzítások kihasználása révén, ami dezinformáció terjesztéséhez és információs buborékok létrehozásához vezethet; hangsúlyozza a videomegosztó platformok és az online közvetítéssel foglalkozó platformok által használt algoritmusok átláthatóságának és elszámoltathatóságának fontosságát a kulturális és nyelvi szempontból sokszínű tartalmakhoz való hozzáférés biztosítása érdekében;

Nemzeti felügyeleti hatóságok

122.  megállapítja, hogy értéktöbbletet hordoz, ha minden egyes tagállam rendelkezik olyan kijelölt nemzeti felügyeleti hatósággal, amely felelős a magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó jogi kötelezettségek és etikai elvek betartásának biztosításáért, értékeléséért és nyomon követéséért, így hozzájárulva e technológiák jogi és etikai megfelelőségéhez;

123.  megjegyzi, hogy ezektől a hatóságoktól meg kell követelni, hogy együttműködjenek – a feladatköreik közötti átfedések nélkül – az ágazati jogszabályok végrehajtásáért felelős hatóságokkal az etikai szempontból nagy kockázatot jelentő technológiák azonosítása, valamint – ilyen technológiák megjelenése esetén – az előírt és megfelelő intézkedések végrehajtásának felügyelete érdekében;

124.  jelzi, hogy ezeknek a hatóságoknak a határokon átnyúló következetes fellépés garantálása érdekében nemcsak egymással kell kapcsolatot tartaniuk, hanem az Európai Bizottsággal és az Unió más érintett intézményeivel, szerveivel, hivatalaival és ügynökségeivel is;

125.  javasolja, hogy az említett együttműködés keretében dolgozzanak ki közös kritériumokat és egy kérelmezési folyamatot egy etikai megfelelést igazoló európai tanúsítvány odaítélésére vonatkozóan, amelyre többek között a magas kockázatúnak nem minősülő technológiák fejlesztőinek, bevezetőinek vagy felhasználóinak kérelmét követően kerülhetne sor, akik tanúsíttatni kívánják a megfelelőség érintett nemzeti felügyeleti hatóság által elvégzett kedvező értékelését;

126.  szorgalmazza, hogy ezeket a hatóságokat bízzák meg azzal a feladattal, hogy mozdítsák elő a civil társadalommal való rendszeres cserét és az innovációt az Unión belül oly módon, hogy segítséget nyújtanak a kutatóknak, a fejlesztőknek és más érintett érdekelt feleknek, valamint a digitálisan kevésbé érett vállalkozásoknak, különösen kis- és középvállalkozásoknak és induló innovatív vállalkozásoknak; különösen a figyelemfelhívás érdekében, valamint a fejlesztés, a bevezetés, a képzés és a tehetségek megszerzésének támogatásához a hatékony technológiaátadás és a technológiákhoz, projektekhez, eredményekhez és hálózatokhoz való hozzáférés biztosítása érdekében;

127.  felhív arra, hogy minden tagállam biztosítson elegendő finanszírozást a kijelölt nemzeti felügyeleti hatóságai számára, és hangsúlyozza, hogy a kapacitás, a készségek és kompetenciák, valamint a mesterséges intelligencia, a robotika és a kapcsolódó technológiák konkrét kockázataival kapcsolatos ismeretek tekintetében meg kell erősíteni a nemzeti piacfelügyeleti hatóságokat;

Uniós szintű koordináció

128.  kiemeli, hogy a széttöredezettség elkerülése és e rendelet következetes alkalmazásának biztosítása érdekében fontos az uniós szintű, a Bizottság és/vagy az ebben az összefüggésben kijelölhető bármely érintett uniós intézmény, szerv, hivatal és ügynökség által végzett koordináció; úgy véli, hogy a koordinációnak az egyes tagállamok nemzeti felügyeleti hatóságainak az előző alszakaszban említett megbízatásaira és intézkedéseire, valamint a bevált gyakorlatok e hatóságok közötti megosztására kell összpontosítania, és hozzá kell járulnia az Unión belüli kutatási és fejlesztési együttműködéshez; felhívja a Bizottságot, hogy mérje fel és találja meg a legmegfelelőbb megoldást e koordináció strukturálására; az Unió érintett meglévő intézményeire, szerveire, hivatalaira és ügynökségeire példa az ENISA, az európai adatvédelmi biztos és az európai ombudsman;

129.  meggyőződése, hogy egy ilyen koordináció, valamint az etikai megfelelést igazoló európai tanúsítvány nemcsak az uniós ipar fejlődésének és az innovációnak válna a javára e tekintetben, hanem növelné a polgárok tudatosságát is az e technológiákban rejlő lehetőségekkel és kockázatokkal kapcsolatban;

130.  javasolja, hogy a tudás és a műszaki szakértelem megosztásának előmozdítása, valamint az Unión belüli és kívüli együttműködés megkönnyítése érdekében hozzanak létre szakértői központot, amely uniós szinten összefogja a tudományos köröket, a kutatást, az ipart és az egyéni szakértőket; kéri továbbá, hogy e szakértői központ foglalja magában a fogyasztók széles körű képviseletének biztosítása érdekében az érdekelt felek szervezeteit, például a fogyasztóvédelmi szervezeteket; úgy véli, hogy az algoritmikus rendszerek nőkre és kisebbségekre gyakorolt lehetséges aránytalan hatása miatt egy ilyen struktúra döntéshozatali szintjeinek sokszínűnek kell lenniük és biztosítaniuk kell a nemek közötti egyenlőséget; hangsúlyozza, hogy a tagállamoknak nemzeti piacfelügyeleti stratégiáik keretében kockázatkezelési stratégiákat kell kidolgozniuk a mesterséges intelligenciára vonatkozóan;

131.   javasolja, hogy a Bizottság és/vagy az Unió bármely, ezzel összefüggésben kijelölhető intézménye, szerve, hivatala és ügynöksége biztosítson minden szükséges segítséget a nemzeti felügyeleti hatóságok számára a mesterséges intelligenciára vonatkozó uniós szabályozási keretben meghatározott jogi kötelezettségek és etikai elvek – többek között a megkülönböztetésmentesség elve – megsértésének gyanúja esetén első kapcsolattartó pontként betöltött szerepük tekintetében; emellett minden szükséges segítséget meg kell adnia a nemzeti felügyeleti hatóságoknak azokban az esetekben, amikor azok a polgárok kifogásoláshoz és jogorvoslathoz való jogának támogatása céljából megfelelőségértékelést végeznek, nevezetesen adott esetben az Unió más illetékes hatóságaival, különösen a fogyasztóvédelmi együttműködési hálózattal és a nemzeti fogyasztóvédelmi szervekkel, a civil társadalmi szervezetekkel és a más tagállamokban található szociális partnerekkel folytatott konzultáció támogatásával;

132.  elismeri a mesterséges intelligenciával foglalkozó, a tudományos élet, a civil társadalom és az ipar képviselőiből álló magas szintű szakértői csoport, valamint a mesterséges intelligenciával foglalkozó európai szövetség értékes eredményeit, különösen a megbízható mesterséges intelligenciára vonatkozó etikai iránymutatásokat, és javasolja, hogy a csoport adjon szakértői tanácsokat a Bizottságnak és/vagy bármely, ezzel összefüggésben kijelölt illetékes uniós intézménynek, szervnek, hivatalnak és ügynökségnek;

133.  tudomásul veszi a mesterséges intelligenciával kapcsolatos projektek felvételét az európai ipari fejlesztési programba (EDIDP); úgy véli, hogy a jövőbeli Európai Védelmi Alap (EDF) és az állandó strukturált együttműködés (PESCO) is megfelelő keretet biztosíthat a mesterséges intelligenciával kapcsolatos jövőbeli projektek számára, amely elősegíthetné az e téren tett uniós erőfeszítések észszerűsítését, ugyanakkor előmozdítaná az emberi jogok, a nemzetközi jog és a többoldalú megoldások megerősítésére irányuló uniós célkitűzést; hangsúlyozza, hogy a mesterséges intelligenciával kapcsolatos projekteket össze kell hangolni az Unió mesterséges intelligenciának szentelt szélesebb körű polgári programjaival; megjegyzi, hogy az Európai Bizottság mesterséges intelligenciáról szóló, 2020. február 19-i fehér könyvével összhangban a mesterséges intelligenciának a biztonság és a védelem területén történő kutatására és fejlesztésére összpontosító kiválósági és tesztelési központokat a magánszférabeli érdekelt felek részvételét és beruházásait megalapozó szigorú előírások meghatározásával kell létrehozni;

134.  tudomásul veszi az Európai Bizottság mesterséges intelligenciáról szóló, 2020. február 19-i fehér könyvét, és sajnálja, hogy a katonai szempontokat nem vették figyelembe; felszólítja az Európai Bizottságot és az alelnököt/főképviselőt, hogy egy átfogó megközelítés részeként az uniós kereten belül terjesszen elő ágazati mesterségesintelligencia-stratégiát a védelemmel kapcsolatos tevékenységekre vonatkozóan, amely biztosítja a polgárok jogainak és az Unió stratégiai érdekeinek tiszteletben tartását, és amely olyan következetes megközelítésen alapul, amely a mesterséges intelligencián alapuló rendszerek létrejöttétől azok katonai felhasználásáig terjed, továbbá hozzon létre egy biztonsággal és védelemmel foglalkozó munkacsoportot a mesterséges intelligenciával foglalkozó magas szintű szakértői csoporton belül, amely kifejezetten szakpolitikai és beruházási kérdésekkel, továbbá a mesterséges intelligencia biztonsági és védelmi területen való alkalmazásának etikai kérdéseivel foglalkozna; felhívja a Tanácsot, a Bizottságot és az alelnököt/főképviselőt, hogy e célból kezdjen strukturált párbeszédet a Parlamenttel;

Az etikai megfelelés európai tanúsítása

135.  javasolja, hogy az uniós szintű koordináció keretében dolgozzanak ki közös kritériumokat és egy kérelmezési eljárást egy etikai megfelelést igazoló európai tanúsítvány odaítéléséhez kapcsolódóan, amelyre többek között a magas kockázatúnak nem minősülő technológiák azon fejlesztőinek, bevezetőinek vagy felhasználóinak kérésére kerülhetne sor, akik tanúsíttatni kívánják a megfelelés érintett nemzeti felügyeleti hatóság által elvégzett kedvező értékelését;

136.   úgy véli, hogy egy ilyen etikai megfelelést igazoló európai tanúsítvány a mesterségesintelligencia-ökoszisztémák ellátási láncának egészében előmozdítaná a beépített etikát; javasolja ezért, hogy a magas kockázatú technológiák esetében ez a tanúsítvány legyen a pályázatok elfogadhatóságának kötelező előfeltétele a mesterséges intelligenciára, robotikára és kapcsolódó technológiákra vonatkozó közbeszerzési eljárásokban;

Nemzetközi együttműködés

137.  véleménye szerint a határokon átnyúló hatékony együttműködés és etikai normák csak akkor életképesek, ha valamennyi szereplő igyekszik az emberi cselekvőképesség és ellenőrzés, a műszaki stabilitás és biztonság, az átláthatóság és az elszámoltathatóság, a sokszínűség, a megkülönböztetésmentesség és a tisztességes bánásmód, a társadalmi és környezeti jóllét biztosítására, valamint tiszteletben tartja a magánélet, az adatkormányzás és az adatvédelem – különösen az (EU) 2016/679 rendeletben foglaltak – elismert elveit;

138.  hangsúlyozza, hogy az Unió e technológiák fejlesztésére, bevezetésére és használatára vonatkozó jogi kötelezettségei és etikai elvei világvezetővé tehetik Európát a mesterséges intelligencia ágazatában, ezért azokat világszerte népszerűsíteni kell, mégpedig a nemzetközi partnerekkel való együttműködés révén, folytatva ugyanakkor a kritikus és etikai alapú párbeszédet a mesterséges intelligencia szabályozása, fejlesztése és bevezetése terén alternatív modellekkel rendelkező harmadik országokkal;

139.  emlékeztet arra, hogy az e technológiákban rejlő lehetőségek és kockázatok globális dimenzióval bírnak, mivel az e rendszerek által használt szoftvereket és adatokat gyakran importálják az Unióba és exportálják azokat onnan, ezért nemzetközi szinten következetes együttműködési megközelítésre van szükség; felhívja a Bizottságot, hogy kezdeményezze annak értékelését, hogy mely két- és többoldalú szerződéseket és megállapodásokat kell kiigazítani a következetes megközelítés biztosítása és az etikai megfelelés európai modelljének globális előmozdítása érdekében;

140.  rámutat arra, hogy a fent említett uniós szintű koordináció ezzel összefüggésben is hozzáadott értéket nyújtana;

141.  szorgalmazza szinergiák és hálózatok kialakítását a mesterséges intelligenciával foglalkozó különböző európai kutatóközpontok között, valamint egyéb többoldalú fórumokkal, például az Európa Tanáccsal, az Egyesült Nemzetek Nevelésügyi, Tudományos és Kulturális Szervezetével (UNESCO), a Gazdasági Együttműködési és Fejlesztési Szervezettel (OECD), a Kereskedelmi Világszervezettel és a Nemzetközi Távközlési Egyesülettel (ITU) az erőfeszítéseik összehangolása és a mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztésének jobb koordinációja érdekében;

142.  hangsúlyozza, hogy az Uniónak élen kell járnia az ENSZ CCW kormányzati szakértői csoportja keretében és egyéb releváns fórumokon tett többoldalú erőfeszítések támogatásában, amelyek célja egy olyan hatékony nemzetközi szabályozási keret megvitatása, amely biztosítja az autonóm fegyverrendszerek feletti érdemi emberi kontrollt annak érdekében, hogy e technológiák alkalmazását tökéletesen uralják a használatukra vonatkozó – a katonasággal, az iparral, a bűnüldözéssel, a tudományos szférával és a civil társadalmi érdekelt felekkel konzultálva elfogadott –, jól meghatározott, referenciaértékeken alapuló eljárások kialakítása és etikus felhasználásukra vonatkozó jogszabályok elfogadása révén, a kapcsolódó etikai szempontok megértése és az ilyen technológiákban rejlő eredendő kockázatok csökkentése, továbbá a rosszindulatú célokra való felhasználás megakadályozása mellett;

143.  elismeri a NATO-nak az euro-atlanti biztonság előmozdításában játszott szerepét, és együttműködésre szólít fel a NATO-n belül a védelem területén használt mesterségesintelligencia-rendszerekre vonatkozó közös standardok kidolgozása és az ilyen rendszerek interoperabilitásának biztosítása terén; hangsúlyozza, hogy a transzatlanti kapcsolat fontos a közös értékek megőrzése és a jövőbeli, illetve újonnan megjelenő fenyegetésekkel szembeni fellépés szempontjából;

144.  hangsúlyozza a mesterséges intelligencián alapuló rendszerek katonai műveletekben történő bevetését alátámasztó etikai kódex kidolgozásának fontosságát, amely hasonló lenne a vegyi és biológiai fegyverek bevetését tiltó, meglévő szabályozási kerethez; úgy véli, hogy a Bizottságnak a nemzetközi humanitárius jognak megfelelően kezdeményeznie kell a mesterséges intelligencián alapuló fegyverrendszerek háborúban való használatára vonatkozó normák kidolgozását, az Uniónak pedig szorgalmaznia kell ilyen normák nemzetközi szintű elfogadását; úgy véli, hogy az Uniónak mesterséges intelligenciával kapcsolatos diplomáciát kell folytatnia a nemzetközi fórumokon a hasonló szellemiségű partnerekkel, mint például a G7- és a G20-csoporttal és az OECD-vel;

Záró megfontolások

145.  a mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai vetületével kapcsolatos szempontokra vonatkozó fenti fejtegetéseket követően megállapítja, hogy a jogi és etikai dimenziót egy hatékony, előretekintő és átfogó uniós szintű szabályozási keretbe kell foglalni, amelyet az illetékes nemzeti hatóságok támogatnak, a Bizottság és/vagy az Unió bármely, ezzel összefüggésben kijelölt illetékes intézménye, szerve, hivatala vagy ügynöksége koordinál és fejleszt, a korábban említett szakértői központ rendszeresen támogat, és amelyet a belső piacon megfelelően tiszteletben tartanak és tanúsítanak;

146.  az Európai Unió működéséről szóló szerződés 225. cikkében rögzített eljárással összhangban kéri a Bizottságot, hogy az Európai Unió működéséről szóló szerződés 114. cikke alapján nyújtson be a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó etikai elvekről szóló rendeletre irányuló javaslatot, a csatolt mellékletben meghatározott részletes ajánlásoknak megfelelően; rámutat, hogy a javaslat nem áshatja alá az ágazatspecifikus jogszabályokat, hanem csak a megállapított joghézagok megszüntetésére szolgálhat;

147.  ajánlja, hogy az érintett érdekelt felekkel folytatott konzultációt követően az Európai Bizottság szükség esetén vizsgálja felül a mesterséges intelligenciára, robotikára és kapcsolódó technológiákra alkalmazandó meglévő uniós jogszabályokat annak érdekében, hogy alkalmazkodjon e technológiák gyors fejlődéséhez a csatolt mellékletben foglalt ajánlásokkal összhangban, elkerülve a túlszabályozást, többek között a kkv-k esetében;

148.  úgy véli, hogy a mesterséges intelligenciára, robotikára és a kapcsolódó technológiákra vonatkozó uniós szabályozási keret időszakos értékelése – és szükség esetén felülvizsgálata – alapvető fontosságú lesz annak biztosításához, hogy a hatályos jogszabályok lépést tartsanak a gyors ütemű technológiai fejlődéssel;

149.  úgy véli, hogy a kért jogalkotási javaslat pénzügyi vonzatokkal járna, ha egy európai szervre bíznák a fent említett koordinációs feladatokat és az újonnan rábízott feladatok ellátásához szükséges technikai eszközöket és emberi erőforrásokat;

o
o   o

150.  utasítja elnökét, hogy továbbítsa ezt az állásfoglalást és a mellékelt részletes ajánlásokat a Bizottságnak és a Tanácsnak.

(1) HL L 252., 2018.10.8., 1. o.
(2) HL L 180., 2000.7.19., 22. o.
(3) HL L 303., 2000.12.2., 16. o.
(4) HL L 119., 2016.5.4., 1. o.
(5) HL L 119., 2016.5.4., 89. o.
(6) HL L 123., 2016.5.12., 1. o.
(7) HL C 252., 2018.7.18., 239. o.
(8) HL C 307., 2018.8.30., 163. o.
(9) HL C 433., 2019.12.23., 86. o.
(10) Elfogadott szövegek, P8_TA(2018)0332.
(11) Elfogadott szövegek, P8_TA(2019)0081.
(12) https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654179.
(13) Az Európai Parlament és a Tanács (EU) 2019/882 irányelve (2019. április 17.) a termékekre és a szolgáltatásokra vonatkozó akadálymentességi követelményekről  (HL L 151., 2019.6.7., 70. o.).
(14)Az Európai Parlament és a Tanács 768/2008/EK határozata (2008. július 9.) a termékek forgalomba hozatalának közös keretrendszeréről, valamint a 93/465/EGK tanácsi határozat hatályon kívül helyezéséről (HL L 218., 2008.8.13., 82. o.).


MELLÉKLET AZ ÁLLÁSFOGLALÁSHOZ

A KÉRT JAVASLAT TARTALMÁRA VONATKOZÓ RÉSZLETES AJÁNLÁSOK

A.  A KÉRT JAVASLAT ALAPELVEI ÉS CÉLKITŰZÉSEI

I.  A javaslat fő elvei és céljai a következők:

–  a mesterséges intelligencia, a robotika és a kapcsolódó technológiák iránti bizalom megteremtése az érintett érdekelt felek és a társadalom minden szintjén, különösen amennyiben azok magas kockázatúnak minősülnek;

–  a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésének támogatása az Unióban, többek között oly módon, hogy segítik a vállalkozásokat, az induló innovatív vállalkozásokat és a kis- és középvállalkozásokat a jelenlegi és jövőbeli szabályozási követelmények és kockázatok megbízható értékelésében és kezelésében az innovációs és üzletfejlesztési folyamat során, valamint ezt követően a szakemberek és magánszemélyek általi használat során, a terhek és a bürokrácia minimalizálása révén;

–  a mesterséges intelligencia, a robotika és a kapcsolódó technológiák Unión belüli bevezetésének támogatása egy megfelelő és arányos, a jelenlegi vagy jövőbeli ágazati jogszabályokra tekintet nélkül alkalmazandó szabályozási keret biztosításával, amelynek célja a szabályozási biztonság és az innováció ösztönzése, az alapvető jogok és a fogyasztóvédelem garantálása mellett;

–  a mesterséges intelligencia, a robotika és a kapcsolódó technológiák használatának támogatása az Unióban annak biztosításával, hogy ezek fejlesztése, bevezetése és használata az etikai elvekkel összhangban történjen;

–  átláthatóság és jobb információáramlás előírása a polgárok körében és a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztését, bevezetését és használatát végző szervezeteken belül, biztosítva ezzel, hogy ezek a technológiák megfeleljenek az uniós jognak, az alapvető jogoknak és értékeknek, valamint a kért rendeletjavaslatban foglalt etikai elveknek.

II.  A javaslat a következő elemekből áll:

–  egy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó etikai elvekről szóló rendelet;

—  a Bizottság és/vagy az Unió bármely, ezzel összefüggésben kijelölt illetékes intézménye, szerve, hivatala vagy ügynöksége által betöltött uniós szintű koordinálási szerepkör és egy etikai megfelelést igazoló európai tanúsítvány;

–  az Európai Bizottság támogató szerepe;

–  az egyes tagállamokban a „felügyeleti hatóság” szerepe annak biztosításában, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák tekintetében etikai elveket alkalmazzanak;

–  az érintett kutatási és fejlesztési projektek, valamint az érdekelt felek, ezen belül az induló innovatív vállalkozások, kis- és középvállalkozások, egyéb vállalkozások, szociális partnerek és a civil társadalom más képviselőinek bevonása és megkérdezése, valamint ezek támogatása;

–  a magas kockázatú ágazatok, valamint a magas kockázatú felhasználások és célok teljes körű, összesített jegyzékét meghatározó melléklet;

III.  A mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó etikai elvekről szóló rendelet a következő elvekre épül:

–  emberközpontú, ember alkotta és ember által ellenőrzött mesterséges intelligencia, robotika és kapcsolódó technológiák;

–  a magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák megfelelőségének kötelező értékelése;

–  biztonság, átláthatóság és elszámoltathatóság;

–  a torzítással és a megkülönböztetéssel szembeni biztosítékok és jogorvoslati lehetőségek;

–  a jogorvoslathoz való jog;

–  társadalmi felelősségvállalás és nemek közötti egyenlőség a mesterséges intelligencia, a robotika és a kapcsolódó technológiák területén;

–  környezeti szempontból fenntartható mesterséges intelligencia, robotika és kapcsolódó technológiák;

–  a magánélet tiszteletben tartása és a biometrikus azonosítás alkalmazására vonatkozó korlátozások;

–  a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal, ezen belül az ilyen technológiák által használt vagy előállított adatokkal kapcsolatos megfelelő irányítás.

IV.  Az uniós szintű koordináció tekintetében a Bizottságnak és/vagy az Unió bármely, ezzel összefüggésben kijelölt illetékes intézményének, szervének, hivatalának vagy ügynökségének a következő főbb feladatokat kell ellátnia:

–  együttműködés a kért rendeletjavaslat és a vonatkozó uniós ágazati jog végrehajtásának nyomon követésében;

–  együttműködés a kért rendeletjavaslat következetes alkalmazásáról szóló iránymutatás kibocsátása kapcsán, nevezetesen a mesterséges intelligencia, robotika és kapcsolódó technológiák magas kockázatúként való besorolására vonatkozó kritériumok, valamint a rendelet mellékletében meghatározott magas kockázatú ágazatok, valamint magas kockázatú felhasználások és célok jegyzékének alkalmazására vonatkozóan;

–  együttműködés valamennyi tagállam „felügyeleti hatóságával” annak érdekében, hogy kidolgozzanak egy európai tanúsítványt, amely a kért rendeletjavaslatban és a vonatkozó uniós jogszabályokban meghatározott etikai elveknek és jogi kötelezettségeknek való megfelelést igazolja, valamint egy olyan kérelmezési eljárást, amelynek révén a magas kockázatúnak nem minősülő technológiák fejlesztői, bevezetői vagy felhasználói tanúsíttathatják, hogy technológiáik megfelelnek a kért rendeletjavaslatnak;

–  együttműködés az ágazatközi és határokon átnyúló együttműködés támogatása terén, mégpedig az EU-ban és világszerte az érintett érdekelt felekkel és a civil társadalommal – különösen a vállalkozásokkal, a szociális partnerekkel, a kutatókkal és az illetékes hatóságokkal, többek között a nemzetközi szintű technikai szabványok kidolgozásáról – folytatott rendszeres eszmecserén keresztül;

–  együttműködés az egyes tagállamok „felügyeleti hatóságaival” az egyes „felügyeleti hatóságok” által elvégzendő megfelelőségértékelésnél követendő módszertanra vonatkozó kötelező iránymutatások meghatározása terén;

–  együttműködés az egyes tagállamok „felügyeleti hatóságaival” való kapcsolattartás, valamint ezek megbízatásának és feladatainak koordinálása terén;

–  együttműködés a fejlesztők, bevezetők és felhasználók körében Unió-szerte folytatott tudatosságnövelés, információnyújtás és eszmecsere során;

–  együttműködés a tervezők, fejlesztők, bevezetők, polgárok, felhasználók és intézmények körében Unió-szerte és nemzetközi szinten folytatott tudatosságnövelés, információnyújtás, a digitális jártasság növelése, képzés, készségfejlesztés és eszmecsere során;

–  együttműködés az egyes tagállamok „felügyeleti hatóságai” által végrehajtandó, a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésének, bevezetésének és használatának irányítására vonatkozó közös keret koordinálása terén;

–  szakértői központként való együttműködés az információcsere előmozdítása és az egységes piacon belüli közös álláspont kialakításának támogatása révén;

–  együttműködés egy biztonsággal és védelemmel foglalkozó munkacsoport működtetésével kapcsolatban.

V.  Ezenkívül a Bizottságnak az alábbi feladatokat is el kell látnia:

–  az Unióban azonosított magas kockázatú technológiák közös jegyzékének összeállítása, majd – felhatalmazáson alapuló jogi aktusok útján – azok naprakésszé tétele, az egyes tagállamok „felügyeleti hatóságaival” együttműködésben;

˗  a rendelet mellékletében szereplő jegyzék naprakésszé tétele felhatalmazáson alapuló jogi aktusok útján.

VI.  Az egyes tagállamok „felügyeleti hatóságainak" a következő főbb feladatokat kell ellátniuk:

–  hozzájárulás a kért rendeletjavaslatban meghatározott szabályozási keret következetes alkalmazásához, együttműködésben a többi tagállam „felügyeleti hatóságaival” és az ágazati jogszabályok végrehajtásáért felelős egyéb hatóságokkal, a Bizottsággal és/vagy az Unió bármely, ezzel összefüggésben kijelölt illetékes intézményével, szervével, hivatalával vagy ügynökségével, ideértve nevezetesen a kért rendeletjavaslatban előírt kockázatértékelési kritériumok, valamint az annak mellékletében meghatározott magas kockázatú ágazatok, illetve magas kockázatú felhasználások vagy célok jegyzékének alkalmazását, továbbá – amennyiben ennek eredményeként magas kockázatú technológiát azonosítanak – a szükséges és megfelelő intézkedések végrehajtásának ezt követő felügyeletét;

–  annak értékelése, hogy az Unióban fejlesztett, bevezetett és használt mesterséges intelligencia, robotika és kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok magas kockázatú technológiának minősülnek-e a kért rendeletjavaslatban, valamint az annak mellékletét képező jegyzékben meghatározott kockázatértékelési kritériumok szerint;

–  a kért rendeletjavaslatban és a vonatkozó uniós jogszabályokban meghatározott etikai elveknek és jogi kötelezettségeknek való megfelelést igazoló európai tanúsítvány kibocsátása, többek között egy olyan – a Bizottság és/vagy az Unió bármely, ezzel összefüggésben kijelölt illetékes intézménye, szerve, hivatala vagy ügynöksége által kidolgozott – kérelmezési eljárás eredményeként, amelynek révén a magas kockázatúnak nem minősülő technológiák fejlesztői, bevezetői vagy felhasználói tanúsíttathatják, hogy technológiáik megfelelnek a kért rendeletjavaslatnak;

–  e technológiáknak a kért rendeletjavaslatban és a vonatkozó uniós jogszabályokban meghatározott etikai elveknek és jogi kötelezettségeknek való megfelelése értékelése és nyomon követése;

–  felelősség a mesterséges intelligencia, a robotika és a kapcsolódó technológiák irányítására vonatkozó standardok megállapításáért és végrehajtásáért, többek között az összes érdekelt féllel és civil társadalmi képviselővel folytatott egyeztetés és rendszeres párbeszéd fenntartása révén; ennek érdekében együttműködés a Bizottsággal és/vagy az Unió bármely, ezzel összefüggésben kijelölt illetékes intézményével, szervével, hivatalával vagy ügynökségével egy uniós szintű közös keret koordinálása terén;

–  a nyilvánosság körében a mesterséges intelligenciára, a robotikára és a kapcsolódó technológiákra vonatkozó tudatosságnövelés és információnyújtás, az érintett szakterületek – többek között az igazságszolgáltatás – képzésének támogatása, ezáltal pedig a polgárok és munkavállalók méltányos átálláshoz szükséges digitális jártassággal, készségekkel és eszközökkel való felruházása;

–  első kapcsolattartó pontként való közreműködés a kért rendeletjavaslatban meghatározott jogi kötelezettségek és etikai elvek megsértésének gyanúja esetén, továbbá ilyen esetekben megfelelőségi értékelés végzése; e megfelelőségi értékelés kapcsán konzultálhat az Unióban működő más illetékes hatóságokkal, köztük a fogyasztóvédelmi együttműködési hálózattal, nemzeti fogyasztóvédelmi szervekkel, civil társadalmi szervezetekkel és szociális partnerekkel és/vagy részükre információt nyújthat.

VII.  Az érdekelt felek legfontosabb szerepének azt kell tekinteni, hogy kapcsolatot tartanak a Bizottsággal és/vagy az Unió bármely, ezzel összefüggésben kijelölt illetékes intézményével, szervével, hivatalával vagy ügynökségével, valamint az egyes tagállamok „felügyeleti hatóságaival”.

B.  A KÉRT JOGALKOTÁSI JAVASLAT SZÖVEGE

Javaslat

AZ EURÓPAI PARLAMENT ÉS A TANÁCS RENDELETE

a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó etikai elvekről

AZ EURÓPAI PARLAMENT ÉS AZ EURÓPAI UNIÓ TANÁCSA,

tekintettel az Európai Unió működéséről szóló szerződésre és különösen annak 114. cikkére,

tekintettel az Európai Bizottság javaslatára,

a jogalkotási aktus tervezete nemzeti parlamenteknek való megküldését követően,

tekintettel az Európai Gazdasági és Szociális Bizottság véleményére,

rendes törvényalkotási eljárás keretében,

mivel:

(1)  A mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztése, bevezetése és használata elviekben a társadalmat kívánja szolgálni. E technológiák lehetőségeket és kockázatokat hordozhatnak, amelyeket egy etikai elveken alapuló, a technológiák fejlesztésének és bevezetésének pillanatától kezdve egészen azok használatáig betartandó átfogó uniós szintű szabályozási keret révén kell kezelni és szabályozni.

(2)  A mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztésére, bevezetésére és használatára vonatkozó ilyen szabályozási keretnek való megfelelés az Unió valamennyi tagállamában egyenértékű szintű kell, hogy legyen a lehetőségek hatékony kihasználása, e technológiák kockázatainak következetes kezelése, valamint az egységes szabályozás hiányának elkerülése érdekében. Biztosítani kell, hogy az e rendeletben meghatározott szabályok alkalmazása az egész Unióban egységes legyen.

(3)  Ezzel összefüggésben az Unió-szerte követendő szabályok és gyakorlatok jelenlegi sokfélesége az egységes piac széttöredezésének jelentős kockázatát rejti magában, továbbá veszélyezteti mind az egyének, mind a társadalom jóllétének és gyarapodásának védelmét, valamint a mesterséges intelligencia, a robotika és a kapcsolódó technológiák által az innováció ösztönzése és e jóllét és gyarapodás védelme terén kínált lehetőségek teljes körű és következetes feltárását. Az e technológiák által felvetett etikai kérdések fejlesztők, bevezetők és felhasználók általi eltérő mértékű figyelembevétele akadályozhatja e technológiák Unióban történő szabad fejlesztését, bevezetését és használatát, az egyenlő versenyfeltételek biztosítását, valamint az uniós szintű technológiai haladást és gazdasági tevékenységek folytatását, ezenkívül torzíthatják a versenyt és gátolhatják a hatóságokat az uniós jog szerinti kötelezettségeik teljesítésében. Ezen túlmenően a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó, etikai elveken alapuló közös szabályozási keret hiánya jogbizonytalanságot eredményez valamennyi érintett, azaz a fejlesztők, a bevezetők és a felhasználók számára.

(4)  Mindazonáltal e rendeletnek – amellett, hogy hozzájárul egy koherens uniós szintű megközelítéshez az általa megállapított határokon belül – mozgásteret kell biztosítania a tagállamok számára, többek között azzal kapcsolatban is, hogy saját nemzeti felügyeleti hatóságuk hogyan hajtsa végre megbízatását az e rendeletben megállapított, általa elérendő célok érdekében.

(5)  Ez a rendelet bármilyen jelenlegi vagy jövőbeli ágazati jogszabályra tekintet nélkül alkalmazandó. Célkitűzése tekintetében arányosnak kell lennie, hogy ne akadályozza indokolatlanul az Unióban zajló innovációt, és összhangban álljon a kockázatalapú megközelítéssel.

(6)  Egy ilyen keret földrajzi hatályának a mesterséges intelligencia, a robotika és a kapcsolódó technológiák valamennyi alkotóelemére ki kell terjednie azok Unióban történő fejlesztése, bevezetése és használata során, azokat az eseteket is beleértve, amikor a technológiák egy része az Unión kívül, illetve nem egy konkrét vagy egyetlen meghatározható helyen található, mint például a felhőszolgáltatások esetében.

(7)  Az egységes szabályozási megközelítés és ezáltal a polgárok és vállalkozások számára nyújtandó jogbiztonság lehetővé tételéhez az olyan fogalmak egységes értelmezésére van szükség az Unióban, mint például a mesterséges intelligencia, a robotika, a kapcsolódó technológiák és a biometrikus azonosítás. Ezeknek technológiai szempontból semlegesnek és szükség esetén felülvizsgálhatónak kell lenniük.

(8)  Ezenkívül figyelembe kell venni azt a tényt is, hogy vannak olyan, mesterséges intelligenciához és robotikához kapcsolódó technológiák, amelyek lehetővé teszik, hogy szoftverek különböző fokú autonómia mellett ellenőrzést gyakoroljanak fizikai vagy virtuális folyamatok felett(1). Például a gépjárművek automatizált vezetésére vonatkozóan a J3016 számú SAE nemzetközi szabvány hat vezetésautomatizálási szintet javasol.

(9)  A mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztésének, bevezetésének és használatának az emberi képességek kiegészítésére, nem pedig helyettesítésére kell szolgálnia, nem lehet ellentétes a polgárok legjobb érdekeivel, és tiszteletben kell tartania az uniós jogszabályokat, az Európai Unió Alapjogi Chartájában („a Charta”) meghatározott alapvető jogokat, az Európai Unió Bíróságának állandó ítélkezési gyakorlatát és az Unióban alkalmazandó más európai és nemzetközi eszközöket.

(10)  A mesterséges intelligencia, a robotika és a kapcsolódó technológiák által hozott vagy az általuk nyújtott információkon alapuló döntéseknek továbbra is érdemi emberi felülvizsgálat, megítélés, beavatkozás és ellenőrzés tárgyát kell képezniük. Az ilyen technológiák műszaki és operatív összetettsége soha nem akadályozhatja meg a bevezetőjüket vagy a felhasználójukat abban, hogy amennyiben az uniós jogszabályoknak és az e rendeletben meghatározott etikai elveknek és jogi kötelezettségeknek való megfelelés veszélybe kerül, képes legyen azokat legalább biztonságos módon kikapcsolni, módosítani, leállítani, vagy visszatérni egy korábbi, biztonságos működési állapothoz.

(11)  Amennyiben a mesterséges intelligencia, robotika és a kapcsolódó technológiák fejlesztése, bevezetése és használata során jelentős a kockázata annak, hogy egyes személyek vagy a társadalom számára sérülést vagy kárt okoznak az uniós jogban meghatározott alapvető jogok és biztonsági szabályok megsértésével, akkor azokat magas kockázatú technológiáknak kell tekinteni. Az erre irányuló értékelés során figyelembe kell venni azt az ágazatot, amelyben e technológiákat fejlesztik, bevezetik vagy használják, valamint e technológiák konkrét felhasználását vagy célját és a lehetséges sérülés vagy kár súlyosságát. A súlyosság mértékét a potenciális sérülés vagy kár mértéke, az érintett személyek száma, az okozott kár teljes értéke, valamint a társadalom egészét ért kár alapján kell meghatározni. A súlyos sérülések és károk közé tartozik például a gyermekek, fogyasztók vagy munkavállalók jogainak olyan megsértése, amely a mértékénél, az érintett gyermekek, fogyasztók vagy munkavállalók számánál vagy a társadalom egészére gyakorolt hatásánál fogva az uniós jogban meghatározott alapvető jogok és biztonsági szabályok megsértésének jelentős kockázatával jár. Ennek a rendeletnek tartalmaznia kell a magas kockázatú ágazatok, valamint a magas kockázatú felhasználások és célok kimerítő és összesített jegyzékét.

(12)  Az e rendeletben a magas kockázatú technológiákra vonatkozóan meghatározott kötelezettségek csak az Unióban fejlesztett, bevezetett és használt, az e rendeletben előírt kockázatértékelés nyomán magas kockázatúnak tekintett mesterséges intelligenciára, robotikára és kapcsolódó technológiákra, ezen belül az ilyen technológiák által használt vagy előállított szoftverekre, algoritmusokra és adatokra alkalmazandók. Ezek a kötelezettségek azon általános kötelezettségtől függetlenül fennállnak, hogy minden mesterséges intelligenciát, robotikát és kapcsolódó technológiát, ezen belül az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat az Unióban emberközpontú módon kell fejleszteni, bevezetni és használni, az uniós joggal összhangban az emberi autonómia és a humán biztonság elvei alapján és az olyan alapvető jogok maradéktalan tiszteletben tartása mellett, mint az emberi méltóság, a szabadsághoz és a biztonsághoz való jog, valamint a személyi sérthetetlenséghez való jog.

(13)  A magas kockázatú technológiáknak tiszteletben kell tartaniuk a biztonság, az átláthatóság, az elszámoltathatóság, a torzítás- és megkülönböztetésmentesség, a társadalmi felelősségvállalás és a nemek közötti egyenlőség, a jogorvoslathoz való jog, a környezeti fenntarthatóság, a magánélet védelme és a jó kormányzás elveit, és a nemzeti felügyeleti hatóság által végzett pártatlan, objektív külső kockázatértékelés tárgyát kell képezniük az e rendeletben és az annak mellékletét képező jegyzékben meghatározott kritériumokkal összhangban. Ennek az értékelésnek figyelembe kell vennie a fejlesztő vagy a bevezető nézőpontját, illetve esetleges önértékelését.

(14)  A Bizottságnak és/vagy az Unió bármely, erre a célra kijelölt illetékes intézményének, szervének, hivatalának vagy ügynökségének nem kötelező végrehajtási iránymutatásokat kell kidolgoznia a fejlesztők, bevezetők és felhasználók számára az e rendeletnek való megfelelés érdekében alkalmazandó módszertanra vonatkozóan. Ennek során konzultálnia kell a megfelelő érdekeltekkel.

(15)  E technológiák kockázatértékelését illetően az Unión belül koherenciának kell lennie, különösen abban az esetben, ha azokat mind e rendelet fényében, mind pedig az alkalmazandó esetleges ágazatspecifikus jogszabályokkal összhangban értékelik. A nemzeti felügyeleti hatóságoknak ezért tájékoztatniuk kell az esetleges ágazatspecifikus jogszabályokkal összhangban kockázatértékelést végző egyéb hatóságokat, amennyiben az adott technológiákat az e rendeletben előírt kockázatértékelés nyomán magas kockázatúnak minősítik.

(16)  Ahhoz, hogy megbízható legyen, a magas kockázatú mesterséges intelligenciát, robotikát és kapcsolódó technológiákat, ezen belül az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat biztonságos, átlátható és elszámoltatható módon kell fejleszteni, bevezetni és használni olyan biztonsági jellemzőkkel, mint a megbízhatóság, az ellenálló képesség, a biztonságosság, a pontosság és a hibafeltárás, a megmagyarázhatóság, az értelmezhetőség, az ellenőrizhetőség, az átláthatóság és az azonosíthatóság, és olyan módon, amely az említett jellemzőknek való meg nem felelés esetén lehetővé teszi az érintett funkciók kikapcsolását vagy egy korábbi, biztonságos működési állapothoz való visszatérést. Az átláthatóságot is biztosítani kell azáltal, hogy a hatóságok számára – amennyiben az feltétlenül szükséges – hozzáférést biztosítanak az említett technológiák alapjául szolgáló technológiához, adatokhoz és számítástechnikai rendszerekhez.

(17)  A mesterséges intelligencia, robotika és kapcsolódó technológiák, különösen a magas kockázatú technológiák fejlesztői, bevezetői és felhasználói az érintett technológiákkal, ezen belül az ilyen technológiák által használt vagy előállított szoftverekkel, algoritmusokkal és adatokkal való érintettségük mértékétől függően felelősséggel tartoznak a biztonsági, átláthatósági és elszámoltathatósági elvek betartásáért. A fejlesztőknek biztosítaniuk kell, hogy az érintett technológiákat az e rendeletben meghatározott biztonsági jellemzőkkel összhangban tervezzék meg és építsék ki, a bevezetőknek és a felhasználóknak pedig e jellemzők teljes körű betartása mellett kell bevezetniük és használniuk az érintett technológiákat. Ennek érdekében a magas kockázatú technológiák fejlesztőinek értékelniük kell és számításba kell venniük az általuk fejlesztett technológiákkal való, észszerűen várható visszaélés kockázatát. Azt is biztosítaniuk kell, hogy az általuk fejlesztett rendszerek a lehető legnagyobb mértékben és megfelelő eszközök – például felelősségkizáró üzenetek – útján jelezzék a hibák vagy pontatlanságok valószínűségét.

(18)  A fejlesztőknek és bevezetőknek a felhasználók rendelkezésére kell bocsátaniuk az érintett technológiák későbbi szoftverfrissítéseit a szerződésben, illetve az uniós vagy nemzeti jogban meghatározottak szerint. Ezen túlmenően, amennyiben a kockázatértékelés ezt indokolja, a fejlesztőknek és a bevezetőknek a hatóságok rendelkezésére kell bocsátaniuk az érintett technológiák használatára vonatkozó releváns dokumentációt és az ezzel kapcsolatos biztonsági útmutatót, beleértve – amennyiben ez feltétlenül szükséges, és az adatvédelemre, a magánélet védelmére, a szellemitulajdon-jogokra és az üzleti titkokra vonatkozó uniós jogszabályok teljes körű tiszteletben tartásával – a forráskódot, a fejlesztési eszközöket és a rendszer által használt adatokat.

(19)  Az egyéneknek joguk van elvárni, hogy az általuk használt technológia észszerű módon működjön és tiszteletben tartsa a belé vetett bizalmat. A polgárok mesterséges intelligencia, robotika és kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok iránti bizalma a technikai folyamatok ismeretétől és megértésétől függ. Az ilyen folyamatok elmagyarázásának mértékét az említett technikai folyamatok környezetétől és a hibás vagy pontatlan eredmény következményeinek súlyosságától kell függővé tenni, és annak elégségesnek kell lennie az adott folyamat kifogásolásához, illetve a jogorvoslat érvényesítéséhez. Az ilyen technológiák esetleges érthetetlenségének kezelése érdekében biztosítani kell az ellenőrizhetőséget, a nyomon követhetőséget és az átláthatóságot.

(20)  A társadalom mesterséges intelligencia, robotika és kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok iránti bizalma attól függ, hogy az érintett technológiák milyen mértékben teszik lehetővé saját értékelésüket, ellenőrizhetőségüket és nyomon követhetőségüket. Amennyiben érintettségük mértéke megkívánja, a fejlesztőknek biztosítaniuk kell, hogy ezeket a technológiákat úgy tervezzék meg és építsék ki, hogy lehetővé tegyék az ilyen értékelést, ellenőrzést és nyomon követhetőséget. A technikai lehetőségek határain belül a fejlesztőknek, a bevezetőknek és a felhasználóknak biztosítaniuk kell, hogy a mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat az átláthatósági követelmények teljes körű tiszteletben tartása mellett vezessék be és használják, lehetővé téve az ellenőrzést és a nyomon követhetőséget.

(21)  Az átláthatóság és az elszámoltathatóság biztosítása érdekében a polgárokat tájékoztatni kell arról, ha egy rendszer mesterséges intelligenciát használ, ha a mesterségesintelligencia-rendszerek egy terméket vagy szolgáltatást személyre szabnak a felhasználók számára, hogy kikapcsolhatják vagy korlátozhatják-e a személyre szabást, és ha automatizált döntéshozatali technológiával állnak szemben. Ezenkívül az átláthatósági intézkedéseket – a technikai lehetőségek határain belül – világos és érthető magyarázatnak kell kísérnie a felhasznált adatokról, az algoritmusról, annak céljáról, eredményeiről és potenciális veszélyeiről.

(22)  A szoftverek, algoritmusok és adatok általi torzítás és megkülönböztetés jogszerűtlen, és ennek problémáját az ezek tervezésére és bevezetésére alkalmazott folyamatok szabályozásával kell megoldani. Mind az automatizált rendszer által nyújtott információk alapján, mind maga a rendszer által hozott döntések eredményezhetnek torzítást, sőt azon adathalmazok is, amelyek alapján e döntéshozatal történik, illetve amelyeket a rendszer betanítására használnak.

(23)  A mesterséges intelligencia, a robotika és a kapcsolódó technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat torzítottnak kell tekinteni például akkor, ha bármely személlyel vagy csoporttal kapcsolatban előítéletes személyes vagy társadalmi percepció és a tulajdonságaikra vonatkozó adatok ezt követő feldolgozása alapján szuboptimális eredményeket jelenítenek meg.

(24)  Az uniós joggal összhangban a mesterséges intelligencia, a robotika és a kapcsolódó technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat diszkriminatívnak kell tekinteni, amennyiben aránytalan negatív hatásokkal járó eredményeket állítanak elő és valamely személlyel vagy csoporttal szembeni eltérő bánásmódot eredményeznek, így például másokhoz képest hátrányos helyzetbe hoznak, például a személyes tulajdonságai alapján, objektív vagy észszerű indokolás nélkül, és függetlenül a technológiák semlegességére vonatkozó bármilyen állítástól.

(25)  Az uniós joggal összhangban a közbiztonság védelme, a biztonság és az egészség, a bűncselekmények megelőzése, az egyéni jogok és szabadságok védelme, az igazságos képviselet és az objektív szakmai követelmények olyan jogos célok, amelyek e rendelet értelmében objektíven indokolttá tehetik az egyes személyekkel vagy csoportokkal szembeni eltérő bánásmódot.

(26)  A mesterséges intelligenciának, a robotikának és a kapcsolódó technológiáknak, ezen belül az ilyen technológiák által használt vagy előállított szoftvereknek, algoritmusoknak és adatoknak hozzá kell járulniuk a fenntartható haladáshoz. Az ilyen technológiák működése nem lehet ellentétes a környezet megőrzésének ügyével, illetve a zöld átállással. E technológiák fontos szerepet játszhatnak az ENSZ által a jövő nemzedékek gyarapodásának lehetővé tétele érdekében kidolgozott fenntartható fejlődési célok megvalósításában. Támogathatják a megfelelő előrehaladás fenntarthatósági és társadalmi kohéziós mutatók alapján, valamint olyan felelős kutatási és innovációs eszközök alkalmazásával történő nyomon követését, amelyek szükségessé teszik, hogy az Unió és a tagállamok forrásokat mozgósítsanak az e célokra irányuló projektek támogatása és az azokba való befektetés érdekében.

(27)  A mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztése, bevezetése és használata semmilyen módon nem okozhat szándékosan semmiféle sérülést vagy kárt az egyéneknek és a társadalomnak, illetve nem lehet oly módon kialakítva, hogy ilyen sérülés vagy kár elfogadott legyen. Ezért különösen a magas kockázatú technológiák esetében fontos, hogy azokat társadalmilag felelősségteljes módon fejlesszék, vezessék be és használják.

(28)  Ennek megfelelően a fejlesztőket, bevezetőket és felhasználókat a mesterséges intelligenciával, robotikával és kapcsolódó technológiákkal kapcsolatos érintettségük mértékétől függően, a felelősségre vonatkozó uniós és nemzeti szabályokkal összhangban felelősségre kell vonni az egyéneknek és a társadalomnak okozott sérülésekért és károkért.

(29)  Azokat a fejlesztőket, akik a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésének menetét vagy módját meghatározó és ellenőrző döntéseket hoznak, valamint azokat a bevezetőket, akik ellenőrzési vagy irányítási feladatkört ellátva vesznek részt azok bevezetésében, és ennek során a bevezetésre vonatkozó döntéseket hoznak és ellenőrzést gyakorolnak a kapcsolódó kockázatok felett vagy a bevezetésből előnyük származik, általánosan felelősnek kell tekinteni az esetleges sérülések és károk bekövetkezésének oly módon történő elkerüléséért, hogy a fejlesztési folyamat során megfelelő intézkedéseket vezetnek be, illetve a bevezetési szakaszban gondosan alkalmazzák ezeket az intézkedéseket.

(30)  A társadalmilag felelős mesterséges intelligencia, robotika és kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok olyan technológiaként határozhatók meg, amelyek a társadalomra vonatkozó különféle célokat – különösen a demokráciát, az egészséget és a gazdasági jólétet, az esélyegyenlőséget, a munkavállalói és szociális jogokat, a sokszínű és független médiát, az objektív és szabadon elérhető, a nyilvános vitát lehetővé tevő tájékoztatást, a jó minőségű oktatást, a kulturális és nyelvi sokszínűséget, a nemek közötti egyensúlyt, a digitális jártasságot, az innovációt és a kreativitást – védelmező és előmozdító megoldások megtalálásához járulnak hozzá. Egyben olyan technológiák, amelyeket a polgárok fizikai és mentális jóllétére gyakorolt végső hatásukra kellő tekintettel fejlesztenek, vezetnek be és használnak, és amelyek nem támogatják a gyűlöletbeszédet és az erőszakot. Ezeket a célokat különösen magas kockázatú technológiák útján kell megvalósítani.

(31)  A mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat ezenkívül a társadalmi befogadás, a demokrácia, a pluralizmus, a szolidaritás, a méltányosság, az egyenlőség és az együttműködés támogatásának céljával kell fejleszteni, bevezetni és használni, és ezzel összefüggésben kutatási és innovációs projektek révén fel kell tárni és maximálisan ki kell aknázni a bennük rejlő lehetőségeket. Az Uniónak és tagállamainak ezért mozgósítaniuk kell kommunikációs, adminisztratív és pénzügyi erőforrásaikat az ilyen projektek támogatása és az ezekbe való befektetés érdekében.

(32)  A társadalmi jóllét kérdésének kezelése tekintetében a mesterséges intelligenciában, a robotikában és a kapcsolódó technológiákban rejlő lehetőségeket kutató projekteket felelős kutatási és innovációs eszközök alapján kell megvalósítani, garantálva ezzel, hogy e projektek indulásuktól kezdve megfeleljenek az etikai elveknek.

(33)  A mesterséges intelligencia, robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztésének, bevezetésének és használatának figyelembe kell vennie e technológiák környezeti lábnyomát. A vonatkozó uniós jogban meghatározott kötelezettségekkel összhangban az ilyen technológiák nem okozhatnak kárt a környezetben életciklusuk folyamán és a teljes ellátási láncukban, és azokat oly módon kell kifejleszteni, bevezetni és használni, amely óvja a környezetet, csökkenti és orvosolja környezeti lábnyomukat, hozzájárul a zöld átálláshoz és támogatja a klímasemlegességgel és a körforgásos gazdasággal kapcsolatos célok megvalósulását.

(34)  E rendelet értelmében a fejlesztőket, bevezetőket és felhasználókat a magas kockázatúnak tekintett mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztésében, bevezetésében és használatában való érintettségük mértékétől függően felelősségre kell vonni az esetlegesen okozott környezeti károkért, a környezeti felelősségre vonatkozó alkalmazandó szabályokkal összhangban.

(35)  Ezeket a technológiákat annak érdekében is kell fejleszteni, bevezetni és használni, hogy a vonatkozó uniós jogszabályokban meghatározott kötelezettségekkel összhangban támogassák az olyan környezeti célok elérését, mint például a hulladékkeletkezés csökkentése, a szénlábnyom csökkentése, az éghajlatváltozással szembeni küzdelem és a környezet megóvása, és ezzel összefüggésben kutatási és innovációs projektek révén fel kell tárni és maximálisan ki kell aknázni a bennük rejlő lehetőségeket. Az Uniónak és tagállamainak ezért mozgósítaniuk kell kommunikációs, adminisztratív és pénzügyi erőforrásaikat az ilyen projektek támogatása és az ezekbe való befektetés érdekében.

(36)  A környezeti problémák megoldása tekintetében a mesterséges intelligenciában, a robotikában és a kapcsolódó technológiákban rejlő lehetőségeket kutató projekteket felelős kutatási és innovációs eszközök alapján kell megvalósítani, garantálva ezzel, hogy e projektek indulásuktól kezdve megfeleljenek az etikai elveknek.

(37)  A mesterséges intelligenciának, a robotikának és a kapcsolódó technológiáknak, ezen belül az ilyen technológiák által használt vagy előállított szoftvereknek, algoritmusoknak és adatoknak, amelyeket az Unióban fejlesztenek, vezetnek be és használnak, teljes mértékben tiszteletben kell tartaniuk az uniós polgárok magánélet védelméhez és a személyes adatok védelméhez való jogait. A fejlesztésnek, bevezetésnek és használatnak összhangban kell lennie különösen az (EU) 2016/679 európai parlamenti és tanácsi rendelettel(2), valamint a 2002/58/EK európai parlamenti és tanácsi irányelvvel(3).

(38)  Ha az egyének automatikus azonosítására távoli azonosítási technológiákat használnak, így például a biometrikus jellemzők felismerését és főleg az arcfelismerést, különösen fontos kellően figyelembe venni a mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok használatának etikai korlátait. Amikor hatóságok jelentős közérdekű célból – nevezetesen az egyének biztonságának garantálása és országos vészhelyzetre való reagálás, nem pedig vagyontárgyak biztonságának védelme érdekében – ilyen technológiákat alkalmaznak, akkor arról mindig tájékoztatást kell nyújtani, annak mindig arányosnak és célzottnak kell lennie, konkrét célkitűzésekre kell korlátozódnia, az uniós joggal összhangban időben korlátozottnak kell lennie, valamint kellően figyelembe kell vennie az emberi méltóságot és autonómiát és a Chartában foglalt alapvető jogokat. Az ilyen felhasználásra vonatkozó kritériumokat és korlátozásokat bírósági felülvizsgálatnak kell alávetni, és azoknak demokratikus ellenőrzés és a civil társadalom bevonásával folytatott vita tárgyát kell képezniük.

(39)  A vonatkozó standardokon alapuló irányítás növeli a biztonságot, és előmozdítja a polgárok mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztése, bevezetése és használata iránti bizalmának növekedését.

(40)  A hatóságoknak alapjogi hatásvizsgálatot kell végezniük az olyan magas kockázatú technológiák bevezetése előtt, amelyek az állami szférában történő döntéshozatalt támogatják, és közvetlen és jelentős hatást gyakorolnak a polgárok jogaira és kötelezettségeire.

(41)  A meglévő, vonatkozó irányítási standardok közé tartozik például az Európai Bizottság által létrehozott mesterséges intelligenciával foglalkozó magas szintű szakértői csoport „Etikai iránymutatás a megbízható mesterséges intelligenciára vonatkozóan” című dokumentuma, valamint egyéb, például európai szinten az Európai Szabványügyi Bizottság (CEN), az Európai Elektrotechnikai Szabványügyi Bizottság (CENELEC) és az Európai Távközlési Szabványügyi Intézet (ETSI), nemzetközi szinten pedig a Nemzetközi Szabványügyi Szervezet (ISO) és a Villamos- és Elektronikai Mérnöki Szervezet (Institute of Electrical and Electronics Engineers – IEEE) által elfogadott technikai standardok.

(42)  Az adatok több résztvevő általi megosztása és felhasználása érzékeny terület, ezért a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztését, bevezetését és használatát a minőségre, az integritásra, a biztonságra, a megbízhatóságra, az adatvédelemre és az ellenőrzésre vonatkozó követelményeket tükröző releváns szabályoknak, szabványoknak és protokolloknak kell szabályozniuk. Az adatkormányzási stratégiának az ilyen adatok feldolgozására, megosztására és az azokhoz való hozzáférésre kell összpontosítania, beleértve ezen adatok megfelelő kezelését, ellenőrizhetőségét és nyomon követhetőségét, és garantálnia kell a kiszolgáltatott csoportokra, többek között a fogyatékossággal élőkre, a betegekre, a gyermekekre, a kisebbségekre, a migránsokra vagy a kirekesztés kockázatának kitett más csoportokra vonatkozó adatok megfelelő védelmét. Emellett a fejlesztőknek, a bevezetőknek és a felhasználóknak adott esetben képeseknek kell lenniük fő teljesítménymutatókra támaszkodni az általuk használt adatkészletek értékelése során az általuk fejlesztett, bevezetett és használt technológiák megbízhatóságának javítása érdekében.

(43)  A tagállamoknak független közigazgatási hatóságot kell kijelölniük, amely felügyeleti hatóságként jár el. Az e rendeletben meghatározott kockázatértékelési kritériumok fényében magas kockázatúnak minősülő mesterséges intelligencia, robotika és kapcsolódó technológiák azonosításáért, valamint az említett technológiák e rendeletben előírt kötelezettségeknek való megfelelésének értékeléséért és nyomon követéséért az egyes nemzeti felügyeleti hatóságoknak kell felelősnek lenniük.

(44)  Az egyes nemzeti felügyeleti hatóságok felelősségét képezi továbbá az e technológiákra vonatkozó megfelelő irányítás a Bizottság és/vagy az Unió bármely, e célból kijelölt illetékes intézménye, szerve, hivatala vagy ügynöksége által végzett koordináció mellett. Így fontos szerep hárul rájuk az uniós polgárok bizalmának és biztonságának előmozdítása, valamint a demokratikus, pluralista és igazságos társadalom megvalósítása terén.

(45)  Az e rendelet értelmében magas kockázatúnak minősülő technológiák értékelése és a rendeletnek való megfelelésük nyomon követése céljából a nemzeti felügyeleti hatóságoknak adott esetben együtt kell működniük az e technológiák értékeléséért és nyomon követéséért, valamint az ágazati jogszabályoknak való megfelelésük biztosításáért felelős hatóságokkal.

(46)  A nemzeti felügyeleti hatóságoknak rendszeres érdemi együttműködést kell folytatniuk egymással, valamint az Európai Bizottsággal és az Unió más érintett intézményeivel, szerveivel, hivatalaival és ügynökségeivel a következetes határokon átnyúló fellépés garantálása, valamint annak lehetővé tétele érdekében, hogy e technológiákat az Unión belül következetesen, az e rendeletben megállapított etikai elvekkel és jogi kötelezettségekkel összhangban fejlesszék, vezessék be és használják.

(47)  Az ilyen együttműködés keretében és az uniós szintű teljes harmonizáció megvalósítása érdekében a nemzeti felügyeleti hatóságoknak segíteniük kell a Bizottságot a magas kockázatú mesterséges intelligencia, a robotika és a kapcsolódó technológiák közös és kimerítő jegyzékének az e rendeletben és annak mellékletében előírt kritériumokkal összhangban történő összeállításában. Ezenkívül ki kell dolgozni egy engedélyezési eljárást az európai etikai megfelelőségi tanúsítvány kiállításához, beleértve egy önkéntes kérelmezési eljárást is a magas kockázatúnak nem minősülő technológiák fejlesztői, alkalmazói vagy felhasználói számára, akik igazolni kívánják az e rendeletnek való megfelelésüket.

(48)  A nemzeti felügyeleti hatóságoknak gondoskodniuk kell a lehető legtöbb érdekelt fél – így például az ipar, a vállalkozások, a szociális partnerek, a kutatók, a fogyasztók és a civil társadalmi szervezetek – összehívásáról, és sokszínű fórumot kell biztosítaniuk a gondolkodás és az eszmecsere számára, hogy érthető és pontos következtetésekre jussanak az irányítás szabályozásának módjával kapcsolatos útmutatás céljából.

(49)  A nemzeti felügyeleti hatóságoknak gondoskodniuk kell a lehető legtöbb érdekelt fél – így például az ipar, a vállalkozások, a szociális partnerek, a kutatók, a fogyasztók és a civil társadalmi szervezetek – összehívásáról, és sokszínű fórumot kell biztosítaniuk a gondolkodás és az eszmecsere számára, hogy az érdekelt felek – különösen a tudományos élet, a kutatás, az ipar, a civil társadalom és az egyes szakértők – közötti, illetve az ezekkel való együttműködést elősegítsék, hogy érthető és pontos következtetésekre jussanak az irányítás szabályozásának módjával kapcsolatos útmutatás céljából.

(50)  Ezenfelül e nemzeti felügyeleti hatóságoknak szakmai igazgatási útmutatást és támogatást kell nyújtaniuk azon fejlesztők, a bevezetők és a felhasználók, különösen a kis- és középvállalkozások és az induló vállalkozások számára, amelyek problémákba ütköznek az e rendeletben megállapított etikai elveknek és jogi kötelezettségeknek való megfelelést illetően.

(51)  A Bizottságnak és/vagy az e célra kijelölhető érintett uniós intézményeknek, szerveknek, hivataloknak és ügynökségeknek kötelező iránymutatásokat kell kidolgozniuk a nemzeti felügyeleti hatóságok által a megfelelőség-értékelés során alkalmazandó módszertanra vonatkozóan.

(52)  A visszaélések bejelentése felhívja a hatóságok figyelmét az uniós jog potenciális és tényleges megsértéseire az olyan jogsértések, sérülések és károk megelőzése érdekében, amelyek máskülönben bekövetkeznének. Ezen túlmenően a jelentéstételi eljárások javítják a vállalkozásokon és szervezeteken belüli információáramlást, és ezzel mérséklik a hibás termékek vagy szolgáltatások kifejlesztésének kockázatát. A mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat, ezen belül az ilyen technológiák által használt vagy előállított adatokat fejlesztő, bevezető vagy használó vállalatoknak és szervezeteknek jelentéstételi csatornákat kell létrehozniuk, és a jogsértéseket bejelentő személyeket meg kell védeni a megtorlással szemben.

(53)  A mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok, valamint a technikai gépi tanulás, az értelmezési folyamatok és az e fejlődés mögött meghúzódó más technológiák gyors fejlődése nem kiszámítható. Emiatt helyénvaló és szükséges egy felülvizsgálati mechanizmus megállapítása, amellyel összhangban a Bizottságnak – a rendelet alkalmazásáról való beszámoláson túlmenően – rendszeresen jelentést kell benyújtania e rendelet hatályának lehetséges módosításáról.

(54)  Mivel e rendelet célját, nevezetesen a mesterséges intelligencia, a robotika és a kapcsolódó technológiák uniós fejlesztésére, bevezetésére és használatára vonatkozó etikai elvek és jogi kötelezettségek közös szabályozási keretének megállapítását a tagállamok nem tudják kellő mértékben megvalósítani, és ezért léptéke és hatásai miatt az uniós szinten jobban megvalósítható, az Unió intézkedéseket fogadhat el az Európai Unióról szóló szerződés 5. cikkében foglalt szubszidiaritás elvének megfelelően. Az említett cikkben foglalt arányosság elvének megfelelően ez a rendelet nem lépi túl az e cél eléréséhez szükséges mértéket.

(55)  Az e rendeletben meghatározott uniós szintű koordinációt a Bizottság és/vagy az ebben az összefüggésben kijelölhető bármely érintett uniós intézmény, szerv, hivatal és ügynökség valósítaná meg legjobban a széttöredezettség elkerülése és e rendelet következetes alkalmazásának biztosítása érdekében. A Bizottságot ezért meg kell bízni azzal, hogy találjon megfelelő megoldást az említett koordináció uniós szintű strukturálására annak érdekében, hogy összehangolja az egyes tagállamok nemzeti felügyeleti hatóságainak megbízatását és fellépéseit, nevezetesen a mesterséges intelligencia, a robotika és a kapcsolódó technológiák kockázatértékelése, e technológiák fejlesztésének, telepítésének és használatának irányítására vonatkozó közös keret létrehozása, az e rendeletben meghatározott etikai elveknek és jogi kötelezettségeknek való megfelelés tanúsításának kidolgozása és kiadása, az érintett érdekelt felekkel és a civil társadalommal való rendszeres párbeszéd támogatása, valamint szakértői központ létrehozása, amely uniós szinten összehozza a tudományos élet, a kutatás, az ipar képviselőit és az egyéni szakértőket a tudás és a műszaki szakértelem megosztásának előmozdítása és az Unió megközelítésének a nemzetközi együttműködés révén való előmozdítása és az e technológiákban rejlő lehetőségekre és kockázatokra világszerte adott következetes válasz biztosítása érdekében.

ELFOGADTA EZT A RENDELETET:

I. fejezet

Általános rendelkezések

1. cikk

Cél

E rendelet célja a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó etikai elvek és jogi kötelezettségek átfogó és időtálló uniós szabályozási keretének megállapítása.

2. cikk

Hatály

E rendelet az Unióban fejlesztett, bevezetett és használt mesterséges intelligenciára, robotikára és kapcsolódó technológiákra, ezen belül az ilyen technológiák által használt vagy előállított szoftverekre, algoritmusokra és adatokra alkalmazandó.

3. cikk

Területi hatály

Ez a rendelet a mesterséges intelligenciára, robotikára és kapcsolódó technológiákra alkalmazandó, amennyiben annak bármely részét az Unióban fejlesztik, vezetik be vagy használják, akkor is, ha az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok vagy adatok az Unión kívül találhatók vagy nincs meghatározott földrajzi helyük.

4. cikk

Fogalommeghatározások

E rendelet alkalmazásában:

a)  „mesterséges intelligencia”: szoftveralapú vagy hardvereszközökbe beágyazott rendszer, amely intelligens viselkedést mutat többek között adatgyűjtés, környezetének feldolgozása, elemzése és értelmezése, valamint azáltal, hogy konkrét célok elérése érdekében – bizonyos mértékben autonóm módon – cselekszik(4);

b)  „autonómia”: mesterségesintelligencia-rendszer, amely bizonyos bevitelek értelmezésével és előre meghatározott utasítások alkalmazásával működik, anélkül, hogy ezekre az utasításokra korlátozódna, annak ellenére, hogy a rendszer viselkedését korlátozza az, illetve viselkedése arra irányul, hogy teljesítse a kitűzött célt és a fejlesztő által hozott egyéb releváns tervezési döntéseket;

c)  „robotika”: olyan technológiák, amelyek lehetővé teszik automatikusan ellenőrzött, átprogramozható, többcélú gépek(5) számára, hogy a fizikai világban hagyományosan emberek által végzett vagy kezdeményezett tevékenységeket végezzenek, többek között mesterséges intelligencia vagy kapcsolódó technológiák révén;

d)  „kapcsolódó technológiák”: olyan technológiák, amelyek lehetővé teszik a szoftverek számára, hogy valamely fizikai vagy virtuális folyamatot részleges vagy teljes autonómiával ellenőrizzenek, olyan technológiák, amelyek képesek biometrikus, genetikai és egyéb adatok észlelésére, valamint olyan technológiák, amelyek emberi tulajdonságokat másolnak le vagy használnak ki más módon;

e)  „magas kockázat”: a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésével, telepítésével és használatával járó jelentős, arra irányuló kockázat, hogy ezek az uniós jogban meghatározott alapvető jogokat és biztonsági szabályokat megsértve sérülést vagy kárt okoznak az egyéneknek vagy a társadalomnak, tekintettel konkrét használatukra vagy céljukra, arra az ágazatra, amelyben ezeket fejlesztik, telepítik vagy használják, valamint a várhatóan bekövetkező sérülés vagy kár súlyosságára;

f)  „fejlesztés”: algoritmusok felépítése és megtervezése, szoftverek írása és megtervezése vagy adatok gyűjtése, tárolása és kezelése mesterséges intelligencia, robotika és kapcsolódó technológiák létrehozása vagy betanítása céljából, illetve meglévő mesterséges intelligencia, robotika és kapcsolódó technológiák új alkalmazásainak létrehozása céljából;

g)  „fejlesztő”: bármely természetes vagy jogi személy, aki olyan döntéseket hoz, amelyek meghatározzák és ellenőrzik a mesterséges intelligencia, robotika és a kapcsolódó technológiák fejlesztésének menetét és módját;

h)  „bevezetés”: a mesterséges intelligencia, robotika és kapcsolódó technológiák működtetése és kezelése, valamint forgalomba hozatala vagy a felhasználók számára való egyéb módon történő elérhetővé tétele;

i)  „bevezető”: bármely természetes vagy jogi személy, aki ellenőrző vagy irányító funkcióval részt vesz a mesterséges intelligencia, a robotika és a kapcsolódó technológiák konkrét bevezetésében azáltal, hogy döntéseket hoz, ellenőrzést gyakorol a kockázat felett, és hasznot húz az ilyen bevezetésből;

j)  „használat”: a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal kapcsolatos bármely intézkedés, amely nem fejlesztés vagy bevezetés;

k)  „felhasználó”: bármely természetes vagy jogi személy, aki nem fejlesztés vagy bevezetés céljából használja a mesterséges intelligenciát, robotikát és kapcsolódó technológiákat;

l)  „torzítás”: valamely személy vagy csoport személyes tulajdonságai alapján való előítéletes személyes vagy társadalmi érzékelése;

m)  „megkülönböztetés”: egy személlyel vagy csoporttal szemben olyan alapon alkalmazott megkülönböztető bánásmód, amelynek nincs objektív vagy észszerű indoka, és amelyet az uniós jog ezért tilt;

n)  „sérülés vagy kár”: fizikai vagy szellemi sérülés, vagyoni vagy nem vagyoni kár, például pénzügyi vagy gazdasági veszteség, munkahely vagy oktatási lehetőség elvesztése, a választás vagy a véleménynyilvánítás szabadságának indokolatlan korlátozása vagy a magánélet megsértése, valamint az uniós jog bármely, személyre nézve hátrányos megsértése, ideértve azokat az eseteket, amikor azt gyűlöletbeszéd, előítélet, megkülönböztetés vagy megbélyegzés okozza;

o)  „jó irányítás”: az a mód, ahogyan biztosítják, hogy a fejlesztők, a bevezetők és a felhasználók a megfelelő és észszerű szabványokat és magatartási protokollokat vezessék be és tartsák be, a szabályok, eljárások és értékek formális készlete alapján, amely lehetővé teszi számukra, hogy felmerülésük esetén, illetve még a felmerülésük előtt megfelelően kezeljék az etikai ügyeket.

5. cikk

A mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai elvei

(1)  Az Unióban bármely mesterséges intelligenciát, robotikát és kapcsolódó technológiákat – így az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat – az uniós jogszabályokkal összhangban, az emberi méltóság, autonómia és biztonság, valamint a Chartában rögzített egyéb alapvető jogok teljes tiszteletben tartásával kell fejleszteni, bevezetni és használni.

(2)  A személyes adatoknak – ideértve a nem személyes adatokból és a biometrikus adatokból származó személyes adatokat is – a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztése, bevezetése és használata során történő feldolgozását az (EU) 2016/679 rendelettel és a 2002/58/EK irányelvvel összhangban kell végezni.

(3)  Az Unió és a tagállamok ösztönzik az olyan mesterséges intelligencián, robotikán és kapcsolódó technológiákon alapuló megoldások biztosítását célzó kutatási projekteket, amelyek a társadalmi befogadás, a demokrácia, a pluralizmus, a szolidaritás, az igazságosság, az egyenlőség és az együttműködés előmozdítására törekszenek.

II. fejezet

A magas kockázattal járó technológiákra vonatkozó kötelezettségek

6. cikk

A magas kockázattal járó technológiákra vonatkozó kötelezettségek

(1)  Az e fejezetben szereplő rendelkezések csak az Unióban fejlesztett, bevezetett és használt, magas kockázattal járónak tekintett mesterséges intelligenciára, robotikára és kapcsolódó technológiákra, ezen belül az ilyen technológiák által használt vagy előállított szoftverekre, algoritmusokra és adatokra alkalmazandók.

(2)  Bármely magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztése, bevezetése és használata oly módon történik, hogy biztosított legyen, hogy ezek ne sértsék az e rendeletben meghatározott etikai elveket.

7. cikk

Emberközpontú és ember alkotta mesterséges intelligencia

(1)  Bármely magas kockázatú technológia, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztése, bevezetése és használata oly módon történik, hogy biztosított legyen a folyamatos emberi felügyelet.

(2)  Az (1) bekezdésben említett technológiákat úgy fejlesztik, vezetik be és használják, hogy szükség esetén lehetséges legyen a teljeskörű emberi ellenőrzés visszanyerése, többek között e technológiák módosítása vagy leállítása révén.

8. cikk

Biztonság, átláthatóság és elszámoltathatóság

(1)  Bármely magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztése, bevezetése és használata oly módon történik, hogy biztosított legyen, hogy ezeket:

a)  ellenálló módon fejlesztik, vezetik be és használják, hogy biztosítsák a biztonság megfelelő szintjét az azonosított kockázattal arányos minimális kiberbiztonsági alapelvek betartása révén, valamint egy olyan szintet, amely megakadályozza bármely műszaki sérülékenység tisztességtelen vagy jogszerűtlen célokra való kihasználását;

b)  biztonságos módon fejlesztik, vezetik be és használják, gondoskodva arról, hogy legyenek védintézkedések, amelyeknek része egy tartalékterv és -intézkedés is arra az esetre, ha biztonsági és védelmi kockázat áll fenn;

c)  oly módon fejlesztik, vezetik be és használják, amely biztosítja a felhasználó által ésszerűen elvárt megbízható teljesítményt a kitűzött célok elérése és azon tevékenységek végrehajtása tekintetében, amelyekre e technológiákat tervezték, többek között annak biztosításával, hogy valamennyi művelet megismételhető legyen;

d)  oly módon fejlesztik, vezetik be és használják, hogy biztosított legyen, hogy az adott technológiák céljainak és tevékenységeinek teljesítése pontos legyen; ha nem kerülhetők el az alkalmi pontatlanságok, a rendszer, amennyire lehetséges, megfelelő módon jelzi a bevezetőknek és a felhasználóknak a hibák és pontatlanságok valószínűségét;

e)  könnyen megmagyarázható módon fejlesztik, vezetik be és használják, biztosítva ezzel, hogy elvégezhető legyen a technológiák műszaki folyamatainak a felülvizsgálata;

f)  olyan módon fejlesztik, vezetik be és használják, hogy a felhasználók tájékoztatást kapjanak arról, hogy mesterségesintelligencia-rendszerrel állnak kapcsolatban, valamint megfelelően és átfogóan feltárva azok képességeit, pontosságát és korlátait a mesterséges intelligencia fejlesztői, bevezetői és felhasználói számára;

g)  a 6. cikk (3) bekezdésével összhangban történő fejlesztésének, bevezetésének és használatának módja az a)–g) pontban meghatározott biztonsági jellemzők be nem tartása esetén lehetővé teszi az érintett funkciók átmeneti kikapcsolását és egy korábbi állapothoz való visszatérést, visszaállítva a biztonságos funkcionalitásokat.

(2)  A 6. cikk (1) bekezdésével összhangban az e cikk (1) bekezdésében említett technológiákat, ideértve az ilyen technológiák által használt és létrehozott szoftvereket, algoritmusokat és adatokat, átlátható és nyomon követhető módon fejlesztik, vezetik be és használják, hogy elemeiket, folyamataikat és szakaszaikat a lehető legmagasabb szintű szabványok szerint dokumentálják, és a 18. cikkben említett nemzeti felügyeleti hatóságok értékelhessék, hogy az érintett technológiák megfelelnek-e az e rendeletben meghatározott kötelezettségeknek. Az (1) bekezdésben meghatározott biztonsági jellemzőknek való megfelelés bizonyításáért az érintett technológiák fejlesztője, bevezetője és felhasználója a felelős, akinek erre képesnek kell lennie.

(3)  Az (1) bekezdésben említett technológiák fejlesztője, bevezetője és felhasználója biztosítja, hogy az (1) bekezdésben meghatározott biztonsági jellemzőknek való megfelelés érdekében tett intézkedéseket a 18. cikkben említett nemzeti felügyeleti hatóságok vagy adott esetben más nemzeti vagy európai ágazati felügyeleti szervek ellenőrizni tudják.

9. cikk

A torzítás és a megkülönböztetés tilalma

(1)  Az Unióban fejlesztett, bevezetett vagy használt magas kockázatú mesterséges intelligencia, a robotika és a kapcsolódó technológiák által használt vagy előállított szoftverek, algoritmusok és adatok mentesek a torzítástól, és a (2) bekezdés sérelme nélkül nem alkalmaznak megkülönböztetést a faj, nem, szexuális irányultság, várandósság, fogyatékosság, fizikai vagy genetikai jellemzők, életkor, nemzeti kisebbség, etnikai hovatartozás vagy társadalmi származás, nyelv, vallás vagy meggyőződés, politikai nézetek vagy polgári részvétel, állampolgárság, polgári jogi vagy gazdasági státusz, végzettség vagy büntetett előélet alapján.

(2)  Az (1) bekezdéstől eltérve, a jogszerűtlen megkülönböztetésre irányadó uniós jog sérelme nélkül a személyekkel és csoportokkal szembeni megkülönböztető bánásmód csak akkor lehet indokolt, amennyiben objektív, észszerű és jogszerű cél áll fenn, amely arányos és szükséges is, minthogy nem léteznek olyan alternatívák, amelyek kevésbé sértenék az egyenlő bánásmód elvét.

10. cikk

Társadalmi felelősségvállalás és nemek közötti egyenlőség

Az Unióban kifejlesztett, bevezetett és használt, magas kockázatú mesterséges intelligenciát, robotikát és kapcsolódó technológiákat – beleértve az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat – a vonatkozó uniós joggal, elvekkel és értékekkel összhangban kell kifejleszteni, bevezetni és használni oly módon, hogy ez ne befolyásolja a választásokat és ne járuljon hozzá a félretájékoztatás terjesztéséhez, tiszteletben tartsa a munkavállalók jogait, előmozdítsa a minőségi oktatást és a digitális műveltséget, ne növelje a nemek közötti szakadékot azáltal, hogy megakadályozza a mindenki számára biztosítandó esélyegyenlőséget, és ne sértse a szellemi tulajdonhoz fűződő jogokat és az ahhoz kapcsolódó korlátozásokat vagy az az alóli kivételeket.

11. cikk

Környezeti fenntarthatóság

A magas kockázatú mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat, ezen belül az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat a 18. cikkben említett nemzeti felügyeleti hatóságok vagy adott esetben más nemzeti vagy európai ágazati felügyeleti hatóságok értékelik környezeti fenntarthatóságuk szempontjából, biztosítva, hogy olyan intézkedéseket vezessenek be, amelyek mérsékelik és orvosolják e technológiák általános hatását a természeti erőforrások, az energiafogyasztás, a hulladékkeletkezés, a szénlábnyom, az éghajlatváltozás okozta vészhelyzet és a környezetkárosodás tekintetében, biztosítva a vonatkozó uniós vagy nemzeti jogszabályok és az Unió által vállalt bármely más nemzetközi környezetvédelmi kötelezettségvállalások betartását.

12. cikk

A magánélet tiszteletben tartása és a személyes adatok védelme

A biometrikus adatoknak a közterületeken, távoli azonosítás, így biometrikus azonosítás vagy arcfelismerés céljából történő felhasználása és gyűjtése különös kockázatot jelent az alapvető jogokra nézve, és azt kizárólag a tagállamok hatóságai vezethetik be vagy használhatják fel jelentős közérdekű célokra. Az említett hatóságok biztosítják, hogy az ilyen bevezetésről vagy felhasználásról a polgárok tájékoztatást kapnak, az arányos, célzott és konkrét célkitűzésekre és helyszínre korlátozódó, valamint időben korlátozott legyen, összhangban az uniós és a nemzeti joggal, különösen az (EU) 2016/679 rendelettel és a 2002/58/EK irányelvvel, valamint kellő figyelemmel az emberi méltóságra és autonómiára, továbbá a Chartában foglalt alapvető jogokra, nevezetesen a magánélet tiszteletben tartásához és a személyes adatok védelméhez való jogra.

13. cikk

Jogorvoslathoz való jog

Bármely természetes vagy jogi személy jogosult jogorvoslatért folyamodni a magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák – ideértve az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat is – az uniós jogot és az e rendeletben meghatározott kötelezettségeket sértő fejlesztése, bevezetése és használata által okozott sérülésekért vagy károkért.

14. cikk

Kockázatértékelés

(1)  E rendelet alkalmazásában a mesterséges intelligencia, a robotika és a kapcsolódó technológiák – beleértve az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat is – akkor minősülnek magas kockázatú technológiáknak, ha objektív kritériumokon – például konkrét felhasználásukon vagy céljukon, a fejlesztésük, bevezetésük vagy használatuk ágazatán, valamint az okozott lehetséges sérülés vagy kár súlyosságán – alapuló kockázatértékelést követően fejlesztésük, bevezetésük vagy használatuk azzal a jelentős kockázattal jár, hogy az egyének vagy a társadalom számára várhatóan sérülést vagy kárt okoz, megsértve az uniós jogszabályok szerinti alapvető jogokat és biztonsági szabályokat.

(2)  Az alkalmazandó ágazati jogszabályok sérelme nélkül a mesterséges intelligencia, a robotika és a kapcsolódó technológiák – beleértve az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat is – kockázatértékelését az e cikk (1) bekezdésében meghatározott objektív kritériumoknak és az e rendelet mellékletében meghatározott teljes körű és összesített jegyzéknek megfelelően a 18. cikkben említett nemzeti felügyeleti hatóságoknak kell elvégezniük a Bizottság és/vagy az Unió bármely más érintett intézménye, szerve, hivatala és ügynöksége koordinálásával, amelyek e célból, együttműködésük összefüggésében kijelölhetők.

(3)  A Bizottság a (2) bekezdésben említett nemzeti felügyeleti hatóságokkal együttműködve a 20. cikkel összhangban felhatalmazáson alapuló jogi aktusok révén összeállítja, majd ezt követően naprakésszé teszi az Unióban azonosított magas kockázatú technológiák közös jegyzékét.

(4)  A Bizottság emellett a 20. cikkel összhangban felhatalmazáson alapuló jogi aktusok révén rendszeresen naprakésszé teszi az e rendelet mellékletében rendelkezésre bocsátott jegyzéket.

15. cikk

Megfelelőségi értékelés

(1)  A nagy kockázatú mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat az e rendelet 6–12. cikkében meghatározott kötelezettségeknek való megfelelésre vonatkozó értékelésnek és azt követő nyomon követésnek kell alávetni, amelyeket a 18. cikkben említett nemzeti felügyeleti hatóságok végeznek el a Bizottság és/vagy bármely más, e célra kijelölt érintett uniós intézmény, szerv, hivatal és ügynökség koordinációjával.

(2)  Az e rendeletben az (1) bekezdésnek megfelelően meghatározott kötelezettségeknek megfelelőnek értékelt, magas kockázatú technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat is e kötelezettségeknek megfelelőnek kell tekinteni, kivéve, ha a vonatkozó nemzeti felügyeleti hatóság úgy dönt, hogy saját kezdeményezésére vagy a fejlesztő, a bevezető vagy a felhasználó kérésére elvégzi ezek értékelését.

(3)  Az ágazati jogszabályok sérelme nélkül a Bizottság és/vagy az Unió bármely, kifejezetten e célra kijelölhető érintett intézménye, szerve, hivatala és ügynöksége e rendelet hatálybalépésének időpontjáig kötelező iránymutatásokat dolgoz ki a nemzeti felügyeleti hatóságok által az (1) bekezdésben említett megfelelőségértékeléshez alkalmazandó módszertanra vonatkozóan.

16. cikk

Az etikai megfelelés európai tanúsítása

(1)  Amennyiben a 15. cikkel összhangban pozitív értékelést végeztek a magas kockázatú mesterséges intelligencia, a robotika és a kapcsolódó technológiák – ideértve az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat is – megfelelőségéről, az érintett nemzeti felügyeleti hatóság európai etikai megfelelőségi tanúsítványt állít ki.

(2)  Az olyan mesterséges intelligencia, robotika és kapcsolódó technológiák – beleértve az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat – fejlesztői, bevezetői vagy felhasználói, amelyek nem minősülnek magas kockázatúnak és amelyekre ezért nem vonatkoznak a 6–12. cikkben meghatározott kötelezettségek, valamint a 14. és a 15. cikkben előírt kockázatértékelés és megfelelőség-értékelés, szintén törekedhetnek az e rendeletben meghatározott kötelezettségeknek vagy azok egy részének való megfelelés tanúsítására, amennyiben ezt a szóban forgó technológia jellege indokolja a nemzeti felügyeleti hatóságok döntésének megfelelően. Tanúsítvány csak akkor állítható ki, ha az illetékes nemzeti felügyeleti hatóság elvégezte a megfelelőség értékelését, és az pozitív.

(3)  A (2) bekezdésben említett tanúsítvány kiállítása céljából a Bizottság és/vagy az Unió bármely más érintett intézménye, szerve, hivatala és ügynöksége, amely erre a célra kijelölhető, kérelmezési eljárást dolgoz ki.

III. fejezet

Intézményi felügyelet

17. cikk

Irányítási standardok és végrehajtási iránymutatás

(1)  Az Unióban kifejlesztett, bevezetett vagy használt mesterséges intelligenciának, robotikának és kapcsolódó technológiáknak meg kell felelniük a 18. cikkben említett nemzeti felügyeleti hatóságok által az uniós joggal, elvekkel és értékekkel összhangban meghatározott vonatkozó irányítási standardoknak, az uniós joggal, elvekkel és értékekkel összhangban, a Bizottság és/vagy az e célra kijelölhető bármely érintett uniós intézmény, szerv, hivatal és ügynökség koordinálása mellett és az érintett érdekelt felekkel konzultálva.

(2)  Az (1) bekezdésben említett szabványok magukban foglalják az e rendeletnek a fejlesztők, a bevezetők és a felhasználók általi betartására vonatkozó módszertanra irányuló, nem kötelező érvényű végrehajtási iránymutatásokat, és azokat e rendelet hatálybalépésének időpontjáig közzé kell tenni.

(3)  Az Unióban fejlesztett, bevezetett és használt mesterséges intelligencia, robotika és kapcsolódó technológiák által használt vagy előállított adatokat a fejlesztők, a bevezetők és a felhasználók a említett vonatkozó nemzeti, uniós és más európai szervezeti és nemzetközi szabályokkal és szabványokkal, valamint a vonatkozó ipari és üzleti protokollokkal összhangban kezelik. A fejlesztők és a bevezetők, amennyiben megvalósítható, ellenőrzik a mesterséges intelligencia, robotika és kapcsolódó technológiák által felhasznált külső adatforrások minőségét, és felügyeleti mechanizmusokat vezetnek be ezek gyűjtését, tárolását, feldolgozását és felhasználását illetően.

(4)  A hordozhatósági jogok és azon személyek jogainak a sérelme nélkül, akik mesterséges intelligenciát, robotikát és kapcsolódó technológiákat használnak, és ebből adódóan adatok keletkeznek, az Unióban fejlesztett, bevezetett vagy használt mesterséges intelligencia, robotika és kapcsolódó technológiák által használt vagy előállított adatok gyűjtése, tárolása, feldolgozása, megosztása és az azokhoz való hozzáférés során meg kell felelni a vonatkozó nemzeti, uniós, más európai szervezeti és nemzetközi szabályoknak és szabványoknak, valamint a vonatkozó ipari és üzleti protokolloknak. A fejlesztők és a bevezetők biztosítják, hogy a mesterséges intelligencia, a robotika és kapcsolódó technológiák fejlesztése és bevezetése során alkalmazzák e protokollokat, mégpedig oly módon, hogy világosan meghatározzák az e technológiák által használt vagy előállított adatok feldolgozására és az ezen adatokhoz való hozzáférés megadására vonatkozó követelményeket, valamint az adatok feldolgozásának és az ilyen adatokhoz való hozzáférés megadásának célját, hatályát és címzettjeit, amelyek mindegyikének mindig ellenőrizhetőnek és nyomon követhetőnek kell lennie.

18. cikk

Felügyeleti hatóságok

(1)  Minden tagállam kijelöl egy független közhatóságot (a továbbiakban: felügyeleti hatóság), amely felelős e rendelet alkalmazásának nyomon követéséért, valamint a 14., a 15. és a 16. cikkben előírt kockázat- és megfelelőségértékelések elvégzéséért és tanúsításért, az ágazati jogszabályok sérelme nélkül.

(2)  Minden nemzeti felügyeleti hatóság elősegíti e rendeletnek az Unió egész területén történő következetes alkalmazását. Az egyes tagállamok felügyeleti hatóságai e célból együttműködnek egymással, a Bizottsággal és az Unió e célból kijelölhető egyéb érintett intézményeivel, szerveivel, hivatalaival és ügynökségeivel.

(3)  Minden egyes nemzeti felügyeleti hatóság az első kapcsolattartó pontként szolgál az e rendeletben megállapított etikai elvek és jogi kötelezettségek mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztése, bevezetése vagy használata következtében történő megsértésének gyanúja esetén, ideértve a megkülönböztető bánásmódot vagy más jogok megsértését is. Ilyen esetekben az érintett nemzeti felügyeleti hatóság megfelelőségértékelést végez annak érdekében, hogy támogassa a polgárok kifogásoláshoz és jogorvoslathoz való jogát.

(4)  Minden nemzeti felügyeleti hatóság felelős a 17. cikkben említett, vonatkozó nemzeti, európai és nemzetközi irányítási szabályok és szabványok mesterséges intelligenciára, robotikára és kapcsolódó technológiákra való alkalmazásának felügyeletéért, többek között oly módon is, hogy a lehető legnagyobb számú érdekelt féllel tart kapcsolatot. E célból az egyes tagállamok felügyeleti hatóságai fórumot biztosítanak a tudományos élet, a kutatás, az ipar és a civil társadalom érdekelt felei közötti, illetve érdekelt feleivel folytatott rendszeres eszmecseréhez.

(5)  Minden nemzeti felügyeleti hatóság szakmai és igazgatási útmutatást és támogatást nyújt a mesterséges intelligenciára, robotikára és kapcsolódó technológiákra vonatkozó uniós jogszabályok és az e rendeletben meghatározott etikai elvek általános végrehajtásához, különösen az érintett kutató és fejlesztő szervezetek, valalmint a kis- és középvállalkozások és az induló vállalkozások számára.

(6)  Minden tagállam ... [HL: beillesztendő dátum: egy évvel a hatálybalépés után]-ig, a bejelenti az Európai Bizottságnak az e cikk szerint elfogadott jogi rendelkezéseit, illetve késedelem nélkül az ezeket érintő későbbi módosításokat.

(7)  A tagállamok minden szükséges intézkedést meghoznak az e rendeletben meghatározott etikai elvek és jogi kötelezettségek végrehajtásának biztosítása érdekében. A tagállamok uniós és nemzeti szinten egyaránt támogatják az érintett érdekelt feleket és a civil társadalmat az új lehetőségekre és kihívásokra való kellő idejű, etikus és jól tájékozott reagálás biztosítására irányuló erőfeszítéseikben, különösen a határokon átnyúló erőfeszítésekben, amelyek a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal kapcsolatos műszaki fejleményekből erednek.

19. cikk

Jogsértések bejelentése és a bejelentő személyek védelme

E rendelet megsértéseinek a bejelentésére és az ilyen jogsértéseket bejelentő személyek védelmére az (EU) 2019/1937 európai parlamenti és tanácsi irányelv(6) alkalmazandó.

20. cikk

Uniós szintű koordináció

(1)  A Bizottság és/vagy az Unió bármely, ezzel összefüggésben kijelölhető intézménye, szerve, hivatala és ügynöksége a következő feladatokat látja el:

–  biztosítja a 14. cikkben említett mesterséges intelligencia, robotika és kapcsolódó technológiák következetes kockázatértékelését, amelyet a 18. cikkben említett nemzeti felügyeleti hatóságoknak kell elvégezniük a 8. cikk (1) bekezdésében, valamint a magas kockázatú ágazatok és a magas kockázatú felhasználások vagy célok e rendelet mellékletében foglalt jegyzékében előírt közös objektív kritériumok alapján;

–  tudomásul veszi a 15. cikkben említett, magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák megfelelőségértékelését és azt követő nyomon követést, amelyet a 18. cikkben említett nemzeti felügyeleti hatóságoknak kell elvégezniük;

–  kidolgozza a 16. cikkben említett – a 18. cikkben említett nemzeti felügyeleti hatóságok által kiállítandó – tanúsítvány kérelmezési eljárását;

–  az ágazati jogszabályok sérelme nélkül elkészíti a 18. cikkben említett nemzeti felügyeleti hatóságok által alkalmazandó módszertanra vonatkozó – a 17. cikk (4) bekezdésében említett – kötelező iránymutatásokat;

–  koordinálja a 17. cikkben említett vonatkozó irányítási standardoknak a 18. cikkben említett nemzeti felügyeleti hatóságok általi kidolgozását, beleértve az e rendeletnek való megfelelés módszertanára vonatkozó, a fejlesztőknek, a bevetőknek és a felhasználóknak szóló, nem kötelező érvényű végrehajtási iránymutatásokat;

–  a 18. cikk (2) bekezdése értelmében együttműködik a 18. cikkben említett nemzeti felügyeleti hatóságokkal az e rendelet Unió-szerte történő következetes alkalmazásához való hozzájárulásuk tekintetében;

–  szakértői központként szolgál a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal kapcsolatos információcsere előmozdítása és az egységes piacon belüli közös álláspont kialakításának támogatása révén, kiegészítő iránymutatásokat, véleményeket és szakértelmet ad ki a 18. cikkben említett nemzeti felügyeleti hatóságok számára, nyomon követi a vonatkozó uniós jog végrehajtását, azonosítja a bevált gyakorlatokra vonatkozó szabványokat és adott esetben szabályozási intézkedésekre vonatkozó ajánlásokat fogalmaz meg; ennek során a lehető legtöbb érdekelt féllel kell kapcsolatot tartania, és biztosítania kell, hogy döntéshozatali szintjei változatosak legyenek, és biztosítsák a nemek közötti egyenlőséget;

–  biztonsági és védelmi munkacsoportot állít fel azzal a céllal, hogy megvizsgálja a kifejezetten a mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikus használatával kapcsolatos szakpolitikai és beruházási kérdéseket a biztonság és a védelem területén.

21. cikk

A felhatalmazás gyakorlása

(1)  A felhatalmazáson alapuló jogi aktusok elfogadására vonatkozóan a Bizottság részére adott felhatalmazás feltételeit ez a cikk határozza meg.

(2)  A Bizottságnak a 14. cikk (3) és (4) bekezdésében említett, felhatalmazáson alapuló jogi aktus elfogadására vonatkozó felhatalmazása ötéves időtartamra szól [az e rendelet hatálybalépésétől kezdődő hatállyal].

(3)  Az Európai Parlament vagy a Tanács bármikor visszavonhatja a 14. cikk (3) és (4) bekezdésében említett felhatalmazást. A visszavonásról szóló határozat megszünteti az abban meghatározott felhatalmazást. A határozat az Európai Unió Hivatalos Lapjában való kihirdetését követő napon, vagy a benne megjelölt későbbi időpontban lép hatályba. A határozat nem érinti a már hatályban lévő, felhatalmazáson alapuló jogi aktusok érvényességét.

(4)  A felhatalmazáson alapuló jogi aktus elfogadása előtt a Bizottság a jogalkotás minőségének javításáról szóló, 2016. április 13-i intézményközi megállapodásban foglalt elveknek megfelelően konzultál az egyes tagállamok által kijelölt szakértőkkel.

(5)  A Bizottság a felhatalmazáson alapuló jogi aktus elfogadását követően haladéktalanul és egyidejűleg értesíti arról az Európai Parlamentet és a Tanácsot.

(6)  A 14.cikk (3) és (4) bekezdésének értelmében elfogadott felhatalmazáson alapuló jogi aktus csak akkor lép hatályba, ha az Európai Parlamentnek és a Tanácsnak a jogi aktusról való értesítését követő három hónapon belül sem az Európai Parlament, sem a Tanács nem emelt ellene kifogást, illetve ha az említett időtartam lejártát megelőzően mind az Európai Parlament, mind a Tanács arról tájékoztatta a Bizottságot, hogy nem fog kifogást emelni. Az Európai Parlament vagy a Tanács kezdeményezésére ez az időtartam három hónappal meghosszabbodik.

22. cikk

Az (EU) 2019/1937 irányelv módosítása

Az (EU) 2019/1937 irányelv a következőképpen módosul:

(1)  A 2. cikk (1) bekezdése a következő alponttal egészül ki:

„xi. a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztése, bevezetése és használata.”

(2)  A melléklet I. része a következő ponttal egészül ki:

„K. 2. cikk, (1) bekezdés, a) pont, xi. alpont – a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztése, bevezetése és használata.

„xxi. Az Európai Parlament és a Tanács [XXX] rendelete a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó etikai elvekről”.”

23. cikk

Felülvizsgálat

A Bizottság rendszeresen felülvizsgálja a mesterséges intelligencia, robotika és kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlődését, és ...[HL: beillesztendő dátum: 3 évvel a hatálybalépés után]-ig, majd ezt követően három évente jelentést nyújt be az Európai Parlamentnek, a Tanácsnak és az Európai Gazdasági és Szociális Bizottságnak e rendelet alkalmazásáról, amelyben e rendelet alkalmazása hatályának lehetséges módosítását is értékeli.

24. cikk

Hatálybalépés

Ez a rendelet az Európai Unió Hivatalos Lapjában való kihirdetését követő huszadik napon lép hatályba.

Ezt a rendeletet XX-tól/-től kell alkalmazni.

Ez a rendelet teljes egészében kötelező és közvetlenül alkalmazandó valamennyi tagállamban.

Kelt ....

az Európia Parlament részéről a Tanács részéről

az elnök az elnök

(1) A gépjárművek automatizált vezetésére vonatkozóan a legutóbb 2018-ban (J3016_201806 verzióra) frissített J3016 számú SAE nemzetközi szabvány hat vezetésautomatizálási szintet javasol. https://www.sae.org/standards/content/j3016_201806/
(2) Az Európai Parlament és a Tanács (EU) 2016/679 rendelete (2016. április 27.) a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK rendelet hatályon kívül helyezéséről (általános adatvédelmi rendelet) (HL L 119., 2016.5.4., 1. o.).
(3) Az Európai Parlament és a Tanács 2002/58/EK irányelve (2002. július 12.) az elektronikus hírközlési ágazatban a személyes adatok kezeléséről, feldolgozásáról és a magánélet védelméről (elektronikus hírközlési adatvédelmi irányelv) (HL L 201., 2002.7.31., 37. o.).
(4) Az Európai Bizottság COM(2018)0237 közleményében szereplő fogalommeghatározás, 2018.04.25., 1. o., kiigazítva.
(5) Az ipari robotok ISO 8373 szerinti meghatározásából.
(6) Az Európai Parlament és a Tanács (EU) 2019/1937 irányelve (2019. október 23.) az uniós jog megsértését bejelentő személyek védelméről (HL L 305., 2019.11.26., 17. o.).


MELLÉKLET

A magas kockázatú ágazatok, valamint az alapvető jogok és a biztonsági szabályok megsértésének kockázatával járó magas kockázatú felhasználások vagy célok kimerítő és kumulatív felsorolása.

Magas kockázatú ágazatok

—  Foglalkoztatás

—  Oktatás

—  Egészségügy

—  Közlekedés

—  Energiaügy

—  Közszféra (menekültügy, migráció, határellenőrzés, igazságszolgáltatás és társadalombiztosítási szolgáltatások)

—  Védelem és biztonság

—  Pénzügy, bankügy, biztosítás

Magas kockázatú felhasználások vagy célok

—  Felvétel

—  Diákok osztályozása és értékelése

—  Közpénzek elosztása

—  Kölcsönök nyújtása

—  Kereskedelem, közvetítés, adózás stb.

—  Orvosi kezelések és eljárások

—  Választási folyamatok és politikai kampányok

—  A természetes vagy jogi személyek jogaira és kötelezettségeire jelentős és közvetlen hatást gyakorló közszektorbeli döntések

—  Automatizált járművezetés

—  Forgalomirányítás

—  Autonóm katonai rendszerek

—  Energiatermelés és -elosztás

—  Hulladékgazdálkodás

—  Kibocsátáscsökkentés

Utolsó frissítés: 2021. január 22.Jogi nyilatkozat - Adatvédelmi szabályzat