JELENTÉS a Bizottsághoz intézett ajánlásokkal a mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai szempontjainak keretéről
8.10.2020 - (2020/2012(INL))
Jogi Bizottság
Előadó: Ibán García del Blanco
A vélemény előadói (*):
Urmas Paet, Külügyi Bizottság
Alexandra Geese, Belső Piaci és Fogyasztóvédelmi Bizottság
Valter Flego, Közlekedési és Idegenforgalmi Bizottság
Assita Kanko, Állampolgári Jogi, Bel- és Igazságügyi Bizottság
(*) Társbizottsági eljárás – az eljárási szabályzat 57. cikke
(Kezdeményezés – az eljárási szabályzat 47. cikke)
- AZ EURÓPAI PARLAMENT ÁLLÁSFOGLALÁSÁRA IRÁNYULÓ INDÍTVÁNY
- MELLÉKLET AZ ÁLLÁSFOGLALÁSRA IRÁNYULÓ INDÍTVÁNYHOZ A KÉRT JAVASLAT TARTALMÁRA VONATKOZÓ RÉSZLETES AJÁNLÁSOK
- A. A KÉRT JAVASLAT ALAPELVEI ÉS CÉLKITŰZÉSEI
- B. A KÉRT JOGALKOTÁSI JAVASLAT SZÖVEGE
- INDOKOLÁS
- VÉLEMÉNY A KÜLÜGYI BIZOTTSÁG RÉSZÉRŐL
- VÉLEMÉNY A BELSŐ PIACI ÉS FOGYASZTÓVÉDELMI BIZOTTSÁG RÉSZÉRŐL
- VÉLEMÉNY A KÖZLEKEDÉSI ÉS IDEGENFORGALMI BIZOTTSÁG RÉSZÉRŐL
- VÉLEMÉNY AZ ÁLLAMPOLGÁRI JOGI, BEL- ÉS IGAZSÁGÜGYI BIZOTTSÁG RÉSZÉRŐL
- VÉLEMÉNY A FOGLALKOZTATÁSI ÉS SZOCIÁLIS BIZOTTSÁG RÉSZÉRŐL
- VÉLEMÉNY A KÖRNYEZETVÉDELMI, KÖZEGÉSZSÉGÜGYI ÉS ÉLELMISZER-BIZTONSÁGI BIZOTTSÁG RÉSZÉRŐL
- VÉLEMÉNY A KULTURÁLIS ÉS OKTATÁSI BIZOTTSÁG RÉSZÉRŐL
- INFORMÁCIÓ AZ ILLETÉKES BIZOTTSÁG ÁLTALI ELFOGADÁSRÓL
- AZ ILLETÉKES BIZOTTSÁG NÉV SZERINTI ZÁRÓSZAVAZÁSA
AZ EURÓPAI PARLAMENT ÁLLÁSFOGLALÁSÁRA IRÁNYULÓ INDÍTVÁNY
a Bizottsághoz intézett ajánlásokkal a mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai szempontjainak keretéről
Az Európai Parlament,
– tekintettel az Európai Unió működéséről szóló szerződés 225. cikkére,
– tekintettel az Európai Unió működéséről szóló szerződés 114. cikkére,
– tekintettel az Európai Unió Alapjogi chartájára,
– tekintettel az európai nagy teljesítményű számítástechnika közös vállalkozás létrehozásáról szóló, 2018. szeptember 28-i (EU) 2018/1488 tanácsi rendeletre[1],
– tekintettel a személyek közötti, faji vagy etnikai származásra való tekintet nélküli egyenlő bánásmód elvének alkalmazásáról szóló, 2000. június 29-i 2000/43/EK tanácsi irányelvre[2] (a faji egyenlőségről szóló irányelv),
– tekintettel a foglalkoztatás és a munkavégzés során alkalmazott egyenlő bánásmód általános kereteinek létrehozásáról szóló, 2000. november 27-i 2000/78/EK tanácsi irányelvre[3] (a munkavégzés során alkalmazott egyenlő bánásmódról szóló irányelv),
– tekintettel a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK irányelv hatályon kívül helyezéséről szóló, 2016. április 27-i (EU) 2016/679 európai parlamenti és tanácsi rendeletre[4] (általános adatvédelmi rendelet (GDPR)) és a személyes adatoknak az illetékes hatóságok által a bűncselekmények megelőzése, nyomozása, felderítése, a vádeljárás lefolytatása vagy büntetőjogi szankciók végrehajtása céljából végzett kezelése tekintetében a természetes személyek védelméről és az ilyen adatok szabad áramlásáról, valamint a 2008/977/IB tanácsi kerethatározat hatályon kívül helyezéséről szóló, 2016. április 27-i (EU) 2016/680 európai parlamenti és tanácsi irányelvre[5],
– tekintettel a jogalkotás minőségének javításáról szóló, 2016. április 13-i intézményközi megállapodásra[6],
– tekintettel a Digitális Európa program 2021–2027 közötti időszakra történő létrehozásáról szóló európai parlamenti és tanácsi rendeletre irányuló, 2018. június 6-i javaslatra (COM(2018)0434),
– tekintettel az Európai Parlamentnek, a Tanácsnak, az Európai Gazdasági és Szociális Bizottságnak és a Régiók Bizottságának címzett, „Az európai zöld megállapodás” című, 2019. december 11-i bizottsági közleményre (COM(2019)0640),
– tekintettel az Európai Parlamentnek, a Tanácsnak, az Európai Gazdasági és Szociális Bizottságnak és a Régiók Bizottságának címzett, „Fehér könyv a mesterséges intelligenciáról: a kiválóság és a bizalom európai megközelítése” című, 2020. február 19-i bizottsági közleményre (COM(2020)0065),
– tekintettel az Európai Parlamenthez, a Tanácshoz, a Gazdasági és Szociális Bizottsághoz és a Régiók Bizottságához intézett, az európai adatstratégiáról szóló, 2020. február 19-i bizottsági közleményre (COM(2020)0066),
– tekintettel az Európai Parlamenthez, a Tanácshoz, a Gazdasági és Szociális Bizottsághoz és a Régiók Bizottságához intézett, Európa digitális jövőjének megtervezéséről szóló, 2020. február 19-i bizottsági közleményre (COM(2020)0067),
– tekintettel az Európai Unió Tanácsa Európa digitális jövőjének alakításáról szóló, 2020. júniusi következtetéseire,
– tekintettel a Bizottságnak címzett, a robotikára vonatkozó polgári jogi szabályokról szóló ajánlásokat tartalmazó, 2017. február 16-i állásfoglalására[7],
– tekintettel az európai ipar digitalizálásáról szóló, 2017. június 1-jei állásfoglalására[8],
– tekintettel az autonóm fegyverrendszerekről szóló, 2018. szeptember 12-i állásfoglalására[9],
– tekintettel a digitális korban a nyelvek közötti egyenlőségről szóló, 2018. szeptember 11-i állásfoglalására[10],
– tekintettel a mesterséges intelligenciára és a robotikára vonatkozó átfogó európai iparpolitikáról szóló, 2019. február 12-i állásfoglalására[11],
– tekintettel a Bizottság által létrehozott, mesterséges intelligenciával foglalkozó magas szintű szakértői csoport „Etikai iránymutatás a megbízható mesterséges intelligenciára vonatkozóan” címmel készült, 2019. április 8-i jelentésére,
– tekintettel az Európai Parlament Kutatószolgálatának Jövőkutatás Osztálya által irányított, a Tudomány és a Technológia Jövőjével Foglalkozó Testület (STOA) kérésére a következő címmel készített tájékoztatókra és tanulmányokra: „What if algorithms could abide by ethical principles?” (Mi lenne, ha az algoritmusok etikai elvekhez tudnák tartani magukat?), „Artificial Intelligence ante portas: Legal & ethical reflections” (Küszöbön a mesterséges intelligencia: jogi és etikai elgondolások), „A governance framework for algorithmic accountability and transparency” (Az algoritmusokkal kapcsolatos elszámoltathatóság és átláthatóság irányítási kerete), „Should we fear artificial intelligence?” (Tartanunk kell a mesterséges intelligenciától?) és „The ethics of artificial intelligence: Issues and initiatives” (A mesterséges intelligencia etikája: kérdések és kezdeményezések),
– tekintettel az Európa Tanács nemzeti kisebbségek védelméről szóló keretegyezményére, az emberi jogok és alapvető szabadságok védelméről szóló egyezmény 12. jegyzőkönyvére, valamint a Regionális vagy Kisebbségi Nyelvek Európai Kartájára,
– tekintettel az OECD Tanácsának a mesterséges intelligenciáról szóló, 2019. május 22-én elfogadott ajánlására,
– tekintettel eljárási szabályzata 47. és 54. cikkére,
– tekintettel a Külügyi Bizottság, a Belső Piaci és Fogyasztóvédelmi Bizottság, a Közlekedési és Idegenforgalmi Bizottság, az Állampolgári Jogi, Bel- és Igazságügyi Bizottság, a Foglalkoztatási és Szociális Bizottság, a Környezetvédelmi, Közegészségügyi és Élelmiszer-biztonsági Bizottság és a Kulturális és Oktatási Bizottság véleményére,
– tekintettel a Jogi Bizottság jelentésére (A9-0186/2020),
Bevezetés
A. mivel a mesterséges intelligenciát (más néven „MI”), a robotikát és a kapcsolódó technológiákat emberek fejlesztik, vezetik be és használják, és döntéseik meghatározzák, hogy az ilyen technológiák milyen előnyökkel járhatnak a társadalom számára;
B. mivel gyorsan népszerűsítik és fejlesztik a mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat, amelyek lehetőségeket teremthetnek a vállalkozások és a polgárok számára, és közvetlenül befolyásolhatják társadalmaink valamennyi aspektusát, beleértve az alapvető jogokat, valamint a társadalmi és gazdasági elveket és értékeket, továbbá tartós hatást gyakorolhatnak valamennyi tevékenységi területre;
C. mivel a mesterséges intelligencia, a robotika és a kapcsolódó technológiák jelentős változásokat fognak eredményezni a munkaerőpiacokon és a munkahelyeken is; mivel ezek helyettesíthetik az ismétlődő tevékenységeket végző munkavállalókat, megkönnyíthetik az ember és gép közötti együttműködésen alapuló munkarendszereket, növelhetik a versenyképességet és a jólétet, valamint új munkalehetőségeket teremthetnek a képzett munkavállalók számára, ugyanakkor komoly kihívást jelentenek a munkaerő átszervezése szempontjából;
D. mivel a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztése egyúttal számos különböző ágazatban hozzájárulhat az európai zöld megállapodás fenntarthatósági céljainak eléréséhez; mivel a digitális technológiák fokozhatják a szakpolitikák környezetvédelem tekintetében kifejtett hatását; mivel szintén hozzájárulhatnak a forgalmi torlódások, valamint az üvegházhatást okozó gázok és a légszennyező anyagok kibocsátásának csökkentéséhez;
E. mivel az olyan ágazatokban, mint a tömegközlekedés, a mesterséges intelligenciával támogatott intelligens közlekedési rendszerek felhasználhatók a sorban állás minimalizálására, az útvonal optimalizálására, a fogyatékossággal élő személyek függetlenségének növelésére és az energiahatékonyság javítására, ezáltal fokozva a dekarbonizációs erőfeszítéseket és csökkentve a környezeti lábnyomot;
F. mivel ezek a technológiák új üzleti lehetőségeket teremtenek, amelyek hozzájárulhatnak az uniós ipar fellendüléséhez a jelenlegi egészségügyi és gazdasági válságot követően, ha jobban kihasználják őket, például a közlekedési ágazatban; mivel ezek a lehetőségek új munkahelyeket teremthetnek, mert e technológiák elterjedése növelheti a vállalkozások termelékenységét és hozzájárulhat a hatékonyság fokozásához; mivel az e területen működő innovációs programok elősegíthetik a regionális klaszterek fejlődését;
G. mivel az Unió és tagállamai különösen felelősek a mesterséges intelligencia hozzáadott értékének kiaknázásáért, előmozdításáért és növeléséért, valamint annak biztosításáért, hogy a mesterséges intelligencián alapuló technológiák biztonságosak legyenek és hozzájáruljanak polgáraik jólétéhez és általános érdekeihez, mivel ezek jelentősen hozzájárulhatnak a polgárok életének javítására és az Unión belüli jólét előmozdítására irányuló közös cél eléréséhez azáltal, hogy számos területen és ágazatban hozzájárulnak jobb stratégiák és innováció kidolgozásához; mivel a mesterséges intelligenciában rejlő potenciál teljes körű kiaknázása, valamint annak érdekében, hogy a felhasználókban tudatosítsuk az MI-technológiák használatának előnyeit és a velük kapcsolatos kihívásokat, az oktatás és képzés során foglalkozni kell az MI-vel vagy a digitális jártassággal, többek között a digitális társadalmi befogadás előmozdítása tekintetében, és európai szintű tájékoztató kampányokat kell folytatni, amelyek pontos képet adnak a mesterséges intelligencia fejlesztésének valamennyi aspektusáról;
H. mivel a mesterséges intelligencia, a robotika és a kapcsolódó technológiák Unión belüli fejlesztésére, bevezetésére és használatára vonatkozó közös uniós szabályozási keretnek (az MI-re vonatkozó szabályozási keretnek) lehetővé kell tennie a polgárok számára, hogy osztozzanak a bennük rejlő lehetőségekben, ugyanakkor védelmet kell biztosítania a polgárok számára az ilyen technológiák potenciális kockázataival szemben, valamint elő kell mozdítania az ilyen technológiák megbízhatóságát az Unióban és máshol; mivel ennek a keretnek az uniós jogon és értékeken kell alapulnia, valamint az átláthatóság és a megmagyarázhatóság, a méltányosság, az elszámoltathatóság és a felelősség elvét kell követnie;
I. mivel egy ilyen szabályozási keret kulcsfontosságú a belső piac különböző nemzeti jogszabályokból eredő széttöredezettségének elkerüléséhez, és elő fogja segíteni a különösen szükséges beruházásokat, az adatinfrastruktúra fejlesztését és a kutatás támogatását; mivel ennek az ezen állásfoglalás mellékletében kért rendeletjavaslatban meghatározott közös jogi kötelezettségekből és etikai elvekből kell állnia; mivel ezt a keretet a minőségi jogalkotásra vonatkozó iránymutatásokkal összhangban kell létrehozni;
J. mivel az Unió szigorú jogi kerettel rendelkezik, amely biztosítja többek között a személyes adatok és a magánélet védelmét, valamint a megkülönböztetésmentességet, annak érdekében, hogy előmozdítsa a nemek közötti egyenlőséget, a környezetvédelmet és a fogyasztók jogait; mivel ez a kiterjedt horizontális és ágazati jogszabályokból, többek között a termékbiztonságra és a felelősségre vonatkozó meglévő szabályokból álló jogi keret továbbra is alkalmazandó lesz a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal kapcsolatban, bár a digitális transzformáció tükrözése és a mesterséges intelligencia használatából eredő új kihívások kezelése érdekében szükség lehet egyes jogi eszközök bizonyos kiigazítására;
K. mivel aggályok merülnek fel azzal kapcsolatban, hogy a jelenlegi uniós jogi keret, többek között a fogyasztóvédelmi jog, a foglalkoztatási és szociális vívmányok, az adatvédelmi jogszabályok, a termékbiztonságra és a piacfelügyeletre vonatkozó jogszabályok, valamint a megkülönböztetés elleni jogszabályok alkalmasak-e a mesterséges intelligencia, a robotika és a kapcsolódó technológiák jelentette kockázatok hatékony kezelésére;
L. mivel a meglévő jogszabályok kiigazításán túl a mesterségesintelligencia-technológiákkal kapcsolatos jogi és etikai kérdésekkel egy hatékony, átfogó és időtálló uniós jogi szabályozási keret révén kell foglalkozni, amely tükrözi az Uniónak a Szerződésekben és az Alapjogi Chartában foglalt elveit és értékeit, azonban tartózkodik a túlszabályozástól, és csupán a meglévő joghézagok megszüntetésére, valamint a vállalkozások és a polgárok jogbiztonságának növelésére, nevezetesen az alapvető jogokat kétségtelenül aláásó gyakorlatok megelőzésére irányuló kötelező intézkedések bevezetésére irányul;
M. mivel az új szabályozási keretnek valamennyi szóban forgó érdeket figyelembe kell vennie; mivel az új szabályozási keret valamennyi szereplőre gyakorolt hatásainak hatásvizsgálat keretében történő alapos vizsgálatát a további jogalkotási lépések előfeltételének kell tekinteni; mivel a kis- és középvállalkozások (kkv-k) és az induló innovatív vállalkozások – különösen az európai gazdaságban betöltött – kulcsfontosságú szerepe indokolja a szigorúan arányos megközelítést, amely lehetővé teszi számukra a fejlődést és az innovációt;
N. mivel a mesterséges intelligencia, a robotika és a kapcsolódó technológiák súlyos következményekkel járhatnak az egyének, csoportok és a társadalom egésze anyagi és nem anyagi integritására nézve, és ezeket a potenciális egyéni és kollektív károkat orvosolni kell a jogalkotási válaszokban;
O. mivel a mesterséges intelligenciára vonatkozó uniós szabályozási keret tiszteletben tartása érdekében szükség lehet az Unió közlekedési ágazatára vonatkozó egyedi szabályok elfogadására;
P. mivel a mesterségesintelligencia-technológiák stratégiai fontosságúak a közlekedési ágazat számára, többek között azért, mert növelik valamennyi közlekedési mód biztonságát és hozzáférhetőségét, valamint új foglalkoztatási lehetőségeket és fenntarthatóbb üzleti modelleket teremtenek; mivel a közlekedés területén a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésének uniós megközelítése növelheti az uniós gazdaság globális versenyképességét és stratégiai autonómiáját;
Q. mivel az Unióban az összes közúti baleset mintegy 95%-ánál még mindig közrejátszik emberi hiba; mivel az EU célja az volt, hogy 2020-ig 2010-hez képest 50%-kal csökkentse az évente bekövetkező halálos kimenetelű közúti balesetek számát az EU-ban, de a stagnálásra tekintettel megújította erőfeszítéseit „A 2021–2030 közötti időszakra vonatkozó közúti közlekedésbiztonsági szakpolitikai keret – a következő lépések a »zéró-elképzelés« felé” című kiadványban; mivel e tekintetben a mesterséges intelligenciában, az automatizálásban és más új technológiákban az emberi hibák lehetőségének csökkentése révén nagy lehetőségek rejlenek a közúti biztonság növelésére, és fontos szerepet játszanak e téren;
R. mivel a mesterséges intelligenciára vonatkozó uniós szabályozási keretnek azt is tükröznie kell, hogy biztosítani kell a munkavállalók jogainak tiszteletben tartását; mivel figyelembe kell venni az európai szociális partnerek digitalizációról szóló, 2020. júniusi keretmegállapodását;
S. mivel a mesterséges intelligenciára vonatkozó uniós szabályozási keret hatókörének megfelelőnek és arányosnak kell lennie, és azt alapos elemzés tárgyává kell tenni; mivel ennek a technológiák és összetevőik széles körére ki kell terjednie, beleértve az általuk használt vagy előállított algoritmusokat, szoftvereket és adatokat is, célzott kockázatalapú megközelítésre van szükség a jövőbeli innováció akadályozásának és a szükségtelen terhek kialakulásának elkerülése érdekében, különösen a kkv-k számára; mivel az MI, a robotika és a kapcsolódó technológiák által működtetett alkalmazások sokfélesége megnehezíti a kockázatok teljes spektrumának megfelelő egységes megoldás megtalálását;
T. mivel az adatelemzés és az MI egyre nagyobb mértékben befolyásolja a polgárok számára hozzáférhetővé tett információkat; mivel helytelen használat esetén ezek a technikák veszélyeztethetik a véleménynyilvánítás szabadságához és a tájékoztatáshoz való alapvető jogot, valamint a média szabadságát és a pluralizmust;
U. mivel a mesterséges intelligenciára vonatkozó uniós szabályozási keret földrajzi hatályának az Unióban fejlesztett, bevezetett vagy használt mesterséges intelligencia, robotika és kapcsolódó technológiák valamennyi alkotóelemére ki kell terjednie, azokat az eseteket is beleértve, amikor a technológiák egy része az Unión kívül található vagy elhelyezkedése nem meghatározott;
V. mivel a mesterséges intelligenciára vonatkozó uniós szabályozási keretnek magában kell foglalnia az összes releváns szakaszt, nevezetesen a vonatkozó technológiák és alkotóelemeik fejlesztését, bevezetését és használatát, megkövetelve a vonatkozó jogi kötelezettségek és etikai elvek kellő figyelembevételét, és meg kell határoznia azokat a feltételeket, amelyek biztosítják, hogy a fejlesztők, a bevezetők és a felhasználók teljes mértékben megfeleljenek ezeknek a kötelezettségeknek és elveknek;
W. mivel a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal kapcsolatos etikai elvek harmonizált megközelítése megköveteli, hogy az Unióban egységesen értelmezzék a technológiák alapját képező fogalmakat, például az algoritmusokat, a szoftvert, az adatokat, illetve a biometrikus azonosítást;
X. mivel az uniós szintű fellépést az indokolja, hogy el kell kerülni a szabályozási széttöredezettséget, vagy egy sor olyan nemzeti szabályozási rendelkezés kialakítását, amelyeknek nincs közös nevezője, valamint biztosítani kell a jogszabályokban foglalt közös etikai elvek azonos módon történő alkalmazását a magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztése, bevezetése és használata során; mivel jelentős kockázatok fennállása esetén egyértelmű szabályokra van szükség;
Y. mivel a közös etikai elvek csak akkor hatékonyak, ha jogszabályba foglalják őket, továbbá ha azonosítják az elvek betartásának biztosításáért, értékeléséért és nyomon követéséért felelős személyeket;
Z. mivel az etikai útmutatások, például a mesterséges intelligenciával foglalkozó magas szintű szakértői csoport által elfogadott alapelvek jó kiindulási pontot jelentenek, de nem tudják biztosítani, hogy a fejlesztők, a bevezetők és a felhasználók tisztességesen járjanak el, továbbá nem tudják garantálni az egyének hatékony védelmét; mivel az ilyen útmutatások különösen fontosak a magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák tekintetében;
AA. mivel minden tagállamnak ki kell jelölnie egy nemzeti felügyeleti hatóságot, amely felelős annak biztosításáért, értékeléséért és felügyeletéért, hogy a magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztése, bevezetése és használata megfeleljen a mesterséges intelligenciára vonatkozó uniós szabályozási keretnek; felelős továbbá a vita és a nézőpontok cseréjének lehetővé tételéért, szoros együttműködésben az érintett érdekelt felekkel és a civil társadalommal; mivel a nemzeti felügyeleti hatóságoknak együtt kell működniük egymással;
AB. mivel az Unió-szerte harmonizált megközelítés és a digitális egységes piac optimális működésének biztosítása érdekében értékelni kell a Bizottság és/vagy az Unió bármely ilyen összefüggésben kijelölt intézménye, szerve, hivatala és ügynöksége általi uniós szintű koordinációt a folyamatban lévő technológiai fejlődésből eredő új lehetőségek és kihívások – különösen a határokon átnyúló jellegű lehetőségek és kihívások – tekintetében; mivel e célból a Bizottságot meg kell bízni azzal, hogy találjon megfelelő megoldást az ilyen uniós szintű koordináció strukturálására;
Emberközpontú és ember alkotta mesterséges intelligencia
1. úgy véli, hogy az ágazatspecifikus jogszabályok sérelme nélkül hatékony és harmonizált szabályozási keretre van szükség, amely az uniós jogon, az Európai Unió Alapjogi Chartáján (a továbbiakban: Charta) és a nemzetközi emberi jogi jogszabályokon alapul, és különösen a magas kockázatú technológiákra alkalmazandó annak érdekében, hogy Unió-szerte azonos normákat lehessen megállapítani és hatékonyan lehessen védeni az uniós értékeket;
2. véleménye szerint a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó, jogi kötelezettségekből és etikai elvekből álló, a mesterséges intelligenciára vonatkozó új szabályozási keretnek maradéktalanul tiszteletben kell tartania a Chartát, és ezáltal tiszteletben kell tartania az emberi méltóságot, az egyén autonómiáját és önrendelkezését, törekednie kell a károkozás megelőzésére, a tisztesség, az inklúzió és az átláthatóság előmozdítására, az előítéletek és a – többek között a kisebbségi csoportokat érintő – megkülönböztetés kiküszöbölésére, továbbá azon elvek tiszteletben tartására és az azoknak való megfelelésre, melyek szerint korlátozni kell a felhasznált technológiák negatív következményeit, biztosítani kell a technológiák megmagyarázhatóságát és garantálni kell, hogy e technológiák az embereket szolgálják és ne helyettesítsék őket, illetve ne hozzanak döntéseket helyettük, mivel a végső cél minden ember jóllétének növelése;
3. hangsúlyozza az MI-technológiákat alkalmazók, valamint a velük kapcsolatba lépők és a tőlük függők közötti erőviszonyokban tapasztalható aszimmetriára; hangsúlyozza e tekintetben, hogy a polgárok MI iránti bizalmát csak az alapértelmezés szerinti etika és a beépített etika elvét követő szabályozási keretre építve lehet kialakítani, amely biztosítja, hogy bármely üzembe helyezett MI maradéktalanul tiszteletben tartsa a Szerződéseket, a Chartát és az Unió másodlagos jogát, valamint megfeleljen azoknak; úgy véli, hogy az ilyen megközelítésnek összhangban kell állnia az uniós jogalkotást vezérlő elővigyázatosság elvével, és a mesterséges intelligenciára vonatkozó bármely szabályozási keret középpontjában kell állnia; e tekintetben egyértelmű és koherens irányítási modellt szorgalmaz, amely lehetővé teszi a vállalatok és az innovátorok számára a mesterséges intelligencia, a robotika és a kapcsolódó technológiák továbbfejlesztését;
4. úgy véli, hogy a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal kapcsolatos bármely jogalkotási intézkedésnek összhangban kell lennie a szükségesség és az arányosság elvével;
5. úgy véli, hogy ez a megközelítés lehetővé teszi a vállalatok számára, hogy innovatív termékeket vezessenek be a piacra, és új lehetőségeket teremtsenek, miközben biztosítja az uniós értékek védelmét azáltal, hogy olyan mesterségesintelligencia-rendszerek kifejlesztéséhez vezet, amelyek beépített módon magukban foglalják az uniós etikai elveket; úgy véli, hogy egy ilyen értékalapú szabályozási keret hozzáadott értéket képviselne azáltal, hogy egyedülálló versenyelőnyt biztosítana az Unió számára, és a belső piac fellendítése révén jelentősen hozzájárulna az uniós polgárok és vállalkozások jóllétéhez és jólétéhez; hangsúlyozza, hogy egy ilyen mesterséges intelligenciára vonatkozó szabályozási keret az innováció belső piacon történő előmozdítása tekintetében is hozzáadott értéket fog képviselni; úgy véli, hogy például a közlekedési ágazatban ez a megközelítés lehetőséget nyújt az uniós vállalkozások számára arra, hogy globális vezetővé váljanak ezen a területen;
6. megjegyzi, hogy az uniós jogi keretnek vonatkoznia kell a mesterséges intelligenciára, a robotikára és a kapcsolódó technológiákra, többek között az ilyen technológiák által használt vagy előállított szoftverekre, algoritmusokra és adatokra;
7. megjegyzi, hogy a mesterséges intelligencián, a robotikán és a kapcsolódó technológiákon alapuló lehetőségek a „nagy adathalmazokra” támaszkodnak, valamint hogy az algoritmusok tanításához és az eredmények finomításához szükség van az adatok kritikus tömegére; e tekintetben üdvözli a Bizottság javaslatát egy közös uniós adattér létrehozására az adatcsere megerősítése és a kutatás támogatása érdekében, az európai adatvédelmi szabályok teljes körű tiszteletben tartása mellett;
8. úgy véli, hogy a – különösen a magánélet és a személyes adatok védelmére vonatkozó – hatályos uniós jogi keret teljes mértékben alkalmazandó a mesterséges intelligenciára, a robotikára és a kapcsolódó technológiákra, ám azt rendszeresen felül kell vizsgálni és ellenőrizni kell, szükség esetén pedig aktualizálni kell az említett technológiák által okozott kockázatok hatékony kezelése végett, továbbá hogy e tekintetben előnyös lehet, ha szilárd etikai iránymutatásokkal egészül ki; rámutat, hogy ahol korai lenne jogi aktus elfogadása, ott puha jogi keretet kell alkalmazni;
9. elvárja a Bizottságtól, hogy a mesterséges intelligenciáról szóló fehér könyv alapján olyan szilárd etikai megközelítést építsen be az ezen állásfoglalás mellékletében kért jogalkotási javaslatba, többek között a biztonságra, a felelősségre és az alapvető jogokra vonatkozóan, amely maximalizálja a mesterséges intelligenciával kapcsolatos technológiákban rejlő lehetőségeket és minimalizálja azok kockázatait; elvárja, hogy a kért jogalkotási javaslat tartalmazzon szakpolitikai megoldásokat a mesterséges intelligencia jelentős elismert kockázataira, többek között a nagy adathalmazok etikus gyűjtésére és felhasználására, valamint az algoritmikus átláthatóság és az algoritmikus torzítás kérdésére; felszólítja a Bizottságot, hogy dolgozzon ki az MI-technológia jelölésére szolgáló kritériumokat és mutatókat az átláthatóság, a megmagyarázhatóság és az elszámoltathatóság előmozdítása, valamint a fejlesztők további óvintézkedésekre való ösztönzése érdekében; hangsúlyozza, hogy be kell fektetni a nem műszaki tudományágaknak az MI-vel kapcsolatos tanulmányokba és kutatásokba való integrálásába, figyelembe véve a társadalmi összefüggéseket;
10. úgy véli, hogy a mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat az emberi szükségletekhez kell igazítani azzal az elvvel összhangban, amely szerint fejlesztésüknek, bevezetésüknek és használatuknak mindig az emberek szolgálatában kell állnia, és sohasem fordítva, továbbá törekedniük kell a jóllét és az egyéni szabadság növelésére, a béke megőrzésére, a konfliktusok megelőzésére és a nemzetközi biztonság megerősítésére, miközben maximalizálják a kínált előnyöket, valamint megelőzik és csökkentik a kockázatokat;
11. kijelenti, hogy a magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák többek között, de nem kizárólag emberek általi fejlesztését, bevezetését és használatát mindig az etikának kell vezérelnie, és azokat úgy kell megtervezni, hogy tiszteletben tartsák és lehetővé tegyék az emberi beavatkozást és a demokratikus felügyelet gyakorlását, valamint szükség esetén a megfelelő kontrollintézkedések végrehajtása révén lehetővé tegyék az emberi ellenőrzés visszavételét;
Kockázatértékelés
12. hangsúlyozza, hogy minden jövőbeli szabályozásnak differenciált és jövőorientált kockázatalapú megközelítést kell követnie a mesterséges intelligencia, a robotika és a kapcsolódó technológiák szabályozása terén, ideértve a technológiasemleges szabványokat valamennyi ágazatban, adott esetben ágazatspecifikus szabványokkal kiegészítve; megjegyzi, hogy a kockázatértékelési rendszer egységes végrehajtásának biztosítása, valamint a tagállamok közötti egyenlő versenyfeltételek biztosítására és a belső piac szétaprózódásának megelőzésére vonatkozó jogi kötelezettségeknek való megfelelés érdekében szükség van a magas kockázatú ágazatok és a magas kockázatú felhasználások vagy célok kimerítő és összesített jegyzékére; hangsúlyozza, hogy ezt a jegyzéket rendszeresen felül kell vizsgálni, és megjegyzi, hogy e technológiák változó természete miatt a jövőben szükség lehet a kockázatértékelésük elvégzési módjának újragondolására;
13. úgy véli, hogy annak eldöntésének, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák magas kockázatúnak tekintendők-e, és így a mesterséges intelligenciára vonatkozó szabályozási keretben meghatározott jogi kötelezettségeknek és etikai elveknek való kötelező megfelelés hatálya alá tartoznak-e, minden esetben pártatlan, szabályozott és külső, konkrét és meghatározott kritériumok szerint elvégzett előzetes értékelésen kell alapulnia;
14. e tekintetben úgy véli, hogy amennyiben a mesterséges intelligencia, robotika és a kapcsolódó technológiák fejlesztése, bevezetése és használata során jelentős a kockázata annak, hogy egyes személyek vagy a társadalom számára sérülést vagy kárt okoznak az uniós jogban meghatározott alapvető jogok és biztonsági szabályok megsértésével, akkor azokat magas kockázatú technológiáknak kell tekinteni; úgy véli, hogy az arra irányuló értékelés során, hogy az MI-technológiák ilyen kockázatot jelentenek-e, figyelembe kell venni azt az ágazatot, amelyben e technológiákat fejlesztik, bevezetik vagy használják, valamint konkrét felhasználásukat vagy céljukat és a lehetséges sérülés vagy kár súlyosságát; az első és a második kritériumot, nevezetesen az ágazatot és a konkrét felhasználást vagy célt együttesen kell figyelembe venni;
15. hangsúlyozza, hogy e technológiák kockázatértékelését a magas kockázatú ágazatok, valamint a magas kockázatú felhasználások és célok kimerítő és összesített jegyzéke alapján kell elvégezni; határozottan úgy véli, hogy e technológiák kockázatértékelésének az Unión belül koherensnek kell lennie, különösen abban az esetben, ha azokat mind a mesterséges intelligenciára vonatkozó szabályozási keretnek való megfelelésük fényében, mind pedig az alkalmazandó esetleges ágazatspecifikus jogszabályokkal összhangban értékelik;
16. úgy véli, hogy ezt a kockázatalapú megközelítést úgy kell kidolgozni, hogy a meglévő eszközök felhasználásával a lehető legnagyobb mértékben korlátozza a vállalatok és különösen a kkv-k adminisztratív terheit; az ilyen eszközök közé tartozik többek között az (EU) 2016/679 rendeletben előírt adatvédelmi hatásvizsgálatok jegyzéke;
Biztonsági jellemzők, átláthatóság és elszámoltathatóság
17. emlékeztet arra, hogy a fogyasztók tájékoztatáshoz való jogát az uniós jog kulcsfontosságú elvként rögzíti, és hangsúlyozza, hogy ezért teljes mértékben végre kell hajtani azt a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal összefüggésben; úgy véli, hogy ennek különösen ki kell terjednie az átláthatóságra a mesterségesintelligencia-rendszerekkel való interakció tekintetében, többek között az automatizálási folyamatokat illetően, valamint a rendszerek működési módját, képességeit, például az információk szűrésének és megjelenítésének módját, pontosságát és korlátait illetően; úgy véli, hogy ezt az információt a nemzeti felügyeleti hatóságok és a nemzeti fogyasztóvédelmi hatóságok rendelkezésére kell bocsátani;
18. hangsúlyozza, hogy a fogyasztói bizalom elengedhetetlen e technológiák fejlesztéséhez és alkalmazásához, amelyek eredendő kockázatokat hordozhatnak, amennyiben átláthatatlan algoritmusokon és torzított adathalmazokon alapulnak; úgy véli, hogy a fogyasztóknak jogot kell biztosítani ahhoz, hogy érthetően, kellő időben, szabványosítottan, pontos és akadálymentes módon megfelelően tájékozódhassanak az algoritmikus rendszerek létezéséről, indokolásáról, lehetséges eredményéről és fogyasztókra gyakorolt hatásairól, arról, hogy hogyan lehet elérni egy döntéshozatali hatáskörrel rendelkező embert, valamint arról, hogy hogyan lehet ellenőrizni, érdemben vitatni és korrigálni a rendszer döntéseit; e tekintetben hangsúlyozza, hogy figyelembe kell venni és tiszteletben kell tartani azokat a tájékoztatási és közzétételi elveket, amelyekre a fogyasztóvédelmi vívmányok épülnek; úgy véli, hogy részletes tájékoztatást kell nyújtani a végfelhasználók számára a közlekedési rendszerek és a mesterséges intelligencia által támogatott járművek működéséről;
19. megjegyzi, hogy alapvető fontosságú, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák által használt vagy előállított algoritmusok és adathalmazok megmagyarázhatóak legyenek, és amennyiben feltétlenül szükséges, az adatvédelemre, a magánélet védelmére, a szellemi tulajdonjogokra és az üzleti titkokra vonatkozó uniós jogszabályok maradéktalan tiszteletben tartása mellett hozzáférhetőek legyenek a hatóságok, például a nemzeti felügyeleti hatóságok és a piacfelügyeleti hatóságok számára; megjegyzi továbbá, hogy a lehető legszigorúbb és alkalmazandó ágazati szabványokkal összhangban azoknak kell tárolniuk a dokumentációt, akik részt vesznek a magas kockázatú technológiák fejlesztésének különböző szakaszaiban; megjegyzi, hogy a piacfelügyeleti hatóságok e tekintetben további előjogokkal rendelkezhetnek; e tekintetben hangsúlyozza a jogszerű visszafejtés szerepét; úgy véli, hogy szükség lehet a piacfelügyeletre vonatkozó jelenlegi jogszabályok vizsgálatára annak érdekében, hogy biztosítható legyen, hogy az etikai kérdések szempontjából megfelelően reagálnak a mesterséges intelligencia, a robotika és a kapcsolódó technológiák elterjedésére;
20. kéri, hogy a magas kockázatú technológiák fejlesztői és bevezetői számára írják elő, hogy amennyiben a kockázatértékelés azt jelzi, bocsássák a hatóságok rendelkezésére a felhasználásra, a tervezésre és a biztonsági utasításokra vonatkozó megfelelő dokumentációt, többek között – amennyiben az feltétlenül szükséges és teljes mértékben tiszteletben tartva az adatvédelemre, a magánélet védelmére, a szellemitulajdon-jogokra és az üzleti titkokra vonatkozó uniós jogszabályokat – a forráskódokat, a fejlesztési eszközöket és a rendszer által használt adatokat; megjegyzi, hogy egy ilyen kötelezettség lehetővé tenné annak értékelését, hogy azok megfelelnek-e az uniós jognak és az etikai elveknek, és e tekintetben rámutat a nemzeti könyvtárak kiadványainak hivatalos letétbe helyezésével kapcsolatos példára; megjegyzi, hogy fontos különbséget tenni az algoritmusok átláthatósága és az algoritmusok használatának átláthatósága között;
21. megjegyzi továbbá, hogy az emberi méltóság, az autonómia és a biztonság tiszteletben tartása érdekében kellő figyelmet kell fordítani a létfontosságú és fejlett orvosi berendezésekre, valamint annak szükségességére, hogy független megbízható hatóságok megőrizzék az e berendezéseket hordozó személyek számára történő szolgáltatásnyújtáshoz szükséges eszközöket, amennyiben azokat az eredeti fejlesztő vagy beépítő már nem nyújtja; az ilyen szolgáltatások magukban foglalnák például a karbantartást, a javítást és a fejlesztést, beleértve a működési hibákat és a sebezhetőségeket korrigáló szoftverfrissítéseket is;
22. fenntartja, hogy a magas kockázatú mesterséges intelligenciát, robotikát és kapcsolódó technológiákat, többek között az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat, fejlesztésük, bevezetésük és felhasználásuk helyétől függetlenül, tervezés szerint biztonságos, nyomon követhető, technikailag stabil, megbízható, etikus és jogilag kötelező módon kell kifejleszteni, és független ellenőrzésnek és felügyeletnek kell alávetni őket; különösen úgy véli, hogy a mesterséges intelligenciával kapcsolatos termékek és szolgáltatások fejlesztési és ellátási láncában részt vevő valamennyi szereplőnek jogilag elszámoltathatónak kell lennie, és hangsúlyozza, hogy mechanizmusokra van szükség a felelősség és az elszámoltathatóság biztosításához;
23. hangsúlyozza, hogy a megmagyarázhatóságra, az ellenőrizhetőségre, a nyomonkövethetőségre és az átláthatóságra vonatkozó szabályozás és iránymutatások, valamint – amennyiben a kockázatértékelés ezt megköveteli – a feltétlenül szükséges és az uniós jog – például az adatvédelemre, a magánélet védelmére, a szellemitulajdon-jogokra és az üzleti titkokra vonatkozó jogszabályok – teljes körű tiszteletben tartása mellett a hatóságoknak az ilyen technológiák alapjául szolgáló technológiákhoz, adatokhoz és számítástechnikai rendszerekhez való hozzáférése elengedhetetlen a polgárok e technológiákba vetett bizalmának biztosításához, még akkor is, ha a megmagyarázhatóság mértéke a technológiák összetettségéhez kapcsolódik; rámutat arra, hogy nem mindig lehet magyarázatot adni arra, hogy egy modell miért vezetett egy adott eredményhez, például a „fekete doboz” jellegű algoritmusok esetében; ezért úgy véli, hogy ezen elvek tiszteletben tartása az elszámoltathatóság biztosításának előfeltétele;
24. úgy véli, hogy a polgárokat, köztük a fogyasztókat tájékoztatni kell, ha mesterséges intelligenciát használó rendszerrel lépnek interakcióba, különösen annak érdekében, hogy egy terméket vagy szolgáltatást személyre szabjanak a felhasználók számára, hogy ki tudják-e kapcsolni vagy korlátozni tudják-e a személyre szabást, és ha igen, hogyan;
25. e tekintetben hangsúlyozza, hogy ahhoz, hogy megbízhatóak legyenek, a mesterséges intelligenciának, a robotikának és kapcsolódó technológiáiknak technikailag stabilnak és pontosnak kell lenniük;
26. hangsúlyozza, hogy fontos az összekapcsolt MI- és robotikai hálózatok védelme, és erőteljes intézkedésekkel ki kell küszöbölni a biztonsági réseket, az adatszivárgásokat, az adatmérgezéseket, a kibertámadásokat és a személyes adatokkal való visszaéléseket, továbbá hogy ehhez az érintett ügynökségeknek, szerveknek és intézményeknek mind uniós, mind nemzeti szinten együtt kell működniük egymással és e technológiák végfelhasználóival; felhívja a Bizottságot és a tagállamokat, hogy az MI-technológiák fejlesztése és telepítése során mindenkor biztosítsák az uniós értékek és az alapvető jogok tiszteletben tartását az Unió digitális infrastruktúrája biztonságának és ellenálló képességének garantálása végett;
A torzítás és a megkülönböztetés tilalma
27. emlékeztet rá, hogy – attól függően, hogy miképpen fejlesztették és használják – az MI-ben benne rejlik a lehetőség a torzítások megteremtésére és megerősítésére, többek között a kiindulási adatállományokban meglevő torzítások révén, és ily módon létrejöhet az automatikus megkülönböztetés, többek között a közvetett megkülönböztetés számos formája hasonló jellemzőkkel rendelkező egyes embercsoportokkal szemben; felszólítja a Bizottságot és a tagállamokat, hogy hozzanak meg minden lehetséges intézkedést az ilyen torzulások megelőzése és az alapvető jogok maradéktalan védelmének biztosítása céljából;
28. aggódik a magas kockázattal járó mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztése, bevezetése és használata során jelentkező torzítás és megkülönböztetés kockázata miatt; emlékeztet arra, hogy minden körülmények között tiszteletben kell tartaniuk az uniós jogot, valamint az emberi jogokat és méltóságot, az egyén autonómiáját és önrendelkezését, és mindenki számára biztosítaniuk kell az egyenlő bánásmódot és a megkülönböztetésmentességet;
29. hangsúlyozza, hogy a mesterségesintelligencia-technológiákat úgy kell megtervezni, hogy tiszteletben tartsák, szolgálják és védjék az uniós értékeket és a fizikai és szellemi integritást, fenntartsák az Unió kulturális és nyelvi sokféleségét, és hozzájáruljanak az alapvető szükségletek kielégítéséhez; hangsúlyozza, hogy el kell kerülni az olyan használatokat, amelyek elfogadhatatlan közvetlen vagy közvetett kényszerhez vezethetnek, alááshatják a pszichológiai autonómiát és a mentális egészséget, illetve indokolatlan megfigyeléshez, megtévesztéshez vagy elfogadhatatlan manipulációhoz vezethetnek;
30. szilárd meggyőződése, hogy a Chartában foglalt alapvető emberi jogokat szigorúan tiszteletben kell tartani annak biztosítása érdekében, hogy ezek a kialakulóban lévő technológiák ne okozzanak hézagokat a védelem terén;
31. megerősíti, hogy a szoftverekben, algoritmusokban és adatokban rejlő lehetséges torzítás és az általuk okozott lehetséges megkülönböztetés nyilvánvaló károkat okozhat az egyéneknek és a társadalomnak, ezért ezeket ellensúlyozó stratégiák – például a kutatásban és fejlesztésben alkalmazott adathalmazok torzításának megszüntetése – kidolgozásának és megosztásának ösztönzésével, valamint az adatfeldolgozására vonatkozó szabályok kidolgozásával kell kezelni; úgy véli, hogy ez a megközelítés lehetőséget kínál arra, hogy a szoftvereket, algoritmusokat és adatokat bizonyos helyzetekben a torzítás és a megkülönböztetés elleni küzdelem eszközévé, valamint az egyenlő jogok és a pozitív társadalmi változás hajtóerejévé alakítsák;
32. úgy véli, hogy e technológiák alapját a méltányosság, a pontosság, a titoktartás és az átláthatóság etikai értékeinek kell képezniük, ami ebben az összefüggésben azt jelenti, hogy működésüknek olyannak kell lennie, hogy ne generáljon torzított kimeneti adatokat;
33. hangsúlyozza a mesterséges intelligenciához, a robotikához és a kapcsolódó technológiákhoz használt adathalmazok minőségének fontosságát azok kontextusától függően, különös tekintettel a betanító adatok reprezentatív jellegére, az adathalmazok torzításainak megszüntetésére, a használt algoritmusokra, valamint az adatokra és az aggregálásra vonatkozó szabványokra; hangsúlyozza, hogy ezeknek az adathalmazoknak a nemzeti felügyeleti hatóságok által ellenőrizhetőnek kell lenniük minden olyan esetben, amikor felhívás érkezik annak biztosítására, hogy megfeleljenek a korábban említett elveknek;
34. hangsúlyozza, hogy a különösen a nem európai szereplők által vezetett kiterjedt dezinformációs háború összefüggésében a mesterségesintelligencia-technológiák etikailag káros hatásokkal járhatnak az adatok és algoritmusok torzításainak kihasználása vagy annak révén, hogy valamely harmadik ország szándékosan megváltoztathatja a betanító adatokat, továbbá előre nem látható módon és kiszámíthatatlan következményekkel ki lehetnek téve a rosszindulatú manipuláció egyéb veszélyes formáinak is; ezért egyre nagyobb szükség van arra, hogy az Unió továbbra is beruházzon a kutatásba, az elemzésbe, az innovációba, valamint a határokon és ágazatokon átnyúló tudástranszferbe annak érdekében, hogy olyan mesterségesintelligencia-technológiákat fejlesszenek ki, amelyek egyértelműen mentesek a profilalkotás, a torzítás és a megkülönböztetés minden formájától, és amelyek hatékonyan hozzájárulhatnak az álhírek és a dezinformáció elleni küzdelemhez, tiszteletben tartva ugyanakkor az adatvédelmet és az uniós jogi kereteket;
35. emlékeztet annak fontosságára, hogy az egyének számára hatékony jogorvoslati lehetőségeket biztosítsanak, és felhívja a tagállamokat annak biztosítására, hogy hozzáférhető, megfizethető, független és hatékony eljárások és felülvizsgálati mechanizmusok álljanak rendelkezésre a polgárok jogainak, például a fogyasztói vagy polgári jogoknak az algoritmikus rendszerek használata révén történő megsértésével kapcsolatos valamennyi panasz pártatlan kivizsgálásának biztosítására, függetlenül attól, hogy annak forrásai állami vagy magánszektorbeli szereplők; hangsúlyozza a fogyasztók kollektív érdekeinek védelmére irányuló képviseleti eljárásokról és a 2009/22/EK irányelv hatályon kívül helyezéséről szóló európai parlamenti és tanácsi irányelvtervezet fontosságát, amelyről 2020. június 22-én politikai megállapodás született a fogyasztói jogok megsértésének kockázatával járó mesterségesintelligencia-rendszer bevezetését vagy folyamatban lévő használatát vitató, illetve a jogok megsértése esetén jogorvoslatot kérő jövőbeli ügyek tekintetében; kéri a Bizottságot és a tagállamokat annak biztosítására, hogy a nemzeti és uniós fogyasztói szervezetek elegendő finanszírozásban részesüljenek ahhoz, hogy segítsék a fogyasztókat jogorvoslathoz való joguk gyakorlásában olyan esetekben, amikor jogaikat megsértették;
36. ezért úgy véli, hogy bármely természetes vagy jogi személy számára lehetővé kell tenni, hogy jogorvoslatot kérjen a mesterséges intelligenciával, robotikával vagy kapcsolódó technológiával az ő kárára, az uniós vagy a nemzeti jogot megsértve hozott döntésért;
37 úgy véli, hogy ebben az összefüggésben az uniós szabályozási keret megsértésének gyanúja esetén első kapcsolattartó pontként a fogyasztók a nemzeti felügyeleti hatóságokat is megkereshetik jogorvoslat iránti kérelmekkel, a fent említett keret hatékony érvényesítésének biztosítása érdekében;
Társadalmi felelősség és a nemek közötti egyensúly
38. hangsúlyozza, hogy a társadalmilag felelős mesterséges intelligenciának, robotikának és kapcsolódó technológiáknak szerepet kell játszaniuk olyan megoldások keresésében, amelyek védik és előmozdítják társadalmunk olyan alapvető jogait és értékeit, mint a demokrácia, a jogállamiság, a sokszínű és független média és az objektív és szabadon hozzáférhető tájékoztatás, az egészség és a gazdasági jólét, az esélyegyenlőség, a munkavállalói és szociális jogok, a jó minőségű oktatás, a gyermekek védelme, a kulturális és nyelvi sokszínűség, a nemek közötti egyenlőség, a digitális jártasság, az innováció és a kreativitás; emlékeztet arra, hogy biztosítani kell valamennyi polgár – köztük a perifériára szorult vagy kiszolgáltatott helyzetben lévők, például a fogyatékossággal élők – érdekeinek megfelelő figyelembevételét és képviseletét;
39. hangsúlyozza annak fontosságát, hogy ezen a területen is magas szintű általános digitális jártasságot érjenek el és magasan képzett szakembereket képezzenek, valamint biztosítsák az ilyen képesítések Unió-szerte történő kölcsönös elismerését; kiemeli, hogy sokszínű fejlesztői-mérnöki csapatokra van szükség, amelyek társadalmi kulcsszereplőkkel együtt dolgoznak a nemi alapú és kulturális torzítások megelőzése céljából, amelyek óvatlan módon bekerülhetnek az MI-algoritmusokba, -rendszerekbe és -alkalmazásokba; támogatja a mesterséges intelligencia társadalmi, jogi és etikai hatásaival kapcsolatos oktatási tantervek és lakossági kampányok létrehozását;
40. hangsúlyozza annak alapvető fontosságát, hogy biztosítsák a gondolat- és véleménynyilvánítás szabadságát, így biztosítva, hogy ezek a technológiák ne mozdítsák elő a gyűlöletbeszédet vagy az erőszakot, ezért úgy véli, hogy a digitálisan gyakorolt véleménynyilvánítás szabadságának akadályozása vagy korlátozása az Unió alapelvei szerint jogellenes, kivéve, ha ezen alapvető jog gyakorlása jogellenes cselekményekkel jár;
41. hangsúlyozza, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák hozzájárulhatnak a társadalmi egyenlőtlenségek csökkentéséhez, és kijelenti, hogy fejlődésük európai modelljének a polgárok bizalmán és a nagyobb társadalmi kohézión kell alapulnia;
42. hangsúlyozza, hogy semmilyen mesterségesintelligencia-rendszer bevezetése nem korlátozhatja indokolatlanul a felhasználók közszolgáltatásokhoz, például a társadalombiztosításhoz való hozzáférését; ezért felhívja a Bizottságot, hogy értékelje, hogyan érhető el ez a célkitűzés;
43. hangsúlyozza a felelősségteljes kutatás és fejlesztés fontosságát, amelynek célja a mesterséges intelligencia, a robotika és a kapcsolódó technológiák teljes potenciáljának kihasználása a polgárok és a közjó érdekében; kéri, hogy az Unió és tagállamai mozgósítsanak forrásokat a felelős innováció fejlesztése és támogatása érdekében;
44. hangsúlyozza, hogy a technológiai szakértelem egyre fontosabb lesz, és ezért folyamatosan aktualizálni kell a képzéseket, különösen a jövő nemzedékek számára, valamint elő kell mozdítani a munkaerőpiacon már jelen lévők szakmai átképzését; e tekintetben kitart amellett, hogy az innovációt és a képzést nemcsak a magánszektorban, hanem a közszférában is elő kell mozdítani;
45. kitart amellett, hogy e technológiák fejlesztése, bevezetése és használata semmilyen sérülést vagy kárt nem okozhat az egyéneknek, a társadalomnak vagy a környezetnek, és hogy ennek megfelelően a vonatkozó uniós és nemzeti felelősségi szabályokkal összhangban e technológiák fejlesztőit, bevezetőit és felhasználóit felelősségre kell vonni az ilyen sérülésért vagy kárért;
46. felhívja a tagállamokat annak értékelésére, hogy a munkahelyeknek az e technológiák bevezetéséből eredő megszűnését megfelelő közpolitikáknak, például a munkaidő csökkentésének kell-e követnie;
47. fenntartja, hogy egyértelmű szükség mutatkozik az uniós értékeken és etikai elveken alapuló tervezési megközelítésre a mesterséges intelligencia, a robotika és a kapcsolódó technológiák széles körű társadalmi elfogadásához szükséges feltételek kialakítása érdekében; úgy véli, hogy ez a megközelítés, amely a megbízható, etikailag felelős és technikailag stabil mesterséges intelligencia kialakítását kívánja elérni, a fenntartható, intelligens, biztonságos és hozzáférhető mobilitás fontos ösztönzője;
48. felhívja a figyelmet az autonóm járművek által a csökkent mozgásképességű személyek számára nyújtott magas hozzáadott értékre, mivel e járművek révén hatékonyabban vehetnek részt a közúti közlekedésben, ami egyszerűbbé teszi a mindennapi életüket; hangsúlyozza a hozzáférhetőség fontosságát, különösen a MaaS-rendszerek (mobilitási szolgáltatás) tervezésekor;
49. felhívja a Bizottságot, hogy továbbra is támogassa a megbízható mesterségesintelligencia-rendszerek fejlesztését annak érdekében, hogy a közlekedés biztonságosabbá, hatékonyabbá, hozzáférhetőbbé, megfizethetőbbé és befogadóbbá váljon, többek között a csökkent mozgásképességű személyek, különösen a fogyatékossággal élő személyek számára, figyelembe véve az (EU) 2019/882 európai parlamenti és tanácsi irányelvet1 és az utasok jogairól szóló uniós jogot;
50. úgy véli, hogy a mesterséges intelligencia segíthet a fogyatékossággal élő személyek készségeinek és kompetenciáinak jobb kihasználásában, és hogy a mesterséges intelligencia munkahelyi alkalmazása hozzájárulhat a befogadó munkaerőpiacokhoz és a fogyatékossággal élő személyek magasabb foglalkoztatási arányához;
Környezetvédelem és fenntarthatóság
51. kijelenti, hogy a kormányoknak és a vállalkozásoknak alkalmazniuk kell a mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat az emberek és a bolygó javára, hozzájárulva a fenntartható fejlődés, a környezetvédelem, a klímasemlegesség és a körforgásos gazdaság céljainak eléréséhez; e technológiák fejlesztésének, bevezetésének és használatának hozzá kell járulnia a zöld átálláshoz, a környezet megőrzéséhez, valamint a technológiák életciklusa során és a teljes szállítói láncban a környezetben okozott kár minimalizálásához és helyreállításához az uniós jogszabályokkal összhangban;
52. tekintettel jelentős környezeti hatásukra, az előző bekezdés alkalmazásában a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésének, bevezetésének és használatának környezeti hatását – adott esetben – az ágazatspecifikus hatóságok egész élettartamuk alatt értékelhetik; ez az értékelés magában foglalhatja a szükséges anyagok kitermelésének becsült hatását, valamint a fejlesztésük, bevezetésük és felhasználásuk által okozott energiafogyasztást és üvegházhatásúgáz-kibocsátást;
53. javasolja, hogy a felelősségteljes és élvonalbeli mesterségesintelligencia-megoldások kifejlesztése érdekében fel kell tárni, ösztönözni és maximalizálni kell a mesterséges intelligenciában, a robotikában és a kapcsolódó technológiákban rejlő lehetőségeket, felelősségteljes kutatás és fejlesztés révén, ami pedig források mozgósítását igényli az Unió és tagállamai részéről;
54. kiemeli, hogy e technológiák fejlesztése, bevezetése és használata számos lehetőséget kínál az ENSZ által körvonalazott fenntartható fejlődési célok, a globális energetikai átállás és a dekarbonizáció előmozdításához;
55. úgy véli, hogy a társadalmi felelősségvállalás, a nemek közötti egyensúly, a környezetvédelem és a fenntarthatóság célkitűzései nem érinthetik az e területeken meglévő általános és ágazati kötelezettségeket; úgy véli, hogy nem kötelező érvényű végrehajtási iránymutatásokat kell kidolgozni a fejlesztők, a bevezetők és a felhasználók számára – különösen a magas kockázatú technológiák esetében – az e rendeletnek való megfelelésük és e célkitűzések elérésének értékelésére szolgáló módszertan tekintetében;
56. felhívja az Uniót, hogy mozdítsa elő és finanszírozza az emberközpontú mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztését, amelyek kezelik a környezeti és éghajlati kihívásokat, és adózási, közbeszerzési vagy egyéb ösztönzők révén biztosítják az alapvető jogok tiszteletben tartását;
57. hangsúlyozza, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák, többek között az automatizált döntések és a gépi tanulás fejlesztésének, bevezetésének és használatának jelenlegi magas szénlábnyoma ellenére ezek a technológiák hozzájárulhatnak az IKT-ágazat jelenlegi környezeti lábnyomának csökkentéséhez; hangsúlyozza, hogy ezeknek és más megfelelően szabályozott kapcsolódó technológiáknak számos különböző ágazatban döntő szerepet kell játszaniuk a zöld megállapodás, az ENSZ fenntartható fejlődési céljai és a Párizsi Megállapodás céljainak elérésében, és fokozniuk kell a környezetvédelmi politikák, például a hulladékcsökkentést és a környezetkárosodást érintő szakpolitikák hatását;
58. felhívja a Bizottságot, hogy készítsen tanulmányt az MI-technológia szénlábnyomáról, valamint a fogyasztók MI-technológia alkalmazására való áttérése miatti pozitív és negatív hatásokról;
59. megjegyzi, hogy tekintettel az MI-alkalmazások fokozódó fejlődésére, amely számítástechnikai, tárolási és energiaforrásokat igényel, az MI-rendszerek környezeti hatásait egész életciklusuk során figyelembe kell venni;
60. úgy véli, hogy például az egészségügy területén a végső felelősséget egy természetes vagy jogi személynek kell viselnie; hangsúlyozza, hogy az algoritmusok számára nyomon követhető és nyilvánosan hozzáférhető tanulóadatokat kell rendelkezésre bocsátani;
61. határozottan támogatja a Bizottság által javasolt európai egészségügyi adattér[12] létrehozását, amelynek célja az egészségügyi adatcsere előmozdítása és a kutatás támogatása az adatvédelem teljes tiszteletben tartása mellett, ideértve az adatok MI-technológiával történő feldolgozását is, és amely megerősíti és kiterjeszti az egészségügyi adatok felhasználását és újrafelhasználását; ösztönzi az egészségügyi adatok határokon átnyúló cseréjének fokozását, azok összekapcsolását és felhasználását biztonságos, egyesített adattárak, egyedi típusú egészségügyi információk, például az európai egészségügyi nyilvántartások, a genomadatok és a digitális egészségügyi képek révén az Unió egészére kiterjedő interoperábilis nyilvántartások vagy adatbázisok olyan területeken történő előmozdítása érdekében, mint amilyen a kutatás, a tudomány és az egészségügyi ágazatok;
62. kiemeli az MI előnyeit a betegségmegelőzés, a betegségkezelés és a járványvédelem terén, amit az is jól példáz, hogy a Covid19-járványt az MI már a WHO-t megelőzően előre jelezte; sürgeti a Bizottságot, hogy megfelelően lássa el az ECDC-t a szükséges, anonimizált, valós idejű globális egészségügyi adatok független, a tagállamokkal együttműködve végzett gyűjtéséhez szükséges szabályozási kerettel és erőforrásokkal, többek között a Covid19-válság nyomán felmerült problémák kezelése érdekében;
Magánélet és biometrikus azonosítás
63. megállapítja, hogy gyors ütemben nő a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztéséből, bevezetéséből és használatából származó adatok – ezen belül személyes adatok, így például biometrikus adatok – előállítása és használata, ami még inkább megerősíti, hogy az uniós joggal összhangban tiszteletben kell tartani és érvényesíteni kell a polgárok magánélethez való jogát és a személyes adatok védelmét;
64. rámutat arra, hogy az e technológiák által a személyes adatok és a nem személyes adatok személyek kategorizálására és mikrocélzására, az egyének sérülékeny pontjainak azonosítására vagy az előrejelzésen alapuló pontos ismeretek kiaknázására való felhasználására biztosított lehetőséget ellensúlyozni kell a hatékonyan végrehajtott adatvédelemmel és olyan adatvédelmi elvekkel, mint az adattakarékosság, a profilalkotással szembeni tiltakozáshoz való jog, a saját adatok felhasználása fölötti ellenőrzéshez való jog, az automatizált feldolgozáson alapuló döntések magyarázatához való jog és a beépített adatvédelem elve, valamint az arányosság, a szükségesség és az általános adatvédelmi rendeletnek (GDPR) megfelelő szigorú célhozkötöttség elve;
65. hangsúlyozza, hogy amikor a hatóságok – jelentős közérdekű célból – olyan távoli felismerési technológiákat alkalmaznak, mint például a biometrikus jellemzők felismerése, nevezetesen az arcfelismerés, akkor azok használatáról mindig tájékoztatást kell nyújtani, annak mindig arányosnak és célzottnak kell lennie, konkrét célkitűzésekre kell korlátozódnia, az uniós joggal összhangban időben korlátozottnak kell lennie, valamint kellően figyelembe kell vennie az emberi méltóságot és autonómiát és a Chartában foglalt alapvető jogokat. Az ilyen felhasználás kritériumait és korlátait bírósági felülvizsgálatnak és demokratikus ellenőrzésnek kell alávetni, valamint figyelembe kell venni a felhasználás civil társadalomra gyakorolt pszichológiai és szociokulturális hatását;
66. hangsúlyozza, hogy bár a mesterséges intelligencia, a robotika és a kapcsolódó technológiák közhatalmi döntések keretében történő alkalmazásának vannak előnyei, eredményezhet súlyos visszaéléseket is, mint például a tömeges megfigyelés, a prediktív rendészet és a tisztességes eljáráshoz való jog megsértése;
67. úgy véli, hogy azokat a technológiákat, amelyek képesek automatizált döntéseket hozni, így felváltják a hatóságok általi döntéshozatalt, a lehető legnagyobb körültekintéssel kell kezelni, különösen az igazságszolgáltatás és a bűnüldözés területén;
68. úgy véli, hogy a tagállamoknak csak akkor szabadna alkalmazniuk ilyen technológiákat, ha alapos bizonyítékok támasztják alá azok megbízhatóságát és ha az érdemi emberi beavatkozás és felülvizsgálat lehetséges vagy szisztematikus azokban az esetekben, amikor alapvető szabadságokról van szó; hangsúlyozza annak fontosságát, hogy a nemzeti hatóságok végezzenek szigorú alapjogi hatásvizsgálatot az ilyen esetekben alkalmazott mesterségesintelligencia-rendszerekre vonatkozóan, különösen miután e technológiákat magas kockázatúként értékelték;
69. véleménye szerint a mesterséges intelligencia, robotika vagy kapcsolódó technológiák segítségével a közhatalom előjogai keretében hozott határozatokat érdemi emberi beavatkozásnak és megfelelő eljárásnak kell alávetni, különösen miután e technológiákat magas kockázatúként értékelték;
70. úgy véli, hogy a technológiai fejlődés nem vezethet ahhoz, hogy a mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat olyan közszektorbeli döntések önálló meghozatalához használják, amelyek közvetlen és jelentős hatást gyakorolnak a polgárok jogaira és kötelezettségeire;
71. megállapítja, hogy az MI, a robotika és a kapcsolódó technológiák használata a bűnüldözés és a határellenőrzés területén erősítheti a közbiztonságot és a védettséget, de ugyanakkor kiterjedt és szigorú ellenőrzést, valamint a lehető legmagasabb fokú átláthatóságot igényli mind az egyes alkalmazások kockázatértékelése, mind pedig az MI, a robotika és a kapcsolódó technológiák használatának általános áttekintése tekintetében e területeken; véleménye szerint az ilyen technológiák jelentős és ennek megfelelően kezelendő etikai kockázatot hordoznak, mivel hátrányosan érinthetik az egyéneket, különösen a magánélethez, az adatvédelemhez és megkülönböztetésmentességhez való joguk tekintetében; hangsúlyozza, hogy helytelen felhasználásuk közvetlen veszélyt jelenthet a demokráciára, és bevezetésük és használatuk során tiszteletben kell tartani az arányosság és a szükségesség elvét, az Alapjogi Chartát, valamint a vonatkozó másodlagos uniós jogot, így az adatvédelmi szabályokat; hangsúlyozza, hogy a MI-nek soha nem szabad felváltania az embereket az ítéletek meghozatala terén; úgy véli, hogy az egyénekre vonatkozóan joghatással bíró vagy őket jelentősen érintő határozatok, így óvadék meghatározása vagy próbára bocsátás, bíróság előtti meghallgatás vagy kizárólag automatizált feldolgozásra alapozott döntések esetében mindig szükség van egy ember érdemi értékelésére és ítéletére;
Megfelelő irányítás
72. hangsúlyozza, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák, különösen a magas kockázatú technológiák fejlesztésének, bevezetésének és használatának megfelelő irányítása, amely többek között az elszámoltathatóságot a középpontba helyező intézkedések bevezetése, valamint a torzítás és a megkülönböztetés potenciális kockázatainak a kezelése révén valósulhat meg, növelheti a polgárok biztonságát és az e technológiák iránti bizalmát;
73. úgy véli, hogy e technológiák irányítására a Bizottság és/vagy az e tekintetben e feladatra kijelölt más illetékes intézmény, szerv, hivatal vagy ügynökség által koordinált, az egyes tagállamok nemzeti felügyeleti hatóságai által végrehajtott közös irányítási keret biztosítaná a koherens európai megközelítést és az egységes piac széttagolódásának megelőzését;
74. megállapítja, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztése során nagy mennyiségben használnak fel adatokat, és az ilyen adatok feldolgozását, megosztását, az ezekhez való hozzáférést és ezek felhasználását a jogszabályokkal és a minőség, az integritás, az interoperabilitás, az átláthatóság, a biztonság, az adatvédelem és az ellenőrzés azokban foglalt követelményeivel összhangban kell szabályozni;
75. emlékeztet arra, hogy az adatokhoz való hozzáférés nélkülözhetetlen eleme a digitális gazdaság növekedésének; e tekintetben rámutat arra, hogy az adatok interoperabilitása – a bezártsági hatások korlátozása révén – kulcsfontosságú szerepet játszik a digitális egységes piacon a tisztességes piaci feltételek biztosításában és az egyenlő versenyfeltételek előmozdításában;
76. hangsúlyozza, hogy biztosítani kell a személyes adatok, különösen a kiszolgáltatott csoportokra, így például a fogyatékossággal élő személyekre, a betegekre, a gyermekekre, az idősekre, a kisebbségekre, a migránsokra és a kirekesztés által veszélyeztetett egyéb csoportokra vonatkozó vagy tőlük származó adatok megfelelő védelmét;
77. megjegyzi, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák hatóságok általi fejlesztését, bevezetését és használatát gyakran kiszervezik magán szerződő feleknek; úgy véli, hogy ez semmilyen módon nem veszélyeztetheti a közös értékek és az alapvető jogok védelmét; úgy véli, hogy a közbeszerzési feltételeknek adott esetben tükrözniük kell a hatóságok számára előírt etikai normákat;
A fogyasztók és a belső piac
78. hangsúlyozza annak fontosságát, hogy a szabályozási keret akkor legyen alkalmazandó, ha az Unión belüli fogyasztók algoritmikus rendszer felhasználói, alanyai, célpontjai, vagy ha a fogyasztókat ilyen rendszerbe irányítják, függetlenül a rendszert kifejlesztő, értékesítő vagy alkalmazó szervezetek letelepedési helyétől; úgy véli továbbá, hogy a jogbiztonság érdekében az e keretrendszerben megállapított szabályokat valamennyi fejlesztőre és az értéklánc egészére alkalmazni kell, nevezetesen a vonatkozó technológiák és összetevőik fejlesztésére, bevezetésére és használatára, valamint magas szintű fogyasztóvédelmet kell garantálniuk;
79. megállapítja, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok, valamint az olyan területek, mint a dolgok internete, a gépi tanulás, a szabályokon alapuló rendszerek vagy az automatizált és a támogatott döntéshozatali folyamatok szervesen kapcsolódnak egymáshoz; megjegyzi továbbá, hogy szabványosított ikonokat lehetne kidolgozni annak érdekében, hogy segítsék az ilyen rendszerek fogyasztókkal való megismertetését minden olyan esetben, amikor ezeket a rendszereket összetettség jellemzi, vagy amikor olyan döntések meghozatalához vezetnek, amelyek jelentős hatással vannak a fogyasztók életére;
80. emlékeztet arra, hogy a Bizottságnak meg kell vizsgálnia a meglévő jogi keretet és annak alkalmazását, beleértve a fogyasztóvédelmi jog vívmányait, a termékfelelősségre, a termékbiztonságra és a piacfelügyeletre vonatkozó jogszabályokat a joghézagok és a meglévő szabályozási kötelezettségek azonosítása érdekében; úgy véli, hogy erre annak megállapítása érdekében van szükség, hogy a jogi keret képes-e reagálni a mesterséges intelligencia, a robotika és a kapcsolódó technológiák megjelenéséből fakadó új kihívásokra, és biztosítani a fogyasztóvédelem magas szintjét;
81. hangsúlyozza, hogy hatékonyan kell kezelni a mesterséges intelligencia, a robotika és a kapcsolódó technológiák jelentette kihívásokat, és biztosítani kell a fogyasztók tudatosságát és megfelelő védelmét; hangsúlyozza, hogy meg kell haladni a tájékoztatásnak és a közzétételnek a fogyasztóvédelmi vívmányok alapjául szolgáló hagyományos elveit, mivel a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó erősebb fogyasztói jogokra és egyértelmű korlátozásokra lesz szükség annak biztosítása érdekében, hogy a technológia hozzájáruljon a fogyasztók életének javításához, és olyan módon fejlődjön, amely tiszteletben tartja az alapvető jogokat és a fogyasztói jogokat, valamint az uniós értékeket;
82. felhívja a figyelmet arra, hogy a 768/2008/EK határozattal bevezetett jogszabályi keret a gyártókra, importőrökre és forgalmazókra vonatkozó kötelezettségek harmonizált jegyzékét írja elő, ösztönzi a szabványok alkalmazását, és a termék veszélyességétől függően többszintű ellenőrzést ír elő; úgy véli, hogy ezt az elvet a mesterséges intelligenciát alkalmazó termékekre is alkalmazni kell;
83. megjegyzi, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fogyasztókra gyakorolt hatásainak elemzése céljából az adatokhoz való hozzáférést az uniós jog – például az adatvédelemre, a magánélet védelmére és az üzleti titkokra vonatkozó jogszabályok – teljes körű tiszteletben tartása mellett ki lehetne terjeszteni az illetékes nemzeti hatóságokra; emlékeztet annak fontosságára, hogy a fogyasztók oktatásban részesüljenek, hogy tájékozottak legyenek és megszerezzék a készségeket ahhoz, hogy kezelni tudják a mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat, annak érdekében, hogy megvédjék őket az esetleges kockázatoktól és fenntartsák jogaikat;
84. felhívja a Bizottságot, hogy javasoljon intézkedéseket az adatok nyomon követhetősége érdekében, szem előtt tartva mind az adatszerzés jogszerűségét, mind a fogyasztói jogok és az alapvető jogok védelmét az uniós jog – például az adatvédelemre, a magánélet védelmére, a szellemitulajdon-jogokra és az üzleti titkokra vonatkozó uniós jogszabályok – teljes körű tiszteletben tartása mellett;
85. megjegyzi, hogy e technológiáknak felhasználóközpontúnak kell lenniük, és oly módon kell kialakítani azokat, hogy életkorra, nemre, képességre vagy tulajdonságra való tekintet nélkül mindenki igénybe vehesse a mesterségesintelligencia-termékeket vagy -szolgáltatásokat; megjegyzi, hogy az ezekhez való hozzáférés különösen fontos a fogyatékossággal élő személyek számára; megjegyzi, hogy nem szabad egyenmegoldásokat alkalmazni, és a felhasználók lehető legszélesebb körét lefedő és a vonatkozó akadálymentesítési szabványokat követő tervezési elveket kell figyelembe venni; hangsúlyozza, hogy ez lehetővé teszi az egyének számára, hogy egyenlően hozzáférjenek a meglévő és a kialakulóban lévő, számítógépen keresztül közvetített emberi tevékenységekhez és támogató technológiákhoz, és aktívan részt vegyenek azokban;
86. hangsúlyozza, hogy amennyiben mesterséges intelligencia, robotika vagy kapcsolódó technológiák fejlesztésének, bevezetésének vagy használatának megvalósításához jelentős mértékben járulnak hozzá közpénzek, a nyílt közbeszerzés és a nyílt szerződési szabványok mellett figyelembe kell venni azt a lehetőséget, hogy a kódnak, a generált adatoknak – amennyiben azok nem személyhez kötődőek – és a betanított modellnek alapértelmezés szerint nyilvánosnak kell lenniük a fejlesztővel kötött megállapodás alapján, az átláthatóság garantálása, a kiberbiztonság fokozása és az innováció előmozdítását célzó újrafelhasználásuk lehetővé tétele érdekében; hangsúlyozza, hogy ily módon teljes mértékben ki lehet aknázni az egységes piacban rejlő lehetőségeket, elkerülve a piac széttöredezését;
87. úgy véli, hogy az MI-ben, a robotikában és a kapcsolódó technológiákban hatalmas potenciál rejlik abban a tekintetben, hogy lehetőségeket biztosítsanak a fogyasztók számára ahhoz, hogy a jobb termékek és szolgáltatások mellett az életminőségüket javító tényezőkhöz juthassanak hozzá az életük számos területén, továbbá élvezhessék a hatékonyabb piacfelügyelet előnyeit, amennyiben továbbra is érvényben marad valamennyi alkalmazandó alapelv, feltétel és szabályozás, ideértve az átláthatóság és az ellenőrizhetőség követelményét;
Biztonság és védelem
88. hangsúlyozza, hogy az Európai Unió és tagállamai biztonság- és védelempolitikáját az Európai Unió Alapjogi Chartájában rögzített alapelvek és az Egyesült Nemzetek Alapokmányának elvei, valamint az emberek sérthetetlen és elidegeníthetetlen jogai, az emberi méltóság, a szabadság, a demokrácia, az egyenlőség és a jogállamiság egyetemes értékeinek közös értelmezése és tisztelete vezérli; hangsúlyozza, hogy az uniós kereten belüli valamennyi védelmi vonatkozású erőfeszítésnek tiszteletben kell tartania ezeket az egyetemes értékeket, miközben előmozdítja a békét, a biztonságot és a haladást Európában és a világban;
89. üdvözli, hogy az egyes hagyományos fegyverekről szóló ENSZ-egyezmény (CCW) magas szerződő feleinek 2019. évi ülésén támogatták az autonóm fegyverrendszerek kifejlesztésére és használatára vonatkozó 11 irányadó elvet; sajnálja azonban, hogy nem sikerült megállapodni a halált okozó autonóm fegyvereket szabályozó, hatékony végrehajtási mechanizmussal rendelkező, jogilag kötelező erejű eszközről; üdvözli és támogatja a Bizottság mesterséges intelligenciával foglalkozó magas szintű szakértői csoportja által 2019. április 9-én közzétett „Etikai iránymutatások a megbízható mesterséges intelligencia érdekében” című dokumentumot, és a halált okozó autonóm fegyverrendszerekkel kapcsolatos álláspontját; sürgeti a tagállamokat, hogy dolgozzanak ki nemzeti stratégiákat a halált okozó autonóm fegyverek meghatározására és jogi státusára vonatkozóan egy átfogó uniós szintű stratégia kialakítása érdekében, és az Unió főképviselőjével/a Bizottság alelnökével (főképviselő/alelnök) és a Tanáccsal együtt mozdítsák elő a halált okozó autonóm fegyverekről az ENSZ CCW-egyezménye keretében és más releváns fórumokon folytatott vitát, továbbá állapítsanak meg a teljesen autonóm, félautonóm és távirányítású halált okozó fegyverrendszerek kifejlesztésének és használatának etikai és jogi paramétereire vonatkozó nemzetközi normákat; emlékeztet e tekintetben a halált okozó autonóm fegyverrendszerekkel kapcsolatos 2018. szeptember 12-i állásfoglalására, és ismételten felszólít a halált okozó autonóm fegyverrendszerekkel kapcsolatban egy közös álláspont sürgős kidolgozására és elfogadására, továbbá az érdemi emberi irányítás nélküli és az emberi beavatkozás elvének tiszteletben tartása nélküli támadások végrehajtását lehetővé tevő halált okozó autonóm fegyverrendszerek kifejlesztésének, gyártásának és használatának nemzetközi szintű betiltására, összhangban a legnevesebb mesterséges intelligencia kutatók 2015-ös nyílt levelében foglalt nyilatkozattal; üdvözli, hogy a Tanács és a Parlament egyetért abban, hogy a halált okozó olyan autonóm fegyvereket, amelyek a „támadások során nem teszik lehetővé az érdemi emberi ellenőrzést a cél kiválasztására és a csapás végrehajtására vonatkozó döntésekkel kapcsolatban” ki kell zárni az Európai Védelmi alap keretében finanszírozott fellépések közül; úgy véli, hogy a mesterséges intelligenciának a védelem – például a hírszerzés, a megfigyelés és felderítés (ISR) vagy a kiberműveletek – területén való alkalmazására vonatkozó etikai szempontokat nem szabad figyelmen kívül hagyni, és különös figyelmet kell fordítani a katonai műveletekben használt drónok fejlesztésére és bevetésére;
90 hangsúlyozza, hogy a nemzetközi jogban nem szabályozott, a biztonsági és védelmi területen kialakulóban lévő technológiákat az emberiség tiszteletének elve és a közös lelkiismeret parancsai alapján kell megítélni;
91. javasolja, hogy a mesterséges intelligencián alapuló rendszerek védelmi célú, harci és nem harci helyzetekben történő használatát szabályozó bármely európai keretnek tiszteletben kell tartania valamennyi alkalmazandó jogi rendszert, különösen a nemzetközi humanitárius jogot és a nemzetközi emberi jogi jogszabályokat, valamint meg kell felelnie az uniós jognak, elveknek és értékeknek, figyelembe véve az Unión belüli műszaki és biztonsági infrastruktúrák különbségeit;
92. elismeri, hogy a védelmi ipari bázisoktól eltérően a mesterséges intelligenciával kapcsolatos döntő jelentőségű innovációk a kisebb tagállamokból is származhatnak, ezért egy, a KBVP szempontjából szabványosított megközelítés révén biztosítani kell, hogy a kisebb tagállamok és a kkv-k ne szoruljanak ki; hangsúlyozza, hogy a mesterséges intelligenciával kapcsolatos közös uniós képességek és a tagállamok műveleti koncepcióinak összehangolása áthidalhatja az olyan technikai hiányosságokat, amelyek miatt a megfelelő technológiával, iparági szakértelemmel vagy a mesterségesintelligencia-rendszereknek a védelmi minisztériumaikban történő alkalmazásához szükséges képeségekkel nem rendelkező tagállamok kimaradhatnak;
93. úgy véli, hogy az uniós kereten belül a biztonsággal és védelemmel kapcsolatos jelenlegi és jövőbeli tevékenységek a mesterséges intelligenciára, a robotikára és az autonómiára, valamint a kapcsolódó technológiákra fognak támaszkodni, valamint hogy a megbízható, szilárd és bizalomra érdemes mesterséges intelligencia hozzájárulhat egy modern és hatékony haderőhöz; az Uniónak ezért vezető szerepet kell vállalnia a mesterségesintelligencia-rendszerek kutatásában és fejlesztésében a biztonság és a védelem területén; úgy véli, hogy a mesterséges intelligencián alapuló alkalmazások biztonsági és védelmi célú használata számos közvetlen előnyt kínálhat a művelet vezénylője számára, például az összegyűjtött adatok jobb minőségét, nagyobb helyzetismeretet, gyorsabb döntéshozatalt, a jobb kábelezésnek köszönhetően a járulékos károk csökkent kockázatát, a helyszíni erők védelmét, valamint a katonai felszerelések nagyobb megbízhatóságát és így az embereket érő kockázatok és az emberáldozatok kockázatának csökkenését; hangsúlyozza, hogy a képességek és a műveletek terén az európai stratégiai autonómia biztosításához elengedhetetlen a mesterséges intelligencia fejlesztése a védelem területén; emlékeztet arra, hogy a mesterségesintelligencia-rendszerek fokozatosan az újonnan megjelenő biztonsági fenyegetések, például a kiber- és hibrid hadviselés elleni küzdelem kulcsfontosságú elemévé válnak az online és offline terekben egyaránt; hangsúlyozza ugyanakkor a mesterséges intelligencia szabályozatlan használatából eredő valamennyi kockázatot és kihívást; megjegyzi, hogy a mesterséges intelligencia manipulációnak, hibáknak és pontatlanságoknak lehet kitéve;
94. hangsúlyozza, hogy a mesterséges intelligenciával kapcsolatos technológiák lényegében kettős felhasználásúak, és a védelmi tevékenységekben használt mesterséges intelligencia fejlesztése szempontjából előnyös a katonai és civil technológiák egymásra hatása; kiemeli, hogy a védelmi tevékenységekhez használt mesterséges intelligencia egy transzverzális diszruptív technológia, amelynek fejlesztése lehetőségeket nyújthat az Unió versenyképessége és stratégiai autonómiája szempontjából;
95. elismeri, hogy napjainkban, a hibrid és fejlett fegyverkezés korában az információ mennyisége és gyorsasága a válsághelyzetek korai szakaszában megterhelő lehet az emberi elemzők számára, és egy mesterségesintelligencia-rendszer olyan módon lehet képes az információk feldolgozására, amely biztosítaná, hogy a gyors reagálás érdekében az emberi döntéshozók a megfelelő időn belül az információk teljes spektrumát követni tudják;
96. hangsúlyozza, hogy rendkívül fontos a mesterséges intelligencia területén a humántőke fejlesztésébe való beruházás, a biztonság és a védelem területén használt mesterségesintelligencia-technológiákkal kapcsolatos szükséges készségek és oktatás támogatása, különös hangsúlyt fektetve a félautonóm és autonóm műveleti rendszerek etikai kérdéseire a mesterséges intelligenciát alkalmazó világban érvényesülő emberi elszámoltathatóság alapján; hangsúlyozza különösen annak fontosságát, hogy az e területen tevékenykedő etikával foglalkozó szakemberek megfelelő készségekkel rendelkezzenek és megfelelő képzésben részesüljenek; felszólítja a Bizottságot, hogy a lehető leghamarabb terjessze elő a 2020. február 19-i, mesterséges intelligenciáról szóló fehér könyvben bejelentett „készségfejlesztési program megerősített változatát”;
97. hangsúlyozza, hogy az atomfegyverek megjelenése óta a kvantuminformatika lehet a legforradalmibb változás a konfliktusok tekintetében, és ezért sürgeti az Uniót és a tagállamokat, hogy kvantuminformatikai technológiák további fejlődését kezeljék prioritásként; elismeri, hogy a kvantuminformatika által segített, agressziónak minősülő cselekmények, többek között a kritikus infrastruktúrák elleni támadások olyan konfliktuskörnyezetet fognak teremteni, amelyben a döntéshozatalra rendelkezésre álló idő drasztikus módon napokról órákra, majd percekről másodpercekre fog csökkenni, ami arra kényszeríti majd a tagállamokat, hogy a saját védelmüket szolgáló képességeket fejlesszenek ki, és arra képezzék ki döntéshozóikat és katonai személyzetüket, hogy ilyen rövid időn belül hatékonyan reagáljanak;
98. szorgalmazza a védelmi célú európai mesterséges intelligenciába és az azt kiszolgáló kritikus infrastruktúrába történő beruházások fokozását;
99. emlékeztet arra, hogy a világ jelenlegi katonai hatalmainak többsége már jelentős kutatási-fejlesztési erőfeszítéseket tesz a mesterséges intelligencia katonai dimenziójával kapcsolatban; úgy véli, hogy az Uniónak biztosítania kell, hogy ezen a téren ne maradjon le;
100. felszólítja a Bizottságot, hogy a biztonságos, ellenállóképes és stabil mesterségesintelligencia- és robotikai rendszerek kifejlesztésének és alkalmazásának biztosítása érdekében az iparpolitikájába építse be a kiberbiztonsági kapacitásépítést; kéri a Bizottságot, hogy vizsgálja meg a blokkláncalapú kiberbiztonsági protokollok és alkalmazások felhasználását a mesterségesintelligencia-infrastruktúrák ellenálló képességének, megbízhatóságának és szilárdságának az adattitkosítás közvetítő nélküli modelljei útján történő javítása érdekében; ösztönzi az európai érdekelt feleket olyan fejlett funkciók kutatására és kifejlesztésére, amelyek elősegíthetik az Unió és polgárai biztonságát veszélyeztető hibás és rosszindulatú mesterségesintelligencia- és robotikai rendszerek felismerését;
101. hangsúlyozza, hogy a védelem területén alkalmazott valamennyi mesterségesintelligencia-rendszernek a harcfeladatára vonatkozóan konkrét és jól meghatározott bevetési kerettel kell rendelkeznie, amely révén az embereknek megmarad a lehetősége a telepített rendszerek észlelésére, kikapcsolására vagy deaktiválására, amennyiben azok túlterjeszkednek az emberi irányító által meghatározott és hozzárendelt bevetési kereten, illetve eszkaláló vagy nem rendeltetésszerű tevékenységbe kezdenek; úgy véli, hogy a mesterséges intelligencián alapuló, katonai felhasználásra szánt rendszereket, termékeket és technológiát fel kell szerelni egy „fekete dobozzal”, amely rögzíti a gép által végzett valamennyi adattranzakciót;
102. hangsúlyozza, hogy a mesterségesintelligencia-rendszerek tervezésével, fejlesztésével, bevezetésével és használatával kapcsolatos döntésért a teljes felelősséget és elszámoltathatóságot az emberi kezelőknek kell viselniük, mivel biztosítani kell a fegyverrendszerek feletti érdemi emberi ellenőrzést és irányítást és az erőszak alkalmazására vonatkozó döntés mögötti emberi szándékot a mesterségesintelligencia-alapú fegyverrendszerek bármely olyan döntésének végrehajtása esetén, amely halálos következményekkel járhat; hangsúlyozza, hogy a mesterséges intelligencián alapuló rendszerek vezérlését és irányítását továbbra is tényleges emberi ellenőrzés alatt kell tartani, a katonai vezetés szintjén követve az emberi beavatkozás („human-in-the loop”), az emberi felügyelet („human-on-the-loop”) és az emberi vezérlés („human-in-command”) elvét; hangsúlyozza, hogy a mesterséges intelligencián alapuló rendszereknek lehetővé kell tenniük a hadseregek katonai vezetése számára, hogy a halált okozó erőszak alkalmazásáért teljes felelősségvállalás és elszámoltathatóság mellett járjanak el és rendelkezzenek a szükséges mértékű döntéshozatali képességgel, amelyet nem lehet gépekre átruházni, mivel e döntéshozatalnak megkülönböztetésen, arányosságon és elővigyázatosságon kell alapulnia, ha ilyen rendszerek segítségével halált okozó vagy nagyléptékű pusztítással járó fellépést hajtanak végre; hangsúlyozza, hogy az intelligens fegyverek és egyéb, mesterséges intelligencián alapuló rendszerek bevetésére vonatkozóan egyértelmű és nyomon követhető olyan felhatalmazási és elszámoltathatósági keretrendszereket kell létrehozni, amelyek a felhasználók egyedi jellemzőit, például biometrikus jellemzőket használnak annak érdekében, hogy a bevetést kizárólag az erre felhatalmazással rendelkező személyzetnek tegyék lehetővé;
Közlekedés
103. hangsúlyozza a mesterséges intelligencia, a robotika és a kapcsolódó technológiák használata által valamennyi autonóm közúti, vasúti, vízi és légi közlekedési eszköz, valamint a modális váltás és az intermodalitás ösztönzése számára kínált lehetőségeket, mivel ezek a technológiák hozzájárulhatnak az áru- és személyszállítás szállítási módjai optimális kombinációjának megtalálásához; hangsúlyozza továbbá az ezekben rejlő lehetőségeket a közlekedés, a logisztika és a forgalom hatékonyabbá tételére, valamint valamennyi közlekedési mód biztonságosabbá, intelligensebbé és környezetbarátabbá tételére; rámutat, hogy a mesterséges intelligencia etikai megközelítése korai előrejelző rendszernek is tekinthető, különösen a közlekedés biztonsága és hatékonysága tekintetében;
104 hangsúlyozza, hogy a vállalatok és a gazdasági régiók közötti globális verseny azt jelenti, hogy az Uniónak elő kell mozdítania a beruházásokat és meg kell erősítenie a közlekedési ágazatban működő vállalatok nemzetközi versenyképességét azáltal, hogy kedvező környezetet teremt a mesterségesintelligencia-megoldások és további innovációk fejlesztéséhez és alkalmazásához, amelyben az uniós székhelyű vállalkozások világelsővé válhatnak a mesterségesintelligencia-technológiák fejlesztése terén;
105. hangsúlyozza, hogy az uniós közlekedési ágazatnak aktualizálnia kell az ezen kialakulóban lévő technológiákra és a közlekedési ágazatban való felhasználásukra vonatkozó szabályozási keretet, valamint a megbízható mesterséges intelligencia – többek között a biztonság, a védelem, az emberi autonómia tiszteletben tartása, a felügyelet és a felelősség – megvalósításához szükséges egyértelmű etikai keretet igényel, amely növelni fogja a mindenki számára közös előnyöket, és kulcsfontosságú szerepet fog játszani a kutatásba és innovációba történő beruházások ösztönzésében, a készségek fejlesztésében és a mesterséges intelligencia közszolgáltatások, kkv-k, induló vállalkozások és vállalkozások általi adoptálásában, ugyanakkor biztosítani fogja az adatvédelmet és az interoperabilitást, szükségtelen adminisztratív terhek nélkül a vállalkozások és a fogyasztók számára;
106. megjegyzi, hogy a mesterséges intelligencia fejlesztése és megvalósítása a közlekedési ágazatban nem lesz lehetséges modern infrastruktúra nélkül, amely az intelligens közlekedési rendszerek alapvető részét képezi; hangsúlyozza, hogy a tagállamok fejlettségi szintjei közötti tartós eltérések annak kockázatához vezetnek, hogy a legkevésbé fejlett régiók és lakóik elesnek az autonóm mobilitás fejlesztésének előnyeitől; felhív az uniós közlekedési infrastruktúra korszerűsítésének – többek között az 5G hálózatba való integrálásának – megfelelő finanszírozására;
107. ajánlja uniós szintű, megbízható mesterségesintelligencia-szabványok kidolgozását valamennyi közlekedési módra, beleértve a gépjárműipart is, valamint a mesterséges intelligenciával működő járművek és kapcsolódó termékek és szolgáltatások tesztelése számára;
108. megjegyzi, hogy az MI-rendszerek segíthetnek a közúti halálesetek számának jelentős csökkentésében, például a jobb reakcióidő és a szabályok megfelelőbb betartása által; úgy véli azonban, hogy az önvezető járművek használata nem vezethet az összes baleset kiküszöböléséhez, és hangsúlyozza, hogy ez növeli a mesterséges intelligenciával kapcsolatos döntések megmagyarázhatóságának fontosságát a mesterséges intelligencia által hozott döntések hiányosságainak és nem szándékos következményeinek indoklása terén;
Foglalkoztatás, munkavállalói jogok, digitális készségek és a munkahely
109. megjegyzi, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák munkahelyi alkalmazása hozzájárulhat a befogadó munkaerőpiachoz, javíthatja a munkahelyi egészségvédelmet és biztonságot, ugyanakkor pedig felhasználható olyan munkavállalók teljesítményének nyomon követésére, értékelésére, előrejelzésére és irányítására is, akiknek a karrierjére és mentális jólétére nézve közvetett és közvetlen következményekkel jár; mivel a mesterséges intelligenciának pozitív hatást kell gyakorolnia a munkakörülményekre, és azt az emberi jogok, valamint az Unió alapvető jogai és értékei tiszteletben tartásának kell vezérelnie; mivel a mesterséges intelligenciának emberközpontúnak kell lennie, fokoznia kell az emberek és a társadalom jólétét, és hozzá kell járulnia a méltányos és igazságos átálláshoz; e technológiáknak ezért pozitív hatást kell gyakorolniuk a munkakörülményekre, az emberi jogok, valamint az Unió alapvető jogai és értékei tiszteletben tartása által vezérelve;
110. kiemeli a munkavállalók és képviselőik munkahelyi mesterséges intelligenciával kapcsolatos képzésén és oktatásán keresztüli kompetenciafejlesztés szükségességét a mesterséges intelligenciára vonatkozó megoldások következményeinek jobb megértése érdekében; hangsúlyozza, hogy a jelentkezőket és munkavállalókat írásban kell megfelelő módon tájékoztatni arról, ha a felvételi eljárás vagy a humánerőforrásokkal kapcsolatos más döntéshozatal során MI-t alkalmaznak, és arról, hogy ebben az esetben hogyan lehet emberi felülvizsgálatot kérni az automatikus döntés felülvizsgálata céljából;
111. hangsúlyozza, hogy szükséges arról gondoskodni, hogy az MI és a robotika fejlődéséből és felhasználásából eredő termelékenységnövekedés ne csupán a vállalatok tulajdonosai és részvényesei számára járjon haszonnal, hanem a profitorientált vállalatoknak és a munkaerőnek is a jobb munka- és foglalkoztatási feltételek – többek között a bérek, a gazdasági növekedés és a fejlődés – révén, és szélesebb körben a társadalom javára szolgáljon, különösen ott, ahol ez a növekedés a foglalkoztatottság kárára valósul meg; felhívja a tagállamokat, hogy gondosan tanulmányozzák a mesterséges intelligencia által a munkaerőpiacra és a szociális biztonsági rendszerekre gyakorolt lehetséges hatásokat, és dolgozzanak ki stratégiákat arra vonatkozóan, hogy miként biztosítható a hosszú távú stabilitás az adók és járulékok, valamint egyéb intézkedések reformja révén alacsonyabb állami bevételek esetén;
112. hangsúlyozza a formális és informális képzésbe és az egész életen át tartó tanulásba történő vállalati beruházások fontosságát a digitális gazdaságra való igazságos átállás támogatása érdekében; ezzel összefüggésben hangsúlyozza, hogy a mesterséges intelligenciát alkalmazó vállalatok felelőssége, hogy valamennyi érintett munkavállaló számára megfelelő átképzést és továbbképzést biztosítsanak annak érdekében, hogy ez utóbbiak megtanulják, miként kell használni a digitális eszközöket, és miként dolgozzanak a társbotokkal és más új technológiákkal, ezáltal alkalmazkodva a változó munkaerőpiaci igényekhez és megőrizve a foglalkoztatást;
113. úgy véli, hogy ebben az összefüggésben különös figyelmet kell fordítani az új technológiák alkalmazásából eredő új munkavégzési formákra, például az alkalmi jellegű és a platformalapú munkavégzésre; hangsúlyozza, hogy a távmunka feltételei szabályozásának Unió-szerte, valamint a tisztességes munka- és foglalkoztatási feltételek biztosításának a digitális gazdaságban szintén figyelembe kell vennie a mesterséges intelligencia hatását; felhívja a Bizottságot, hogy e tekintetben konzultáljon a szociális partnerekkel, a mesterségesintelligencia-fejlesztőkkel, a kutatókkal és más érdekelt felekkel;
114. hangsúlyozza, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák nem befolyásolhatják semmilyen módon sem a tagállamokban és uniós szinten elismert alapvető jogoknak – beleértve a sztrájkjognak vagy a sztrájk szabadságának vagy a tagállamokban fennálló konkrét munkaügyi kapcsolatrendszerek keretébe tartozó egyéb lépések megtétele jogának vagy szabadságának – a nemzeti jog és/vagy gyakorlat szerinti gyakorlását, és nem érintheti továbbá a nemzeti joggal és/vagy gyakorlattal összhangban lévő, kollektív szerződésekkel kapcsolatos tárgyalásokhoz, azok megkötéséhez és érvényesítéséhez való jogot, vagy a kollektív fellépéshez való jogot;
115. ismételten hangsúlyozza az oktatás és a folyamatos tanulás fontosságát a digitális korban szükséges képesítések fejlesztése és a digitális kirekesztés kezelése szempontjából; felhívja a tagállamokat, hogy fektessenek be a magas színvonalú, reagálóképes és befogadó oktatásba, szakképzésbe és egész életen át tartó tanulási rendszerekbe, valamint a mesterséges intelligencia által potenciálisan súlyosan érintett ágazatokban dolgozó munkavállalókra vonatkozó átképzési és továbbképzési szakpolitikákba; hangsúlyozza, hogy a jelenlegi és jövőbeli munkaerő számára biztosítani kell a szükséges írás-olvasási, számolási és digitális készségeket, valamint a természettudományok, a technológia, a műszaki tudományok és a matematika (STEM) terén szerzett kompetenciákat, továbbá az olyan átfogó humán készségeket, mint a kritikus gondolkodás, a kreativitás és a vállalkozói készség; hangsúlyozza, hogy e tekintetben külön figyelmet kell fordítani a hátrányos helyzetű csoportok bevonására;
116. emlékeztet, hogy a munkahelyen alkalmazott mesterséges intelligenciának, robotikának és kapcsolódó technológiáknak mindenki számára hozzáférhetőnek kell lenniük, az egyetemes tervezés elve alapján;
Oktatás és kultúra
117. hangsúlyozza, hogy kritériumokat kell kidolgozni a mesterséges intelligencia fejlesztésére, bevezetésére és alkalmazására vonatkozóan, szem előtt tartva az oktatásra, a médiára, az ifjúságra, a kutatásra, a sportra, továbbá a kulturális és kreatív ágazatokra gyakorolt hatására, az e területeken megfelelően alkalmazható mesterségesintelligencia-technológiák etikailag felelős és elfogadott felhasználására vonatkozó referenciaértékek kidolgozása és alapelvek meghatározása révén, beleértve egy, a mesterséges intelligencia felhasználásából eredő termékekre vonatkozó világos felelősségi rendszert is;
118. megjegyzi, hogy minden gyermeket minden szinten megillet a jó minőségű közoktatáshoz való jog; ezért olyan jó minőségű mesterségesintelligencia-rendszerek fejlesztését, bevezetését és használatát szorgalmazza, amelyek mindenki számára minden szinten jó minőségű oktatási eszközöket segítenek elő és biztosítanak, és hangsúlyozza, hogy az új mesterségesintelligencia-rendszerek iskolákban való bevezetése nem eredményezheti még szélesebb társadalmi szakadék létrejöttét; elismeri, hogy a mesterséges intelligencia és a robotika hatalmas mértékben hozzájárulhat az oktatáshoz; megjegyzi, hogy a mesterséges intelligencia személyre szabott tanulási rendszerei nem helyettesíthetik a tanárokkal az oktatás során kialakított kapcsolatot, és hogy az oktatás hagyományos formáit nem szabad megszüntetni, ugyanakkor rámutat arra, hogy pénzügyi, technológiai és oktatási támogatást – többek között az információs és kommunikációs technológiákkal kapcsolatos speciális képzést – kell nyújtani azoknak a tanároknak, akik megfelelő készségeket kívánnak elsajátítani a technológiai változásokhoz való alkalmazkodás érdekében, és nem csupán a mesterséges intelligenciában rejlő lehetőségek kiaknázása, hanem korlátainak megértése terén is; szorgalmazza uniós szintű stratégia kialakítását oktatási rendszereink átalakításának és naprakésszé tételének elősegítése, oktatási intézményeink valamennyi szinten történő felkészítése, valamint a tanárok és diákok a szükséges készségekkel és képességekkel való felvértezése érdekében;
119. hangsúlyozza, hogy az oktatási intézményeknek törekedniük kell arra, hogy azokat a mesterségesintelligencia-rendszereket használják oktatási célokra, amelyek rendelkeznek európai etikai megfelelőségi tanúsítvánnyal;
120. hangsúlyozza, hogy a digitalizáció és az új technológiák által kínált lehetőségek nem vezethetnek a munkahelyek számának általános csökkenéséhez a kulturális és kreatív ágazatokban, sem az eredeti művek megőrzésének elhanyagolásához vagy a kulturális örökséghez való hagyományos hozzáférés lehetőségeinek szűküléséhez, hanem e lehetőségek biztosítását is ösztönözni kell; megállapítja, hogy az Unióban kifejlesztett, bevezetett és alkalmazott mesterségesintelligencia-rendszereknek tükrözniük kell az Unió kulturális sokszínűségét és többnyelvűségét;
121. elismeri, hogy a mesterséges intelligenciában növekvő lehetőségek rejlenek a tájékoztatás, a média és az online platformok területén, többek között a dezinformáció elleni küzdelem terén is eszközt kínál az uniós joggal összhangban; hangsúlyozza, hogy szabályozás hiányában e technológiáknak etikai szempontból káros hatásaik lehetnek az adatokba és az algoritmusokba beépített torzítások kihasználása révén, ami dezinformáció terjesztéséhez és információs buborékok létrehozásához vezethet; hangsúlyozza a videomegosztó platformok és az online közvetítéssel foglalkozó platformok által használt algoritmusok átláthatóságának és elszámoltathatóságának fontosságát a kulturális és nyelvi szempontból sokszínű tartalmakhoz való hozzáférés biztosítása érdekében;
Nemzeti felügyeleti hatóságok
122. megállapítja, hogy értéktöbbletet hordoz, ha minden egyes tagállam rendelkezik olyan kijelölt nemzeti felügyeleti hatósággal, amely felelős a magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó jogi kötelezettségek és etikai elvek betartásának biztosításáért, értékeléséért és nyomon követéséért, így hozzájárulva e technológiák jogi és etikai megfelelőségéhez;
123. megjegyzi, hogy ezektől a hatóságoktól meg kell követelni, hogy együttműködjenek – a feladatköreik közötti átfedések nélkül – az ágazati jogszabályok végrehajtásáért felelős hatóságokkal az etikai szempontból nagy kockázatot jelentő technológiák azonosítása, valamint – ilyen technológiák megjelenése esetén – az előírt és megfelelő intézkedések végrehajtásának felügyelete érdekében;
124. jelzi, hogy ezeknek a hatóságoknak a határokon átnyúló következetes fellépés garantálása érdekében nemcsak egymással kell kapcsolatot tartaniuk, hanem az Európai Bizottsággal és az Unió más érintett intézményeivel, szerveivel, hivatalaival és ügynökségeivel is;
125. javasolja, hogy az említett együttműködés keretében dolgozzanak ki közös kritériumokat és egy kérelmezési folyamatot egy etikai megfelelést igazoló európai tanúsítvány odaítélésére vonatkozóan, amelyre többek között a magas kockázatúnak nem minősülő technológiák fejlesztőinek, bevezetőinek vagy felhasználóinak kérelmét követően kerülhetne sor, akik tanúsíttatni kívánják a megfelelőség érintett nemzeti felügyeleti hatóság által elvégzett kedvező értékelését;
126. szorgalmazza, hogy ezeket a hatóságokat bízzák meg azzal a feladattal, hogy mozdítsák elő a civil társadalommal való rendszeres cserét és az innovációt az Unión belül oly módon, hogy segítséget nyújtanak a kutatóknak, a fejlesztőknek és más érintett érdekelt feleknek, valamint a digitálisan kevésbé érett vállalkozásoknak, különösen kis- és középvállalkozásoknak és induló innovatív vállalkozásoknak; különösen a figyelemfelhívás érdekében, valamint a fejlesztés, a bevezetés, a képzés és a tehetségek megszerzésének támogatásához a hatékony technológiaátadás és a technológiákhoz, projektekhez, eredményekhez és hálózatokhoz való hozzáférés biztosítása érdekében;
127. felhív arra, hogy minden tagállam biztosítson elegendő finanszírozást a kijelölt nemzeti felügyeleti hatóságai számára, és hangsúlyozza, hogy a kapacitás, a készségek és kompetenciák, valamint a mesterséges intelligencia, a robotika és a kapcsolódó technológiák konkrét kockázataival kapcsolatos ismeretek tekintetében meg kell erősíteni a nemzeti piacfelügyeleti hatóságokat;
Uniós szintű koordináció
128. kiemeli, hogy a széttöredezettség elkerülése és e rendelet következetes alkalmazásának biztosítása érdekében fontos az uniós szintű, a Bizottság és/vagy az ebben az összefüggésben kijelölhető bármely érintett uniós intézmény, szerv, hivatal és ügynökség által végzett koordináció; úgy véli, hogy a koordinációnak az egyes tagállamok nemzeti felügyeleti hatóságainak az előző alszakaszban említett megbízatásaira és intézkedéseire, valamint a bevált gyakorlatok e hatóságok közötti megosztására kell összpontosítania, és hozzá kell járulnia az Unión belüli kutatási és fejlesztési együttműködéshez; felhívja a Bizottságot, hogy mérje fel és találja meg a legmegfelelőbb megoldást e koordináció strukturálására; az Unió érintett meglévő intézményeire, szerveire, hivatalaira és ügynökségeire példa az ENISA, az európai adatvédelmi biztos és az európai ombudsman;
129. meggyőződése, hogy egy ilyen koordináció, valamint az etikai megfelelést igazoló európai tanúsítvány nemcsak az uniós ipar fejlődésének és az innovációnak válna a javára e tekintetben, hanem növelné polgáraink tudatosságát is az e technológiákban rejlő lehetőségekkel és kockázatokkal kapcsolatban;
130. javasolja, hogy a tudás és a műszaki szakértelem megosztásának előmozdítása, valamint az Unión belüli és kívüli együttműködés megkönnyítése érdekében hozzanak létre szakértői központot, amely uniós szinten összefogja a tudományos köröket, a kutatást, az ipart és az egyéni szakértőket; kéri továbbá, hogy e szakértői központ foglalja magában a fogyasztók széles körű képviseletének biztosítása érdekében az érdekelt felek szervezeteit, például a fogyasztóvédelmi szervezeteket; úgy véli, hogy az algoritmikus rendszerek nőkre és kisebbségekre gyakorolt lehetséges aránytalan hatása miatt egy ilyen struktúra döntéshozatali szintjeinek sokszínűnek kell lenniük és biztosítaniuk kell a nemek közötti egyenlőséget; hangsúlyozza, hogy a tagállamoknak nemzeti piacfelügyeleti stratégiáik keretében kockázatkezelési stratégiákat kell kidolgozniuk a mesterséges intelligenciára vonatkozóan;
131. javasolja, hogy a Bizottság és/vagy az Unió bármely, ezzel összefüggésben kijelölhető intézménye, szerve, hivatala és ügynöksége biztosítson minden szükséges segítséget a nemzeti felügyeleti hatóságok számára a mesterséges intelligenciára vonatkozó uniós szabályozási keretben meghatározott jogi kötelezettségek és etikai elvek – többek között a megkülönböztetésmentesség elve – megsértésének gyanúja esetén első kapcsolattartó pontként betöltött szerepük tekintetében; emellett minden szükséges segítséget meg kell adnia a nemzeti felügyeleti hatóságoknak azokban az esetekben, amikor azok a polgárok kifogásoláshoz és jogorvoslathoz való jogának támogatása céljából megfelelőségértékelést végeznek, nevezetesen adott esetben az Unió más illetékes hatóságaival, különösen a fogyasztóvédelmi együttműködési hálózattal és a nemzeti fogyasztóvédelmi szervekkel, a civil társadalmi szervezetekkel és a más tagállamokban található szociális partnerekkel folytatott konzultáció támogatásával;
132. elismeri a mesterséges intelligenciával foglalkozó, a tudományos élet, a civil társadalom és az ipar képviselőiből álló magas szintű szakértői csoport, valamint a mesterséges intelligenciával foglalkozó európai szövetség értékes eredményeit, különösen a megbízható mesterséges intelligenciára vonatkozó etikai iránymutatásokat, és javasolja, hogy a csoport adjon szakértői tanácsokat a Bizottságnak és/vagy bármely, ezzel összefüggésben kijelölt illetékes uniós intézménynek, szervnek, hivatalnak és ügynökségnek;
133. tudomásul veszi a mesterséges intelligenciával kapcsolatos projektek felvételét az európai ipari fejlesztési programba (EDIDP); úgy véli, hogy a jövőbeli Európai Védelmi Alap (EDF) és az állandó strukturált együttműködés (PESCO) is megfelelő keretet biztosíthat a mesterséges intelligenciával kapcsolatos jövőbeli projektek számára, amely elősegíthetné az e téren tett uniós erőfeszítések észszerűsítését, ugyanakkor előmozdítaná az emberi jogok, a nemzetközi jog és a többoldalú megoldások megerősítésére irányuló uniós célkitűzést; hangsúlyozza, hogy a mesterséges intelligenciával kapcsolatos projekteket össze kell hangolni az Unió mesterséges intelligenciának szentelt szélesebb körű polgári programjaival; megjegyzi, hogy az Európai Bizottság mesterséges intelligenciáról szóló, 2020. február 19-i fehér könyvével összhangban a mesterséges intelligenciának a biztonság és a védelem területén történő kutatására és fejlesztésére összpontosító kiválósági és tesztelési központokat a magánszférabeli érdekelt felek részvételét és beruházásait megalapozó szigorú előírások meghatározásával kell létrehozni;
134. tudomásul veszi az Európai Bizottság mesterséges intelligenciáról szóló 2020. február 19-i fehér könyvét, és sajnálja, hogy a katonai szempontokat nem vették figyelembe; felszólítja az Európai Bizottságot és az alelnököt/főképviselőt, hogy egy átfogó megközelítés részeként az uniós kereten belül terjesszen elő ágazati mesterségesintelligencia-stratégiát a védelemmel kapcsolatos tevékenységekre vonatkozóan, amely biztosítja a polgárok jogainak és az Unió stratégiai érdekeinek tiszteletben tartását, és amely olyan következetes megközelítésen alapul, amely a mesterséges intelligencián alapuló rendszerek létrejöttétől azok katonai felhasználásáig terjed, továbbá hozzon létre egy biztonsággal és védelemmel foglalkozó munkacsoportot a mesterséges intelligenciával foglalkozó magas szintű szakértői csoporton belül, amely kifejezetten szakpolitikai és beruházási kérdésekkel, továbbá a mesterséges intelligencia biztonsági és védelmi területen való alkalmazásának etikai kérdéseivel foglalkozna; felhívja a Tanácsot, a Bizottságot és az alelnököt/főképviselőt, hogy e célból kezdjen strukturált párbeszédet a Parlamenttel;
Az etikai megfelelés európai tanúsítása
135. javasolja, hogy az uniós szintű koordináció keretében dolgozzanak ki közös kritériumokat és egy kérelmezési eljárást egy etikai megfelelést igazoló európai tanúsítvány odaítéléséhez kapcsolódóan, amelyre többek között a magas kockázatúnak nem minősülő technológiák azon fejlesztőinek, bevezetőinek vagy felhasználóinak kérésére kerülhetne sor, akik tanúsíttatni kívánják a megfelelés érintett nemzeti felügyeleti hatóság által elvégzett kedvező értékelését;
136. úgy véli, hogy egy ilyen etikai megfelelést igazoló európai tanúsítvány a mesterségesintelligencia-ökoszisztémák ellátási láncának egészében előmozdítaná a beépített etikát; javasolja ezért, hogy a magas kockázatú technológiák esetében ez a tanúsítvány legyen a pályázatok elfogadhatóságának kötelező előfeltétele a mesterséges intelligenciára, robotikára és kapcsolódó technológiákra vonatkozó közbeszerzési eljárásokban;
Nemzetközi együttműködés
137. véleménye szerint a határokon átnyúló hatékony együttműködés és etikai normák csak akkor életképesek, ha valamennyi szereplő igyekszik az emberi cselekvőképesség és ellenőrzés, a műszaki stabilitás és biztonság, az átláthatóság és az elszámoltathatóság, a sokszínűség, a megkülönböztetésmentesség és a tisztességes bánásmód, a társadalmi és környezeti jóllét biztosítására, valamint tiszteletben tartja a magánélet, az adatkormányzás és az adatvédelem – különösen az (EU) 2016/679 európai parlamenti és tanácsi rendeletben foglaltak – elismert elveit;
138. hangsúlyozza, hogy az Unió e technológiák fejlesztésére, bevezetésére és használatára vonatkozó jogi kötelezettségei és etikai elvei világvezetővé tehetik Európát a mesterséges intelligencia ágazatában, ezért azokat világszerte népszerűsíteni kell, mégpedig a nemzetközi partnerekkel való együttműködés révén, folytatva ugyanakkor a kritikus és etikai alapú párbeszédet a mesterséges intelligencia szabályozása, fejlesztése és bevezetése terén alternatív modellekkel rendelkező harmadik országokkal;
139. emlékeztet arra, hogy az e technológiákban rejlő lehetőségek és kockázatok globális dimenzióval bírnak, mivel az e rendszerek által használt szoftvereket és adatokat gyakran importálják az Unióba és exportálják azokat onnan, ezért nemzetközi szinten következetes együttműködési megközelítésre van szükség; felhívja a Bizottságot, hogy kezdeményezze annak értékelését, hogy mely két- és többoldalú szerződéseket és megállapodásokat kell kiigazítani a következetes megközelítés biztosítása és az etikai megfelelés európai modelljének globális előmozdítása érdekében;
140. rámutat arra, hogy a fent említett uniós szintű koordináció ezzel összefüggésben is hozzáadott értéket nyújtana;
141. szorgalmazza szinergiák és hálózatok kialakítását a mesterséges intelligenciával foglalkozó különböző európai kutatóközpontok között, valamint egyéb többoldalú fórumokkal, például az Európa Tanáccsal, az Egyesült Nemzetek Nevelésügyi, Tudományos és Kulturális Szervezetével (UNESCO), a Gazdasági Együttműködési és Fejlesztési Szervezettel (OECD), a Kereskedelmi Világszervezettel és a Nemzetközi Távközlési Egyesülettel (ITU) az erőfeszítéseik összehangolása és a mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztésének jobb koordinációja érdekében;
142. hangsúlyozza, hogy az Uniónak élen kell járnia az ENSZ CCW kormányzati szakértői csoportja keretében és egyéb releváns fórumokon tett többoldalú erőfeszítések támogatásában, amelyek célja egy olyan hatékony nemzetközi szabályozási keret megvitatása, amely biztosítja az autonóm fegyverrendszerek feletti érdemi emberi kontrollt annak érdekében, hogy e technológiák alkalmazását tökéletesen uralják a használatukra vonatkozó – a katonasággal, az iparral, a bűnüldözéssel, a tudományos szférával és a civil társadalmi érdekelt felekkel konzultálva elfogadott –, jól meghatározott, referenciaértékeken alapuló eljárások kialakítása és etikus felhasználásukra vonatkozó jogszabályok elfogadása révén, a kapcsolódó etikai szempontok megértése és az ilyen technológiákban rejlő eredendő kockázatok csökkentése, továbbá a rosszindulatú célokra való felhasználás megakadályozása mellett;
143. elismeri a NATO-nak az euro-atlanti biztonság előmozdításában játszott szerepét, és együttműködésre szólít fel a NATO-n belül a védelem területén használt mesterségesintelligencia-rendszerekre vonatkozó közös standardok kidolgozása és az ilyen rendszerek interoperabilitásának biztosítása terén; hangsúlyozza, hogy a transzatlanti kapcsolat fontos a közös értékek megőrzése és a jövőbeli, illetve újonnan megjelenő fenyegetésekkel szembeni fellépés szempontjából;
144. hangsúlyozza a mesterséges intelligencián alapuló rendszerek katonai műveletekben történő bevetését alátámasztó etikai kódex kidolgozásának fontosságát, amely hasonló lenne a vegyi és biológiai fegyverek bevetését tiltó, meglévő szabályozási kerethez; úgy véli, hogy a Bizottságnak a nemzetközi humanitárius jognak megfelelően kezdeményeznie kell a mesterséges intelligencián alapuló fegyverrendszerek háborúban való használatára vonatkozó normák kidolgozását, az Uniónak pedig szorgalmaznia kell ilyen normák nemzetközi szintű elfogadását; úgy véli, hogy az Uniónak mesterséges intelligenciával kapcsolatos diplomáciát kell folytatnia a nemzetközi fórumokon a hasonló szellemiségű partnerekkel, mint például a G7- és a G20-csoporttal és az OECD-vel;
Záró megfontolások
145. a mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai vetületével kapcsolatos szempontokra vonatkozó fenti fejtegetéseket követően megállapítja, hogy a jogi és etikai dimenziót egy hatékony, előretekintő és átfogó uniós szintű szabályozási keretbe kell foglalni, amelyet az illetékes nemzeti hatóságok támogatnak, a Bizottság és/vagy az Unió bármely, ezzel összefüggésben kijelölt illetékes intézménye, szerve, hivatala vagy ügynöksége koordinál és fejleszt, a korábban említett esetleges szakértői központ rendszeresen támogat, és amelyet a belső piacon megfelelően tiszteletben tartanak és tanúsítanak;
146. az Európai Unió működéséről szóló szerződés 225. cikkében rögzített eljárással összhangban kéri a Bizottságot, hogy az Európai Unió működéséről szóló szerződés 114. cikke alapján nyújtson be a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó etikai elvekről szóló rendeletre irányuló javaslatot, a csatolt mellékletben meghatározott részletes ajánlásoknak megfelelően; rámutat, hogy a javaslat nem áshatja alá az ágazatspecifikus jogszabályokat, hanem csak a megállapított joghézagok megszüntetésére szolgálhat;
147. ajánlja, hogy az érintett érdekelt felekkel folytatott konzultációt követően az Európai Bizottság szükség esetén vizsgálja felül a mesterséges intelligenciára, robotikára és kapcsolódó technológiákra alkalmazandó meglévő uniós jogszabályokat annak érdekében, hogy alkalmazkodjon e technológiák gyors fejlődéséhez a csatolt mellékletben foglalt ajánlásokkal összhangban, elkerülve a túlszabályozást, többek között a kkv-k esetében;
148. úgy véli, hogy a mesterséges intelligenciára, robotikára és a kapcsolódó technológiákra vonatkozó uniós szabályozási keret időszakos értékelése – és szükség esetén felülvizsgálata – alapvető fontosságú lesz annak biztosításához, hogy a hatályos jogszabályok lépést tartsanak a gyors ütemű technológiai fejlődéssel;
149. úgy véli, hogy a kért jogalkotási javaslat pénzügyi vonzatokkal járna, ha egy európai szervet bíznának meg a fent említett koordinációs feladatokkal annak érdekében, hogy biztosítsa az újonnan rábízott feladatok ellátásához szükséges technikai eszközöket és emberi erőforrásokat;
150. utasítja elnökét, hogy továbbítsa ezt az állásfoglalást és a mellékelt részletes ajánlásokat a Bizottságnak és a Tanácsnak.
MELLÉKLET AZ ÁLLÁSFOGLALÁSRA IRÁNYULÓ INDÍTVÁNYHOZ A KÉRT JAVASLAT TARTALMÁRA VONATKOZÓ RÉSZLETES AJÁNLÁSOK
A. A KÉRT JAVASLAT ALAPELVEI ÉS CÉLKITŰZÉSEI
I. A javaslat fő elvei és céljai a következők:
˗ a mesterséges intelligencia, a robotika és a kapcsolódó technológiák iránti bizalom megteremtése az érintett érdekelt felek és a társadalom minden szintjén, különösen amennyiben azok magas kockázatúnak minősülnek;
˗ a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésének támogatása az Unióban, többek között oly módon, hogy segítik a vállalkozásokat, az induló innovatív vállalkozásokat és a kis- és középvállalkozásokat a jelenlegi és jövőbeli szabályozási követelmények és kockázatok megbízható értékelésében és kezelésében az innovációs és üzletfejlesztési folyamat során, valamint ezt követően a szakemberek és magánszemélyek általi használat során, a terhek és a bürokrácia minimalizálása révén;
˗ a mesterséges intelligencia, a robotika és a kapcsolódó technológiák Unión belüli bevezetésének támogatása egy megfelelő és arányos, a jelenlegi vagy jövőbeli ágazati jogszabályokra tekintet nélkül alkalmazandó szabályozási keret biztosításával, amelynek célja a szabályozási biztonság és az innováció ösztönzése, az alapvető jogok és a fogyasztóvédelem garantálása mellett;
˗ a mesterséges intelligencia, a robotika és a kapcsolódó technológiák használatának támogatása az Unióban annak biztosításával, hogy ezek fejlesztése, bevezetése és használata az etikai elvekkel összhangban történjen;
˗ átláthatóság és jobb információáramlás előírása a polgárok körében és a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztését, bevezetését és használatát végző szervezeteken belül, biztosítva ezzel, hogy ezek a technológiák megfeleljenek az uniós jognak, az alapvető jogoknak és értékeknek, valamint a kért rendeletjavaslatban foglalt etikai elveknek.
II. A javaslat a következő elemekből áll:
˗ egy, „a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó etikai elvekről szóló rendelet”; a Bizottság és/vagy az Unió bármely, ezzel összefüggésben kijelölt illetékes intézménye, szerve, hivatala vagy ügynöksége által betöltött uniós szintű koordinálási szerepkör és egy etikai megfelelést igazoló európai tanúsítvány;
˗ az Európai Bizottság támogató szerepe;
˗ az egyes tagállamokban a „felügyeleti hatóság” szerepe annak biztosításában, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák tekintetében etikai elveket alkalmazzanak;
˗ az érintett kutatási és fejlesztési projektek, valamint az érdekelt felek, ezen belül az induló innovatív vállalkozások, kis- és középvállalkozások, egyéb vállalkozások, szociális partnerek és a civil társadalom más képviselőinek bevonása és megkérdezése, valamint ezek támogatása;
˗ a magas kockázatú ágazatok, valamint a magas kockázatú felhasználások és célok teljes körű, összesített jegyzékét meghatározó melléklet;
III. „A mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó etikai elvekről szóló rendelet” a következő elvekre épül:
˗ emberközpontú, ember alkotta és ember által ellenőrzött mesterséges intelligencia, robotika és kapcsolódó technológiák;
˗ a magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák megfelelőségének kötelező értékelése;
˗ biztonság, átláthatóság és elszámoltathatóság;
˗ a torzítással és a megkülönböztetéssel szembeni biztosítékok és jogorvoslati lehetőségek;
˗ a jogorvoslathoz való jog;
˗ társadalmi felelősségvállalás és nemek közötti egyenlőség a mesterséges intelligencia, a robotika és a kapcsolódó technológiák területén;
˗ környezeti szempontból fenntartható mesterséges intelligencia, robotika és kapcsolódó technológiák;
˗ a magánélet tiszteletben tartása és a biometrikus azonosítás alkalmazására vonatkozó korlátozások;
˗ a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal, ezen belül az ilyen technológiák által használt vagy előállított adatokkal kapcsolatos megfelelő irányítás.
IV. Az uniós szintű koordináció tekintetében a Bizottságnak és/vagy az Unió bármely, ezzel összefüggésben kijelölt illetékes intézményének, szervének, hivatalának vagy ügynökségének a következő főbb feladatokat kell ellátnia:
˗ együttműködés a kért rendeletjavaslat és a vonatkozó uniós ágazati jogszabályok végrehajtásának nyomon követésében;
˗ együttműködés a kért rendeletjavaslat következetes alkalmazásáról szóló iránymutatás kibocsátása kapcsán, nevezetesen a mesterséges intelligencia, robotika és kapcsolódó technológiák magas kockázatúként való besorolására vonatkozó kritériumok, valamint a rendelet mellékletében meghatározott magas kockázatú ágazatok, valamint magas kockázatú felhasználások és célok jegyzékének alkalmazására vonatkozóan;
˗ együttműködés valamennyi tagállam „felügyeleti hatóságával” annak érdekében, hogy kidolgozzanak egy európai tanúsítványt, amely a kért rendeletjavaslatban és a vonatkozó uniós jogszabályokban meghatározott etikai elveknek és jogi kötelezettségeknek való megfelelést igazolja, valamint egy olyan kérelmezési eljárást, amelynek révén a magas kockázatúnak nem minősülő technológiák fejlesztői, bevezetői vagy felhasználói tanúsíttathatják, hogy technológiáik megfelelnek a kért rendeletjavaslatnak;
˗ együttműködés az ágazatközi és határokon átnyúló együttműködés támogatása terén, mégpedig az EU-ban és világszerte az érintett érdekelt felekkel és a civil társadalommal – különösen a vállalkozásokkal, a szociális partnerekkel, a kutatókkal és az illetékes hatóságokkal, többek között a nemzetközi szintű technikai szabványok kidolgozásáról – folytatott rendszeres eszmecserén keresztül;
˗ együttműködés az egyes tagállamok „felügyeleti hatóságaival” az egyes „felügyeleti hatóságok” által elvégzendő megfelelőségértékelésnél követendő módszertanra vonatkozó kötelező iránymutatások meghatározása terén;
˗ együttműködés az egyes tagállamok „felügyeleti hatóságaival” való kapcsolattartás, valamint ezek megbízatásának és feladatainak koordinálása terén;
˗ együttműködés a fejlesztők, bevezetők és felhasználók körében Unió-szerte folytatott tudatosságnövelés, információnyújtás és eszmecsere során;
˗ együttműködés a tervezők, fejlesztők, bevezetők, polgárok, felhasználók és intézmények körében Unió-szerte és nemzetközi szinten folytatott tudatosságnövelés, információnyújtás, a digitális jártasság növelése, képzés, készségfejlesztés és eszmecsere során;
˗ együttműködés az egyes tagállamok „felügyeleti hatóságai” által végrehajtandó, a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésének, bevezetésének és használatának irányítására vonatkozó közös keret koordinálása terén;
˗ szakértői központként való együttműködés az információcsere előmozdítása és az egységes piacon belüli közös álláspont kialakításának támogatása révén;
˗ együttműködés egy biztonsággal és védelemmel foglalkozó munkacsoport működtetésével kapcsolatban.
V. Ezenkívül a Bizottságnak az alábbi feladatokat is el kell látnia:
˗ az Unióban azonosított magas kockázatú technológiák közös jegyzékének összeállítása, majd – felhatalmazáson alapuló jogi aktusok útján – azok frissítése, az egyes tagállamok „felügyeleti hatóságaival” együttműködésben;
˗ a rendelet mellékletében szereplő jegyzék frissítése felhatalmazáson alapuló jogi aktusok útján.
VI. Az egyes tagállamok „felügyeleti hatóságainak" a következő főbb feladatokat kell ellátniuk:
˗ hozzájárulás a kért rendeletjavaslatban meghatározott szabályozási keret következetes alkalmazásához, együttműködésben a többi tagállam „felügyeleti hatóságaival” és az ágazati jogszabályok végrehajtásáért felelős egyéb hatóságokkal, a Bizottsággal és/vagy az Unió bármely, ezzel összefüggésben kijelölt illetékes intézményével, szervével, hivatalával vagy ügynökségével, ideértve nevezetesen a kért rendeletjavaslatban előírt kockázatértékelési kritériumok, valamint az annak mellékletében meghatározott magas kockázatú ágazatok, illetve magas kockázatú felhasználások vagy célok jegyzékének alkalmazását, továbbá – amennyiben ennek eredményeként magas kockázatú technológiát azonosítanak – a szükséges és megfelelő intézkedések végrehajtásának ezt követő felügyeletét;
˗ annak értékelése, hogy az Unióban fejlesztett, bevezetett és használt mesterséges intelligencia, robotika és kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok magas kockázatú technológiának minősülnek-e a kért rendeletjavaslatban, valamint az annak mellékletét képező jegyzékben meghatározott kockázatértékelési kritériumok szerint;
˗ a kért rendeletjavaslatban és a vonatkozó uniós jogszabályokban meghatározott etikai elveknek és jogi kötelezettségeknek való megfelelést igazoló európai tanúsítvány kibocsátása, többek között egy olyan – a Bizottság és/vagy az Unió bármely, ezzel összefüggésben kijelölt illetékes intézménye, szerve, hivatala vagy ügynöksége által kidolgozott – kérelmezési eljárás eredményeként, amelynek révén a magas kockázatúnak nem minősülő technológiák fejlesztői, bevezetői vagy felhasználói tanúsíttathatják, hogy technológiáik megfelelnek a kért rendeletjavaslatnak;
˗ e technológiáknak a kért rendeletjavaslatban és a vonatkozó uniós jogszabályokban meghatározott etikai elveknek és jogi kötelezettségeknek való megfelelése értékelése és nyomon követése;
˗ felelősség a mesterséges intelligencia, a robotika és a kapcsolódó technológiák irányítására vonatkozó standardok megállapításáért és végrehajtásáért, többek között az összes érdekelt féllel és civil társadalmi képviselővel folytatott egyeztetés és rendszeres párbeszéd fenntartása révén; ennek érdekében együttműködés a Bizottsággal és/vagy az Unió bármely, ezzel összefüggésben kijelölt illetékes intézményével, szervével, hivatalával vagy ügynökségével egy uniós szintű közös keret koordinálása terén;
˗ a nyilvánosság körében a mesterséges intelligenciára, a robotikára és a kapcsolódó technológiákra vonatkozó tudatosságnövelés és információnyújtás, az érintett szakterületek – többek között az igazságszolgáltatás – képzésének támogatása, ezáltal pedig a polgárok és munkavállalók méltányos átálláshoz szükséges digitális jártassággal, készségekkel és eszközökkel való felruházása;
˗ első kapcsolattartó pontként való közreműködés a kért rendeletjavaslatban meghatározott jogi kötelezettségek és etikai elvek megsértésének gyanúja esetén, továbbá ilyen esetekben megfelelőségi értékelés végzése; e megfelelőségi értékelés kapcsán konzultálhat az Unióban működő más illetékes hatóságokkal, köztük a fogyasztóvédelmi együttműködési hálózattal, nemzeti fogyasztóvédelmi szervekkel, civil társadalmi szervezetekkel és szociális partnerekkel és/vagy részükre információt nyújthat.
VII. Az érdekelt felek legfontosabb szerepének azt kell tekinteni, hogy kapcsolatot tartanak a Bizottsággal és/vagy az Unió bármely, ezzel összefüggésben kijelölt illetékes intézményével, szervével, hivatalával vagy ügynökségével, valamint az egyes tagállamok „felügyeleti hatóságaival”.
B. A KÉRT JOGALKOTÁSI JAVASLAT SZÖVEGE
Javaslat
AZ EURÓPAI PARLAMENT ÉS A TANÁCS RENDELETE
a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó etikai elvekről
tekintettel az Európai Unió működéséről szóló szerződésre és különösen annak 114. cikkére,
tekintettel az Európai Bizottság javaslatára,
a jogalkotási aktus tervezete nemzeti parlamenteknek való megküldését követően,
tekintettel az Európai Gazdasági és Szociális Bizottság véleményére,
rendes törvényalkotási eljárás keretében,
mivel:
(1) A mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztése, bevezetése és használata elviekben a társadalmat kívánja szolgálni. E technológiák lehetőségeket és kockázatokat hordozhatnak, amelyeket egy etikai elveken alapuló, a technológiák fejlesztésének és bevezetésének pillanatától kezdve egészen azok használatáig betartandó átfogó uniós szintű szabályozási keret révén kell kezelni és szabályozni.
(2) A mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztésére, bevezetésére és használatára vonatkozó ilyen szabályozási keretnek való megfelelés az Unió valamennyi tagállamában egyenértékű szintű kell hogy legyen a lehetőségek hatékony kihasználása, e technológiák kockázatainak következetes kezelése, valamint az egységes szabályozás hiányának elkerülése érdekében. Biztosítani kell, hogy az e rendeletben meghatározott szabályok alkalmazása az egész Unióban egységes legyen.
(3) Ezzel összefüggésben az Unió-szerte követendő szabályok és gyakorlatok jelenlegi sokfélesége az egységes piac széttöredezésének jelentős kockázatát rejti magában, továbbá veszélyezteti mind az egyének, mind a társadalom jóllétének és gyarapodásának védelmét, valamint a mesterséges intelligencia, a robotika és a kapcsolódó technológiák által az innováció ösztönzése és e jóllét és gyarapodás védelme terén kínált lehetőségek teljes körű és következetes feltárását. Az e technológiák által felvetett etikai kérdések fejlesztők, bevezetők és felhasználók általi eltérő mértékű figyelembevétele akadályozhatja e technológiák Unióban történő szabad fejlesztését, bevezetését és használatát, az egyenlő versenyfeltételek biztosítását, valamint az uniós szintű technológiai haladást és gazdasági tevékenységek folytatását, ezenkívül torzíthatják a versenyt és gátolhatják a hatóságokat az uniós jog szerinti kötelezettségeik teljesítésében. Ezen túlmenően a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó, etikai elveken alapuló közös szabályozási keret hiánya jogbizonytalanságot eredményez valamennyi érintett, azaz a fejlesztők, a bevezetők és a felhasználók számára.
(4) Mindazonáltal e rendeletnek – amellett, hogy hozzájárul egy koherens uniós szintű megközelítéshez az általa megállapított határokon belül – mozgásteret kell biztosítania a tagállamok számára, többek között azzal kapcsolatban is, hogy saját nemzeti felügyeleti hatóságuk hogyan hajtsa végre megbízatását az e rendeletben megállapított, általa elérendő célok érdekében.
(5) Ez a rendelet bármilyen jelenlegi vagy jövőbeli ágazati jogszabályra tekintet nélkül alkalmazandó. Célkitűzése tekintetében arányosnak kell lennie, hogy ne akadályozza indokolatlanul az Unióban zajló innovációt, és összhangban álljon a kockázatalapú megközelítéssel.
(6) Egy ilyen keret földrajzi hatályának a mesterséges intelligencia, a robotika és a kapcsolódó technológiák valamennyi alkotóelemére ki kell terjednie azok Unióban történő fejlesztése, bevezetése és használata során, azokat az eseteket is beleértve, amikor a technológiák egy része az Unión kívül, illetve nem egy konkrét vagy egyetlen meghatározható helyen található, mint például a felhőszolgáltatások esetében.
(7) Az egységes szabályozási megközelítés és ezáltal a polgárok és vállalkozások számára nyújtandó jogbiztonság lehetővé tételéhez az olyan fogalmak egységes értelmezésére van szükség az Unióban, mint például a mesterséges intelligencia, a robotika, a kapcsolódó technológiák és a biometrikus azonosítás. Ezeknek technológiai szempontból semlegesnek és szükség esetén felülvizsgálhatónak kell lenniük.
(8) Ezenkívül figyelembe kell venni azt a tényt is, hogy vannak olyan, mesterséges intelligenciához és robotikához kapcsolódó technológiák, amelyek lehetővé teszik, hogy szoftverek különböző fokú autonómia mellett ellenőrzést gyakoroljanak fizikai vagy virtuális folyamatok felett[13]. Például a gépjárművek automatizált vezetésére vonatkozóan a J3016 számú SAE nemzetközi szabvány hat vezetésautomatizálási szintet javasol.
(9) A mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztésének, bevezetésének és használatának az emberi képességek kiegészítésére, nem pedig helyettesítésére kell szolgálnia, nem lehet ellentétes a polgárok legjobb érdekeivel, és tiszteletben kell tartania az uniós jogszabályokat, az Európai Unió Alapjogi Chartájában („a Charta”) meghatározott alapvető jogokat, az Európai Unió Bíróságának állandó ítélkezési gyakorlatát és az Unióban alkalmazandó más európai és nemzetközi eszközöket.
(10) A mesterséges intelligencia, a robotika és a kapcsolódó technológiák által hozott vagy az általuk nyújtott információkon alapuló döntéseknek továbbra is érdemi emberi felülvizsgálat, megítélés, beavatkozás és ellenőrzés tárgyát kell képezniük. Az ilyen technológiák műszaki és operatív összetettsége soha nem akadályozhatja meg a bevezetőjüket vagy a felhasználójukat abban, hogy amennyiben az uniós jogszabályoknak és az e rendeletben meghatározott etikai elveknek és jogi kötelezettségeknek való megfelelés veszélybe kerül, képes legyen azokat legalább biztonságos módon kikapcsolni, módosítani, leállítani, vagy visszatérni egy korábbi, biztonságos működési állapothoz.
(11) Amennyiben a mesterséges intelligencia, robotika és a kapcsolódó technológiák fejlesztése, bevezetése és használata során jelentős a kockázata annak, hogy egyes személyek vagy a társadalom számára sérülést vagy kárt okoznak az uniós jogban meghatározott alapvető jogok és biztonsági szabályok megsértésével, akkor azokat magas kockázatú technológiáknak kell tekinteni. Az erre irányuló értékelés során figyelembe kell venni azt az ágazatot, amelyben e technológiákat fejlesztik, bevezetik vagy használják, valamint e technológiák konkrét felhasználását vagy célját és a lehetséges sérülés vagy kár súlyosságát. A súlyosság mértékét a potenciális sérülés vagy kár mértéke, az érintett személyek száma, az okozott kár teljes értéke, valamint a társadalom egészét ért kár alapján kell meghatározni. A súlyos sérülések és károk közé tartozik például a gyermekek, fogyasztók vagy munkavállalók jogainak olyan megsértése, amely a mértékénél, az érintett gyermekek, fogyasztók vagy munkavállalók számánál vagy a társadalom egészére gyakorolt hatásánál fogva az uniós jogban meghatározott alapvető jogok és biztonsági szabályok megsértésének jelentős kockázatával jár. Ennek a rendeletnek tartalmaznia kell a magas kockázatú ágazatok, valamint a magas kockázatú felhasználások és célok kimerítő és összesített jegyzékét.
(12) Az e rendeletben a magas kockázatú technológiákra vonatkozóan meghatározott kötelezettségek csak az Unióban fejlesztett, bevezetett és használt, az e rendeletben előírt kockázatértékelés nyomán magas kockázatúnak tekintett mesterséges intelligenciára, robotikára és kapcsolódó technológiákra, ezen belül az ilyen technológiák által használt vagy előállított szoftverekre, algoritmusokra és adatokra alkalmazandók. Ezek a kötelezettségek azon általános kötelezettségtől függetlenül fennállnak, hogy minden mesterséges intelligenciát, robotikát és kapcsolódó technológiát, ezen belül az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat az Unióban emberközpontú módon kell fejleszteni, bevezetni és használni, az uniós joggal összhangban az emberi autonómia és a humán biztonság elvei alapján és az olyan alapvető jogok maradéktalan tiszteletben tartása mellett, mint az emberi méltóság, a szabadsághoz és a biztonsághoz való jog, valamint a személyi sérthetetlenséghez való jog.
(13) A magas kockázatú technológiáknak tiszteletben kell tartaniuk a biztonság, az átláthatóság, az elszámoltathatóság, a torzítás- és megkülönböztetésmentesség, a társadalmi felelősségvállalás és a nemek közötti egyenlőség, a jogorvoslathoz való jog, a környezeti fenntarthatóság, a magánélet védelme és a jó kormányzás elveit, és a nemzeti felügyeleti hatóság által végzett pártatlan, objektív külső kockázatértékelés tárgyát kell képezniük az e rendeletben és az annak mellékletét képező jegyzékben meghatározott kritériumokkal összhangban. Ennek az értékelésnek figyelembe kell vennie a fejlesztő vagy a bevezető nézőpontját, illetve esetleges önértékelését.
(14) A Bizottságnak és/vagy az Unió bármely, erre a célra kijelölt illetékes intézményének, szervének, hivatalának vagy ügynökségének nem kötelező végrehajtási iránymutatásokat kell kidolgoznia a fejlesztők, bevezetők és felhasználók számára az e rendeletnek való megfelelés érdekében alkalmazandó módszertanra vonatkozóan. Ennek során konzultálnia kell a megfelelő érdekeltekkel.
(15) E technológiák kockázatértékelését illetően az Unión belül koherenciának kell lennie, különösen abban az esetben, ha azokat mind e rendelet fényében, mind pedig az alkalmazandó esetleges ágazatspecifikus jogszabályokkal összhangban értékelik. A nemzeti felügyeleti hatóságoknak ezért tájékoztatniuk kell az esetleges ágazatspecifikus jogszabályokkal összhangban kockázatértékelést végző egyéb hatóságokat, amennyiben az adott technológiákat az e rendeletben előírt kockázatértékelés nyomán magas kockázatúnak minősítik.
(16) Ahhoz, hogy megbízható legyen, a magas kockázatú mesterséges intelligenciát, robotikát és kapcsolódó technológiákat, ezen belül az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat biztonságos, átlátható és elszámoltatható módon kell fejleszteni, bevezetni és használni olyan biztonsági jellemzőkkel, mint a megbízhatóság, az ellenálló képesség, a biztonságosság, a pontosság és a hibafeltárás, a megmagyarázhatóság, az értelmezhetőség, az ellenőrizhetőség, az átláthatóság és az azonosíthatóság, és olyan módon, amely az említett jellemzőknek való meg nem felelés esetén lehetővé teszi az érintett funkciók kikapcsolását vagy egy korábbi, biztonságos működési állapothoz való visszatérést. Az átláthatóságot is biztosítani kell azáltal, hogy a hatóságok számára – amennyiben az feltétlenül szükséges – hozzáférést biztosítanak az említett technológiák alapjául szolgáló technológiához, adatokhoz és számítástechnikai rendszerekhez.
(17) A mesterséges intelligencia, robotika és kapcsolódó technológiák, különösen a magas kockázatú technológiák fejlesztői, bevezetői és felhasználói az érintett technológiákkal, ezen belül az ilyen technológiák által használt vagy előállított szoftverekkel, algoritmusokkal és adatokkal való érintettségük mértékétől függően felelősséggel tartoznak a biztonsági, átláthatósági és elszámoltathatósági elvek betartásáért. A fejlesztőknek biztosítaniuk kell, hogy az érintett technológiákat az e rendeletben meghatározott biztonsági jellemzőkkel összhangban tervezzék meg és építsék ki, a bevezetőknek és a felhasználóknak pedig e jellemzők teljes körű betartása mellett kell bevezetniük és használniuk az érintett technológiákat. Ennek érdekében a magas kockázatú technológiák fejlesztőinek értékelniük kell és számításba kell venniük az általuk fejlesztett technológiákkal való, észszerűen várható visszaélés kockázatát. Azt is biztosítaniuk kell, hogy az általuk fejlesztett rendszerek a lehető legnagyobb mértékben és megfelelő eszközök – például felelősségkizáró üzenetek – útján jelezzék a hibák vagy pontatlanságok valószínűségét.
(18) A fejlesztőknek és bevezetőknek a felhasználók rendelkezésére kell bocsátaniuk az érintett technológiák későbbi szoftverfrissítéseit a szerződésben, illetve az uniós vagy nemzeti jogban meghatározottak szerint. Ezen túlmenően, amennyiben a kockázatértékelés ezt indokolja, a fejlesztőknek és a bevezetőknek a hatóságok rendelkezésére kell bocsátaniuk az érintett technológiák használatára vonatkozó releváns dokumentációt és az ezzel kapcsolatos biztonsági útmutatót, beleértve – amennyiben ez feltétlenül szükséges, és az adatvédelemre, a magánélet védelmére, a szellemitulajdon-jogokra és az üzleti titkokra vonatkozó uniós jogszabályok teljes körű tiszteletben tartásával – a forráskódot, a fejlesztési eszközöket és a rendszer által használt adatokat.
(19) Az egyéneknek joguk van elvárni, hogy az általuk használt technológia észszerű módon működjön és tiszteletben tartsa a belé vetett bizalmat. A polgárok mesterséges intelligencia, robotika és kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok iránti bizalma a technikai folyamatok ismeretétől és megértésétől függ. Az ilyen folyamatok elmagyarázásának mértékét az említett technikai folyamatok környezetétől és a hibás vagy pontatlan eredmény következményeinek súlyosságától kell függővé tenni, és annak elégségesnek kell lennie az adott folyamat kifogásolásához, illetve a jogorvoslat érvényesítéséhez. Az ilyen technológiák esetleges érthetetlenségének kezelése érdekében biztosítani kell az ellenőrizhetőséget, a nyomon követhetőséget és az átláthatóságot.
(20) A társadalom mesterséges intelligencia, robotika és kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok iránti bizalma attól függ, hogy az érintett technológiák milyen mértékben teszik lehetővé saját értékelésüket, ellenőrizhetőségüket és nyomon követhetőségüket. Amennyiben érintettségük mértéke megkívánja, a fejlesztőknek biztosítaniuk kell, hogy ezeket a technológiákat úgy tervezzék meg és építsék ki, hogy lehetővé tegyék az ilyen értékelést, ellenőrzést és nyomon követhetőséget. A technikai lehetőségek határain belül a fejlesztőknek, a bevezetőknek és a felhasználóknak biztosítaniuk kell, hogy a mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat az átláthatósági követelmények teljes körű tiszteletben tartása mellett vezessék be és használják, lehetővé téve az ellenőrzést és a nyomon követhetőséget.
(21) Az átláthatóság és az elszámoltathatóság biztosítása érdekében a polgárokat tájékoztatni kell arról, ha egy rendszer mesterséges intelligenciát használ, ha a mesterségesintelligencia-rendszerek egy terméket vagy szolgáltatást személyre szabnak a felhasználók számára, hogy kikapcsolhatják vagy korlátozhatják-e a személyre szabást, és ha automatizált döntéshozatali technológiával állnak szemben. Ezenkívül az átláthatósági intézkedéseket – a technikai lehetőségek határain belül – világos és érthető magyarázatnak kell kísérnie a felhasznált adatokról, az algoritmusról, annak céljáról, eredményeiről és potenciális veszélyeiről.
(22) A szoftverek, algoritmusok és adatok általi torzítás és megkülönböztetés jogszerűtlen, és ennek problémáját az ezek tervezésére és bevezetésére alkalmazott folyamatok szabályozásával kell megoldani. Mind az automatizált rendszer által nyújtott információk alapján, mind maga a rendszer által hozott döntések eredményezhetnek torzítást, sőt azon adathalmazok is, amelyek alapján e döntéshozatal történik, illetve amelyeket a rendszer betanítására használnak.
(23) A mesterséges intelligencia, a robotika és a kapcsolódó technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat torzítottnak kell tekinteni például akkor, ha bármely személlyel vagy csoporttal kapcsolatban előítéletes személyes vagy társadalmi percepció és a tulajdonságaikra vonatkozó adatok ezt követő feldolgozása alapján szuboptimális eredményeket jelenítenek meg.
(24) Az uniós joggal összhangban a mesterséges intelligencia, a robotika és a kapcsolódó technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat diszkriminatívnak kell tekinteni, amennyiben aránytalan negatív hatásokkal járó eredményeket állítanak elő és valamely személlyel vagy csoporttal szembeni eltérő bánásmódot eredményeznek, így például másokhoz képest hátrányos helyzetbe hoznak, például a személyes tulajdonságai alapján, objektív vagy észszerű indokolás nélkül, és függetlenül a technológiák semlegességére vonatkozó bármilyen állítástól.
(25) Az uniós joggal összhangban a közbiztonság védelme, a biztonság és az egészség, a bűncselekmények megelőzése, az egyéni jogok és szabadságok védelme, az igazságos képviselet és az objektív szakmai követelmények olyan jogos célok, amelyek e rendelet értelmében objektíven indokolttá tehetik az egyes személyekkel vagy csoportokkal szembeni eltérő bánásmódot.
(26) A mesterséges intelligenciának, a robotikának és a kapcsolódó technológiáknak, ezen belül az ilyen technológiák által használt vagy előállított szoftvereknek, algoritmusoknak és adatoknak hozzá kell járulniuk a fenntartható haladáshoz. Az ilyen technológiák működése nem lehet ellentétes a környezet megőrzésének ügyével, illetve a zöld átállással. E technológiák fontos szerepet játszhatnak az ENSZ által a jövő nemzedékek gyarapodásának lehetővé tétele érdekében kidolgozott fenntartható fejlődési célok megvalósításában. Támogathatják a megfelelő előrehaladás fenntarthatósági és társadalmi kohéziós mutatók alapján, valamint olyan felelős kutatási és innovációs eszközök alkalmazásával történő nyomon követését, amelyek szükségessé teszik, hogy az Unió és a tagállamok forrásokat mozgósítsanak az e célokra irányuló projektek támogatása és az azokba való befektetés érdekében.
(27) A mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztése, bevezetése és használata semmilyen módon nem okozhat szándékosan semmiféle sérülést vagy kárt az egyéneknek és a társadalomnak, illetve nem lehet oly módon kialakítva, hogy ilyen sérülés vagy kár elfogadott legyen. Ezért különösen a magas kockázatú technológiák esetében fontos, hogy azokat társadalmilag felelősségteljes módon fejlesszék, vezessék be és használják.
(28) Ennek megfelelően a fejlesztőket, bevezetőket és felhasználókat a mesterséges intelligenciával, robotikával és kapcsolódó technológiákkal kapcsolatos érintettségük mértékétől függően, a felelősségre vonatkozó uniós és nemzeti szabályokkal összhangban felelősségre kell vonni az egyéneknek és a társadalomnak okozott sérülésekért és károkért.
(29) Azokat a fejlesztőket, akik a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésének menetét vagy módját meghatározó és ellenőrző döntéseket hoznak, valamint azokat a bevezetőket, akik ellenőrzési vagy irányítási feladatkört ellátva vesznek részt azok bevezetésében, és ennek során a bevezetésre vonatkozó döntéseket hoznak és ellenőrzést gyakorolnak a kapcsolódó kockázatok felett vagy a bevezetésből előnyük származik, általánosan felelősnek kell tekinteni az esetleges sérülések és károk bekövetkezésének oly módon történő elkerüléséért, hogy a fejlesztési folyamat során megfelelő intézkedéseket vezetnek be, illetve a bevezetési szakaszban gondosan alkalmazzák ezeket az intézkedéseket.
(30) A társadalmilag felelős mesterséges intelligencia, robotika és kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok olyan technológiaként határozhatók meg, amelyek a társadalomra vonatkozó különféle célokat – különösen a demokráciát, az egészséget és a gazdasági jólétet, az esélyegyenlőséget, a munkavállalói és szociális jogokat, a sokszínű és független médiát, az objektív és szabadon elérhető, a nyilvános vitát lehetővé tevő tájékoztatást, a jó minőségű oktatást, a kulturális és nyelvi sokszínűséget, a nemek közötti egyensúlyt, a digitális jártasságot, az innovációt és a kreativitást – védelmező és előmozdító megoldások megtalálásához járulnak hozzá. Egyben olyan technológiák, amelyeket a polgárok fizikai és mentális jóllétére gyakorolt végső hatásukra kellő tekintettel fejlesztenek, vezetnek be és használnak, és amelyek nem támogatják a gyűlöletbeszédet és az erőszakot. Ezeket a célokat különösen magas kockázatú technológiák útján kell megvalósítani.
(31) A mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat ezenkívül a társadalmi befogadás, a demokrácia, a pluralizmus, a szolidaritás, a méltányosság, az egyenlőség és az együttműködés támogatásának céljával kell fejleszteni, bevezetni és használni, és ezzel összefüggésben kutatási és innovációs projektek révén fel kell tárni és maximálisan ki kell aknázni a bennük rejlő lehetőségeket. Az Uniónak és tagállamainak ezért mozgósítaniuk kell kommunikációs, adminisztratív és pénzügyi erőforrásaikat az ilyen projektek támogatása és az ezekbe való befektetés érdekében.
(32) A társadalmi jóllét kérdésének kezelése tekintetében a mesterséges intelligenciában, a robotikában és a kapcsolódó technológiákban rejlő lehetőségeket kutató projekteket felelős kutatási és innovációs eszközök alapján kell megvalósítani, garantálva ezzel, hogy e projektek indulásuktól kezdve megfeleljenek az etikai elveknek.
(33) A mesterséges intelligencia, robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztésének, bevezetésének és használatának figyelembe kell vennie e technológiák környezeti lábnyomát. A vonatkozó uniós jogban meghatározott kötelezettségekkel összhangban az ilyen technológiák nem okozhatnak kárt a környezetben életciklusuk folyamán és a teljes ellátási láncukban, és azokat oly módon kell kifejleszteni, bevezetni és használni, amely óvja a környezetet, csökkenti és orvosolja környezeti lábnyomukat, hozzájárul a zöld átálláshoz és támogatja a klímasemlegességgel és a körforgásos gazdasággal kapcsolatos célok megvalósulását.
(34) E rendelet értelmében a fejlesztőket, bevezetőket és felhasználókat a magas kockázatúnak tekintett mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztésében, bevezetésében és használatában való érintettségük mértékétől függően felelősségre kell vonni az esetlegesen okozott környezeti károkért, a környezeti felelősségre vonatkozó alkalmazandó szabályokkal összhangban.
(35) Ezeket a technológiákat annak érdekében is kell fejleszteni, bevezetni és használni, hogy a vonatkozó uniós jogszabályokban meghatározott kötelezettségekkel összhangban támogassák az olyan környezeti célok elérését, mint például a hulladékkeletkezés csökkentése, a szénlábnyom csökkentése, az éghajlatváltozással szembeni küzdelem és a környezet megóvása, és ezzel összefüggésben kutatási és innovációs projektek révén fel kell tárni és maximálisan ki kell aknázni a bennük rejlő lehetőségeket. Az Uniónak és tagállamainak ezért mozgósítaniuk kell kommunikációs, adminisztratív és pénzügyi erőforrásaikat az ilyen projektek támogatása és az ezekbe való befektetés érdekében.
(36) A környezeti problémák megoldása tekintetében a mesterséges intelligenciában, a robotikában és a kapcsolódó technológiákban rejlő lehetőségeket kutató projekteket felelős kutatási és innovációs eszközök alapján kell megvalósítani, garantálva ezzel, hogy e projektek indulásuktól kezdve megfeleljenek az etikai elveknek.
(37) A mesterséges intelligenciának, a robotikának és a kapcsolódó technológiáknak, ezen belül az ilyen technológiák által használt vagy előállított szoftvereknek, algoritmusoknak és adatoknak, amelyeket az Unióban fejlesztenek, vezetnek be és használnak, teljes mértékben tiszteletben kell tartaniuk az uniós polgárok magánélet védelméhez és a személyes adatok védelméhez való jogait. A fejlesztésnek, bevezetésnek és használatnak összhangban kell lennie különösen az (EU) 2016/679 európai parlamenti és tanácsi rendelettel[14], valamint a 2002/58/EK európai parlamenti és tanácsi irányelvvel[15].
(38) Ha az egyének automatikus azonosítására távoli azonosítási technológiákat használnak, így például a biometrikus jellemzők felismerését és főleg az arcfelismerést, különösen fontos kellően figyelembe venni a mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok használatának etikai korlátait. Amikor hatóságok jelentős közérdekű célból – nevezetesen az egyének biztonságának garantálása és országos vészhelyzetre való reagálás, nem pedig vagyontárgyak biztonságának védelme érdekében – ilyen technológiákat alkalmaznak, akkor arról mindig tájékoztatást kell nyújtani, annak mindig arányosnak és célzottnak kell lennie, konkrét célkitűzésekre kell korlátozódnia, az uniós joggal összhangban időben korlátozottnak kell lennie, valamint kellően figyelembe kell vennie az emberi méltóságot és autonómiát és a Chartában foglalt alapvető jogokat. Az ilyen felhasználásra vonatkozó kritériumokat és korlátozásokat bírósági felülvizsgálatnak kell alávetni, és azoknak demokratikus ellenőrzés és a civil társadalom bevonásával folytatott vita tárgyát kell képezniük.
(39) A vonatkozó standardokon alapuló irányítás növeli a biztonságot, és előmozdítja a polgárok mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztése, bevezetése és használata iránti bizalmának növekedését.
(40) A hatóságoknak alapjogi hatásvizsgálatot kell végezniük az olyan magas kockázatú technológiák bevezetése előtt, amelyek az állami szférában történő döntéshozatalt támogatják, és közvetlen és jelentős hatást gyakorolnak a polgárok jogaira és kötelezettségeire.
(41) A meglévő, vonatkozó irányítási standardok közé tartozik például az Európai Bizottság által létrehozott mesterséges intelligenciával foglalkozó magas szintű szakértői csoport „Etikai iránymutatás a megbízható mesterséges intelligenciára vonatkozóan” című dokumentuma, valamint egyéb, például európai szinten az Európai Szabványügyi Bizottság (CEN), az Európai Elektrotechnikai Szabványügyi Bizottság (CENELEC) és az Európai Távközlési Szabványügyi Intézet (ETSI), nemzetközi szinten pedig a Nemzetközi Szabványügyi Szervezet (ISO) és a Villamos- és Elektronikai Mérnöki Szervezet (Institute of Electrical and Electronics Engineers – IEEE) által elfogadott technikai standardok.
(42) Az adatok több résztvevő általi megosztása és felhasználása érzékeny terület, ezért a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztését, bevezetését és használatát a minőségre, az integritásra, a biztonságra, a megbízhatóságra, az adatvédelemre és az ellenőrzésre vonatkozó követelményeket tükröző releváns szabályoknak, szabványoknak és protokolloknak kell szabályozniuk. Az adatkormányzási stratégiának az ilyen adatok feldolgozására, megosztására és az azokhoz való hozzáférésre kell összpontosítania, beleértve ezen adatok megfelelő kezelését, ellenőrizhetőségét és nyomon követhetőségét, és garantálnia kell a kiszolgáltatott csoportokra, többek között a fogyatékossággal élőkre, a betegekre, a gyermekekre, a kisebbségekre, a migránsokra vagy a kirekesztés kockázatának kitett más csoportokra vonatkozó adatok megfelelő védelmét. Emellett a fejlesztőknek, a bevezetőknek és a felhasználóknak adott esetben képeseknek kell lenniük fő teljesítménymutatókra támaszkodni az általuk használt adatkészletek értékelése során az általuk fejlesztett, bevezetett és használt technológiák megbízhatóságának javítása érdekében.
(43) A tagállamoknak független közigazgatási hatóságot kell kijelölniük, amely felügyeleti hatóságként jár el. Az e rendeletben meghatározott kockázatértékelési kritériumok fényében magas kockázatúnak minősülő mesterséges intelligencia, robotika és kapcsolódó technológiák azonosításáért, valamint az említett technológiák e rendeletben előírt kötelezettségeknek való megfelelésének értékeléséért és nyomon követéséért az egyes nemzeti felügyeleti hatóságoknak kell felelősnek lenniük.
(44) Az egyes nemzeti felügyeleti hatóságok felelősségét képezi továbbá az e technológiákra vonatkozó megfelelő irányítás a Bizottság és/vagy az Unió bármely, e célból kijelölt illetékes intézménye, szerve, hivatala vagy ügynöksége által végzett koordináció mellett. Így fontos szerep hárul rájuk az uniós polgárok bizalmának és biztonságának előmozdítása, valamint a demokratikus, pluralista és igazságos társadalom megvalósítása terén.
(45) Az e rendelet értelmében magas kockázatúnak minősülő technológiák értékelése és a rendeletnek való megfelelésük nyomon követése céljából a nemzeti felügyeleti hatóságoknak adott esetben együtt kell működniük az e technológiák értékeléséért és nyomon követéséért, valamint az ágazati jogszabályoknak való megfelelésük biztosításáért felelős hatóságokkal.
(46) A nemzeti felügyeleti hatóságoknak rendszeres érdemi együttműködést kell folytatniuk egymással, valamint az Európai Bizottsággal és az Unió más érintett intézményeivel, szerveivel, hivatalaival és ügynökségeivel a következetes határokon átnyúló fellépés garantálása, valamint annak lehetővé tétele érdekében, hogy e technológiákat az Unión belül következetesen, az e rendeletben megállapított etikai elvekkel és jogi kötelezettségekkel összhangban fejlesszék, vezessék be és használják.
(47) Az ilyen együttműködés keretében és az uniós szintű teljes harmonizáció megvalósítása érdekében a nemzeti felügyeleti hatóságoknak segíteniük kell a Bizottságot a magas kockázatú mesterséges intelligencia, a robotika és a kapcsolódó technológiák közös és kimerítő jegyzékének az e rendeletben és annak mellékletében előírt kritériumokkal összhangban történő összeállításában. Ezenkívül ki kell dolgozni egy engedélyezési eljárást az európai etikai megfelelőségi tanúsítvány kiállításához, beleértve egy önkéntes kérelmezési eljárást is a magas kockázatúnak nem minősülő technológiák fejlesztői, alkalmazói vagy felhasználói számára, akik igazolni kívánják az e rendeletnek való megfelelésüket.
(48) A nemzeti felügyeleti hatóságoknak gondoskodniuk kell a lehető legtöbb érdekelt fél – így például az ipar, a vállalkozások, a szociális partnerek, a kutatók, a fogyasztók és a civil társadalmi szervezetek – összehívásáról, és sokszínű fórumot kell biztosítaniuk a gondolkodás és az eszmecsere számára, hogy érthető és pontos következtetésekre jussanak az irányítás szabályozásának módjával kapcsolatos útmutatás céljából.
(49) A nemzeti felügyeleti hatóságoknak gondoskodniuk kell a lehető legtöbb érdekelt fél – így például az ipar, a vállalkozások, a szociális partnerek, a kutatók, a fogyasztók és a civil társadalmi szervezetek – összehívásáról, és sokszínű fórumot kell biztosítaniuk a gondolkodás és az eszmecsere számára, hogy az érdekelt felek – különösen a tudományos élet, a kutatás, az ipar, a civil társadalom és az egyes szakértők – közötti, illetve az ezekkel való együttműködést elősegítsék, hogy érthető és pontos következtetésekre jussanak az irányítás szabályozásának módjával kapcsolatos útmutatás céljából.
(50) Ezenfelül e nemzeti felügyeleti hatóságoknak szakmai igazgatási útmutatást és támogatást kell nyújtaniuk azon fejlesztők, a bevezetők és a felhasználók, különösen a kis- és középvállalkozások és az induló vállalkozások számára, amelyek problémákba ütköznek az e rendeletben megállapított etikai elveknek és jogi kötelezettségeknek való megfelelést illetően.
(51) A Bizottságnak és/vagy az e célra kijelölhető érintett uniós intézményeknek, szerveknek, hivataloknak és ügynökségeknek kötelező iránymutatásokat kell kidolgozniuk a nemzeti felügyeleti hatóságok által a megfelelőség-értékelés során alkalmazandó módszertanra vonatkozóan.
(52) A visszaélések bejelentése felhívja a hatóságok figyelmét az uniós jog potenciális és tényleges megsértéseire az olyan jogsértések, sérülések és károk megelőzése érdekében, amelyek máskülönben bekövetkeznének. Ezen túlmenően a jelentéstételi eljárások javítják a vállalkozásokon és szervezeteken belüli információáramlást, és ezzel mérséklik a hibás termékek vagy szolgáltatások kifejlesztésének kockázatát. A mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat, ezen belül az ilyen technológiák által használt vagy előállított adatokat fejlesztő, bevezető vagy használó vállalatoknak és szervezeteknek jelentéstételi csatornákat kell létrehozniuk, és a jogsértéseket bejelentő személyeket meg kell védeni a megtorlással szemben.
(53) A mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok, valamint a technikai gépi tanulás, az értelmezési folyamatok és az e fejlődés mögött meghúzódó más technológiák gyors fejlődése nem kiszámítható. Emiatt helyénvaló és szükséges egy felülvizsgálati mechanizmus megállapítása, amellyel összhangban a Bizottságnak – a rendelet alkalmazásáról való beszámoláson túlmenően – rendszeresen jelentést kell benyújtania e rendelet hatályának lehetséges módosításáról.
(54) Mivel e rendelet célját, nevezetesen a mesterséges intelligencia, a robotika és a kapcsolódó technológiák uniós fejlesztésére, bevezetésére és használatára vonatkozó etikai elvek és jogi kötelezettségek közös szabályozási keretének megállapítását a tagállamok nem tudják kellő mértékben megvalósítani, és ezért léptéke és hatásai miatt az uniós szinten jobban megvalósítható, az Unió intézkedéseket fogadhat el az Európai Unióról szóló szerződés 5. cikkében foglalt szubszidiaritás elvének megfelelően. Az említett cikkben foglalt arányosság elvének megfelelően ez a rendelet nem lépi túl az e cél eléréséhez szükséges mértéket.
(55) Az e rendeletben meghatározott uniós szintű koordinációt a Bizottság és/vagy az ebben az összefüggésben kijelölhető bármely érintett uniós intézmény, szerv, hivatal és ügynökség valósítaná meg legjobban a széttöredezettség elkerülése és e rendelet következetes alkalmazásának biztosítása érdekében. A Bizottságot ezért meg kell bízni azzal, hogy találjon megfelelő megoldást az említett koordináció uniós szintű strukturálására annak érdekében, hogy összehangolja az egyes tagállamok nemzeti felügyeleti hatóságainak megbízatását és fellépéseit, nevezetesen a mesterséges intelligencia, a robotika és a kapcsolódó technológiák kockázatértékelése, e technológiák fejlesztésének, telepítésének és használatának irányítására vonatkozó közös keret létrehozása, az e rendeletben meghatározott etikai elveknek és jogi kötelezettségeknek való megfelelés tanúsításának kidolgozása és kiadása, az érintett érdekelt felekkel és a civil társadalommal való rendszeres párbeszéd támogatása, valamint szakértői központ létrehozása, amely uniós szinten összehozza a tudományos élet, a kutatás, az ipar képviselőit és az egyéni szakértőket a tudás és a műszaki szakértelem megosztásának előmozdítása és
az Unió megközelítésének a nemzetközi együttműködés révén való előmozdítása és az e technológiákban rejlő lehetőségekre és kockázatokra világszerte adott következetes válasz biztosítása érdekében.
ELFOGADTA EZT A RENDELETET:
I. fejezet
Általános rendelkezések
1. cikk
Cél
E rendelet célja a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó etikai elvek és jogi kötelezettségek átfogó és időtálló uniós szabályozási keretének megállapítása.
2. cikk
Hatály
E rendelet az Unióban fejlesztett, bevezetett és használt mesterséges intelligenciára, robotikára és kapcsolódó technológiákra, ezen belül az ilyen technológiák által használt vagy előállított szoftverekre, algoritmusokra és adatokra alkalmazandó.
3. cikk
Területi hatály
Ez a rendelet a mesterséges intelligenciára, robotikára és kapcsolódó technológiákra alkalmazandó, amennyiben annak bármely részét az Unióban fejlesztik, vezetik be vagy használják, akkor is, ha az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok vagy adatok az Unión kívül találhatók vagy nincs meghatározott földrajzi helyük.
4. cikk
Fogalommeghatározások
E rendelet alkalmazásában:
a) „mesterséges intelligencia”: szoftveralapú vagy hardvereszközökbe beágyazott rendszer, amely intelligens viselkedést mutat többek között adatgyűjtés, környezetének feldolgozása, elemzése és értelmezése, valamint azáltal, hogy konkrét célok elérése érdekében – bizonyos mértékben autonóm módon – cselekszik[16];
b) „autonómia”: mesterségesintelligencia-rendszer, amely bizonyos bevitelek értelmezésével és előre meghatározott utasítások alkalmazásával működik, anélkül, hogy ezekre az utasításokra korlátozódna, annak ellenére, hogy a rendszer viselkedését korlátozza az, illetve viselkedése arra irányul, hogy teljesítse a kitűzött célt és a fejlesztő által hozott egyéb releváns tervezési döntéseket;
c) „robotika”: olyan technológiák, amelyek lehetővé teszik automatikusan ellenőrzött, átprogramozható, többcélú gépek[17] számára, hogy a fizikai világban hagyományosan emberek által végzett vagy kezdeményezett tevékenységeket végezzenek, többek között mesterséges intelligencia vagy kapcsolódó technológiák révén;
d) „kapcsolódó technológiák”: olyan technológiák, amelyek lehetővé teszik a szoftverek számára, hogy valamely fizikai vagy virtuális folyamatot részleges vagy teljes autonómiával ellenőrizzenek, olyan technológiák, amelyek képesek biometrikus, genetikai és egyéb adatok észlelésére, valamint olyan technológiák, amelyek emberi tulajdonságokat másolnak le vagy használnak ki más módon;
e) „magas kockázat”: a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésével, telepítésével és használatával járó jelentős, arra irányuló kockázat, hogy ezek az uniós jogban meghatározott alapvető jogokat és biztonsági szabályokat megsértve sérülést vagy kárt okoznak az egyéneknek vagy a társadalomnak, tekintettel konkrét használatukra vagy céljukra, arra az ágazatra, amelyben ezeket fejlesztik, telepítik vagy használják, valamint a várhatóan bekövetkező sérülés vagy kár súlyosságára;
f) „fejlesztés”: algoritmusok felépítése és megtervezése, szoftverek írása és megtervezése vagy adatok gyűjtése, tárolása és kezelése mesterséges intelligencia, robotika és kapcsolódó technológiák létrehozása vagy betanítása céljából, illetve meglévő mesterséges intelligencia, robotika és kapcsolódó technológiák új alkalmazásainak létrehozása céljából;
g) „fejlesztő”: bármely természetes vagy jogi személy, aki olyan döntéseket hoz, amelyek meghatározzák és ellenőrzik a mesterséges intelligencia, robotika és a kapcsolódó technológiák fejlesztésének menetét és módját;
h) „bevezetés”: a mesterséges intelligencia, robotika és kapcsolódó technológiák működtetése és kezelése, valamint forgalomba hozatala vagy a felhasználók számára való egyéb módon történő elérhetővé tétele;
i) „bevezető”: bármely természetes vagy jogi személy, aki ellenőrző vagy irányító funkcióval részt vesz a mesterséges intelligencia, a robotika és a kapcsolódó technológiák konkrét bevezetésében azáltal, hogy döntéseket hoz, ellenőrzést gyakorol a kockázat felett, és hasznot húz az ilyen bevezetésből;
j) „használat”: a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal kapcsolatos bármely intézkedés, amely nem fejlesztés vagy bevezetés;
k) „felhasználó”: bármely természetes vagy jogi személy, aki nem fejlesztés vagy bevezetés céljából használja a mesterséges intelligenciát, robotikát és kapcsolódó technológiákat;
l) „torzítás”: valamely személy vagy csoport személyes tulajdonságai alapján való előítéletes személyes vagy társadalmi érzékelése;
m) „megkülönböztetés”: egy személlyel vagy csoporttal szemben olyan alapon alkalmazott megkülönböztető bánásmód, amelynek nincs objektív vagy észszerű indoka, és amelyet az uniós jog ezért tilt;
n) „sérülés vagy kár”: fizikai vagy szellemi sérülés, anyagi vagy nem anyagi kár, például pénzügyi vagy gazdasági veszteség, munkahely vagy oktatási lehetőség elvesztése, a választás vagy a véleménynyilvánítás szabadságának indokolatlan korlátozása vagy a magánélet megsértése, valamint az uniós jog bármely, személyre nézve hátrányos megsértése, ideértve azokat az eseteket, amikor azt gyűlöletbeszéd, előítélet, megkülönböztetés vagy megbélyegzés okozza;
o) „jó irányítás”: az a mód, ahogyan biztosítják, hogy a fejlesztők, a bevezetők és a felhasználók a megfelelő és észszerű szabványokat és magatartási protokollokat vezessék be és tartsák be, a szabályok, eljárások és értékek formális készlete alapján, amely lehetővé teszi számukra, hogy felmerülésük esetén, illetve még a felmerülésük előtt megfelelően kezeljék az etikai ügyeket.
5. cikk
A mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai elvei
1. Az Unióban bármely mesterséges intelligenciát, robotikát és kapcsolódó technológiákat – így az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat – az uniós jogszabályokkal összhangban, az emberi méltóság, autonómia és biztonság, valamint a Chartában rögzített egyéb alapvető jogok teljes tiszteletben tartásával kell fejleszteni, bevezetni és használni.
2. A személyes adatoknak – ideértve a nem személyes adatokból és a biometrikus adatokból származó személyes adatokat is – a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztése, bevezetése és használata során történő feldolgozását az (EU) 2016/679 rendelettel és a 2002/58/EK irányelvvel összhangban kell végezni.
3. Az Unió és a tagállamok ösztönzik az olyan mesterséges intelligencián, robotikán és kapcsolódó technológiákon alapuló megoldások biztosítását célzó kutatási projekteket, amelyek a társadalmi befogadás, a demokrácia, a pluralizmus, a szolidaritás, az igazságosság, az egyenlőség és az együttműködés előmozdítására törekszenek.
II. fejezet
A magas kockázattal járó technológiákra vonatkozó kötelezettségek
6. cikk
A magas kockázattal járó technológiákra vonatkozó kötelezettségek
1. Az e fejezetben szereplő rendelkezések csak az Unióban fejlesztett, bevezetett és használt, magas kockázattal járónak tekintett mesterséges intelligenciára, robotikára és kapcsolódó technológiákra, ezen belül az ilyen technológiák által használt vagy előállított szoftverekre, algoritmusokra és adatokra alkalmazandók.
2. Bármely magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztése, bevezetése és használata oly módon történik, hogy biztosított legyen, hogy ezek ne sértsék az e rendeletben meghatározott etikai elveket.
7. cikk
Emberközpontú és ember alkotta mesterséges intelligencia
1. Bármely magas kockázatú technológia, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztése, bevezetése és használata oly módon történik, hogy biztosított legyen a folyamatos emberi felügyelet.
2. Az (1) bekezdésben említett technológiákat úgy fejlesztik, vezetik be és használják, hogy szükség esetén lehetséges legyen a teljeskörű emberi ellenőrzés visszanyerése, többek között e technológiák módosítása vagy leállítása révén.
8. cikk
Biztonság, átláthatóság és elszámoltathatóság
1. Bármely magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztése, bevezetése és használata oly módon történik, hogy biztosított legyen, hogy ezeket:
a)ellenálló módon fejlesztik, vezetik be és használják, hogy biztosítsák a biztonság megfelelő szintjét az azonosított kockázattal arányos minimális kiberbiztonsági alapelvek betartása révén, valamint egy olyan szintet, amely megakadályozza bármely műszaki sérülékenység tisztességtelen vagy jogszerűtlen célokra való kihasználását;
b) biztonságos módon fejlesztik, vezetik be és használják, gondoskodva arról, hogy legyenek védintézkedések, amelyeknek része egy tartalékterv és -intézkedés is arra az esetre, ha biztonsági és védelmi kockázat áll fenn;
c) oly módon fejlesztik, vezetik be és használják, amely biztosítja a felhasználó által ésszerűen elvárt megbízható teljesítményt a kitűzött célok elérése és azon tevékenységek végrehajtása tekintetében, amelyekre e technológiákat tervezték, többek között annak biztosításával, hogy valamennyi művelet megismételhető legyen;
d) oly módon fejlesztik, vezetik be és használják, hogy biztosított legyen, hogy az adott technológiák céljainak és tevékenységeinek teljesítése pontos legyen; ha nem kerülhetők el az alkalmi pontatlanságok, a rendszer, amennyire lehetséges, megfelelő módon jelzi a bevezetőknek és a felhasználóknak a hibák és pontatlanságok valószínűségét;
e) könnyen megmagyarázható módon fejlesztik, vezetik be és használják, biztosítva ezzel, hogy elvégezhető legyen a technológiák műszaki folyamatainak a felülvizsgálata;
f) olyan módon fejlesztik, vezetik be és használják, hogy a felhasználók tájékoztatást kapjanak arról, hogy mesterségesintelligencia-rendszerrel állnak kapcsolatban, valamint megfelelően és átfogóan feltárva azok képességeit, pontosságát és korlátait a mesterséges intelligencia fejlesztői, bevezetői és felhasználói számára;
g) a 6. cikk (3) bekezdésével összhangban történő fejlesztésének, bevezetésének és használatának módja az a)–g) pontban meghatározott biztonsági jellemzők be nem tartása esetén lehetővé teszi az érintett funkciók átmeneti kikapcsolását és egy korábbi állapothoz való visszatérést, visszaállítva a biztonságos funkcionalitásokat.
2. A 6. cikk (1) bekezdésével összhangban az (1) bekezdésben említett technológiákat, ideértve az ilyen technológiák által használt és létrehozott szoftvereket, algoritmusokat és adatokat, átlátható és nyomon követhető módon fejlesztik, vezetik be és használják, hogy elemeiket, folyamataikat és szakaszaikat a lehető legmagasabb szintű szabványok szerint dokumentálják, és a 14. cikkben említett nemzeti felügyeleti hatóságok értékelhessék, hogy az érintett technológiák megfelelnek-e az e rendeletben meghatározott kötelezettségeknek. Az (1) bekezdésben meghatározott biztonsági jellemzőknek való megfelelés bizonyításáért az érintett technológiák fejlesztője, bevezetője és felhasználója a felelős, akinek erre képesnek kell lennie.
3. Az (1) bekezdésben említett technológiák fejlesztője, bevezetője és felhasználója biztosítja, hogy az (1) bekezdésben meghatározott biztonsági jellemzőknek való megfelelés érdekében tett intézkedéseket a 14. cikkben említett nemzeti felügyeleti hatóságok vagy adott esetben más nemzeti vagy európai ágazati felügyeleti szervek ellenőrizni tudják.
9. cikk
A torzítás és a megkülönböztetés tilalma
1. Az Unióban fejlesztett, bevezetett vagy használt magas kockázatú mesterséges intelligencia, a robotika és a kapcsolódó technológiák által használt vagy előállított szoftverek, algoritmusok és adatok mentesek a torzítástól, és a (3) bekezdés sérelme nélkül nem alkalmaznak megkülönböztetést a faj, nem, szexuális irányultság, várandósság, fogyatékosság, fizikai vagy genetikai jellemzők, életkor, nemzeti kisebbség, etnikai hovatartozás vagy társadalmi származás, nyelv, vallás vagy meggyőződés, politikai nézetek vagy polgári részvétel, állampolgárság, polgári jogi vagy gazdasági státusz, végzettség vagy büntetett előélet alapján.
2. Az (1) és a (2) bekezdéstől eltérve, a jogszerűtlen megkülönböztetésre irányadó uniós jog sérelme nélkül a személyekkel és csoportokkal szembeni megkülönböztető bánásmód csak akkor lehet indokolt, amennyiben objektív, észszerű és jogszerű cél áll fenn, amely arányos és szükséges is, minthogy nem léteznek olyan alternatívák, amelyek kevésbé sértenék az egyenlő bánásmód elvét.
10. cikk
Társadalmi felelősségvállalás és nemek közötti egyenlőség
Az Unióban kifejlesztett, bevezetett és használt, magas kockázatú mesterséges intelligenciát, robotikát és kapcsolódó technológiákat – beleértve az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat – a vonatkozó uniós joggal, elvekkel és értékekkel összhangban kell kifejleszteni, bevezetni és használni oly módon, hogy ez ne befolyásolja a választásokat és ne járuljon hozzá a félretájékoztatás terjesztéséhez, tiszteletben tartsa a munkavállalók jogait, előmozdítsa a minőségi oktatást és a digitális műveltséget, ne növelje a nemek közötti szakadékot azáltal, hogy megakadályozza a mindenki számára biztosítandó esélyegyenlőséget, és ne sértse a szellemi tulajdonhoz fűződő jogokat és az ahhoz kapcsolódó korlátozásokat vagy az az alóli kivételeket.
11. cikk
Környezeti fenntarthatóság
A magas kockázatú mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat, ezen belül az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat a 14. cikkben említett nemzeti felügyeleti hatóságok vagy adott esetben más nemzeti vagy európai ágazati felügyeleti hatóságok értékelik környezeti fenntarthatóságuk szempontjából, biztosítva, hogy olyan intézkedéseket vezessenek be, amelyek mérsékelik és orvosolják e technológiák általános hatását a természeti erőforrások, az energiafogyasztás, a hulladékkeletkezés, a szénlábnyom, az éghajlatváltozás okozta vészhelyzet és a környezetkárosodás tekintetében, biztosítva a vonatkozó uniós vagy nemzeti jogszabályok és az Unió által vállalt bármely más nemzetközi környezetvédelmi kötelezettségvállalások betartását.
12. cikk
A magánélet tiszteletben tartása és a személyes adatok védelme
A biometrikus adatoknak a közterületeken, távoli azonosítás, így biometrikus azonosítás vagy arcfelismerés céljából történő felhasználása és gyűjtése különös kockázatot jelent az alapvető jogokra nézve, és azt kizárólag a tagállamok hatóságai vezethetik be vagy használhatják fel jelentős közérdekű célokra. Az említett hatóságok biztosítják, hogy az ilyen bevezetésről vagy felhasználásról a polgárok tájékoztatást kapnak, az arányos, célzott és konkrét célkitűzésekre és helyszínre korlátozódó, valamint időben korlátozott legyen, összhangban az uniós és a nemzeti joggal, különösen az (EU) 2016/679 rendelettel és a 2002/58/EK irányelvvel, valamint kellő figyelemmel az emberi méltóságra és autonómiára, továbbá a Chartában foglalt alapvető jogokra, nevezetesen a magánélet tiszteletben tartásához és a személyes adatok védelméhez való jogra.
13. cikk
Jogorvoslathoz való jog
Bármely természetes vagy jogi személy jogosult jogorvoslatért folyamodni a magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák – ideértve az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat is – az uniós jogot és az e rendeletben meghatározott kötelezettségeket sértő fejlesztése, bevezetése és használata által okozott sérülésekért vagy károkért.
14. cikk
Kockázatértékelés
1. E rendelet alkalmazásában a mesterséges intelligencia, a robotika és a kapcsolódó technológiák – beleértve az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat is – akkor minősülnek magas kockázatú technológiáknak, ha objektív kritériumokon – például konkrét felhasználásukon vagy céljukon, a fejlesztésük, bevezetésük vagy használatuk ágazatán, valamint az okozott lehetséges sérülés vagy kár súlyosságán – alapuló kockázatértékelést követően fejlesztésük, bevezetésük vagy használatuk azzal a jelentős kockázattal jár, hogy az egyének vagy a társadalom számára várhatóan sérülést vagy kárt okoz, megsértve az uniós jogszabályok szerinti alapvető jogokat és biztonsági szabályokat.
2. Az alkalmazandó ágazati jogszabályok sérelme nélkül a mesterséges intelligencia, a robotika és a kapcsolódó technológiák – beleértve az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat is – kockázatértékelését az e cikk (1) bekezdésében meghatározott objektív kritériumoknak és az e rendelet mellékletében meghatározott teljes körű és összesített jegyzéknek megfelelően az 14. cikkben említett nemzeti felügyeleti hatóságoknak kell elvégezniük a Bizottság és/vagy az Unió bármely más érintett intézménye, szerve, hivatala és ügynöksége koordinálásával, amelyek e célból, együttműködésük összefüggésében kijelölhetők.
3. A Bizottság az (2) bekezdésben említett nemzeti felügyeleti hatóságokkal együttműködve a 15a. cikkel összhangban felhatalmazáson alapuló jogi aktusok révén összeállítja, majd ezt követően frissíti az Unióban azonosított magas kockázatú technológiák közös jegyzékét.
4. A Bizottság emellett a 15a. cikkel összhangban felhatalmazáson alapuló jogi aktusok révén rendszeresen frissíti az e rendelet mellékletében rendelkezésre bocsátott jegyzéket.
15. cikk
Megfelelőségi értékelés
1. A nagy kockázatú mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat az e rendelet 6–12. cikkében meghatározott kötelezettségeknek való megfelelésre vonatkozó értékelésnek és azt követő nyomon követésnek kell alávetni, amelyeket a 17. cikkben említett nemzeti felügyeleti hatóságok végeznek el a Bizottság és/vagy bármely más, e célra kijelölt érintett uniós intézmény, szerv, hivatal és ügynökség koordinációjával.
2. Az e rendeletben az (1) bekezdésnek megfelelően meghatározott kötelezettségeknek megfelelőnek értékelt, magas kockázatú technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat is e kötelezettségeknek megfelelőnek kell tekinteni, kivéve, ha a vonatkozó nemzeti felügyeleti hatóság úgy dönt, hogy saját kezdeményezésére vagy a fejlesztő, a bevezető vagy a felhasználó kérésére elvégzi ezek értékelését.
3. Az ágazati jogszabályok sérelme nélkül a Bizottság és/vagy az Unió bármely, kifejezetten e célra kijelölhető érintett intézménye, szerve, hivatala és ügynöksége e rendelet hatálybalépésének időpontjáig kötelező iránymutatásokat dolgoz ki a nemzeti felügyeleti hatóságok által az (1) bekezdésben említett megfelelőségértékeléshez alkalmazandó módszertanra vonatkozóan.
16. cikk
Az etikai megfelelés európai tanúsítása
1. Amennyiben a 7a. cikkel összhangban pozitív értékelést végeztek a magas kockázatú mesterséges intelligencia, a robotika és a kapcsolódó technológiák – ideértve az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat is – megfelelőségéről, az érintett nemzeti felügyeleti hatóság európai etikai megfelelőségi tanúsítványt állít ki.
2. Az olyan mesterséges intelligencia, robotika és kapcsolódó technológiák – beleértve az ilyen technológiák által használt vagy előállított szoftvereket, algoritmusokat és adatokat – fejlesztői, bevezetői vagy felhasználói, amelyek nem minősülnek magas kockázatúnak és amelyekre ezért nem vonatkoznak a 6–12. cikkben meghatározott kötelezettségek, valamint az 13. és 14. cikkben előírt kockázatértékelés és megfelelőség-értékelés, szintén törekedhetnek az e rendeletben meghatározott kötelezettségeknek vagy azok egy részének való megfelelés tanúsítására, amennyiben ezt a szóban forgó technológia jellege indokolja a nemzeti felügyeleti hatóságok döntésének megfelelően. Tanúsítvány csak akkor állítható ki, ha az illetékes nemzeti felügyeleti hatóság elvégezte a megfelelőség értékelését, és az pozitív.
3. A (2) bekezdésben említett tanúsítvány kiállítása céljából a Bizottság és/vagy az Unió bármely más érintett intézménye, szerve, hivatala és ügynöksége, amely erre a célra kijelölhető, kérelmezési eljárást dolgoz ki.
III. fejezet
Intézményi felügyelet
17. cikk
Irányítási standardok és végrehajtási iránymutatás
1. Az Unióban kifejlesztett, bevezetett vagy használt mesterséges intelligenciának, robotikának és kapcsolódó technológiáknak meg kell felelniük a 17. cikkben említett nemzeti felügyeleti hatóságok által az uniós joggal, elvekkel és értékekkel összhangban meghatározott vonatkozó irányítási standardoknak, az uniós joggal, elvekkel és értékekkel összhangban, a Bizottság és/vagy az e célra kijelölhető érintett uniós intézmények, szervek, hivatalok és ügynökségek koordinálása mellett és az érintett érdekelt felekkel konzultálva.
2. Az (1) bekezdésben említett szabványok magukban foglalják az e rendeletnek a fejlesztők, a bevezetők és a felhasználók általi betartására vonatkozó módszertanra irányuló, nem kötelező érvényű végrehajtási iránymutatásokat, és azokat e rendelet hatálybalépésének időpontjáig közzé kell tenni.
3. Az Unióban fejlesztett, bevezetett és használt mesterséges intelligencia, robotika és kapcsolódó technológiák által használt vagy előállított adatokat a fejlesztők, a bevezetők és a felhasználók a említett vonatkozó nemzeti, uniós és más európai szervezeti és nemzetközi szabályokkal és szabványokkal, valamint a vonatkozó ipari és üzleti protokollokkal összhangban kezelik. A fejlesztők és a bevezetők, amennyiben megvalósítható, ellenőrzik a mesterséges intelligencia, robotika és kapcsolódó technológiák által felhasznált külső adatforrások minőségét, és felügyeleti mechanizmusokat vezetnek be ezek gyűjtését, tárolását, feldolgozását és felhasználását illetően.
3. A hordozhatósági jogok és azon személyek jogainak a sérelme nélkül, akik mesterséges intelligenciát, robotikát és kapcsolódó technológiákat használnak, és ebből adódóan adatok keletkeznek, az Unióban fejlesztett, bevezetett vagy használt mesterséges intelligencia, robotika és kapcsolódó technológiák által használt vagy előállított adatok gyűjtése, tárolása, feldolgozása, megosztása és az azokhoz való hozzáférés során meg kell felelni a vonatkozó nemzeti, uniós, más európai szervezeti és nemzetközi szabályoknak és szabványoknak, valamint a vonatkozó ipari és üzleti protokolloknak. A fejlesztők és a bevezetők biztosítják, hogy a mesterséges intelligencia, a robotika és kapcsolódó technológiák fejlesztése és bevezetése során alkalmazzák e protokollokat, mégpedig oly módon, hogy világosan meghatározzák az e technológiák által használt vagy előállított adatok feldolgozására és az ezen adatokhoz való hozzáférés megadására vonatkozó követelményeket, valamint az adatok feldolgozásának és az ilyen adatokhoz való hozzáférés megadásának célját, hatályát és címzettjeit, amelyek mindegyikének mindig ellenőrizhetőnek és nyomon követhetőnek kell lennie.
18. cikk
Felügyeleti hatóságok
1. Minden tagállam kijelöl egy független közhatóságot (a továbbiakban: felügyeleti hatóság), amely felelős e rendelet alkalmazásának nyomon követéséért, valamint az 13., 14. és 15. cikkben előírt kockázat- és megfelelőségértékelések elvégzéséért és tanúsításért, az ágazati jogszabályok sérelme nélkül.
2. Minden nemzeti felügyeleti hatóság elősegíti e rendeletnek az Unió egész területén történő következetes alkalmazását. Az egyes tagállamok felügyeleti hatóságai e célból együttműködnek egymással, a Bizottsággal és az Unió e célból kijelölhető egyéb érintett intézményeivel, szerveivel, hivatalaival és ügynökségeivel.
3. Minden egyes nemzeti felügyeleti hatóság az első kapcsolattartó pontként szolgál az e rendeletben megállapított etikai elvek és jogi kötelezettségek mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztése, bevezetése vagy használata következtében történő megsértésének gyanúja esetén, ideértve a megkülönböztető bánásmódot vagy más jogok megsértését is. Ilyen esetekben az érintett nemzeti felügyeleti hatóság megfelelőségértékelést végez annak érdekében, hogy támogassa a polgárok kifogásoláshoz és jogorvoslathoz való jogát.
4. Minden nemzeti felügyeleti hatóság felelős a 13. cikkben említett, vonatkozó nemzeti, európai és nemzetközi irányítási szabályok és szabványok mesterséges intelligenciára, robotikára és kapcsolódó technológiákra való alkalmazásának felügyeletéért, többek között oly módon is, hogy a lehető legnagyobb számú érdekelt féllel tart kapcsolatot. E célból az egyes tagállamok felügyeleti hatóságai fórumot biztosítanak a tudományos élet, a kutatás, az ipar és a civil társadalom érdekelt felei közötti, illetve érdekelt feleivel folytatott rendszeres eszmecseréhez.
5. Minden nemzeti felügyeleti hatóság szakmai és igazgatási útmutatást és támogatást nyújt a mesterséges intelligenciára, robotikára és kapcsolódó technológiákra vonatkozó uniós jogszabályok és az e rendeletben meghatározott etikai elvek általános végrehajtásához, különösen az érintett kutató és fejlesztő szervezetek, valalmint a kis- és középvállalkozások és az induló vállalkozások számára.
6. Minden tagállam [HL: beillesztendő dátum: egy évvel a hatálybalépés után]-ig, a bejelenti az Európai Bizottságnak az e cikk szerint elfogadott jogi rendelkezéseit, illetve késedelem nélkül az ezeket érintő későbbi módosításokat.
7. A tagállamok minden szükséges intézkedést meghoznak az e rendeletben meghatározott etikai elvek és jogi kötelezettségek végrehajtásának biztosítása érdekében. A tagállamok uniós és nemzeti szinten egyaránt támogatják az érintett érdekelt feleket és a civil társadalmat az új lehetőségekre és kihívásokra való kellő idejű, etikus és jól tájékozott reagálás biztosítására irányuló erőfeszítéseikben, különösen a határokon átnyúló erőfeszítésekben, amelyek a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal kapcsolatos műszaki fejleményekből erednek.
19. cikk
Jogsértések bejelentése és a bejelentő személyek védelme
E rendelet megsértéseinek a bejelentésére és az ilyen jogsértéseket bejelentő személyek védelmére az (EU) 2019/1937 európai parlamenti és tanácsi irányelv[18] alkalmazandó.
20. cikk
Uniós szintű koordináció
1. A Bizottság és/vagy az Unió bármely, ezzel összefüggésben kijelölhető intézménye, szerve, hivatala és ügynöksége a következő feladatokat látja el:
– biztosítja a 13. cikkben említett mesterséges intelligencia, robotika és kapcsolódó technológiák következetes kockázatértékelését, amelyet a 17. cikkben említett nemzeti felügyeleti hatóságoknak kell elvégezniük a 7. cikk (1) bekezdésében, valamint a magas kockázatú ágazatok és a magas kockázatú felhasználások vagy célok e rendelet mellékletében foglalt jegyzékében előírt közös objektív kritériumok alapján;
– tudomásul veszi az 14. cikkben említett, magas kockázatú mesterséges intelligencia, robotika és kapcsolódó technológiák megfelelőségértékelését és azt követő nyomon követést, amelyet a 17. cikkben említett nemzeti felügyeleti hatóságoknak kell elvégezniük;
– kidolgozza a 15. cikkben említett – a 17. cikkben említett nemzeti felügyeleti hatóságok által kiállítandó – tanúsítvány kérelmezési eljárását;
– az ágazati jogszabályok sérelme nélkül elkészíti a 17. cikkben említett nemzeti felügyeleti hatóságok által alkalmazandó módszertanra vonatkozó – a 14. cikk (3) bekezdésében említett – kötelező iránymutatásokat;
– koordinálja a 16. cikkben említett vonatkozó irányítási standardoknak a 17. cikkben említett nemzeti felügyeleti hatóságok általi kidolgozását, beleértve az e rendeletnek való megfelelés módszertanára vonatkozó, a fejlesztőknek, a bevetőknek és a felhasználóknak szóló, nem kötelező érvényű végrehajtási iránymutatásokat;
– a 17. cikk (2) bekezdése értelmében együttműködik a 17. cikkben említett nemzeti felügyeleti hatóságokkal az e rendelet Unió-szerte történő következetes alkalmazásához való hozzájárulásuk tekintetében;
– szakértői központként szolgál a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal kapcsolatos információcsere előmozdítása és az egységes piacon belüli közös álláspont kialakításának támogatása révén, kiegészítő iránymutatásokat, véleményeket és szakértelmet ad ki a 17. cikkben említett nemzeti felügyeleti hatóságok számára, nyomon követi a vonatkozó uniós jog végrehajtását, azonosítja a bevált gyakorlatokra vonatkozó szabványokat és adott esetben szabályozási intézkedésekre vonatkozó ajánlásokat fogalmaz meg; ennek során a lehető legtöbb érdekelt féllel kell kapcsolatot tartania, és biztosítania kell, hogy döntéshozatali szintjei változatosak legyenek, és biztosítsák a nemek közötti egyenlőséget;
– biztonsági és védelmi munkacsoportot állít fel azzal a céllal, hogy megvizsgálja a kifejezetten a mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikus használatával kapcsolatos szakpolitikai és beruházási kérdéseket a biztonság és a védelem területén.
21. cikk
A felhatalmazás gyakorlása
1. A felhatalmazáson alapuló jogi aktusok elfogadására vonatkozóan a Bizottság részére adott felhatalmazás feltételeit ez a cikk határozza meg.
2. A Bizottságnak a 7. cikk (3) és (4) bekezdésében említett, felhatalmazáson alapuló jogi aktus elfogadására vonatkozó felhatalmazása ötéves időtartamra szól [az e rendelet hatálybalépésétől kezdődő hatállyal].
3. Az Európai Parlament vagy a Tanács bármikor visszavonhatja a 7. cikk (3) és (4) bekezdésében említett felhatalmazást. A visszavonásról szóló határozat megszünteti az abban meghatározott felhatalmazást. A határozat az Európai Unió Hivatalos Lapjában való kihirdetését követő napon, vagy a benne megjelölt későbbi időpontban lép hatályba. A határozat nem érinti a már hatályban lévő, felhatalmazáson alapuló jogi aktusok érvényességét.
4. A felhatalmazáson alapuló jogi aktus elfogadása előtt a Bizottság a jogalkotás minőségének javításáról szóló, 2016. április 13-i intézményközi megállapodásban foglalt elveknek megfelelően konzultál az egyes tagállamok által kijelölt szakértőkkel.
5. A Bizottság a felhatalmazáson alapuló jogi aktus elfogadását követően haladéktalanul és egyidejűleg értesíti arról az Európai Parlamentet és a Tanácsot.
6. A 7.cikk (3) és (4) bekezdésének értelmében elfogadott felhatalmazáson alapuló jogi aktus csak akkor lép hatályba, ha az Európai Parlamentnek és a Tanácsnak a jogi aktusról való értesítését követő három hónapon belül sem az Európai Parlament, sem a Tanács nem emelt ellene kifogást, illetve ha az említett időtartam lejártát megelőzően mind az Európai Parlament, mind a Tanács arról tájékoztatta a Bizottságot, hogy nem fog kifogást emelni. Az Európai Parlament vagy a Tanács kezdeményezésére ez az időtartam három hónappal meghosszabbodik.
22. cikk
Az (EU) 2019/1937 irányelv módosítása
Az (EU) 2019/1937 irányelv a következőképpen módosul:
(1) A 2. cikk (1) bekezdése a következő alponttal egészül ki:
„xi. a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztése, bevezetése és használata.”
(2) A melléklet I. része a következő ponttal egészül ki:
„K. 2. cikk, (1) bekezdés, a) pont, xi. alpont – a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztése, bevezetése és használata.
„xxi. Az Európai Parlament és a Tanács [XXX] rendelete a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, bevezetésére és használatára vonatkozó etikai elvekről”.”
23. cikk
Felülvizsgálat
A Bizottság rendszeresen felülvizsgálja a mesterséges intelligencia, robotika és kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlődését, és [HL: beillesztendő dátum: 3 évvel a hatálybalépés után]-ig, majd ezt követően három évente jelentést nyújt be az Európai Parlamentnek, a Tanácsnak és az Európai Gazdasági és Szociális Bizottságnak e rendelet alkalmazásáról, amelyben e rendelet alkalmazása hatályának lehetséges módosítását is értékeli.
24. cikk
Hatálybalépés
1. Ez a rendelet az Európai Unió Hivatalos Lapjában való kihirdetését követő huszadik napon lép hatályba. Ezt a rendeletet XX-tól/-től kell alkalmazni.
2. Ez a rendelet az Európai Uniót létrehozó szerződéssel összhangban teljes egészében kötelező és közvetlenül alkalmazandó a tagállamokban.
Ez a rendelet teljes egészében kötelező és közvetlenül alkalmazandó valamennyi tagállamban.
MELLÉKLET
A magas kockázatú ágazatok, valamint az alapvető jogok és a biztonsági szabályok megsértésének kockázatával járó magas kockázatú felhasználások vagy célok kimerítő és kumulatív felsorolása.
Magas kockázatú ágazatok |
Foglalkoztatás Oktatás Egészségügy Közlekedés Energiaügy Közszféra (menekültügy, migráció, határellenőrzés, igazságszolgáltatás és társadalombiztosítási szolgáltatások) Védelem és biztonság Pénzügy, bankügy, biztosítás
|
Magas kockázatú felhasználások vagy célok |
Felvétel Diákok osztályozása és értékelése Közpénzek elosztása Kölcsönök nyújtása Kereskedelem, közvetítés, adózás stb. Orvosi kezelések és eljárások Választási folyamatok és politikai kampányok A természetes vagy jogi személyek jogaira és kötelezettségeire jelentős és közvetlen hatást gyakorló közszektorbeli döntések Automatizált járművezetés Forgalomirányítás Autonóm katonai rendszerek Energiatermelés és -elosztás Hulladékgazdálkodás Kibocsátáscsökkentés |
INDOKOLÁS
Egy, az 1982-es Szárnyas fejvadász című filmben elhangzó párbeszédben Rachael, a replikáns – aki egy intelligenciával felruházott humanoid replikáns robotokat gyártó cégnél dolgozik – az alábbi szavakkal fordul Deckardhoz, a megélhetését az ellenőrzés alól kikerült replikánsok kiiktatásával kereső fejvadászhoz:
-“It seems you feel our work is not a benefit to the public”. [- Úgy tűnik, nem érzi közhasznúnak a munkánkat.]
Erre a férfi így felel:
-“Replicants are like any other machine - they're either a benefit or a hazard. If they're a benefit, it's not my problem”. [- „A replikánsok olyanok, mint bármely más gép - hasznosak vagy veszélyesek. Ha hasznosak, az nem az én gondom.]
Előnyök és kockázatok A mesterséges intelligencia tömeges beültetése minden olyan gépezetbe, amellyel nyilvánosan, a munkahelyen és a társadalomban kapcsolatba kerülünk, olyan technológiai ugrást fog jelenteni, illetve már most is jelent, amelyet csak az ipari forradalom által előidézett változásokhoz mérhetünk. Az élet soha többé nem lesz ugyanolyan, mint korábban, a végbemenő jelentős változások kihatnak a munkaerőpiacra, a hatósággal való kapcsolatokra, a személyes kapcsolatokra, de még magánéletünkre is – elég csak végiggondolni, hogy a „dolgok internetje” miként van jelen otthonaink minden eszközében. Egy ilyen mértékű technológiai ugrás azzal a dilemmával szembesít minket, amelyre a szárnyas fejvadász is utalt válaszában: minden technológia előnyöket és kockázatokat is hordoz magában. Amikor mesterséges intelligenciáról beszélünk, akkor korábban nem ismert mértékű előnyökről és/vagy kockázatokról beszélünk, tekintettel az abban rejlő, lényegéből eredő erőre.
Az Európai Unió szerepe a jogi keret kialakításában
Amikor a közigazgatás felől közelítjük meg ezt a jelenséget, annak módja el kell hogy térjen Deckard szakmai cinizmusától. Egészen pontosan az Európai Parlament számára legalább annyira fontos az ezen technológiákban rejlő lehetőségek ösztönzése és ezáltal az európai jólét és versenyképesség elősegítése, mint a bennük rejlő kockázatok ellenőrzése, vagy akár bármely ilyen kockázat következményeinek megelőzése. Éppen ezért élen kívánunk járni egy etikai küszöb kialakításában, ami egyfelől védi az európai polgárokat a technológiai fejlődés által okozott lehetséges károktól, másfelől a bizalom egyfajta hozzáadott értékét képviseli az európai mesterséges intelligencia irányába a világban. Olyan etikai küszöb, amely megfelel az Európai Unió Alapjogi Chartájában is lefektetett európai alapelveknek és értékeknek, valamint maradéktalanul összhangban van projektünk civilizációs küldetésével. Szabályozásunkat a technológiai fejlődés humanista és emberközpontú megközelítésére kell alapozni. Olyan szabályozás, amely nem csak az Európában kifejlesztett mesterséges intelligenciára vonatkozik, hanem kötelező szabályozási keretet jelent mindenki számára, aki az Unióban kíván működni.
Okvetlenül szükséges, hogy a jogokra és kötelezettségekre vonatkozó keretrendszert az Európai Unió valamennyi tagállama elfogadja. A közös hivatkozást mellőző, nemzeti szabályrendszerek kusza halmaza rést üthet az egységes piac pajzsán és gyengítheti a világ technológiai vezetőszerepének megszerzésére tett közös erőfeszítésünket. A szabályozás kidolgozását felügyelő európai ügynökség létrehozásával pedig megvalósul az egyes tagállamok által megalkotott jogi és technikai keretek harmonizációja.
Rugalmas és jövőorientált szabályozás
Azok számára, akik az ágazat irányítása helyett az önszabályozás elvét vallják, a kezdetben idézett párbeszéd szemlélteti a nyilvánosság bevonásának szükségességét, a gazdasági jövedelmezőségen túlmutató célok megvalósítása érdekében. Az európai közintézmények további feladata olyan célkitűzések elősegítése is, mint például (mindenféle eredetű) megkülönböztetés elkerülése a döntéshozatal során, és az ezen technológiák jelentette változásban rejlő erő felhasználása egy környezetvédelmi szempontból fenntarthatóbb, továbbá igazságosabb társadalom megteremtésére – különös tekintettel a nemi alapú megkülönböztetés felszámolására. Ez utóbbi kérdésekben a szöveg kifejezett felhatalmazást ad az európai hatóságoknak.
A szabályozás célja egyúttal az is, hogy a magas követelményrendszert normatív egyszerűséggel ötvözze, megkímélve az érintett szereplőket a bonyolult szabályrendszerektől és/vagy súlyos bürokratikus terhektől. Egy kellően rugalmas keret kialakítása szükséges, hogy ebben a rendkívül gyorsan változó valóságban legyen mód a változások befogadására és egyúttal lehetőség olyan ágazati szabályok kidolgozására, amelyek hozzájárulnak a mindennapok szintjén érzékelhető realitások alakításához.
Átfogó megközelítés, többek közt nemzeti felügyeleti szervek létrehozása
A szabályozás célja a felügyelet kiterjesztése a rendkívül összetett technológiák valamennyi részterületére. Rendelkezéseket tartalmaz a technológia gépi tanulással vagy mély tanulással való fejlesztése, megvalósítása és fejlődése vonatkozásában. Ahogy ezt a szabályzat is meghatározza, a „magas kockázatúként” meghatározott technológiák esetén – így például, amikor nagy a negatív externáliák generálásának valószínűsége és/vagy olyan érzékeny területekről van szó, amelyek különleges védelmet érdemelnek – különös hangsúlyt kell fektetni a megelőzésre. Olyan egyéni jogokat érintő érzékeny kérdéseket is szabályoz, mint a távoli felismerési technikák, számos biztosítékot hozva létre azok alkalmazásához; és egyúttal szigorú anyagi keretet is kialakít, amelyet a hatóságok kivételes, súlyosabb vészhelyzetek esetén alkalmazhatnak.
A szabályozás célja az is, hogy a szabályozási keret kialakításába, fejlesztésébe, ellenőrzésébe és felügyeletébe valamennyi polgárt bevonják, különös tekintettel az abban közvetlenül részt vállaló vagy az az által érintett személyekre és csoportokra. A szöveg felhatalmazást ad valamennyi nemzeti felügyeleti szervnek – amelyet kifejezetten kötelezőnek nyilvánít –, biztosítva a civil társadalom szükkséges, állandó támogatását. Ugyanígy ambiciózus előírásokat állapít meg a mesterséges intelligencia tervezői, üzemeltetői és felhasználói számára az átláthatóság és elszámoltathatóság tekintetében. A szabályozás kiterjed a felhasználókra vonatkozó, polgári magatartást érintő kötelezettségekre is, valamint annak biztosítására, hogy a technológiákat jóhiszeműen használják.
Érthetőség, átláthatóság, elszámoltathatóság, felelősség és irányítás
Még messze vagyunk attól, hogy egy algoritmus elhozza az Isaac Asimov által az „Alapítvány” című művében felvázolt pszicho-történelem korát. Úgy tűnik, hogy az emberi létezésünk alapvető elemét képező szabad akarat fogalma jelenleg még nincs veszélyben. Még akkor sem, ha nagy történelmi változások eljövetelére kell felkészülnünk. A demokratikus hatalom nevében gondoskodni kell arról, hogy a mesterséges intelligencia technológiáját felhasználva meghozott kisebb és nagyobb döntések ne homályos és érthetetlen matematikai képletek eredményei legyenek. Az érthetőség, az átláthatóság, az elszámoltathatóság és a felelősségvállalás az Európai Unióban kifejlesztett és alkalmazott mesterséges intelligencia elengedhetetlen jellemzői lesznek.
Összefoglalva elmondható, hogy az Európai Unió olyan tér kíván lenni, ahol a polgárok jogainak védelme és a technológiai fejlődés elősegítése közötti szükséges egyensúly biztosított. Szabályozásunk és annak a felügyeleti szerv(ek) általi továbbfejlesztése legyen példa az egész világon, és szolgáljon a jelenség globális szinten történő, megfelelő irányításának alapköveként.
VÉLEMÉNY A KÜLÜGYI BIZOTTSÁG RÉSZÉRŐL (24.6.2020)
a Jogi Bizottság részére
a Bizottsághoz intézett ajánlásokkal a mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai szempontjainak keretéről
A vélemény előadója (*): Urmas Paet
(*) Társbizottsági eljárás – az eljárási szabályzat 57. cikke
(Kezdeményezés – az eljárási szabályzat 47. cikke)
JAVASLATOK
A Külügyi Bizottság felkéri a Jogi Bizottságot mint illetékes bizottságot, hogy:
– állásfoglalási indítványába foglalja bele a következő javaslatokat:
1. hangsúlyozza, hogy az Európai Unió és tagállamai biztonság- és védelempolitikáját az Európai Unió Alapjogi Chartájában rögzített alapelvek és az Egyesült Nemzetek Alapokmányának elvei, valamint az emberek sérthetetlen és elidegeníthetetlen jogai, az emberi méltóság, a szabadság, a demokrácia, az egyenlőség és a jogállamiság egyetemes értékeinek közös értelmezése és tisztelete vezérli; kiemeli, hogy az uniós kereten belüli valamennyi védelmi vonatkozású erőfeszítésnek tiszteletben kell tartania ezeket az egyetemes értékeket, miközben előmozdítja a békét, a biztonságot és a haladást Európában és a világban; úgy véli, hogy a mesterséges intelligencia alkalmazásának az alábbi közös etikai elveken kell alapulnia, amelyek szerint az alkalmazásnak felelősnek, méltányosnak, nyomon követhetőnek, megbízhatónak és irányíthatónak kell lennie;
2. üdvözli, hogy az egyes hagyományos fegyverekről szóló ENSZ-egyezmény (CCW) magas szerződő feleinek 2019. évi ülésén támogatták az autonóm fegyverrendszerek kifejlesztésére és használatára vonatkozó 11 irányadó elvet; sajnálja azonban, hogy nem sikerült megállapodni a halált okozó autonóm fegyvereket szabályozó, hatékony végrehajtási mechanizmussal rendelkező, jogilag kötelező erejű eszközről; üdvözli és támogatja a Bizottság mesterséges intelligenciával foglalkozó magas szintű szakértői csoportja által 2019. április 9-én közzétett „Etikai iránymutatások a megbízható mesterséges intelligencia érdekében” című dokumentumot, és a halált okozó autonóm fegyverrendszerekkel kapcsolatos álláspontot; sürgeti a tagállamokat, hogy dolgozzanak ki nemzeti stratégiákat a halált okozó autonóm fegyverek meghatározására és jogi státusára vonatkozóan egy átfogó uniós szintű stratégia kialakítása érdekében, és az Unió főképviselőjével/a Bizottság alelnökével (főképviselő/alelnök) és a Tanáccsal együtt mozdítsák elő a halált okozó autonóm fegyverekről az ENSZ CCW-egyezménye keretében és más releváns fórumokon folytatott vitát, továbbá állapítsanak meg a teljesen autonóm, félautonóm és távirányítású halált okozó fegyverrendszerek kifejlesztésének és használatának etikai és jogi paramétereire vonatkozó nemzetközi normákat; emlékeztet e tekintetben a halált okozó autonóm fegyverrendszerekkel kapcsolatos 2018. szeptember 12-i állásfoglalására, és ismételten felszólít a halált okozó autonóm fegyverrendszerekkel kapcsolatban egy közös álláspont sürgős kidolgozására és elfogadására, továbbá az érdemi emberi irányítás nélküli és az emberi beavatkozás elvének tiszteletben tartása nélküli támadások végrehajtását lehetővé tevő halált okozó autonóm fegyverrendszerek kifejlesztésének, gyártásának és használatának nemzetközi szintű betiltására, összhangban a legnevesebb mesterséges intelligencia kutatók 2015-ös nyílt levelében foglalt nyilatkozattal; üdvözli, hogy a Tanács és a Parlament egyetért abban, hogy a halált okozó olyan autonóm fegyvereket, amelyek a „támadások során nem teszik lehetővé az érdemi emberi ellenőrzést a cél kiválasztására és a csapás végrehajtására vonatkozó döntésekkel kapcsolatban” ki kell zárni az Európai Védelmi alap keretében finanszírozott fellépések közül; úgy véli, hogy a mesterséges intelligenciának a védelem – például a hírszerzés, a megfigyelés és felderítés (ISR) vagy a kiberműveletek – területén való alkalmazására vonatkozó etikai szempontokat nem szabad figyelmen kívül hagyni, és különös figyelmet kell fordítani a katonai műveletekben használt drónok fejlesztésére és bevetésére;
3. javasolja, hogy a mesterséges intelligencián alapuló rendszerek védelmi célú, harci és nem harci helyzetekben történő használatát szabályozó bármely európai keretnek tiszteletben kell tartania valamennyi alkalmazandó jogi rendszert, különösen a nemzetközi humanitárius jogot és a nemzetközi emberi jogi jogszabályokat, valamint meg kell felelnie az uniós jognak, elveknek és értékeknek; hangsúlyozza, hogy az Uniónak világszintű vezető szerepet kell vállalnia a mesterséges intelligenciára vonatkozó, a demokratikus értékeken és emberközpontú megközelítésen alapuló hiteles és kötelező érvényű szabályozási menetrend kidolgozása felé vezető úton; felszólítja az Uniót és tagállamait, hogy a fejlettebb tagállamok bevált gyakorlataira építve dolgozzanak ki közös mechanizmusokat a mesterséges intelligenciával kapcsolatos eredendő kockázatok és lehetőségek gyors és alapos értékelésére az uniós jog alkalmazása szempontjából, és adott esetben gondoskodjanak a szükséges kiigazításokról és ezek végrehajtásáról, figyelembe véve az Unión belüli műszaki és biztonsági infrastruktúrák különbségeit;
4. elismeri, hogy a védelmi ipari bázisoktól eltérően a mesterséges intelligenciával kapcsolatos döntő jelentőségű innovációk a kisebb tagállamokból is származhatnak, ezért egy, a KBVP szempontjából szabványosított megközelítés révén biztosítani kell, hogy a kisebb tagállamok és a kkv-k ne szoruljanak ki; hangsúlyozza, hogy a mesterséges intelligenciával kapcsolatos közös uniós képességek és a tagállamok műveleti koncepcióinak összehangolása áthidalhatja az olyan technikai hiányosságokat, amelyek miatt a megfelelő technológiával, iparági szakértelemmel vagy a mesterségesintelligencia-rendszereknek a védelmi minisztériumaikban történő alkalmazásához szükséges képeségekkel nem rendelkező tagállamok kimaradhatnak;
5. hangsúlyozza, hogy egy ilyen keret földrajzi hatályának az Unióban fejlesztett, bevezetett vagy használt mesterséges intelligencia, robotika és kapcsolódó technológiák valamennyi alkotóelemére ki kell terjednie, azokat az eseteket is beleértve, amikor a technológiák egy része az Unión kívül található vagy elhelyezkedése nem meghatározott;
6. hangsúlyozza, hogy a nemzetközi jogban nem szabályozott új technológiákat az emberiség tiszteletének elve és a közös lelkiismeret parancsai alapján kell megítélni; hangsúlyozza, hogy a mesterséges intelligencián alapuló rendszerek védelmi célú használatát és etikai kérdéseit az emberi jogok, és nevezetesen az emberek biztonságának, egészségének és védelmének, szabadságának, magánéletének, integritásának és méltóságának szempontjából kell vizsgálni és folyamatosan nyomon követni, különösen előnyei és hátrányai, valamint az egyetemes emberi jogok védelmére gyakorolt hatása szempontjából; úgy véli, hogy a mesterséges intelligencián alapuló védelmi rendszerek terén jelentkező technológiai előnyöknek együtt kell járniuk egy kiterjedt vitával a mesterséges intelligencia használatáról és ennek a társadalomra és közösségekre gyakorolt hatásáról, valamint a lehetséges gazdasági és társadalmi előnyökről, továbbá a mesterséges intelligencia használatából eredő kockázatokról megfelelő tájékoztatást kell adni;
7. úgy véli, hogy az uniós kereten belül a biztonsággal és védelemmel kapcsolatos jelenlegi és jövőbeli tevékenységek a mesterséges intelligenciára, a robotikára és az autonómiára, valamint a kapcsolódó technológiákra fognak támaszkodni, valamint hogy a megbízható, szilárd és bizalomra érdemes mesterséges intelligencia hozzájárulhat egy modern és hatékony haderőhöz; az Uniónak ezért vezető szerepet kell vállalnia a mesterségesintelligencia-rendszerek kutatásában és fejlesztésében a biztonság és a védelem területén; úgy véli, hogy a mesterséges intelligencián alapuló alkalmazások biztonsági és védelmi célú használata számos közvetlen előnyt kínálhat a művelet vezénylője számára, például az összegyűjtött adatok jobb minőségét, nagyobb helyzetismeretet, gyorsabb döntéshozatalt, a jobb kábelezésnek köszönhetően a járulékos károk csökkent kockázatát, a helyszíni erők védelmét, valamint a katonai felszerelések nagyobb megbízhatóságát és így az embereket érő kockázatok és az emberáldozatok kockázatának csökkenését; hangsúlyozza, hogy a képességek és a műveletek terén az európai stratégiai autonómia biztosításához elengedhetetlen a mesterséges intelligencia fejlesztése a védelem területén; emlékeztet arra, hogy a mesterségesintelligencia-rendszerek fokozatosan az újonnan megjelenő biztonsági fenyegetések, például a kiber- és hibrid hadviselés elleni küzdelem kulcsfontosságú elemévé válnak az online és offline terekben egyaránt; hangsúlyozza ugyanakkor a mesterséges intelligencia szabályozatlan használatából eredő valamennyi kockázatot és kihívást; megjegyzi, hogy a mesterséges intelligencia manipulációnak, hibáknak és pontatlanságoknak lehet kitéve;
8. szorgalmazza szinergiák és hálózatok kialakítását a mesterséges intelligenciával foglalkozó különböző európai kutatóközpontokkal, valamint az egyéb többoldalú fórumokkal, például az Európa Tanáccsal, az Egyesült Nemzetek Nevelésügyi, Tudományos és Kulturális Szervezetével (UNESCO), a Gazdasági Együttműködési és Fejlesztési Szervezettel (OECD), a Kereskedelmi Világszervezettel és a Nemzetközi Távközlési Egyesülettel (ITU) az erőfeszítéseik összehangolása és a mesterséges intelligencián alapuló technológiával kapcsolatos fejlesztések jobb koordinációja érdekében;
9. hangsúlyozza, hogy a mesterséges intelligenciával kapcsolatos technológiák lényegében kettős felhasználásúak, és a védelmi tevékenységekben használt mesterséges intelligencia fejlesztése szempontjából előnyös a katonai és civil technológiák egymásra hatása; kiemeli, hogy a védelmi tevékenységekhez használt mesterséges intelligencia egy transzverzális diszruptív technológia, amelynek fejlesztése lehetőségeket nyújthat az Unió versenyképessége és stratégiai autonómiája szempontjából;
10. kiemeli, hogy a Bizottságnak „Az emberközpontú mesterséges intelligencia iránti bizalom növelése” című 2019. április 8-i közleménye alapján – amelynek értelmében a technológia teljes mértékben tiszteletben tartja az emberi jogokat, és az ember megtartja az automatizált döntéshozatali rendszerek feletti ellenőrzését, miközben kiegészíti és támogatja az emberi autonómiát és döntéshozatalt –, az Uniónak a mesterséges intelligenciára vonatkozó stabil, a biztonságra és védelemre összpontosító szabályozási keretet kell kidolgoznia a felelősség és az átláthatóság, polgáraink és adataik védelme és értékeink megvédése útját követve, a béke megőrzését, a konfliktusok megelőzését és a nemzetközi biztonság megszilárdítását célzó szakpolitikákat kell alkalmaznia, miközben megragadja az e technológiák által kínált lehetőségeket, valamint felismeri, hogy a mesterséges intelligencián alapuló rendszerek a jövőbeli védelmi fejlesztések és védekezési képességek kulcselemei;
11. felszólítja a tagállamokat és a Bizottságot annak biztosítására, hogy a védelmi rendszerekben használt algoritmusokat a szükséges titoktartás mellett az átláthatóság elve vezérelje, ideértve a mesterséges intelligencia felhasználásának eredményeire vonatkozó egyértelmű felelősségi rendszert; hangsúlyozza, hogy az ilyen az algoritmusokat folyamatosan hozzá kell igazítani a mesterségesintelligencia-technológiák fejlődéséhez;
12. hangsúlyozza, hogy az Uniónak élen kell járnia az ENSZ CCW kormányzati szakértői csoportja keretében és egyéb releváns fórumokon tett többoldalú erőfeszítések támogatásában, amelyek célja egy olyan hatékony nemzetközi szabályozási keret megvitatása, amely biztosítja az autonóm fegyverrendszerek feletti érdemi emberi kontrollt annak érdekében, hogy e technológiák alkalmazását tökéletesen uralják a használatukra vonatkozó – a katonasággal, az iparral, a bűnüldözéssel, a tudományos szférával és a civil társadalmi érdekelt felekkel konzultálva elfogadott –, jól meghatározott, referenciaértékeken alapuló eljárások kialakítása és etikus felhasználásukra vonatkozó jogszabályok elfogadása révén, a kapcsolódó etikai szempontok megértése és az ilyen technológiákban rejlő eredendő kockázatok korlátozása, továbbá a rosszindulatú célokra való felhasználás megakadályozása mellett; ide tartozik különösen a személyeknek való nem szándékos károkozás, függetlenül attól, hogy ez vagyoni vagy nem vagyoni kár, mint például az alapvető jogok megsértése vagy a fizikai sérülés; az Uniónak a tagállamokkal együttműködve meg kell határoznia a biztonság és védelem területén alkalmazott mesterséges intelligenciával és egyéb immerzív technológiákkal kapcsolatos innovációkra vonatkozó megfelelő felelősségi rendszereket, ezzel létrehozva az elszámoltathatósági és nyomonkövethetőségi mechanizmusok jogalapját; kiemeli, hogy az uniós jogszabályok és normatív keretek nem válhatnak meghaladottá a jövőbeli technológiai fejlődés, a mesterséges intelligencia fejlődése és az új hadviselési módszerek fényében, és ezért ezeket a joghézagok és a szürke zónák megelőzése érdekében ésszerű nyomonkövetési rendszerekkel kell támogatni és folyamatosan ki kell igazítani; hangsúlyozza, hogy a mesterséges intelligencia további kutatásának és fejlesztésének biztosítania kell, hogy a mesterséges intelligencián alapuló rendszerek alkalmasabbak legyenek az egyedi összefüggések megértésére;
13. támogatja a „beépített etika” elvét, ami azt jelenti, hogy az etikai alapelvek a tervezési folyamat kezdetétől be vannak építve a mesterséges intelligencián alapuló termékekbe és szolgáltatásokba;
14. emlékeztet arra, hogy a világ jelenlegi katonai hatalmainak többsége már jelentős kutatási-fejlesztési erőfeszítéseket tesz a mesterséges intelligencia katonai dimenziójával kapcsolatban; úgy véli, hogy az Uniónak tennie kell azért, hogy ezen a téren ne maradjon le; hangsúlyozza, hogy a mesterséges intelligencián alapuló rendszerek védelmi célú alkalmazásai tekintetében az Uniónak a „beépített biztonság” elvével összhangban konkrét emberi felügyeletet lehetővé tévő technikai és szervezeti normákat kell meghatároznia, hogy biztosítsa az ilyen rendszerek ellenálló képességét az adatokat, a modellt, illetve az alapul szolgáló szoftveres és hardveres infrastruktúrát célzó külső támadások, kibertámadások és a digitális befolyás által kihasználható sebezhetőségekkel szemben, valamint azt, hogy a működési adatok gyűjtése, tárolása és hasznosítása tekintetében a rendszerek teljes életciklusuk alatt megfeleljenek a lehető legmagasabb szintű megbízhatósági standardoknak, aktív nyomon követésnek és felügyeletnek; hangsúlyozza a mesterségesintelligencia-algoritmusok átláthatóságának és elszámoltathatóságának fontosságát; megjegyzi, hogy fontos különbséget tenni az algoritmusok átláthatósága és az algoritmusok használatának átláthatósága között; hangsúlyozza, hogy az adatok kinyerésére és szintetizálására, és ezekből védelmi és nemzetbiztonsági ügyekkel kapcsolatos döntések megalapozása céljából eredmények extrapolálására szánt, mesterséges intelligencián alapuló rendszerek és alkalmazások hatókörét konkrétan meg kell határozni, és meg kell felelniük az adatok összegyűjtésére és kezelésére vonatkozó jelenlegi szabályozási keretben foglalt rendelkezéseknek; hangsúlyozza, hogy az adatok hírszerzési célból történő feldolgozására tervezett, a védelem területén használt mesterségesintelligencia-alkalmazásoknak a szándékolatlan megfigyelés, illetve az egyéni jogok megsértése kockázatának elkerülése érdekében meg kell felelniük az adatkezelési normáknak; úgy véli, hogy a mesterséges intelligencián alapuló technológiák magas kockázatot jelentő alkalmazásai esetében, amelyekre nem vonatkozik egy végleges, uniós szintű szabályozási keret, az Uniónak biztosítania kell, hogy az ilyen alkalmazások fejlesztése és használata jogszerű, arányos legyen, és tiszteletben tartsa az egyének jogait; hangsúlyozza, hogy a mesterséges intelligencián alapuló rendszereket és technológiákat a közrend fenntartása céljából fejlesztő és alkalmazó illetékes nemzeti bűnüldöző hatóságoknak tiszteletben kell tartaniuk a jogszabályokat a prediktív rendészet aránytalan kockázatainak mérséklése érdekében; elismeri, hogy az euro-atlanti biztonságot elsődlegesen a NATO garantálja, és felszólít a NATO Szövetségen belüli, a védelem területén használt mesterségesintelligencia-rendszerekre vonatkozó közös standardok kidolgozására és az ilyen rendszerek interoperabilitásának biztosítására irányuló együttműködés fokozására; hangsúlyozza, hogy a transzatlanti kapcsolat döntő szerepet játszik a közös értékek megőrzése és a jövőbeli fenyegetésekkel szembeni fellépés szempontjából;
15. hangsúlyozza, hogy a biztonság és védelem területén a mesterségesintelligencia-rendszerekre vonatkozóan megfelelően tanúsított, egyértelmű megbízhatósági, biztonsági és védelmi rendelkezéseket és követelményeket kell elfogadni az átláthatósági kritériumoknak a különböző szakaszokban (nevezetesen tervezés, előállítás és üzemeltetés) történő bevezetése, valamint a folyamatos nyomon követésnek és a rendszeres teszteknek és ellenőrzéseknek a teljes életciklus során történő elvégzése céljából; hangsúlyozza, hogy a mesterséges intelligencia igénybevételével hozott döntések és ezek eredményei teljes nyomon követhetőségének, megindokolhatóságának és elszámoltathatóságának biztosítása, valamint – ha fennáll annak a lehetősége, hogy az ilyen rendszerek embereket is ölhetnek – az érdemi emberi irányítás garantálása érdekében biztosítani kell az alkalmazandó normáknak és a megszerzett tanúsítványoknak való megfelelést azokban az esetekben, amikor a mesterséges intelligencia például gépi tanulás révén módosítja annak a rendszernek a működését és viselkedését, amelybe beépítették;
16. felszólítja a Bizottságot, hogy a biztonságos, ellenállóképes és stabil mesterségesintelligencia- és robotikai rendszerek kifejlesztésének és alkalmazásának biztosítása érdekében az iparpolitikájába építse be a kiberbiztonsági kapacitásépítést; kéri a Bizottságot, hogy vizsgálja meg a blokkláncalapú kiberbiztonsági protokollok és alkalmazások felhasználását a mesterségesintelligencia-infrastruktúrák ellenálló képességének, megbízhatóságának és szilárdságának az adattitkosítás közvetítő nélküli modelljei útján történő javítása érdekében; ösztönzi az európai érdekelt feleket olyan fejlett funkciók kutatására és kifejlesztésére, amelyek elősegíthetik az Unió és polgárai biztonságát veszélyeztető hibás és rosszindulatú mesterségesintelligencia- és robotikai rendszerek felismerését;
17. hangsúlyozza, hogy a védelem területén alkalmazott valamennyi mesterségesintelligencia-rendszernek a harcfeladatára vonatkozóan konkrét és jól meghatározott bevetési kerettel kell rendelkeznie, amely révén az embereknek megmarad a lehetősége a telepített rendszerek észlelésére, kikapcsolására vagy deaktiválására, amennyiben azok túlterjeszkednek az emberi irányító által meghatározott és hozzárendelt bevetési kereten, illetve eszkaláló vagy nem rendeltetésszerű tevékenységbe kezdenek; úgy véli, hogy a mesterséges intelligencián alapuló, katonai felhasználásra szánt rendszereket, termékeket és technológiát fel kell szerelni egy „fekete dobozzal”, amely rögzíti a gép által végzett valamennyi adattranzakciót;
18. hangsúlyozza, hogy a mesterségesintelligencia-rendszerek tervezésével, fejlesztésével, telepítésével és használatával kapcsolatos döntésért a teljes felelősséget és elszámoltathatóságot az emberi kezelőknek kell viselniük, mivel biztosítani kell a fegyverrendszerek feletti érdemi emberi ellenőrzést és irányítást és az erőszak alkalmazására vonatkozó döntés mögötti emberi szándékot a mesterségesintelligencia-alapú fegyverrendszerek bármely olyan döntésének végrehajtása esetén, amely halálos következményekkel járhat; hangsúlyozza, hogy a mesterséges intelligencián alapuló rendszerek vezérlését és irányítását továbbra is tényleges emberi ellenőrzés alatt kell tartani, a katonai vezetés szintjén követve az emberi beavatkozás („human-in-the loop”), az emberi felügyelet („human-on-the-loop”) és az emberi vezérlés („human-in-command”) elvét; hangsúlyozza, hogy a mesterséges intelligencián alapuló rendszereknek lehetővé kell tenniük a hadseregek katonai vezetése számára, hogy a halált okozó erőszak alkalmazásáért teljes felelősségvállalás és elszámoltathatóság mellett járjanak el és rendelkezzenek a szükséges mértékű döntéshozatali képességgel, amelyet nem lehet gépekre átruházni, mivel annak megkülönböztetésen, arányosságon és elővigyázatosságon kell alapulnia, ha ilyen rendszerek segítségével halált okozó vagy nagyléptékű pusztítással járó fellépést hajtanak végre; hangsúlyozza, hogy az intelligens fegyverek és egyéb, mesterséges intelligencián alapuló rendszerek bevetésére vonatkozóan egyértelmű és nyomon követhető olyan felhatalmazási és elszámoltathatósági keretrendszereket kell létrehozni, amelyek a felhasználók egyedi jellemzőit, például biometrikus jellemzőket használnak annak érdekében, hogy a bevetést kizárólag az erre felhatalmazással rendelkező személyzetnek tegyék lehetővé;
19. felszólítja a Bizottságot, hogy működjön együtt a tagállamok illetékes nemzeti hatóságaival és a mesterséges intelligencián alapuló rendszerek, termékek és technológiák kifejlesztésében és alkalmazásában részt vevő egyéb érdekelt felekkel egy biztonságos, megbízható és reziliens keretrendszer létrehozása érdekében, amelyben a mesterséges intelligencián alapuló rendszerek forráskódját megosztják, nyomon követik és ellenőrzik a biztonság és a védelem területén alkalmazott mesterségesintelligencia-technológia alapjául szolgáló vezérelvektől és etikai kerettől való lehetséges eltérések mérséklése érdekében; javasolja a Bizottságnak, hogy az Unió őrizze meg a mesterséges intelligencián alapuló, a biztonság és védelem területén használt rendszerekkel, termékekkel és technológiákkal kapcsolatos, uniós finanszírozású kutatások szellemi tulajdonhoz fűződő jogait;
20. hangsúlyozza, hogy az Uniónak a katonai tisztviselőkkel együttműködve elő kell mozdítania a mesterséges intelligencia, a robotika és az autonóm funkciók és jellemzők katonai vonatkozásainak, előnyeinek és lehetőségeinek – többek között az európai védelmi ipar számára a bennük rejlő potenciálnak – a jobb megértését; úgy véli, hogy az Uniónak az ellátási lánc egészében és a mesterséges intelligencián alapuló katonai képességek teljes életciklusa során elő kell mozdítania a technológiafejlesztési folyamatokkal és operatív módszerekkel kapcsolatos szükséges készségek és ismeretek megszerzését; hangsúlyozza, hogy sürgősen szükség van Európa fokozott stratégiai és technológiai függetlenségének kialakítására a mesterséges intelligencián alapuló rendszerek területén, beleértve az ilyen rendszerek alapjául szolgáló kritikus infrastruktúrákat;
21. úgy véli, hogy az Unióban a határokon átnyúló koherens szabályok garantálása érdekében a tagállamok és a Bizottság közötti fokozott együttműködésre van szükség az európai iparágak közötti együttműködés ösztönzése, továbbá a meghatározott biztonsági és védelmi standardoknak, illetve a mesterséges intelligencián alapuló technológia kifejlesztését és alkalmazását szabályozó etikai keretnek megfelelő, mesterséges intelligencián alapuló technológiák kifejlesztésének és alkalmazásának lehetővé tétele érdekében;
22. elismeri, hogy napjainkban, a hibrid és fejlett fegyverkezés korában az információ mennyisége és gyorsasága a válsághelyzetek korai szakaszában megterhelő lehet az emberi elemzők számára, és egy mesterségesintelligencia-rendszer olyan módon lehet képes az információk feldolgozására, amely biztosítaná, hogy a gyors reagálás érdekében az emberi döntéshozók a megfelelő időn belül az információk teljes spektrumát követni tudják;
23. hangsúlyozza, hogy rendkívül fontos a mesterséges intelligencia területén a humántőke fejlesztésébe való beruházás, a biztonság és a védelem területén használt mesterségesintelligencia-technológiákkal kapcsolatos szükséges készségek és oktatás támogatása, különös hangsúlyt fektetve a félautonóm és autonóm műveleti rendszerek etikai kérdéseire a mesterséges intelligenciát alkalmazó világban érvényesülő emberi elszámoltathatóság alapján; hangsúlyozza különösen annak fontosságát, hogy az e területen tevékenykedő etikával foglalkozó szakemberek megfelelő készségekkel rendelkezzenek és megfelelő képzésben részesüljenek; felszólítja a Bizottságot, hogy a lehető leghamarabb terjessze elő a 2020. február 19-i, mesterséges intelligenciáról szóló fehér könyvben bejelentett „készségfejlesztési program megerősített változatát”;
24. hangsúlyozza, hogy az atomfegyverek megjelenése óta a kvantuminformatika lehet a legforradalmibb változás a konfliktusok tekintetében, és ezért sürgeti az Uniót és a tagállamokat, hogy kvantuminformatikai technológiák további fejlődését kezeljék prioritásként; elismeri, hogy a kvantuminformatika által segített, agressziónak minősülő cselekmények, többek között a kritikus infrastruktúrák elleni támadások olyan konfliktuskörnyezetet fognak teremteni, amelyben a döntéshozatalra rendelkezésre álló idő drasztikus módon napokról órákra, majd percekről másodpercekre fog csökkenni, ami arra kényszeríti majd a tagállamokat, hogy a saját védelmüket szolgáló képességeket fejlesszenek ki, és arra képezzék ki döntéshozóikat és katonai személyzetüket, hogy ilyen rövid időn belül hatékonyan reagáljanak;
25. hangsúlyozza, hogy fel kell számolni az Unión belüli jelenlegi széttagoltságot a mesterséges intelligenciával kapcsolatos nemzeti jogszabályok, kutatások, innováció és a mesterséges intelligencia területére vonatkozó szakértelem tekintetében, amely széttagoltság veszélyezteti a belső piac működését és a mesterséges intelligencia megbízható és biztonságos európai fejlesztésének célját; e tekintetben üdvözli a mesterséges intelligenciával kapcsolatos projektek felvételét az európai ipari fejlesztési programba (EDIDP); úgy véli, hogy a jövőbeli Európai Védelmi Alap (EDF) és az állandó strukturált együttműködés (PESCO) is megfelelő keretet biztosít a mesterséges intelligenciával kapcsolatos jövőbeli projektek számára, amely elősegítené az e téren tett uniós erőfeszítések észszerűsítését, ugyanakkor előmozdítaná az emberi jogok, a nemzetközi jog és a többoldalú megoldások megerősítésére irányuló uniós célkitűzést; hangsúlyozza, hogy a mesterséges intelligenciával kapcsolatos projekteket össze kell hangolni az Unió mesterséges intelligenciának szentelt szélesebb körű polgári programjaival; megjegyzi, hogy az Európai Bizottság mesterséges intelligenciáról szóló fehér könyvével összhangban a mesterséges intelligenciának a biztonság és a védelem területén történő kutatására és fejlesztésére összpontosító kiválósági és tesztelési központokat a magánszférabeli érdekelt felek részvételét és beruházásait megalapozó határozott előírások meghatározásával kell létrehozni;
26. kiemeli, hogy az Uniónak törekednie kell a stratégiai reziliencia elérésére, hogy az esetleges válsághelyzetek többé ne érjék felkészületlenül, és hangsúlyozza, hogy ez különösen a mesterséges intelligencia, és annak védelmi és biztonsági célú alkalmazása tekintetében döntő jelentőségű; hangsúlyozza, hogy a védelem és biztonság területén használt mesterségesintelligencia-rendszerek ellátási láncait, amelyek technológiai függőséghez vezethetnek, újra kell kalibrálni, és az ilyen függőségeket fokozatosan meg kell szüntetni; szorgalmazza a védelmi célú európai mesterséges intelligenciába és az azt kiszolgáló kritikus infrastruktúrába történő beruházások fokozását;
27. hangsúlyozza, hogy az alapvető jogokat tiszteletben tartó és a közérdeket támogató mesterséges intelligencia kifejlesztéséhez az Unióban az adatok stratégiai célú összevonására és a magán- és köztulajdonú szervezetek közötti megosztására, valamint az Unió mesterséges intelligenciával kapcsolatos ökoszisztémájának megerősítésére van szükség, amely magában foglalja a magán- és közszférabeli, illetve a civil társadalmi érdekelt feleket; felhívja a Bizottságot, hogy mozdítsa elő a párbeszédet, a szorosabb együttműködést és szinergiákat a tagállamok, a kutatók, a tudományos élet képviselői, a civil társadalmi szereplők és a magánszektor, különösen a vezető vállalatok és vállalkozások, valamint a katonaság között annak érdekében, hogy inkluzív politikai döntéshozatali folyamatok jöjjenek létre a mesterséges intelligenciára vonatkozó szabályozás terén, a lehető legteljesebb mértékben kiaknázzák a mesterséges intelligenciában rejlő lehetőségeket, miközben elősegítik a kockázatok és előnyök jobb megértését, valamint biztosítják a maximális működési biztonságot;
28. hangsúlyozza, hogy a különösen a nem európai szereplők által vezetett kiterjedt dezinformációs háború összefüggésében a mesterségesintelligencia-technológiák etikailag káros hatásokkal járhatnak az adatok és algoritmusok torzításainak kihasználása vagy annak révén, hogy valamely harmadik ország szándékosan változtatja a tanító adatokat, továbbá előre nem látható módon és kiszámíthatatlan következményekkel a rosszindulatú manipuláció más formáinak is ki lehetnek téve; ezért egyre nagyobb szükség van arra, hogy az Unió továbbra is beruházzon a kutatásba, az elemzésbe, az innovációba, valamint a határokon és ágazatokon átnyúló tudástranszferbe annak érdekében, hogy olyan mesterségesintelligencia-technológiákat fejlesszenek ki, amelyek egyértelműen mentesek a profilalkotás, a torzítás és a megkülönböztetés minden formájától, és amelyek hatékonyan hozzájárulhatnak az álhírek és a dezinformáció elleni küzdelemhez, tiszteletben tartva ugyanakkor az adatvédelmet és az európai jogi kereteket;
29. hangsúlyozza a mesterséges intelligencián alapuló rendszerek katonai műveletekben történő bevetését alátámasztó etikai kódex kidolgozásának fontosságát, amely hasonló lenne a vegyi és biológiai fegyverek bevetését tiltó, meglévő szabályozási kerethez; úgy véli, hogy a Bizottságnak a nemzetközi humanitárius jognak megfelelően kezdeményeznie kell a mesterséges intelligencián alapuló fegyverrendszerek háborúban való használatára vonatkozó normák kidolgozását, az Uniónak pedig szorgalmaznia kell ilyen normák nemzetközi szintű elfogadását; úgy véli, hogy az Uniónak MI-diplomáciát kell folytatnia a nemzetközi fórumokon a hasonló szellemiségű partnerekkel, mint például a G7 és a G20 csoporttal és az OECD-vel;
30. tudomásul veszi a Bizottság 2020. február 19-i, mesterséges intelligenciáról szóló fehér könyvét, és sajnálja, hogy a katonai szempontokat nem vették figyelembe; felszólítja az Európai Bizottságot és az alelnököt/főképviselőt, hogy egy átfogó megközelítés részeként az uniós kereten belül terjesszen elő ágazati mesterségesintelligencia-stratégiát a védelemmel kapcsolatos tevékenységekre vonatkozóan, amely biztosítja a polgárok jogainak és az Unió stratégiai érdekeinek tiszteletben tartását, és amely olyan következetes megközelítésen alapul, amely a mesterséges intelligencián alapuló rendszerek létrejöttétől azok katonai felhasználásáig terjed, továbbá hozzon létre egy biztonsággal és védelemmel foglalkozó munkacsoportot a mesterséges intelligenciával foglalkozó magas szintű szakértői csoporton belül, amely kifejezetten szakpolitikai és beruházási kérdésekkel, továbbá a mesterséges intelligencia biztonsági és védelmi területen való alkalmazásának etikai kérdéseivel foglalkozna; felhívja a Tanácsot, a Bizottságot és az alelnököt/főképviselőt, hogy e célból kezdjen strukturált párbeszédet a Parlamenttel.
INFORMÁCIÓ A VÉLEMÉNYNYILVÁNÍTÁSRA FELKÉRT BIZOTTSÁG ÁLTALI ELFOGADÁSRÓL
Az elfogadás dátuma |
22.6.2020 |
|
|
|
A zárószavazás eredménye |
+: –: 0: |
60 7 2 |
||
A zárószavazáson jelen lévő tagok |
Alviina Alametsä, Maria Arena, Petras Auštrevičius, Traian Băsescu, Lars Patrick Berg, Anna Bonfrisco, Reinhard Bütikofer, Fabio Massimo Castaldo, Susanna Ceccardi, Włodzimierz Cimoszewicz, Katalin Cseh, Tanja Fajon, Anna Fotyga, Michael Gahler, Kinga Gál, Sunčana Glavak, Raphaël Glucksmann, Klemen Grošelj, Bernard Guetta, Márton Gyöngyösi, Sandra Kalniete, Karol Karski, Dietmar Köster, Stelios Kouloglou, Andrius Kubilius, Ilhan Kyuchyuk, David Lega, Miriam Lexmann, Nathalie Loiseau, Antonio López-Istúriz White, Claudiu Manda, Lukas Mandl, Thierry Mariani, David McAllister, Vangelis Meimarakis, Sven Mikser, Francisco José Millán Mon, Javier Nart, Gheorghe-Vlad Nistor, Urmas Paet, Kostas Papadakis, Tonino Picula, Manu Pineda, Kati Piri, Giuliano Pisapia, Diana Riba i Giner, María Soraya Rodríguez Ramos, Nacho Sánchez Amor, Isabel Santos, Jacek Saryusz-Wolski, Andreas Schieder, Radosław Sikorski, Sergei Stanishev, Tineke Strik, Hermann Tertsch, Hilde Vautmans, Harald Vilimsky, Idoia Villanueva Ruiz, Thomas Waitz, Witold Jan Waszczykowski, Charlie Weimers, Isabel Wiseler-Lima, Željana Zovko |
|||
A zárószavazáson jelen lévő póttagok |
Katarina Barley, Nicolas Bay, Arnaud Danjean, Katrin Langensiepen, Hannah Neumann, Mick Wallace |
A VÉLEMÉNYNYILVÁNÍTÁSRA FELKÉRT BIZOTTSÁG
NÉV SZERINTI ZÁRÓSZAVAZÁSA
60 |
+ |
EPP |
Traian Băsescu, Arnaud Danjean, Michael Gahler, Kinga Gál, Sunčana Glavak, Sandra Kalniete, Andrius Kubilius, David Lega, Miriam Lexmann, Antonio López‑Istúriz White, Lukas Mandl, David McAllister, Vangelis Meimarakis, Francisco José Millán Mon, Gheorghe‑Vlad Nistor, Radosław Sikorski, Isabel Wiseler‑Lima, Željana Zovko |
S&D |
Maria Arena, Katarina Barley, Włodzimierz Cimoszewicz, Tanja Fajon, Raphaël Glucksmann, Dietmar Köster, Claudiu Manda, Sven Mikser, Tonino Picula, Kati Piri, Giuliano Pisapia, Nacho Sánchez Amor, Isabel Santos, Andreas Schieder, Sergei Stanishev |
RENEW |
Petras Auštrevičius, Katalin Cseh, Klemen Grošelj, Bernard Guetta, Ilhan Kyuchyuk, Nathalie Loiseau, Javier Nart, Urmas Paet, María Soraya Rodríguez Ramos, Hilde Vautmans |
ID |
Anna Bonfrisco, Susanna Ceccardi |
VERTS |
Alviina Alametsä, Reinhard Bütikofer, Katrin Langensiepen, Hannah Neumann, Diana Riba i Giner, Tineke Strik, Thomas Waitz |
ECR |
Anna Fotyga, Karol Karski, Jacek Saryusz‑Wolski, Hermann Tertsch, Witold Jan Waszczykowski, Charlie Weimers |
NI |
Fabio Massimo Castaldo, Márton Gyöngyösi |
7 |
- |
GUE |
Stelios Kouloglou, Manu Pineda, Idoia Villanueva Ruiz, Mick Wallace |
ID |
Nicolas Bay, Thierry Mariani |
NI |
Kostas Papadakis |
2 |
0 |
ID |
Lars Patrick Berg, Harald Vilimsky |
Jelmagyarázat:
+ : mellette
- : ellene
0 : tartózkodás
VÉLEMÉNY A BELSŐ PIACI ÉS FOGYASZTÓVÉDELMI BIZOTTSÁG RÉSZÉRŐL (8.7.2020)
a Jogi Bizottság részére
a Bizottsághoz intézett ajánlásokkal a mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai szempontjainak keretéről
A vélemény előadója: Alexandra Geese
(Kezdeményezés – az eljárási szabályzat 47. cikke)
(*) Társbizottsági eljárás – az eljárási szabályzat 57. cikke
JAVASLATOK
A Belső Piaci és Fogyasztóvédelmi Bizottság felkéri a Jogi Bizottságot mint illetékes bizottságot, hogy:
– állásfoglalási indítványába foglalja bele a következő javaslatokat:
A. mivel az etikai útmutatások, például a mesterséges intelligenciával foglalkozó magas szintű szakértői csoport által elfogadott alapelvek jó kiindulási pontot jelentenek, de nem elégségesek annak biztosításához, hogy a vállalkozások tisztességesen cselekedjenek és garantálják a hatékony fogyasztóvédelmet;
Hatály
1. hangsúlyozza annak fontosságát, hogy a mesterséges intelligencia (MI), a robotika és a kapcsolódó technológiák etikai aspektusaira összpontosító uniós szabályozási keret akkor legyen alkalmazandó, ha az Unión belüli fogyasztók algoritmikus rendszer felhasználói, alanyai, célpontjai vagy ha a fogyasztókat ilyen rendszerbe irányítják, függetlenül a rendszert kifejlesztő, értékesítő vagy alkalmazó szervezetek letelepedési helyétől; úgy véli továbbá, hogy a jogbiztonság érdekében a megállapított szabályokat valamennyi fejlesztőre és az értéklánc egészére alkalmazni kell, nevezetesen a vonatkozó technológiák és összetevőik fejlesztésére, bevezetésére és használatára, valamint magas szintű fogyasztóvédelmet kell garantálniuk; ismételten hangsúlyozza a Szerződésekben említett uniós értékek fontosságát a személyes adatok védelmének és a megfelelő tájékoztatáson alapuló kifejezett hozzájárulás fontossága tekintetében, és javasolja, hogy e szabályok vegyék figyelembe a világviszonylatban példaértékűvé vált (EU) 2016/679 rendelet[19] (GDPR) végrehajtása során levont tanulságokat; úgy véli, hogy a jövőbeli uniós szabályozási keret végrehajtása szempontjából fontos egy, az Unióban letelepedett jogi képviselő, akihez kérelemmel lehet fordulni, például a fogyasztói jogorvoslat lehetővé tétele érdekében;
2. megjegyzi, hogy az uniós szabályozási keretet az algoritmikus rendszerekre kell alkalmazni, többek között a mesterséges intelligencia, a dolgok internete, a gépi tanulás, a szabályokon alapuló rendszerek, az automatizált és a támogatott döntéshozatali folyamatok, valamint a robotika területén; megjegyzi továbbá, hogy szabványosított ikonokat lehetne kidolgozni annak érdekében, hogy segítsék az ilyen rendszerek fogyasztókkal való megismertetését minden olyan esetben, amikor ezeket a rendszereket összetettség jellemzi, vagy amikor olyan döntések meghozatalához vezetnek, amelyek jelentős hatással vannak a fogyasztók életére;
3. hangsúlyozza, hogy az uniós szabályozási keretnek emberközpontú megközelítést kell alkalmaznia, és olyan rendszerek kialakításához kell vezetnie, amelyekbe beépítették az európai etikai értékeket; úgy véli, hogy a Szerződésekben említett uniós értékekre összpontosító uniós szabályozási keret olyan hozzáadott értéket jelentene, amely egyedülálló versenyelőnyt biztosítana Európa számára, és jelentősen hozzájárulna az uniós polgárok és vállalkozások jólétéhez és prosperitásához, valamint fellendítené a belső piacot; hangsúlyozza, hogy a mesterséges intelligenciára vonatkozó etikai keret szintén hozzáadott értéket képvisel az innováció belső piacon történő előmozdítása tekintetében;
4. felhívja a figyelmet arra, hogy a 768/2008/EK határozattal[20] bevezetett jogszabályi keret a gyártókra, importőrökre és forgalmazókra vonatkozó kötelezettségek harmonizált jegyzékét írja elő, ösztönzi a szabványok alkalmazását, és a termék veszélyességétől függően többszintű ellenőrzést ír elő; úgy véli, hogy ezt az elvet a mesterséges intelligenciát alkalmazó termékekre is alkalmazni kell;
5. hangsúlyozza, hogy a jövőbeli szabályozásnak differenciált kockázatalapú megközelítést kell követnie, annak érdekében, hogy lehetővé tegye biztonságos és megbízható, egyértelmű kritériumokkal és mutatókkal rendelkező rendszerek kifejlesztését és telepítését, amelyet az egyén és az egész társadalom potenciális kárán vagy jogainak megsértésén alapuló pártatlan jogi értékelés követ, figyelembe véve az algoritmikus rendszer használatának sajátos körülményeit; hangsúlyozza, hogy a jogi kötelezettségeket és a tanúsítási követelményeket az azonosított kockázati szinttel párhuzamosan fokozatosan növelni kell; kiemeli, hogy a legalacsonyabb kockázati kategóriában nem szabad további jogi kötelezettségeket előírni; azok az algoritmikus rendszerek, amelyek kárt okozhatnak az egyénnek vagy esetlegesen sérthetik az egyének jogait, illetve hatással lehetnek az egyén közjavakhoz való hozzáférésére, nem tekinthetők a legalacsonyabb kockázati kategóriába tartozónak; megjegyzi, hogy a kockázatalapú megközelítésnek egyértelmű és átlátható szabályokat kell követnie, amelyek elegendő jogbiztonságot nyújtanak, ugyanakkor időtállóak; felszólít a kockázatbesorolási rendszer és a kapcsolódó jogi kötelezettségek egységes végrehajtására a tagállamok közötti egyenlő versenyfeltételek biztosítása és a belső piac széttöredezettségének megelőzése érdekében; hangsúlyozza, hogy egy adott rendszer kockázatértékelését rendszeresen felül kell vizsgálni;
6. emlékeztet arra, hogy a Bizottságnak meg kell vizsgálnia a meglévő uniós jogi keretet és annak alkalmazását, beleértve a fogyasztóvédelmi jog vívmányait, a termékfelelősségre, a termékbiztonságra és a piacfelügyeletre vonatkozó jogszabályokat a joghézagok és a meglévő szabályozási kötelezettségek azonosítása érdekében; úgy véli, hogy erre annak megállapítása érdekében van szükség, hogy a meglévő uniós jogi keret képes-e reagálni a mesterséges intelligencia, a robotika és a kapcsolódó technológiák megjelenésére, és képes-e biztosítani a fogyasztóvédelem magas szintjét;
Adatgazdálkodás
7. hangsúlyozza az uniós etikai és szabályozási keret fontosságát, beleértve különösen azokat a rendelkezéseket, amelyek magas színvonalú adatokat írnak elő az algoritmikus rendszerek használatuk céljával kapcsolatos betanításához; e tekintetben kiemeli, hogy az algoritmikus rendszerek teljesítményének javítása, valamint a fogyasztói bizalom és elfogadás növelése érdekében szükség van a felhasznált betanító adatok reprezentatív jellegének biztosítására és – ahol lehetséges – az adatkészletek torzításának megszüntetésére, valamint az adatokra és az aggregálásra vonatkozó normákra; hangsúlyozza, hogy ezeket az adatsorokat az illetékes hatóságoknak minden olyan esetben ellenőrizniük kell, amikor felhívják őket annak biztosítására, hogy megfeleljenek a korábban említett elveknek;
Fogyasztóvédelem: az algoritmusok átláthatósága és érthetősége
8. hangsúlyozza, hogy a fogyasztói bizalom elengedhetetlen a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztéséhez és alkalmazásához, amelyek eredendő kockázatokat hordozhatnak, amennyiben átláthatatlan algoritmusokon és elfogult adatsorokon alapulnak; úgy véli, hogy a fogyasztóknak jogot kell biztosítani ahhoz, hogy érthetően, kellő időben, szabványosítottan és hozzáférhető módon megfelelően tájékozódhassanak az algoritmikus rendszerek létezéséről, indokolásáról, lehetséges eredményéről és hatásairól, arról, hogy hogyan lehet elérni egy döntéshozatali hatáskörrel rendelkező embert, valamint arról, hogy hogyan lehet ellenőrizni, érdemben vitatni és korrigálni a rendszer döntéseit; emlékeztet arra, hogy az embereknek mindig képesnek kell lenniük arra, hogy felülbírálják az automatizált döntéseket; úgy véli, hogy a fogyasztókat – lehetőség szerint személyre szabott módon – a mesterségesintelligencia-rendszer kikapcsolásához vagy korlátozásához való jog révén is védeni kell; hangsúlyozza az arányosság fontosságát egy ilyen átláthatósági keret kidolgozása során annak elkerülése érdekében, hogy szükségtelen terheket rójanak az alacsony kockázatú kategóriákba tartozó induló vállalkozásokra és kis- és középvállalkozásokra (kkv-k);
9. hangsúlyozza, hogy hatékonyan kell kezelni az algoritmikus rendszerek jelentette kihívásokat, és biztosítani kell a fogyasztók tudatosságát és megfelelő védelmét; hangsúlyozza, hogy a fogyasztóvédelmi vívmányok alapját képező hagyományos tájékoztatási és közzétételi elveken túl kell tekinteni, mivel erősebb fogyasztói jogokra és az algoritmikus rendszerek fejlesztésére és használatára vonatkozó egyértelmű korlátozásokra lesz szükség annak biztosítása érdekében, hogy a technológia hozzájáruljon a fogyasztók életének javításához, és olyan módon fejlődjön, amely tiszteletben tartja az alapvető jogokat és a fogyasztói jogokat, valamint az európai értékeket;
10. úgy véli, hogy értékérzékeny tervezési megközelítésre van szükség annak érdekében, hogy megteremtsék a feltételeket ahhoz, hogy a fogyasztók széles körben elfogadják a mesterséges intelligenciát; úgy véli, hogy a mesterséges intelligencia alapját a méltányosság, a pontosság, a titoktartás és az átláthatóság etikai értékeinek kell képezniük, ami ebben az összefüggésben azt jelenti, hogy a rendszer működésének olyannak kell lennie, hogy ne generáljon tisztességtelenül elfogult kimeneti adatokat;
11. emlékeztet annak fontosságára, hogy hatékony jogorvoslati lehetőségek álljanak a fogyasztók rendelkezésre, és felhívja a tagállamokat és a nemzeti piacfelügyeleti hatóságokat annak biztosítására, hogy hozzáférhető, megfizethető, független és hatékony eljárások és felülvizsgálati struktúrák álljanak rendelkezésre a fogyasztói jogok algoritmikus rendszerek használata révén történő megsértésével kapcsolatos valamennyi panasz pártatlan emberi kivizsgálásának biztosítása érdekében, függetlenül attól, hogy annak forrásai állami vagy magánszektorbeli szereplők; sürgeti, hogy a fogyasztók kollektív érdekeinek védelmére irányuló képviseleti eljárásokról és a 2009/22/EK irányelv hatályon kívül helyezéséről szóló európai parlamenti és tanácsi irányelvvel[21] összhangban biztosítsanak vitarendezési és kollektív jogorvoslati mechanizmusokat a fogyasztói jogok megsértésének kockázatával járó rendszer bevezetésének vagy folyamatos használatának kifogásolására, illetve a jogok megsértésének orvoslására; kéri a Bizottságot annak biztosítására, hogy a nemzeti és európai fogyasztói szervezetek elegendő finanszírozásban részesüljenek ahhoz, hogy segítsék a fogyasztókat jogorvoslathoz való joguk gyakorlásában azokban az esetekben, amikor a mesterségesintelligencia-alkalmazásokon alapuló döntések sértik a fogyasztói jogokat;
12. hangsúlyozza, hogy amennyiben egy algoritmikus rendszer fejlesztésének vagy bevezetésének megvalósításához jelentős mértékben járulnak hozzá közpénzek, a nyílt közbeszerzés és a nyílt szerződési szabványok mellett a kódnak, a generált adatoknak – amennyiben azok nem személyhez kötődőek – és a betanított modellnek alapértelmezés szerint nyilvánosnak kell lenniük a fejlesztővel kötött megállapodás alapján, az átláthatóság garantálása, a kiberbiztonság fokozása és az innováció előmozdítását célzó újrafelhasználásuk lehetővé tétele érdekében; hangsúlyozza, hogy ily módon teljes mértékben ki lehet aknázni az egységes piacban rejlő lehetőségeket, elkerülve a piac széttöredezését;
Belső piac: a fogyasztók tájékoztatása és figyelemfelhívás
13. hangsúlyozza annak fontosságát, hogy minden jövőbeli uniós szabályozási keretben megfelelően figyelembe vegyék és képviseljék minden fogyasztó, többek között a perifériára szorult és kiszolgáltatott helyzetben lévő, például fogyatékossággal élő fogyasztók érdekeit; megjegyzi, hogy az algoritmikus rendszerek fogyasztókra gyakorolt hatásainak elemzése céljából az adatokhoz való hozzáférést ki lehetne terjeszteni a megfelelő felekre, különösen a független kutatókra, a médiára és a civil társadalmi szervezetekre, lehetőség szerint alkalmazásprogramozási felületen keresztül (API), ugyanakkor teljes mértékben tiszteletben tartva az adatvédelemre és a magánélet védelmére, továbbá az üzleti titokra vonatkozó uniós jogszabályokat; emlékeztet annak fontosságára, hogy a fogyasztók oktatásban részesüljenek, hogy tájékozottak legyenek és megszerezzék a készségeket ahhoz, hogy kezelni tudják az algoritmikus rendszereket, annak érdekében, hogy megvédjék őket az esetleges kockázatoktól és fenntartsák jogaikat; úgy véli, hogy a mesterséges intelligencia, a dolgok internete és más kialakulóban lévő technológiák hatalmas lehetőségeket kínálnak a fogyasztók számára ahhoz, hogy számos módon hozzáférjenek a mindennapi életüket megkönnyítő és jobb termékeket és szolgáltatásokat lehetővé tevő számos szolgáltatáshoz, miközben a jobb piacfelügyelet előmozdításának szempontjából is előnyösek a fogyasztók számára, feltéve, hogy valamennyi alkalmazandó elv, feltétel (többek között az átláthatóság és az ellenőrizhetőség) és szabályozás továbbra is alkalmazandó;
14. hangsúlyozza annak fontosságát, hogy ezen a területen is magas szintű általános digitális jártasságot érjenek el és magasan képzett szakembereket képezzenek, valamint biztosítsák az ilyen képesítések Unió-szerte történő kölcsönös elismerését; kiemeli, hogy sokszínű fejlesztői-mérnöki csapatokra van szükség, amelyek társadalmi kulcsszereplőkkel együtt dolgoznak a nemi alapú és kulturális elfogultságok megelőzése céljából, amelyek óvatlan módon bekerülhetnek az MI-algoritmusokba, -rendszerekbe és -alkalmazásokba. támogatja a mesterséges intelligencia társadalmi, jogi és etikai hatásaival kapcsolatos oktatási tantervek és lakossági kampányok létrehozását;
15. felszólítja a Bizottságot, hogy támogassa és finanszírozza az olyan emberközpontú mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztését, amelyek kezelik a környezetvédelemmel és az éghajlatváltozással kapcsolatos kihívásokat, és pénzügyi, közbeszerzési és egyéb ösztönzők révén biztosítják az alapvető jogokhoz való egyenlő hozzáférést és azok érvényesítését;
16. hangsúlyozza, hogy a mesterséges intelligenciának és az algoritmikus rendszereket úgy kell kialakítani, hogy jogilag megfelelőek, stabilak, megbízhatóak és biztonságosak legyenek; felhívja a Bizottságot annak biztosítására, hogy az algoritmikus rendszerekre vonatkozó uniós szabályozási megközelítés megfelelő intézkedéseket tartalmazzon az ilyen rendszerek független ellenőrzésének és felügyeletének lehetővé tétele érdekében;
Piacfelügyelet
17. felhív egy európai szakértői központ létrehozására, amely megerősíti az uniós kapacitásokat és a lehető legnagyobb mértékben épít a meglévő struktúrákra az algoritmikus rendszerekkel kapcsolatos információk tagállami hatóságok közötti cseréjének előmozdítása, valamint az egységes piacon belüli közös értelmezés kialakításának támogatása érdekében, iránymutatásoknak, véleményeknek és szakértelemnek a tagállami hatóságok részére történő kiadásával, a vonatkozó uniós jogszabályok végrehajtásának nyomon követésével, az esetleges fogyasztóvédelmi kérdések kezelésével, a bevált gyakorlatokra vonatkozó szabványok meghatározásával és adott esetben szabályozási intézkedésekre vonatkozó ajánlások megfogalmazásával; kéri továbbá, hogy a fogyasztók széles körű képviseletének biztosítása érdekében az érdekelt felek szervezetei, például fogyasztóvédelmi szervezetek megfelelő módon tanáccsal lássák el ezt a struktúrát; úgy véli, hogy az algoritmikus rendszerek nőkre és kisebbségekre gyakorolt aránytalan hatása miatt egy ilyen struktúra döntéshozatali szintjeinek sokszínűnek és nemi szempontból kiegyensúlyozottnak kell lenniük; hangsúlyozza, hogy a tagállamoknak nemzeti piacfelügyeleti stratégiáik keretében kockázatkezelési stratégiákat kell kidolgozniuk a mesterséges intelligenciára vonatkozóan;
18. felhívja a Bizottságot, hogy javasoljon intézkedéseket az adatok nyomon követhetősége érdekében, szem előtt tartva mind az adatszerzés jogszerűségét, mind a fogyasztói jogok és az alapvető jogok védelmét; hangsúlyozza ugyanakkor, hogy az algoritmikus rendszerek fejlesztése és alkalmazása során használt adatkészleteket, algoritmusokat és folyamatokat – beleértve az adatgyűjtést és az adatcímkézést is – az ágazati szabvánnyal összhangban dokumentálni kell; megjegyzi, hogy alapvető fontosságú, hogy a mesterséges intelligencia, robotika és kapcsolódó technológiák által felhasznált vagy előállított kockázatelemzési dokumentáció, szoftverdokumentáció, algoritmusok és adatkészletek teljes mértékben elérhetőek és megmagyarázhatók legyenek a piacfelügyeleti hatóságok számára, az uniós jog és az üzleti titok tiszteletben tartása mellett; megjegyzi továbbá, hogy az ilyen dokumentációt azoknak kell tárolniuk, akik részt vesznek az algoritmikus rendszerek fejlesztésének különböző szakaszaiban; megjegyzi, hogy e tekintetben a piacfelügyeleti hatóságok számára további kiváltságok adhatók; úgy véli, hogy szükség lehet a jelenlegi piacfelügyeleti jogszabályok vizsgálatára az elavulás elkerülése és annak biztosítása érdekében, hogy azok etikailag reagáljanak a mesterséges intelligencia, a robotika és a kapcsolódó technológiák megjelenésére;
19. kéri, hogy minden tagállam jelöljön ki és megfelelő finanszírozásban részesítsen egy illetékes nemzeti hatóságot az algoritmikus rendszerekhez kapcsolódó rendelkezések alkalmazásának nyomon követésére; hangsúlyozza, hogy a nemzeti piacfelügyeleti hatóságokat meg kell erősíteni a mesterséges intelligenciával kapcsolatos kapacitás, készségek és kompetenciák, valamint a mesterséges intelligencia konkrét kockázataival kapcsolatos ismeretek tekintetében;
20. felhív a tagállami hatóságok szoros koordinációjára és az algoritmikus rendszerek nemzeti hatóságokból álló európai piacfelügyeleti testületének létrehozására a hatékony felügyelet és az egyenlő európai versenyfeltételek biztosítása, valamint a belső piac széttöredezésének elkerülése érdekében;
21. elismeri a mesterséges intelligenciával foglalkozó magas szintű szakértői csoport értékes eredményeit, különösen a megbízható mesterséges intelligenciára vonatkozó etikai iránymutatásokat; javasolja, hogy ez a tudományos élet, a civil társadalom és az ipar képviselőiből, valamint a mesterséges intelligenciával foglalkozó európai szövetségből álló csoport nyújtson szakértelmet az algoritmikus rendszerekkel foglalkozó európai piacfelügyeleti testület számára;
22. megjegyzi, hogy – különösen a vállalkozások és a fogyasztók közötti területeken – a rendszereknek felhasználóközpontúnak kell lenniük, és oly módon kell kialakítani azokat, hogy életkorra, nemre, képességre vagy tulajdonságra való tekintet nélkül mindenki igénybe vehesse a mesterségesintelligencia-termékeket vagy -szolgáltatásokat. megjegyzi, hogy az e technológiához való hozzáférés különösen fontos a fogyatékossággal élő személyek számára; megjegyzi, hogy a mesterségesintelligencia-rendszerek nem alkalmazhatnak egyenmegoldásokat, és figyelembe kell venniük a mindenki számára történő tervezés alapelveit, amelynek célja, hogy a vonatkozó akadálymentesítési szabványok követésével a felhasználók lehető legszélesebb körét lefedje; hangsúlyozza, hogy ez lehetővé teszi az egyének számára, hogy egyenlően hozzáférjenek a meglévő és a kialakulóban lévő, számítógépen keresztül közvetített emberi tevékenységekhez és támogató technológiákhoz, és aktívan részt vegyenek azokban.
INFORMÁCIÓ A VÉLEMÉNYNYILVÁNÍTÁSRA FELKÉRT
BIZOTTSÁG ÁLTALI ELFOGADÁSRÓL
Az elfogadás dátuma |
7.7.2020 |
|
|
|
A zárószavazás eredménye |
+: –: 0: |
39 1 4 |
||
A zárószavazáson jelen lévő tagok |
Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo |
|||
A zárószavazáson jelen lévő póttagok |
Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin |
A VÉLEMÉNYNYILVÁNÍTÁSRA FELKÉRT BIZOTTSÁG
NÉV SZERINTI ZÁRÓSZAVAZÁSA
39 |
+ |
EPP S&D RENEW GREENS/EFA ECR EUL/NGL NI |
Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, MariaManuel LeitãoMarques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose Andrus Ansip, VladMarius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie YonCourtin David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kimvan Sparrentak Adam Bielan, Carlo Fidanza, Eugen Jurzyca, Beata Mazurek Kateřina Konečná, AnneSophie Pelletier Marco Zullo |
1 |
- |
ID |
Hynek Blaško |
4 |
0 |
ID |
Alessandra Basso, Markus Buchheit, Virginie Joron, JeanLin Lacapelle |
Jelmagyarázat:
+ : mellette
- : ellene
0 : tartózkodás
VÉLEMÉNY A KÖZLEKEDÉSI ÉS IDEGENFORGALMI BIZOTTSÁG RÉSZÉRŐL (16.7.2020)
a Jogi Bizottság részére
a Bizottsághoz intézett ajánlásokkal a mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai szempontjainak keretéről
A vélemény előadója: Valter Flego
(*) Társbizottsági eljárás – az eljárási szabályzat 57. cikke
(Kezdeményezés – az eljárási szabályzat 47. cikke)
JAVASLATOK
A Közlekedési és Idegenforgalmi Bizottság felkéri a Külügyi Bizottságot mint illetékes bizottságot, hogy állásfoglalásra irányuló indítványába foglalja bele az alábbi javaslatokat:
A. mivel a mesterséges intelligencia stratégiai jelentőségű technológia a közlekedési ágazat számára, és a várakozások szerint a polgárok és a társadalom javát szolgálja azáltal, hogy javítja az életminőséget, növeli a biztonság szintjét minden közlekedési mód esetében, új foglalkoztatási lehetőségeket teremt és fenntarthatóbb üzleti modelleket hoz létre; mivel a mesterséges intelligencia képes lehet a társadalom jelentős átformálására, különösen akkor, ha széles körben elérhetővé és hozzáférhetővé válik;
B. mivel csak úgy lehet kiaknázni a mesterséges intelligencia által a közlekedési ágazatban nyújtotta valamennyi lehetőséget, ha a felhasználók tudatában vannak az e technológiában rejlő lehetséges előnyöknek és kihívásoknak; mivel ezzel a kérdéssel az oktatás és képzés során is foglalkozni kell, többek között a digitális befogadás előmozdítása kapcsán, és európai szintű tájékoztató kampányokat kell folytatni, amelyek pontos képet adnak a mesterséges intelligencia fejlesztésének valamennyi aspektusáról;
C. mivel a mesterséges intelligenciával, a robotikával és a kapcsolódó technológiákkal kapcsolatos európai megközelítésnek összhangban kell lennie az etikai elvekkel annak biztosítása érdekében, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák emberközpontúak legyenek, hogy növeljék az emberi jólétet, a biztonságot, a társadalom és a környezet jólétét, hogy kezeljék a vonatkozó etikai dilemmákat, teljes mértékben tiszteletben tartsák az Unió alapvető jogait, értékeit és elveit, valamint hogy teljes mértékben megfeleljenek a magánélet védelmére és az adatvédelemre vonatkozó uniós jogszabályoknak; mivel a fenti megközelítés keretében foglalkozni kell az algoritmikus rendszerekben használt adatkészletek minőségével, magukkal az algoritmusokkal, valamint az adatokra és az aggregálásukra vonatkozó normákkal;
D. mivel a megbízható mesterséges intelligenciának négy etikai alapelven kell alapulnia: az emberi autonómia tiszteletben tartása, a károk megelőzése, a méltányosság és a megmagyarázhatóság; mivel ezen etikai elvek tiszteletben tartása szükségessé teszi egyedi szabályok kidolgozását az EU közlekedési ágazata számára;
E. mivel az Unióban az összes közúti baleset mintegy 95%-ánál még mindig közrejátszik emberi hiba; mivel az EU célja az volt, hogy 2020-ig 2010-hez képest 50%-kal csökkentse a halálos kimenetelű közúti balesetek számát az EU-ban, de a stagnálásra tekintettel megújította erőfeszítéseit „A 2021–2030 közötti időszakra vonatkozó közúti közlekedésbiztonsági politikai keret – a következő lépések „ A »zéró-elképzelés« felé” című kiadványban; mivel e tekintetben a mesterséges intelligenciában, az automatizálásban és az új technológiákban az emberi hibák lehetőségének csökkentése révén nagy lehetőségek rejlenek a közúti biztonság növelésére, és fontos szerepet játszanak e téren;
F. mivel a mesterséges intelligencia, az automatizálás és más új technológiák szintén hozzájárulhatnak a forgalmi torlódások, valamint az üvegházhatást okozó gázok és a légszennyező anyagok kibocsátásának csökkentéséhez;
G. mivel az etikailag felelős, emberközpontú és technológiailag robusztus mesterséges intelligencia, robotika és kapcsolódó technológiák előállítása a közlekedési ágazatban az uniós vállalkozások, köztük a kkv-k számára üzleti lehetőséget kínál arra, hogy ezen a területen globális vezető szerepre tegyenek szert;
H. mivel az ilyen új üzleti lehetőségek hozzájárulhatnak az uniós gazdasági ágazat talpra állásához a jelenlegi egészségügyi és gazdasági válságot követően, valamint a mesterségesintelligencia-technológia fokozottabb használatához a közlekedési ágazatban; mivel ezek a lehetőségek új munkahelyeket teremtenek, mert a mesterséges intelligencia és a kapcsolódó technológiák elterjedése növelheti a vállalkozások termelékenységét és hozzájárulhat a hatékonyság növeléséhez; mivel ezen a területen az innovációs programok lehetővé tehetik a regionális klaszterek fejlődését;
I. mivel a közlekedés területén a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésének európai megközelítése növelheti az uniós gazdaság globális versenyképességét és stratégiai autonómiáját;
J. mivel az olyan ágazatokban, mint a tömegközlekedés, az intelligens közlekedési rendszerek mesterségesintelligencia-rendszerei felhasználhatók a sorban állás minimalizálására, az útvonal optimalizálására, a fogyatékossággal élő személyek függetlenségének növelésére és az energiahatékonyság javítására, ezáltal fokozva a dekarbonizációs erőfeszítéseket és csökkentve a környezeti lábnyomot;
1. hangsúlyozza a mesterséges intelligencia, a robotika és a kapcsolódó technológiák használata által valamennyi autonóm közúti, vasúti, vízi és légi közlekedési eszköz, valamint a modális váltás és az intermodalitás ösztönzése számára kínált lehetőségeket, mivel ezek a technológiák hozzájárulhatnak az áru- és személyszállítás szállítási módjai optimális kombinációjának megtalálásához; hangsúlyozza továbbá az ezekben rejlő lehetőségeket a közlekedés, a logisztika és a forgalom hatékonyabbá tételére, valamint valamennyi közlekedési mód biztonságosabbá, intelligensebbé és környezetbarátabbá tételére; rámutat, hogy a mesterséges intelligencia etikai megközelítése korai előrejelző rendszernek is tekinthető, különösen a közlekedés biztonsága és hatékonysága tekintetében;
2 hangsúlyozza, hogy a vállalatok és a gazdasági régiók közötti globális verseny azt jelenti, hogy az Uniónak elő kell mozdítania a beruházásokat és meg kell erősítenie a közlekedési ágazatban működő vállalatok nemzetközi versenyképességét azáltal, hogy kedvező környezetet teremt a mesterségesintelligencia-megoldások és további innovációk fejlesztéséhez és alkalmazásához, amelyben az uniós székhelyű vállalkozások világelsővé válhatnak a mesterségesintelligencia-technológiák fejlesztése terén;
3. hangsúlyozza, hogy az uniós közlekedési ágazatnak aktualizálnia kell az ezen kialakulóban lévő technológiákra és a közlekedési ágazatban való felhasználásukra vonatkozó szabályozási keretet, valamint a megbízható mesterséges intelligencia – többek között a biztonság, a védelem, az emberi autonómia tiszteletben tartása, a felügyelet és a felelősség – megvalósításához szükséges egyértelmű etikai keretet igényel, amely növelni fogja a mindenki számára közös előnyöket, és kulcsfontosságú szerepet fog játszani a kutatásba és innovációba történő beruházások ösztönzésében, a készségek fejlesztésében és a mesterséges intelligencia közszolgáltatások, kkv-k, induló vállalkozások és vállalkozások általi adoptálásában, ugyanakkor biztosítani fogja az adatvédelmet és az interoperabilitást, szükségtelen adminisztratív terhek nélkül a vállalkozások és a fogyasztók számára; hangsúlyozza, hogy alapvető fontosságú annak biztosítása, hogy az e kialakulóban lévő technológiákra vonatkozó szabályozási keret bármilyen frissítése mindig valós igényen alapuljon, és megfeleljen a jobb szabályozás elvének;
a) felhívja a Bizottságot, hogy gondoskodjon a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére, alkalmazására és használatára vonatkozó etikai elvek egyértelmű keretéről a közlekedési ágazatban; a közlekedési ágazatban a mesterséges intelligenciát, a robotikát és a kapcsolódó technológiákat ezen etikai követelményeknek megfelelően kell kifejleszteni, bevezetni és alkalmazni;
b) javasolja iránymutatások kidolgozását az összes közlekedési mód esetében alkalmazott, mesterséges intelligencián alapuló technológiák harmonizált kockázati osztályozására vonatkozóan, amelyek lefedik az emberek és a mesterséges intelligencia által kezelendő járműfunkciókat, és tisztázzák a biztonsággal kapcsolatos felelősségi köröket és követelményeket;
c) felhívja a Bizottságot, hogy vizsgálja meg a meglévő európai piacfelügyeleti struktúra használatát az algoritmikus rendszerek terén, beleértve a kapcsolódó adatvédelmi rendelkezéseket, iránymutatásokat, véleményeket, és dolgozzon ki szakvéleményt a tagállami hatóságok számára, többek között az interoperabilitásra vonatkozóan;
d) felhívja a Bizottságot, hogy a magas szintű szakértői csoport értékelésével összhangban hozzon létre a mesterségesintelligencia kockázati osztályozására szolgáló rendszert az intelligens közlekedési rendszerek számára annak érdekében, hogy jobban megfeleljen a közlekedési ágazat újonnan felmerülő igényeinek;
e) felhívja a Bizottságot, hogy fordítson különös figyelmet a kkv-k helyzetére, és a jövőbeli jogszabályokat úgy alakítsa ki, hogy javítsa az ilyen vállalkozások lehetőségeit a mesterséges intelligencia technológiájának fejlesztésére és használatára;
f) úgy véli, hogy részletes tájékoztatást kell nyújtani a végfelhasználók számára a közlekedési rendszerek és a mesterséges intelligencián alapuló járművek működéséről;
4. hangsúlyozza, hogy a mesterségesintelligencia-technológia európai megközelítésének el kell nyernie az emberek bizalmát, a közérdeket kell szolgálnia, és meg kell erősítenie a közös társadalmi felelősségvállalást; úgy véli, hogy a megbízható, etikailag felelős és technikailag stabil mesterséges intelligencia a fenntartható, intelligens, biztonságos és hozzáférhető mobilitás fontos ösztönzője; e tekintetben felhívja a Bizottságot, hogy továbbra is mozdítsa elő a mesterséges intelligencia terjedését a közlekedési ágazatban, és az uniós alapvető jogok tiszteletben tartása érdekében tegyen javaslatot az uniós jogszabályok haladéktalan és a közlekedési ágazat minden érintettjével szoros együttműködésben történő megfelelő módosítására;
5. hangsúlyozza, hogy a mesterséges intelligencia fejlesztése és alkalmazása biztonságos és hozzáférhető közlekedési szolgáltatásokat tesz lehetővé;
6. ajánlja, hogy uniós szintű, megbízható mesterségesintelligencia-szabványok kidolgozását valamennyi közlekedési módra, beleértve a gépjárműipart is, a kapcsolódó hardverek biztonsága, interoperabilitása, műszaki megbízhatósága, javíthatósága és újrafeldolgozhatósága tekintetében – többek között az erőforrás-hatékonysággal, a magánélet védelmével, az adatvédelemmel és az átláthatósággal kapcsolatos aggályok eloszlatása érdekében, valamint a mesterséges intelligenciával működő járművek és kapcsolódó termékek és szolgáltatások tesztelése számára;
7. kéri a Bizottságot, hogy szorosan működjön együtt a tagállamokkal a mesterséges intelligenciára vonatkozó megbízható uniós szabványok kialakítása, végrehajtása és érvényesítése terén; megjegyzi, hogy az Unióban megvan a lehetőség arra, hogy globális vezető szerepre tegyen szert az MI-technológia és használata társadalmilag felelős és fenntartható megközelítésének előmozdításában;
8. felhívja a Bizottságot, hogy vizsgálja meg annak lehetőségét, hogy egy vagy több meglévő uniós szintű ügynökséget, intézményt vagy szervet bízzon meg a nyomonkövetési, végrehajtási és szankcionálási mechanizmusok működtetésével, és vizsgálja meg, hogy a közlekedési ágazatban meglévő felügyeleti és ellenőrzési eszközök hogyan alkalmazhatóak az uniós szintű felügyelet biztosítása és annak érdekében, hogy lehetővé váljon a Bizottság fellépése abban az esetben, ha a közlekedésben használt valamely mesterségesintelligencia-rendszer sérti az alapvető jogokat vagy az európai etikai és biztonsági keretet;
9. felhívja a Bizottságot, hogy továbbra is támogassa a megbízható mesterségesintelligencia-rendszerek fejlesztését annak érdekében, hogy a közlekedés biztonságosabbá, hatékonyabbá, hozzáférhetőbbé, megfizethetőbbé és befogadóbbá váljon, többek között a csökkent mozgásképességű személyek, különösen a fogyatékossággal élő személyek számára, figyelembe véve az (EU) 2019/882 európai parlamenti és tanácsi irányelvet[22] és az utasok jogairól szóló uniós jogot;
10. felhívja a figyelmet az autonóm járművek által a csökkent mozgásképességű személyek számára nyújtott magas hozzáadott értékre, mivel e járművek révén hatékonyabban vehetnek részt a közúti közlekedésben, ami egyszerűbbé teszi a mindennapi életüket;
11. hangsúlyozza a hozzáférhetőség fontosságát, különösen a MaaS-rendszerek (szolgáltatásalapú mobilitás) tervezésekor.
12. hangsúlyozza az adattudomány kritikus jelentőségét a megkülönböztetésmentes mesterségesintelligencia-rendszerek kialakítása és a károsodott adatok felhasználásának megelőzése szempontjából; javasolja továbbá az általános adatvédelmi rendeletnek megfelelő, valamint a titoktartás és a megkülönböztetésmentesség elvét tiszteletben tartó adatkezelési eljárások követését;
13. megjegyzi, hogy az MI-rendszerek segíthetnek a közúti halálesetek számának jelentős csökkentésében, például a jobb reakcióidő és a szabályok megfelelőbb betartása által; úgy véli azonban, hogy az önvezető járművek használata nem vezethet az összes baleset kiküszöböléséhez, és hangsúlyozza, hogy ez növeli a mesterséges intelligenciával kapcsolatos döntések feltárhatóságának fontosságát a mesterséges intelligencia által hozott döntések hiányosságainak és nem szándékos következményeinek indoklása terén;
14. úgy véli, hogy a mesterséges intelligenciával kapcsolatos döntéseket, valamint az azokat alátámasztó releváns adatokat minden esetben meg kell tudni magyarázni a végfelhasználóknak és más érdekelt feleknek, nem műszaki terminusokat használva;
15. megjegyzi, hogy a mesterséges intelligencia fejlesztése és megvalósítása a közlekedési ágazatban nem lesz lehetséges modern infrastruktúra nélkül, amely az intelligens közlekedési rendszerek alapvető részét képezi; hangsúlyozza, hogy a tagállamok fejlettségi szintjei közötti tartós eltérések annak kockázatához vezetnek, hogy a legkevésbé fejlett régiók és lakóik elesnek az autonóm mobilitás fejlesztésének előnyeitől; felszólít a közlekedési ágazatban a mesterségesintelligencia-technológiák fejlődéséből eredő, a munkaerőpiac jövőjét érintő kihívások értékelésére, valamint az uniós infrastruktúra korszerűsítésének – többek között az 5G hálózatba való integrálásának – megfelelő finanszírozására;
INFORMÁCIÓ A VÉLEMÉNYNYILVÁNÍTÁSRA FELKÉRT BIZOTTSÁG ÁLTALI ELFOGADÁSRÓL
Az elfogadás dátuma |
14.7.2020 |
|
|
|
A zárószavazás eredménye |
+: –: 0: |
49 0 0 |
||
A zárószavazáson jelen lévő tagok |
Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, István Ujhelyi, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski |
|||
A zárószavazáson jelen lévő póttagok |
Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti |
NÉV SZERINTI ZÁRÓSZAVAZÁS A VÉLEMÉNYNYILVÁNÍTÁSRA FELKÉRT BIZOTTSÁGBAN
49 |
+ |
ECR Group |
Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski |
GUE/NGL Group |
Leila Chaibi, Kateřina Konečná, Elena Kountoura |
ID Group |
Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo |
NI |
Dorien Rookmaker, Mario Furore, |
PPE Group |
Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian‑Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg‑Vrionidi, Elżbieta Katarzyna Łukacijewska |
Renew Group |
José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan‑Christoph Oetjen, Dominique Riquet |
S&D Group |
Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi |
Verts/ALE Group |
Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay‑Grunenberg, Tilly Metz |
0 |
- |
|
|
0 |
0 |
|
|
Jelmagyarázat:
+ : mellette
- : ellene
0 : tartózkodás
VÉLEMÉNY AZ ÁLLAMPOLGÁRI JOGI, BEL- ÉS IGAZSÁGÜGYI BIZOTTSÁG RÉSZÉRŐL (22.9.2020)
a Jogi Bizottság részére
a Bizottságnak szóló ajánlásokkal a mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai szempontjaira vonatkozó keretről
A vélemény előadója(*): Assita Kanko
(*) Társbizottsági eljárás – az eljárási szabályzat 57. cikke
(Kezdeményezés – az eljárási szabályzat 47. cikke)
JAVASLATOK
Az Állampolgári Jogi, Bel- és Igazságügyi Bizottság felkéri a Jogi Bizottságot mint illetékes bizottságot, hogy állásfoglalásra irányuló indítványába foglalja bele az alábbi módosításokat:
– tekintettel az Európai Unióról szóló szerződés (EUSZ) 2. és 3. cikkére,
– tekintettel az Európai Unió működéséről szóló szerződés (EUMSZ) 10., 19., 21. és 167. cikkére,
– tekintettel az EUMSZ 20. és 227. cikkében és az Európai Unió Alapjogi Chartájának (Charta) 44. cikkében foglalt petíciós jogra,
– tekintettel a Charta 21. és 22. cikkére,
– tekintettel az EUSZ preambulumára,
– tekintettel az Európa Tanács nemzeti kisebbségek védelméről szóló keretegyezményére, az emberi jogok és alapvető szabadságok védelméről szóló egyezmény 12. jegyzőkönyvére, valamint a Regionális vagy Kisebbségi Nyelvek Európai Kartájára,
– tekintettel a személyek közötti, faji vagy etnikai származásra való tekintet nélküli egyenlő bánásmód elvének alkalmazásáról szóló, 2000. június 29-i 2000/43/EK tanácsi irányelvre[23] (a faji egyenlőségről szóló irányelv),
– tekintettel a foglalkoztatás és a munkavégzés során alkalmazott egyenlő bánásmód általános kereteinek létrehozásáról szóló, 2000. november 27-i 2000/78/EK tanácsi irányelvre[24] (a munkavégzés során alkalmazott egyenlő bánásmódról szóló irányelv),
– tekintettel a természetes személyeknek a személyes adatok kezelése tekintetében történő védelméről és az ilyen adatok szabad áramlásáról, valamint a 95/46/EK rendelet hatályon kívül helyezéséről szóló, 2016. április 27-i (EU) 2016/679 európai parlamenti és tanácsi rendeletre[25] (általános adatvédelmi rendelet) és a személyes adatoknak az illetékes hatóságok által a bűncselekmények megelőzése, nyomozása, felderítése, a vádeljárás lefolytatása vagy büntetőjogi szankciók végrehajtása céljából végzett kezelése tekintetében a természetes személyek védelméről és az ilyen adatok szabad áramlásáról, valamint a 2008/977/IB tanácsi kerethatározat hatályon kívül helyezéséről szóló, 2016. április 27-i (EU) 2016/680 európai parlamenti és tanácsi irányelvre[26],
– tekintettel az Európai Parlamentnek, a Tanácsnak, az Európai Gazdasági és Szociális Bizottságnak és a Régiók Bizottságának címzett, „Az európai zöld megállapodás” című, 2019. december 11-i bizottsági közleményre,
– tekintettel a robotikára vonatkozó polgári jogi szabályokról szóló, 2017. február 16-i állásfoglalására a Bizottságnak szóló ajánlásokkal[27],
– tekintettel az OECD Tanácsának a mesterséges intelligenciáról szóló, 2019. május 22-én elfogadott ajánlására,
A. mivel az úgynevezett „mesterséges intelligenciát”, a robotikát és a kapcsolódó technológiákat az emberek fejlesztik és alakítják ki, és döntéseik meghatározzák, hogy a technológia milyen előnyökkel járhat a társadalom számára;
B. mivel az algoritmikus elszámoltathatóság olyan technikai és operatív intézkedések végrehajtását jelenti, amelyek biztosítják az átláthatóságot, az egyértelműen kijelölt felelősségi láncokat, az automatizált döntéshozatal vagy az egyéni viselkedés valószínűségének kiszámítása révén a megkülönböztetésmentességet; mivel az átláthatóság azt jelenti, hogy érdemi információt kell biztosítani az egyének számára az alkalmazott logikával, az eljárás jelentőségével és a várható következményekkel kapcsolatban; mivel ennek az MI betanításához használt adatokra vonatkozó tájékoztatást is magában kell foglalnia, és lehetővé kell tennie, hogy az egyének is megérthessék és nyomon követhessék az őket érintő döntéseket;
C. mivel komoly aggályok merülnek fel azzal kapcsolatban, hogy a jelenlegi uniós jogi keret, többek között a fogyasztóvédelmi joganyag, a termékbiztonságra és a piacfelügyeletre vonatkozó jogszabályok, valamint a megkülönböztetés elleni jogszabályok nem mindig alkalmasak a mesterséges intelligencia, a robotika és a kapcsolódó technológiák jelentette kockázatok hatékony kezelésére;
D. mivel a mesterséges intelligencia, a robotika és a kapcsolódó technológiák súlyos következményekkel járhatnak az egyének, csoportok és a társadalom egésze anyagi és immateriális javaira nézve, és ezeknek az egyéni és kollektív károknak tükröződniük kell a jogalkotási válaszokban;
E. mivel a mesterséges intelligencia közszférában való alkalmazásával kapcsolatos irányítási kérdéseket megfelelően figyelembe kell venni a demokráciára gyakorolt hatásait illetően, különös tekintettel a demokratikus legitimitásra, az elszámoltathatóságra, az érdemi nyilvános szerepvállalásra és a felügyeletre;
F. mivel az adatelemzés és az MI egyre nagyobb mértékben befolyásolják a polgárok számára hozzáférhetővé tett információkat; mivel helytelen használat esetén ezek a technikák veszélyeztethetik a tájékoztatáshoz való alapvető jogot, valamint a média szabadságát és a pluralizmust;
G. mivel az etikai útmutatások, például a mesterséges intelligencia magas szintű szakértői csoportja által elfogadott alapelvek jó kiindulási pontot jelentenek, de nem elégségesek annak biztosításához, hogy a vállalkozások tisztességesen cselekedjenek, és garantálják az egyének hatékony védelmét;
1. hangsúlyozza, hogy a polgárok, az állami és a magánszektor, a felsőoktatás és a tudományos közösség csak akkor használhatják ki maradéktalanul a mesterséges intelligencia kínálta kilátásokat és lehetőségeket, ha a nyilvánosság e technológia iránti bizalmát az alapvető jogok és a jogbiztonság, valamint a hatályos uniós adatvédelmi jogszabályok határozott érvényesítése garantálja az összes részt vevő szereplő számára; hangsúlyozza, hogy személyes adatok feldolgozására kizárólag az (EU) 2016/679 rendelet 6. cikkében foglalt jogalapok valamelyike alapján kerülhet sor; döntő fontosságúnak tartja, hogy az átláthatóság és az érintetteknek nyújtott megfelelő tájékoztatás kulcsfontosságú a közvélemény bizalmának megteremtése és az egyéni jogok védelme szempontjából;
2. hangsúlyozza, hogy a meglévő adatvédelmi jogszabályoknak való megfelelés, valamint az erős tudományos, etikai és jogi normák és a demokratikus felügyelet módszerei kulcsfontosságúak a mesterséges intelligenciával kapcsolatos megoldásokba vetett bizalom és azok megbízhatóságának megteremtéséhez; hangsúlyozza továbbá, hogy az MI révén nyert információk nem nyújtanak elfogulatlan áttekintést egy adott kérdésről, és az információk megbízhatósága az alapul szolgáló adatokon múlik; rávilágít arra, hogy az MI-n alapuló prediktív elemzés csupán statisztikai valószínűséget képes kínálni, és az egyéni viselkedést nem mindig tudja pontosan előre jelezni; ezért hangsúlyozza, hogy elengedhetetlen a szigorú tudományos, etikai és jogi normák alkalmazása az adatgyűjtés irányítása és az MI-elemzés eredményeinek megítélése terén;
3. véleménye szerint az MI, a robotika és a kapcsolódó technológiák fejlesztésére, telepítésére és használatára vonatkozó etikai elvek bármely keretének maradéktalanul tiszteletben kell tartania az Európai Unió Alapjogi Chartáját, és ezáltal tiszteletben kell tartania az emberi méltóságot, az egyén autonómiáját és önrendelkezését, törekednie kell a károkozás megelőzésére, a tisztesség, az inklúzió és az átláthatóság előmozdítására, az előítéletek és – kisebbségi csoportok esetében is – a megkülönböztetés kiküszöbölésére, valamint a felhasznált technológiák negatív következményeinek korlátozására és a technológiák érthetővé tételére vonatkozó elvek tiszteletben tartására és az azoknak való megfelelésre, garantálva, hogy e technológiáknak az embereket szolgálniuk és nem helyettesíteniük kell vagy döntéseket hozniuk helyettük, mivel a végső cél minden ember jóllétének növelése;
4. rámutat az MI-technológiákat alkalmazók, valamint a velük kapcsolatba lépők és a tőlük függők közötti erőviszonyokban tapasztalható aszimmetriára; hangsúlyozza e tekintetben egy „alapértelmezésben és tervezésben etikus” elvet követő jogi keret kidolgozásának fontosságát, amely biztosítja, hogy bármely üzembe helyezett MI maradéktalanul tiszteletben tartsa az Európai Unió Alapjogi Chartáját és a Szerződéseket; véleménye szerint ennek összhangban kell lennie az uniós jogszabályokat vezérlő elővigyázatossági elvvel, és az MI-re vonatkozó keret középpontjában kell állnia; e tekintetben egyértelmű és koherens irányítási modellt szorgalmaz, amely lehetővé teszi a vállalatok és az innovátorok számára a mesterséges intelligencia, a robotika és a kapcsolódó technológiák továbbfejlesztését;
5. felszólítja az Európai Uniót és a tagállamokat, hogy etikai követelményként mozdítsák elő a közvélemény tudatosságát az MI használatának kockázataival és lehetőségeivel kapcsolatban;
6. úgy véli, hogy a – és különösen a magánélet és a személyes adatok védelmére vonatkozó – hatályos uniós jogi keret teljes mértékben alkalmazandó a mesterséges intelligenciára, a robotikára és a kapcsolódó technológiákra, ám rendszeres jelleggel felül kell vizsgálni és áttekinteni, szükség esetén pedig naprakésszé tenni a mesterséges intelligencia, a robotika és a kapcsolódó technológiák által teremtett kockázatok kezelése végett, valamint előnyös lehet, ha szilárd etikai iránymutatásokkal egészül ki; rámutat, hogy ahol korai lenne jogi aktus elfogadása, ott puha jogi keretet kell alkalmazni;
7. elvárja a Bizottságtól, hogy a mesterséges intelligenciáról szóló fehér könyv nyomon követéseként olyan szilárd etikai keretet építsen be a küszöbön álló jogalkotási javaslatba, többek között a biztonságra, a felelősségre, az alapvető jogokra és az adatvédelemre vonatkozóan, amely maximalizálja az MI-vel kapcsolatos technológiákban rejlő lehetőségeket és minimalizálja azok kockázatait; elvárja, hogy a soron következő jogalkotási javaslat tartalmazzon szakpolitikai megoldásokat a mesterséges intelligencia jelentős elismert kockázataira, többek között a nagy adathalmazok etikus gyűjtésére és felhasználására, az algoritmikus átláthatóság és az algoritmikus elfogultság kérdésére; felszólítja a Bizottságot, hogy dolgozzon ki az MI-technológia jelölésére szolgáló kritériumokat és mutatókat az átláthatóság, az érthetőség és az elszámoltathatóság előmozdítása, valamint a fejlesztők további óvintézkedésekre való ösztönzése érdekében; hangsúlyozza, hogy be kell fektetni a társadalmi hatásokat vizsgáló nem műszaki tudományágaknak az MI-vel kapcsolatos tanulmányokba és kutatásokba való integrálásába;
8. emlékeztet rá, hogy – attól függően, hogy miképpen fejlesztették, használják és alkalmazzák – az MI-ben benne rejlik a lehetőség elfogultságok megteremtésére és megerősítésére, ideértve a kiindulási adatállományokban meglevő torzításokat, és ily módon létrejöhet az automatikus megkülönböztetés számos formája hasonló jellemzőkkel rendelkező egyes embercsoportokkal szemben; felszólítja a Bizottságot és a tagállamokat, hogy hozzanak meg minden lehetséges intézkedést az ilyen torzulások megelőzése és az alapvető jogok maradéktalan védelmének biztosítása céljából;
9. megjegyzi, hogy az MI, a robotika és a kapcsolódó technológiák területe feltűnően homogén és hiányzik belőle a sokféleség; elismeri, hogy biztosítani kell, hogy az e rendszereket tervező, fejlesztő, tesztelő, karbantartó, telepítő és beszerző csoportok tükrözzék a felhasználásuk és általában a társadalom sokféleségét annak biztosítása érdekében, hogy az elfogultság ne épüljön be akaratlanul e technológiákba;
10. véleménye szerint a határokon átnyúló hatékony együttműködés és etikai normák csak akkor életképesek, ha valamennyi szereplő igyekszik az emberi cselekvőképesség és ellenőrzés, a műszaki stabilitás és biztonság, az átláthatóság és az elszámoltathatóság, a sokszínűség, a megkülönböztetésmentesség és a tisztességes bánásmód, a társadalmi és környezeti jóllét biztosítására, valamint tiszteletben tartja a magánélet, az adatkormányzás és az adatvédelem – különösen az (EU) 2016/679 európai parlamenti és tanácsi rendeletben (általános adatvédelmi rendelet) foglaltak – elismert elveit;
11. felhív kockázatalapú és jövőorientált megközelítésre a mesterséges intelligencia, a robotika és a kapcsolódó technológiák szabályozása terén, beleértve a valamennyi ágazatra vonatkozó – adott esetben ágazatspecifikus – technológiasemleges etikai normákat; határozottan úgy véli, hogy a széttöredezettség elkerülése érdekében uniós szintű, működőképes etikai keretet kell alkalmazni mindenkire, aki MI-alkalmazásokat kíván fejleszteni vagy működtetni az EU-ban; felhívja az Uniót, hogy a legjobb gyakorlatok kialakítása és az MI magas kockázatú alkalmazásainak azonosítása érdekében mozdítsa elő az erőteljes és átlátható együttműködést és tudásmegosztást a magán- és a közszféra között;
12. támogatja az önkéntes alapú vállalati digitális felelősségvállalást; az EU-nak támogatnia kell azokat a nagyvállalatokat, amelyek saját választásuk szerint etikusan használják a digitális technológiákat és az MI-t a hozzájuk tartozó vállalatokon belül; az EU-nak ösztönöznie kell a nagyvállalatokat a proaktív fellépésre, oly módon, hogy platformot hoznak létre vállalataik számára, ahol megoszthatják az etikus digitalizációval kapcsolatos tapasztalataikat, valamint koordinálják a részt vevő vállalatok intézkedéseit és stratégiáit;
13. hangsúlyozza, hogy fontos az összekapcsolt MI- és robotikai hálózatok védelme, és erőteljes intézkedésekkel ki kell küszöbölni a biztonsági réseket, az adatszivárgásokat, az adatmérgezéseket, a kibertámadásokat és a személyes adatokkal való visszaéléseket, és hogy ehhez az érintett ügynökségeknek, szerveknek és intézményeknek mind európai, mind nemzeti szinten együtt kell működniük egymással és e technológiák végfelhasználóival; felhívja az Európai Bizottságot és a tagállamokat, hogy az MI-technológiák fejlesztése és telepítése során mindenkor biztosítsák az európai értékek és az alapvető jogok tiszteletben tartását az EU digitális infrastruktúrája biztonságának és ellenálló képességének garantálása végett;
14. e tekintetben tudomásul veszi az ENISA-ról szóló 2019/881/EK európai parlamenti és tanácsi rendeletben és a kiberbiztonsági jogszabályban foglalt rendelkezéseket, különösen az ENISA szerepét a végfelhasználókat célzó – többek között a potenciális kiberfenyegetésekről és az online bűncselekményekről szóló – figyelemfelhívó és oktató kampányok előmozdításában, valamint az alapvető adatvédelmi intézkedések előmozdításában; elismeri ezen uniós ügynökség hozzáadott értékét e tekintetben;
15. hangsúlyozza, hogy a mesterséges intelligencia rosszindulatú használata veszélyeztetheti demokráciáink értékeit és az Európai Unió polgárainak alapvető jogait. Felhívja a Bizottságot, hogy tegyen javaslatot egy olyan keretre, amely bünteti azokat, akik ezt a technológiát arra használják, hogy dezinformációs kampányokkal torzítsák a valóságot, vagy kibertámadásokat indítsanak a digitális kiberbiztonság megsértése érdekében.
16. megállapítja, hogy az MI, a robotika és a kapcsolódó technológiák használata a bűnüldözés és a határellenőrzés területén erősítheti a közbiztonságot és a védettséget, de ugyanakkor kiterjedt és szigorú ellenőrzést, valamint a lehető legmagasabb fokú átláthatóságot igényli mind az egyes alkalmazások kockázatértékelése, mind pedig az MI, a robotika és a kapcsolódó technológiák használatának általános áttekintése tekintetében e területeken; véleménye szerint e technológiák jelentős és ennek megfelelően kezelendő etikai kockázatot hordoznak, mivel hátrányosan érinthetik az egyéneket, különösen a magánélethez, az adatvédelemhez és megkülönböztetésmentességhez való joguk tekintetében; hangsúlyozza, hogy helytelen felhasználásuk közvetlen veszélyt jelenthet a demokráciára, és bevezetésük és használatuk során tiszteletben kell tartani az arányosság és a szükségesség elvét, az Alapjogi Chartát, valamint a vonatkozó másodlagos uniós jogot, így az uniós adatvédelmi szabályokat; hangsúlyozza, hogy a MI-nek soha nem szabad felváltania az embereket az ítéletek meghozatala terén; az egyénekre vonatkozóan joghatással bíró vagy őket jelentősen érintő határozatok, így óvadék meghatározása vagy próbára bocsátás, bíróság előtti meghallgatás vagy kizárólag automatizált feldolgozásra alapozott döntések esetében mindig szükség van egy ember érdemi értékelésére és ítéletére;
17. figyelmeztet arra, hogy mivel a bűnüldöző hatóságok által hozott határozatok és intézkedések – többek között az adatfeldolgozás és a mesterséges intelligencia révén – mélyen beavatkoznak a polgárok életébe és jogaiba, ezért a lehető legnagyobb körültekintésre van szükség a jogellenes megkülönböztetés és a faj, bőrszín, etnikai vagy társadalmi származás, genetikai tulajdonság, nyelv, vallás vagy meggyőződés, politikai vagy más vélemény, vagyoni helyzet, születés, fogyatékosság, kor, nem, nemi önkifejezés vagy identitás, szexuális irányultság, tartózkodási jogállás, egészségi állapot vagy – etnikai profilalkotást vagy intenzívebb rendfenntartó hatósági fellépést gyakran elszenvedő – nemzeti kisebbséghez való tartozás által meghatározott egyének vagy embercsoportok, valamint a körülmények folytán sajátos jellemzőkkel definiálható egyének célkeresztbe állításának elkerülése érdekében; szorgalmazza a frontvonalbeli adatgyűjtők, valamint az MI-ből származó információk felhasználóinak megfelelő képzését;
18. rámutat arra, hogy az e technológiák által a személyes adatok és a nem személyes adatok személyek kategorizálására és mikrocélzására, az egyének sérülékeny pontjainak azonosítására vagy az előrejelzésen alapuló pontos ismeretek kiaknázására való felhasználására biztosított lehetőséget ellensúlyozni kell a hatékonyan végrehajtott adatvédelemmel és olyan adatvédelmi elvekkel, mint az adattakarékosság, a profilalkotással szembeni tiltakozáshoz való jog, a saját adatok fölötti ellenőrzéshez való jog, az automatizált feldolgozáson alapuló döntések magyarázatához való jog és a beépített adatvédelem elve, valamint az arányosság, a szükségesség és a szigorú célhozkötöttség elve; rámutat arra, hogy míg a prediktív rendfenntartás egyes modelljei jobban tiszteletben tartják a magánéletet, mint más modellek, például amelyek helyekkel vagy eseményekkel kapcsolatban, nem pedig az egyénekkel kapcsolatban készítenek valószínűségi előrejelzéseket, a prediktív rendfenntartási rendszerek a meglévő elfogultság, például faji profilalkotás, illetve migráns- vagy munkásosztálybeli háttér alapján súlyosbítják a túlszabályozást, még akkor is, ha ez nem felel meg a bűnözés tényleges szintjének;
19. hangsúlyozza, hogy a polgároknak joguk van ahhoz, hogy megbízzanak az általuk vagy a mások által használt technológiákban; hangsúlyozza, hogy az MI és a robotika nem tévedhetetlen, és ezért felhívja a figyelmet a magyarázathoz való jog fontosságára azokban az esetekben, amikor az egyéneket algoritmikus döntéshozatalnak vetik alá, valamint arra, hogy az algoritmusoknak átláthatónak kell lenniük, mert az algoritmus alapját képező logika átláthatósága nagyon fontos az érintettek számára alapvető jogaik maradéktalan megvédése érdekében; véleménye szerint a jogalkotóknak megfontolás tárgyává kell tenniük a felelősség összetett kérdését, és minden MI-alkalmazás esetében egy természetes vagy jogi személynek kell viselnie a felelősséget;
20. hangsúlyozza, hogy a mesterséges intelligencia, a robotika és a kapcsolódó technológiák globális technológiák, és hogy ezeket a szabványokat világszerte el kell fogadni annak biztosítása érdekében, hogy jövőbeli fejlődésük összhangban legyen az európai értékekkel és etikai normákkal; felhívja a Bizottságot, hogy vegyen részt a mesterséges intelligenciával kapcsolatos diplomácia nemzetközi fórumain hasonló gondolkodású partnerekkel, például az Egyesült Államokkal, a G7-csoporttal, a G20-csoporttal és az OECD-vel a mesterséges intelligencia, a robotika és a kapcsolódó technológiák fejlesztésére vonatkozó közös etikai normák és iránymutatások létrehozása érdekében;
21 hangsúlyozza, hogy világos kereteket kell kialakítani a mesterséges intelligencia közösségi platformok általi használata tekintetében, valamint átláthatósági követelményeket kell bevezetni az alkalmazott algoritmusokra és azok súlyozására vonatkozóan , hogy megakadályozzák a túlzott tartalomeltávolítást és az internet szűrésének vagy cenzúrázásának bármiféle formáját;
22 megjegyzi, hogy a mesterséges intelligencia felhasználható arc- és audiovizuális jellemzők manipulálására, amelyeket gyakran deepfake-nek (mélykamunak) neveznek; emlékeztet arra, hogy ez a technika felhasználható választások manipulálására, dezinformálásra és egyéb rosszindulatú fellépésekre; kéri ezért a Bizottságot, hogy használja fel etikai keretét arra, hogy minden deepfake anyagra vagy bármely egyéb, realisztikusnak tűnő szintetikus videóra vonatkozóan előírja annak kötelezettségét, hogy közöljék, azok nem eredetiek, és szigorú korlátozást vezessen be, amennyiben azokat választási célokra használják;
23. javasolja, hogy a tudás és a műszaki szakértelem megosztásának előmozdítása, valamint az EU-n belüli és kívüli együttműködés megkönnyítése érdekében vagy egy ilyen ügynökség szerves részeként vagy egy ilyen ügynökséggel társulva hozzanak létre egy uniós szintű szakértői központot, amely összefogja a tudományos köröket, a kutatást, az ipart és az egyéni szakértőket;
24. emlékeztet a nyelvi és kulturális sokszínűség fontosságára; felhívja ezért a Bizottságot, hogy használja fel etikai keretét annak érdekében, hogy a mesterséges intelligencia ne csökkentse ezt a sokszínűséget, hanem továbbra is biztosítson hozzáférést olyan tartalmak széles köréhez, amelyek nem képviselnek túlzott mértékben egyetlen nyelvet és/vagy kulturális modellt sem, és ítéljen el minden olyan, algoritmusoktól származó kísérletet, amely korlátozná ezt a sokszínűséget, és csak olyan tartalmakat kínálna, amelyek már létező mintáknak felelnek meg, vagy amelyek olyan „visszhangkamraként” működnének, amely megakadályozná a nagyobb sokszínűséghez való hozzáférést;
25. ajánlja, hogy a Bizottság bizonyítsa, hogy egyértelműen felülvizsgálta, értékelte és kiigazította az MI-re vonatkozó összehangolt tervét annak érdekében, hogy kezelje a mesterséges intelligencia súlyos alapjogi vonatkozásait, és vázolja fel, hogy az EU jogalkotási megközelítése és a tagállamok nemzeti stratégiáinak végrehajtása során hogyan fogja csökkenteni ezeket a kockázatokat;
INFORMÁCIÓ A VÉLEMÉNYNYILVÁNÍTÁSRA FELKÉRT BIZOTTSÁG ÁLTALI ELFOGADÁSRÓL
Az elfogadás dátuma |
22.9.2020 |
|
|
|
A zárószavazás eredménye |
+: –: 0: |
55 5 7 |
||
A zárószavazáson jelen lévő tagok |
Magdalena Adamowicz, Malik Azmani, Katarina Barley, Pernando Barrena Arza, Pietro Bartolo, Nicolas Bay, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Patrick Breyer, Saskia Bricmont, Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Damien Carême, Anna Júlia Donáth, Lena Düpont, Cornelia Ernst, Laura Ferrara, Nicolaus Fest, Jean-Paul Garraud, Maria Grapini, Sylvie Guillaume, Andrzej Halicki, Balázs Hidvéghi, Evin Incir, Sophia in ‘t Veld, Patryk Jaki, Lívia Járóka, Marina Kaljurand, Assita Kanko, Fabienne Keller, Peter Kofod, Moritz Körner, Alice Kuhnke, Jeroen Lenaers, Juan Fernando López Aguilar, Nuno Melo, Roberta Metsola, Nadine Morano, Javier Moreno Sánchez, Maite Pagazaurtundúa, Nicola Procaccini, Paulo Rangel, Diana Riba i Giner, Ralf Seekatz, Michal Šimečka, Birgit Sippel, Sylwia Spurek, Tineke Strik, Ramona Strugariu, Annalisa Tardino, Tomas Tobé, Dragoş Tudorache, Milan Uhrík, Tom Vandendriessche, Bettina Vollath, Jadwiga Wiśniewska, Elena Yoncheva |
|||
A zárószavazáson jelen lévő póttagok |
Delara Burkhardt, Gwendoline Delbos-Corfield, Kostas Papadakis, Kris Peeters, Anne-Sophie Pelletier, Sira Rego, Rob Rooken, Paul Tang, Tomáš Zdechovský |
|||
A zárószavazáson jelen lévő póttagok (209. cikk (7) bekezdés) |
Isabel Benjumea Benjumea |
A VÉLEMÉNYNYILVÁNÍTÁSRA FELKÉRT BIZOTTSÁG NÉV SZERINTI ZÁRÓSZAVAZÁSA
55 |
+ |
|
EPP |
Magdalena Adamowicz, Isabel Benjumea Benjumea, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Lena Düpont, Andrzej Halicki, Balázs Hidvéghi, Lívia Járóka, Jeroen Lenaers, Nuno Melo, Roberta Metsola, Nadine Morano, Kris Peeters, Paulo Rangel, Ralf Seekatz, Tomas Tobé, Tomáš Zdechovský |
|
S&D |
Katarina Barley, Pietro Bartolo, Delara Burkhardt, Maria Grapini, Sylvie Guillaume, Evin Incir, Marina Kaljurand, Juan Fernando López Aguilar, Javier Moreno Sánchez, Birgit Sippel, Sylwia Spurek, Paul Tang, Bettina Vollath, Elena Yoncheva |
|
RENEW |
|
|
ID |
Peter Kofod |
|
GREENS/EFA |
Patrick Breyer, Saskia Bricmont, Damien Carême, Gwendoline Delbos-Corfield, Alice Kuhnke, Diana Riba I Giner, Tineke Strik |
|
ECR |
Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Assita Kanko, Nicola Procaccini, Jadwiga Wiśniewska |
|
NI |
Laura Ferrara |
5 |
- |
EUL/NGL |
Pernando Barrena Arza, Cornelia Ernst, Anne-Sophie Pelletier, Sira Rego |
NI |
Kostas Papadakis |
7 |
0 |
ID |
Nicolas Bay, Nicolaus Fest, Jean-Paul Garraud, Annalisa Tardino, Tom Vandendriessche |
ECR |
Rob Rooken |
NI |
Milan Uhrík |
Jelmagyarázat:
+ : mellette
- : ellene
0 : tartózkodás
VÉLEMÉNY A FOGLALKOZTATÁSI ÉS SZOCIÁLIS BIZOTTSÁG RÉSZÉRŐL (7.9.2020)
a Jogi Bizottság részére
a Bizottságnak címzett ajánlásokkal a mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai szempontjaira vonatkozó szabályozási keretről
A vélemény előadója: Lina Gálvez Muñoz
(Kezdeményezés – az eljárási szabályzat 47. cikke)
JAVASLATOK
A Foglalkoztatási és Szociális Bizottság felkéri a Jogi Bizottságot mint illetékes bizottságot, hogy állásfoglalásra irányuló indítványába foglalja bele az alábbi javaslatokat:
A. mivel a mindennapi életben és a munkahelyeken egyre terjed a mesterséges intelligencia (MI), a robotika és a kapcsolódó technológiák felhasználása, jelentősen átalakítva a jelenlegi társadalmi-gazdasági struktúrákat; mivel a mesterséges intelligenciának az életminőség javítása, új foglalkoztatási lehetőségek teremtése és az Unió versenyképességének javítása révén a polgárok és a társadalom javát kell szolgálnia; mivel a mesterséges intelligencia a digitális gazdaság alapvető része, és megfelelő kiaknázása esetén képes előmozdítani a jólétet és megkönnyíteni a fenntartható gazdaságra való átállást;
B. mivel a mesterséges intelligencia intelligens viselkedésre utaló rendszereket takar, amelyek konkrét célok eléréséhez elemzik a környezetüket és – bizonyos mértékű autonómiával – intézkedéseket hajtanak végre; mivel a mesterséges intelligencián alapuló rendszerek lehetnek kizárólag szoftver-alapú rendszerek, amelyek a virtuális világban működnek (pl. hangasszisztensek, képelemző szoftverek, keresőprogramok, hang- és arcfelismerő rendszerek formájában), illetve a mesterséges intelligencia beépíthető hardvereszközökbe is (pl. fejlett robotok, autonóm járművek, drónok és a tárgyak internetéhez kapcsolódó alkalmazások formájában)[28];
C. mivel a mesterséges intelligencia rengeteg lehetőséget kínál, amit csak úgy lehet kiaknázni, ha a felhasználók és fogyasztók tudatában vannak az e technológiában rejlő lehetséges előnyöknek és kihívásoknak; mivel gyakran sem a vállalatok, sem a munkavállalók és képviselőik sincsenek tudatában sem az MI alkalmazásoknak, sem ezek mögöttes funkcióinak és adatainak; mivel előfordulnak olyan esetek, amikor a mesterségesintelligencia-alkalmazások sértik a hatályos jogszabályokat, például az adatvédelmet;
D. mivel a mesterséges intelligencia gazdasági és társadalmi előnyöket, valamint új lehetőségeket kínál a vállalkozások és a munkavállalók számára, ugyanakkor számos etikai, jogi és foglalkoztatási kihívást támaszt; mivel az MI munkahelyi alkalmazása hozzájárulhat a befogadó munkaerőpiachoz, javíthatja a munkahelyi egészségvédelmet és biztonságot, ugyanakkor pedig felhasználható olyan munkavállalók teljesítményének nyomon követésére, értékelésére, előrejelzésére és irányítására is, akiknek a karrierjére és mentális jólétére nézve közvetett és közvetlen következményekkel jár; mivel a mesterséges intelligenciának pozitív hatást kell gyakorolnia a munkakörülményekre, és azt az emberi jogok, valamint az Unió alapvető jogai és értékei tiszteletben tartásának kell vezérelnie; mivel a mesterséges intelligenciának emberközpontúnak kell lennie, fokoznia kell az emberek és a társadalom jólétét, és hozzá kell járulnia a méltányos és igazságos átmenethez;
E. mivel a mesterséges intelligencia jelentős hatást gyakorol a munkaerőpiacra[29]; mivel ez felválthatja az ismétlődő tevékenységeket végző munkavállalókat, megkönnyítheti az ember és gép közötti együttműködésen alapuló munkarendszereket, növelheti a versenyképességet és a jólétet, valamint új munkalehetőségeket teremthet a képzett munkavállalók számára; mivel a foglalkoztatási helyzet gyorsan változik, és a becslések szerint a mai gyermekek 65%-a fog teljesen új típusú munkahelyeken dolgozni, és szükség van a munkavállalók átképzésére és továbbképzésére, különös tekintettel a digitális készségekre, annak biztosítása érdekében, hogy senki ne maradjon le, és elegendő szakképzett munkaerő álljon rendelkezésre[30];
F. mivel a CEDEFOP szerint az uniós felnőtt munkavállalók mintegy 43%-a találkozott már új technológiákkal a munkahelyén; mivel tíz uniós munkavállaló közül körülbelül hétnek legalább közepes mértékű digitális készségekre van szüksége a munkájához[31]; mivel az uniós polgárok átlagosan körülbelül egynegyede nem rendelkezik digitális készségekkel vagy ilyen készségei alacsony szintűek; mivel a digitális szakadéknak konkrét társadalmi-gazdasági, nemmel, életkorral, földrajzi helyzettel és hozzáférhetőséggel kapcsolatos vonatkozásai vannak, amelyekkel foglalkozni kell; mivel az olyan vállalkozásoknál foglalkoztatott munkavállalók 42%-a, amelyek üzleti folyamataikban alkalmazzák az MI-t, úgy véli, hogy az ilyen tevékenységek etikai kérdéseket vetnek fel, amelyekkel foglalkozni kell; mivel a munkáltatók 28%-a úgy véli, hogy az MI alkalmazása nem vált teljes körűvé az erre vonatkozó etikai szabályok hiánya miatt[32];
G. mivel a COVID-19 világjárvány kiemelte a digitális megoldások, többek között a távmunka fontosságát, valamint annak műszaki és társadalmi következményeit; mivel uniós szinten nincsenek közös rendelkezések az MI munkahelyi alkalmazásáról, és ez piaci torzulásokhoz és versenyhátrányokhoz vezethet; mivel a mesterséges intelligenciára megfelelő szabályozói keretnek kell vonatkoznia;
H. mivel az OECD ajánlásokat fogalmazott meg a mesterséges intelligencia vonatkozásában[33];
I. mivel az Európai Unió Tanácsa ösztönzi egy etikai és emberközpontú megközelítés előmozdítását az MI vonatkozásában[34];
J. mivel az uniós szintű szociális partnerek keretmegállapodást[35] kötöttek a digitalizációról, amely többek között tartalmaz egy fejezetet „A mesterséges intelligencia és az emberi ellenőrzés garantálásának elve” témájáról;
K. mivel néhány tagállam már létrehozott külön testületeket az MI munkahelyi hatásainak nyomon követésére és értékelésére;
L. mivel a nemek közötti eltérések és az egyenlőtlenségek leküzdésére irányuló erőfeszítések a digitális ágazatban nem elegendőek; mivel a nemek közötti különbség továbbra is fennáll az összes digitális technológia területén, különös tekintettel az MI-re, és ezáltal a belátható jövőben megszilárdul a digitális ágazat férfiak javára elfogultságot mutató irányultsága;
1. hangsúlyozza, hogy alaposan fel kell mérni a magán és állami vállalatoknál, akárcsak a közigazgatásban használatos MI-alkalmazások munkára és munkavállalókra nézve jelentett lehetőségeit és kihívásait, többek között a munka és a magánélet közötti egyensúlyra, a munkakörökre és munkafolyamatokra kifejtett hatásait; elengedhetetlennek tartja, hogy ne kerüljék meg a szociális párbeszédet, valamint hogy a munkavállalókkal és képviselőikkel már a döntéshozatali folyamat kezdetétől konzultáljanak és elegendő tájékoztatást kapjanak; hangsúlyozza, hogy az MI telepítésének átláthatónak kell lennie, és a munkahelyi MI-rendszereknek muszáj tiszteletben tartaniuk a munkavállalók magánéletét és méltóságát;
2. rámutat arra, hogy átfogó kockázatértékelést kell elvégezni a mesterségesintelligencia-rendszerek fejlesztése, telepítése és megvalósítása előtt, értékelve azok alapvető jogokra és munkakörülményekre – ideértve a munkahelyi egészségvédelmet és biztonságot, valamint társadalmi következményeket is – gyakorolt hatását; az értékeléseknek ki kell terjedniük az emberi döntéshozatalhoz és a társadalmi megkülönböztetéshez kapcsolódó kockázatokra, valamint a felmerülő munkahelyi kockázatokra;
3. rámutat, hogy az MI-megoldásokban benne rejlik a potenciál, hogy javítsák a munkavégzés körülményeit és az élet minőségét a fogyatékkal élő személyek számára, ideértve a munka és a magánélet közötti egyensúly javítását és a fokozott hozzáférhetőséget, a potenciál, hogy előre jelezzék a munkaerőpiac alakulását és emberi részrehajlás esetén támogassák a humánerőforrás-gazdálkodást, ugyanakkor aggályokat is felvetnek a magánélet és a munkahelyi egészség és biztonság tekintetében, ideértve például a lekapcsolódás jogát, a munkavállalók aránytalan és illegális megfigyeléséhez és nyomon követéséhez vezethetnek, megsértve méltóságukat és magánéletüket, valamint többek között a felvételi eljárásoknál megkülönböztető bánásmódot is előidézhetnek a többek között nemi vagy faji és etnikai szempontból elfogult algoritmusok[36] vagy a kiszolgáltatott helyzetben lévő társadalmi csoportokkal szemben elfogult algoritmusok miatt; aggodalmát fejezi ki továbbá amiatt, hogy az MI veszélyeztetheti az emberek szabadságát és önállóságát, és hozzájárulhat a munkavállalók mentális egészségügyi problémáihoz, például kiégéshez, foglalkozási stresszhez, pszichológiai túlterheléshez és fáradtsághoz; hangsúlyozza, hogy a mesterséges intelligenciára vonatkozó munkahelyi megoldásoknak átláthatónak és méltányosnak kell lenniük, és el kell kerülniük a munkavállalókat érintő negatív következményeket;
4. hangsúlyozza, hogy az illetékes hatóságoknak hozzáféréssel kell rendelkeznie a képzéshez felhasznált adatokhoz, a statisztikai modellekhez és az MI-megoldásokkal, valamint ezek eredményei empirikus érvényességével kapcsolatos elméleti alapelvekhez;
5. úgy véli, hogy a mesterséges intelligencia segíthet a fogyatékossággal élő személyek készségeinek és kompetenciáinak jobb kihasználásában, és hogy a mesterséges intelligencia munkahelyi alkalmazása hozzájárulhat a befogadó munkaerőpiacokhoz és a fogyatékossággal élő személyek magasabb foglalkoztatási arányához;
6. hangsúlyozza, hogy az olyan új technológiai lehetőségek, mint a mesterséges intelligencia és a munkahatékonyság értékelése nem vezethet egyenlőtlen technológiailag megerősített kapacitásokhoz és egy embertelen digitális jövőhöz; hangsúlyozza, hogy az innováció etikájának humanista megközelítést kell követnie;
7. úgy véli, hogy kötelezővé kellene tenni a felhasználók, köztük a munkavállalók és a fogyasztók tájékoztatását arról, valahányszor egy adott rendszer mesterséges intelligenciát használ, különös tekintettel a személyre szabott termékekre vagy szolgáltatásokra, és ennek érdemi tájékoztatásnak kell lennie, könnyen érthető és hozzáférhető formában, lefedve az adott MI-alkalmazások rájuk vonatkozó valamennyi etikai vonatkozását, hogy tájékozott döntéseket hozhassanak; hangsúlyozza, hogy mennyire fontos megérteni, hogy az algoritmusok hogyan dolgozzák fel és hogyan értékelik az adatokat, valamint azt, hogy hogyan lehet ezt korlátozni vagy leállítani; kiemeli a munkavállalók és képviselőik munkahelyi mesterséges intelligenciával kapcsolatos képzésén és oktatásán keresztüli kompetenciafejlesztés szükségességét a mesterséges intelligenciára vonatkozó megoldások következményeinek jobb megértése érdekében;
8. hangsúlyozza, hogy a jelentkezőket és munkavállalókat írásban kell megfelelő módon tájékoztatni arról, ha a felvételi eljárás vagy a humánerőforrásokkal kapcsolatos más döntéshozatal során MI-t alkalmaznak, és arról, hogy ebben az esetben hogyan lehet emberi felülvizsgálatot kérni az automatikus döntés felülvizsgálata céljából;
9. hangsúlyozza, hogy szükséges arról gondoskodni, hogy az MI és a robotika fejlődéséből és felhasználásából eredő termelékenységnövekedés ne csupán a vállalatok tulajdonosai és részvényesei számára járjon haszonnal, hanem a profitorientált vállalatoknak és a munkaerőnek is a jobb munka- és foglalkoztatási feltételek – többek között a bérek, a gazdasági növekedés és a fejlődés – révén, és szélesebb körben a társadalom javára szolgáljon, különösen ott, ahol ez a növekedés a foglalkoztatottság kárára valósul meg; felhívja a tagállamokat, hogy gondosan tanulmányozzák a mesterséges intelligencia által a munkaerőpiacra és a szociális biztonsági rendszerekre gyakorolt lehetséges hatásokat, és dolgozzanak ki stratégiákat arra vonatkozóan, hogy miként biztosítható a hosszú távú stabilitás az adók és járulékok reformja, valamint egyéb intézkedéseket is kisebb állami bevételek esetén;
10. hangsúlyozza a formális és informális képzésbe és az egész életen át tartó tanulásba történő vállalati beruházások fontosságát a digitális gazdaságra való igazságos átállás támogatása érdekében; ezzel összefüggésben hangsúlyozza, hogy a mesterséges intelligenciát alkalmazó vállalatok felelőssége, hogy valamennyi érintett munkavállaló számára megfelelő átképzést és továbbképzést biztosítsanak annak érdekében, hogy ez utóbbiak megtanulják, miként kell használni a digitális eszközöket, és miként dolgozzanak a társbotokkal és más új technológiákkal, ezáltal alkalmazkodva a változó munkaerő-piaci igényekhez és megőrizve a foglalkoztatást;
11. felhív az elővigyázatosság elvének alkalmazására az MI-n alapuló új technológiákkal kapcsolatban; kiemeli azt az alapelvet, hogy a gépek és az MI felügyelete soha nem adható ki emberi kézből, és hogy az MI általi döntéshozatalnak megkérdőjelezhetőnek és adott esetben visszavonhatónak kell lennie; hangsúlyozza, hogy tiszteletben kell tartani az MI-re vonatkozó biztonsági és védelmi normákat, és kiemeli a rendszeres ellenőrzések fontosságát e tekintetben a hibás MI-döntések megelőzése érdekében; emlékeztet, hogy az MI alkalmazásával kapcsolatos felelősségre vonatkozó szabályokat egyértelműen meg kell határozni mind munkahelyi balesetek, mind harmadik személyeknek okozott károk esetére;
12. hangsúlyozza, hogy az MI-nek emberközpontúnak, átláthatónak, biztonságosnak és megbízhatónak kell lennie, és a rendszer teljes életciklusa során be kell tartania az összes alkalmazandó törvényt és rendeletet, beleértve az általános adatvédelmi rendeletet (GDPR), különösen akkor, ha azt a munkahelyen alkalmazzák; felszólít egy tesztelési eljárásokon alapuló és az elővigyázatosság elvét követő, megbízható tanúsítási rendszer kidolgozására, amely lehetővé tenné a vállalkozások számára annak bizonyítását, hogy mesterségesintelligencia-termékeik tiszteletben tartják az alapvető jogokat és megfelelnek az uniós normáknak;
13. emlékeztet arra, hogy az Unió foglalkoztatási és szociális vívmányai teljes mértékben alkalmazandók a mesterséges intelligenciára, és felhívja a Bizottságot és a tagállamokat, hogy biztosítsák a megfelelő végrehajtást és kezeljék az esetleges joghézagokat; megjegyzi, hogy az Unióban megvan a lehetőség arra, hogy globális vezető szerepre tegyen szert az MI-technológia társadalmilag felelős használatának előmozdítása terén;
14. hangsúlyozza a közös európai megközelítés fontosságát a mesterséges intelligencia etikai vonatkozásai tekintetében; hangsúlyozza, hogy e tekintetben minden szabályozási keretnek megfelelőnek kell lennie, és átfogó hatásvizsgálaton kell alapulnia a jövőbeli innováció és munkahelyteremtés akadályozásának elkerülése érdekében; ezzel összefüggésben felszólít egy olyan európai szabályozási keret kialakítására a mesterséges intelligencia etikai vonatkozásai tekintetében, amely arányos, és különös figyelmet fordít a munka világára, beleértve a munkavállalók jogait és a munkakörülményeket is; úgy véli, hogy ebben az összefüggésben különös figyelmet kell fordítani az új technológiák alkalmazásából eredő új munkavégzési formákra, például a behívásos és a platformalapú munkavégzésre; úgy véli, hogy egy olyan jogi keretnek, amelynek célja a távmunka feltételeinek szabályozása Unió-szerte, valamint tisztességes munka- és foglalkoztatási feltételek biztosítása a digitális gazdaságban, szintén figyelembe kell vennie a mesterséges intelligencia hatását; felhívja a Bizottságot, hogy e tekintetben konzultáljon a szociális partnerekkel, a mesterségesintelligencia-fejlesztőkkel, a kutatókkal és más érdekelt felekkel;
15. hangsúlyozza, hogy sem az MI, sem egyetlen rá vonatkozó jogszabály sem befolyásolhatja semmilyen módon a tagállamokban és uniós szinten elismert alapvető jogoknak – beleértve a sztrájkjognak vagy a sztrájk szabadságának vagy a tagállamokban fennálló konkrét munkaügyi kapcsolatrendszerek keretébe tartozó egyéb lépések megtétele jogának vagy szabadságának – a nemzeti jog és/vagy gyakorlat szerinti gyakorlását, és nem érintheti továbbá a nemzeti joggal és/vagy gyakorlattal összhangban lévő, kollektív szerződésekkel kapcsolatos tárgyalásokhoz, azok megkötéséhez és érvényesítéséhez való jogot, vagy a kollektív fellépéshez való jogot;
16. hangsúlyozza, hogy különös figyelmet kell fordítani az MI segítségével a munkahelyen gyűjtött adatokra, különösen amennyiben azokat emberi erőforrásokkal kapcsolatos döntésekhez használják; felhívja a vállalati szintű szociális partnereket, hogy közösen elemezzék és kövessék nyomon a mesterséges intelligencia alkalmazását; felhívja a Bizottságot és a szociális partnereket, hogy elemezzék a munkahelyi adatvédelemre vonatkozó különös rendelkezések szükségességét az MI kapcsán; hangsúlyozza, hogy a munkavállalók maradnak a saját adataik tulajdonosai, még a munkaviszony megszűnése után is;
17. úgy véli, hogy az európai készségfejlesztési menetrendnek foglalkoznia kell a készségek és ismeretek adaptálásának és megszerzésének kihívásaival, tekintettel az ökológiai és a digitális átmenetre, ideértve az MI etikai aspektusait is; hangsúlyozza, hogy az MI etikai szempontjait ls az etikai célú képességfejlesztést a fejlesztőknek és az MI-vel dolgozóknak szánt valamennyi oktatási és képzési tanterv szerves részévé kell tenni; emlékeztet arra, hogy a mesterséges intelligenciával foglalkozó fejlesztőknek, programozóknak, döntéshozóknak és vállalatoknak tisztában kell lenniük etikai felelősségükkel; hasonlóképpen fontosnak tartja annak biztosítását, hogy a végfelhasználók és a fogyasztók átfogó tájékoztatást kapjanak, és hogy e tekintetben valamennyi érdekelt fél rendszeres információcserét folytasson;
18. ismételten hangsúlyozza az oktatás és a folyamatos tanulás fontosságát a digitális korban szükséges képesítések fejlesztése és a digitális kirekesztés kezelése szempontjából; felhívja a tagállamokat, hogy fektessenek be a magas színvonalú, reagálóképes és befogadó oktatásba, szakképzésbe és egész életen át tartó tanulási rendszerekbe, valamint a mesterséges intelligencia által potenciálisan súlyosan érintett ágazatokban dolgozó munkavállalókra vonatkozó átképzési és továbbképzési szakpolitikákba; hangsúlyozza, hogy a jelenlegi és jövőbeli munkaerő számára biztosítani kell a szükséges írás-olvasási, számolási és digitális készségeket, valamint a természettudományok, a technológia, a műszaki tudományok és a matematika (STEM) terén szerzett kompetenciákat, továbbá az olyan átfogó humán készségeket, mint a kritikus gondolkodás, a kreativitás és a vállalkozói készség; hangsúlyozza, hogy e tekintetben külön figyelmet kell fordítani a hátrányos helyzetű csoportok bevonására;
19. hangsúlyozza, hogy az MI nem erősítheti a nemek közötti egyenlőtlenségeket és sztereotípiákat az analóg elfogultságok és előítéletek algoritmusok útján történő digitálissá alakításával;
20. hangsúlyozza, hogy biztosítani kell a különféle háttérrel rendelkező személyek, köztük a nők, a fiatalok, a színesbőrűek és a fogyatékosok bevonását az MI fejlesztésébe, telepítésébe és használatába; emlékeztet, hogy az MI-alapú munkahelyi technológiáknak mindenki számára hozzáférhetőnek kell lenniük, az egyetemes tervezés elve alapján;
21. hangsúlyozza, hogy a mesterségesintelligencia-megoldásokhoz való hozzáférés szorosan kapcsolódik a nagy sebességű internethez való hozzáféréshez, ezért a hátrányos megkülönböztetés és az e technológiákhoz való hozzáférés egyenlőtlenségének elkerülése érdekében prioritásként kell kezelni a szélessávú lefedettséget;
22. megjegyzi, hogy az MI-megoldások lehetőségei a nagy adathalmazokra támaszkodnak, és az algoritmusok tanításához és az eredmények finomításához szükség van az adatok kritikus tömegére; e tekintetben üdvözli a Bizottság javaslatát egy közös uniós adattér létrehozására az adatcsere megerősítése és a kutatás támogatása érdekében, az európai adatvédelmi szabályok teljes körű tiszteletben tartása mellett.
INFORMÁCIÓ A VÉLEMÉNYNYILVÁNÍTÁSRA FELKÉRT
BIZOTTSÁG ÁLTALI ELFOGADÁSRÓL
Az elfogadás dátuma |
7.9.2020 |
|
|
|
A zárószavazás eredménye |
+: –: 0: |
46 6 1 |
||
A zárószavazáson jelen lévő tagok |
Atidzhe Alieva-Veli, Abir Al-Sahlani, Marc Angel, Dominique Bilde, Gabriele Bischoff, Vilija Blinkevičiūtė, Andrea Bocskor, Milan Brglez, Sylvie Brunet, David Casa, Leila Chaibi, Margarita de la Pisa Carrión, Özlem Demirel, Klára Dobrev, Jarosław Duda, Estrella Durá Ferrandis, Lucia Ďuriš Nicholsonová, Rosa Estaràs Ferragut, Nicolaus Fest, Loucas Fourlas, Cindy Franssen, Heléne Fritzon, Elisabetta Gualmini, France Jamet, Agnes Jongerius, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Katrin Langensiepen, Miriam Lexmann, Elena Lizzi, Radka Maxová, Kira Marie Peter-Hansen, Dragoș Pîslaru, Manuel Pizarro, Dennis Radtke, Elżbieta Rafalska, Guido Reil, Daniela Rondinelli, Mounir Satouri, Monica Semedo, Beata Szydło, Eugen Tomac, Romana Tomc, Yana Toom, Marie-Pierre Vedrenne, Nikolaj Villumsen, Marianne Vind, Maria Walsh, Stefania Zambelli, Tomáš Zdechovský |
|||
A zárószavazáson jelen lévő póttagok |
Lina Gálvez Muñoz, Eugenia Rodríguez Palop |
A VÉLEMÉNYNYILVÁNÍTÁSRA FELKÉRT BIZOTTSÁG
NÉV SZERINTI ZÁRÓSZAVAZÁSA
46 |
+ |
ECR |
Lucia Ďuriš Nicholsonová, Elżbieta Rafalska, Beata Szydło, Margarita de la Pisa Carrión |
GUE/NGL |
Leila Chaibi, Özlem Demirel, Eugenia Rodríguez Palop, Nikolaj Villumsen |
NI |
Daniela Rondinelli |
PPE |
Andrea Bocskor, David Casa, Jarosław Duda, Rosa Estaràs Ferragut, Loucas Fourlas, Cindy Franssen, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Miriam Lexmann, Dennis Radtke, Eugen Tomac, Romana Tomc, Maria Walsh, Tomáš Zdechovský |
Renew |
Abir Al-Sahlani, Atidzhe Alieva-Veli, Sylvie Brunet, Dragoș Pîslaru, Monica Semedo, Yana Toom, Marie-Pierre Vedrenne |
S&D |
Marc Angel, Gabriele Bischoff, Vilija Blinkevičiūtė, Milan Brglez, Klára Dobrev, Estrella Durá Ferrandis, Heléne Fritzon, Lina Gálvez Muñoz, Elisabetta Gualmini, Agnes Jongerius, Manuel Pizarro, Marianne Vind |
Verts/ALE |
Katrin Langensiepen, Kira Marie Peter-Hansen, Mounir Satouri |
6 |
- |
ID |
Dominique Bilde, Nicolaus Fest, France Jamet, Elena Lizzi, Guido Reil, Stefania Zambelli |
1 |
0 |
Renew |
Radka Maxová |
Jelmagyarázat:
+ : mellette
- : ellene
0 : tartózkodás
VÉLEMÉNY A KÖRNYEZETVÉDELMI, KÖZEGÉSZSÉGÜGYI ÉS ÉLELMISZER-BIZTONSÁGI BIZOTTSÁG RÉSZÉRŐL (16.9.2020)
a Jogi Bizottság részére
a Bizottsághoz intézett ajánlásokkal a mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai szempontjainak keretéről
A vélemény előadója: Adam Jarubas (Kezdeményezés – az eljárási szabályzat 47. cikke)
JAVASLATOK
A Környezetvédelmi, Közegészségügyi és Élelmiszer-biztonsági Bizottság felkéri a Jogi Bizottságot mint illetékes bizottságot, hogy:
– állásfoglalási indítványába foglalja bele a következő javaslatokat:
A. mivel az Unió az Európai Unióról szóló szerződés 2. cikkében meghatározott értékekre és az Európai Unió működéséről szóló szerződés 191. cikkének (2) bekezdésében meghatározott elővigyázatossági elv tiszteletére épül;
B. mivel az EUMSZ 16. cikke szerint mindenkinek joga van személyes adatainak védelméhez; mivel az (EU) 2016/679 európai parlamenti és tanácsi rendelet[37] 22. cikke említést tesz arról a helyzetről, amikor az adatokat csak automatizált adatfeldolgozás során használják, és elismeri az érintettek azon jogát, hogy ne lehessenek kizárólag automatikus adatfeldolgozáson alapuló döntés alanyai;
C. mivel egyre élesebb a globális verseny a mesterséges intelligencia (MI) fejlesztésében való vezető szerepért, amely hatással lesz az ágazatot világszerte formáló etikai értékek és normák forrására, és az Európai Uniónak példát kell mutatnia a világ többi része számára, megfelelő szabályozási kerettel annak érdekében, hogy megelőzze a nemzeti szabályozásokkal kapcsolatos esetleges negatív versenyt is;
D. mivel ezt a globális versenyt nem szabad elválasztani az etikai értékektől és normáktól;
E. mivel a kutatás és az innováció gyors fejlődése számos fontos etikai, jogi és társadalmi kérdést vet fel, amelyek befolyásolják a tudomány és a társadalom közötti kapcsolatot; mivel e kutatásnak és innovációnak az európai kutatási programok rendelkezéseinek megfelelően meg kell felelnie az etikai elveknek, valamint a vonatkozó nemzeti, uniós és nemzetközi jogszabályoknak, többek között az Európai Unió Alapjogi Chartájának és az emberi jogok és alapvető szabadságok védelméről szóló európai egyezménynek;
F. mivel a nagy adathalmazoknak és a mesterségesintelligencia-technológiáknak a közegészségügyi rendszerekbe és más ágazatokba történő integrációját megfelelő szabályoknak, szabványoknak és jogszabályoknak kell kísérniük, amelyek védik az egyének alapvető jogait, és kezelik ezeket az új etikai kihívásokat;
G. mivel a szabadalmak és a beruházások tekintetében jelenleg jelentős eltérések vannak az Unió és a világ más részei között;
H. mivel a mesterséges intelligencia és más kialakulóban lévő digitális megoldások előnyösek lehetnek a társadalom számára többek között a zöld átmenet, a környezetvédelem és a biológiai sokféleség védelme, a mezőgazdaság hatékonyságának növelése, a hulladékgazdálkodás, a körforgásos gazdaság, az éghajlatváltozás mérséklése és az ahhoz való alkalmazkodás, a különböző ipari folyamatok zöldebbé tétele, az energia- és közlekedésgazdálkodás és -hatékonyság, a víz- és levegőminőség (pl. intelligens hálózatok és elektromos közlekedés), a kockázatkezelés és a Föld-megfigyelés területén, ahol az Unió Kopernikusz programja az egyik legjobb;
I. mivel a mesterséges intelligencia az orvostudomány szinte bármely területén alkalmazható: az orvosbiológiai kutatásban, amelyre példa, hogy az MI segítségével fedezték fel a Halicin antibiotikumot, az MI hozzájárul továbbá a rák megelőzéséhez, korábbi és pontosabb diagnosztizálásához, valamint az olyan módszereket alkalmazó új terápiákhoz, mint a prediktív orvoslás, illetve a genomikus orvoslás, hozzájárul ezenkívül az egészségügyi képzéshez, az ápolók támogatásához, az időskorúak gondozásának támogatásához, a beteg állapotának figyelemmel kíséréséhez, a gyógyszerek hatékonyabb kifejlesztéséhez, a célzottabb kezeléshez, a klinikai döntéshozatalhoz, a személyre szabott orvosláshoz, a pszichiátriai diagnózishoz és kezeléshez, valamint forradalmasította a robotprotéziseket, a támogató rendszereket, a telemedicinát és a távsebészetet, és javította az egészségügyi rendszerek általános hatékonyságát és interoperabilitását;
J. mivel a digitális fejlődés megköveteli az egészségügyi és adminisztratív személyzet megfelelő képzését és felkészítését a digitális szakadék kialakulásának megelőzése érdekében, szem előtt tartva idősödő társadalmainkat és az egészségügyi rendszerek előtt álló potenciális kihívásokat;
K. mivel komoly etikai aggályok merülnek fel a gépek autonómiájával kapcsolatban;
L. mivel a digitális egészségügy nem dehumanizálhatja a gondozást és nem gyengítheti az orvos–beteg kapcsolatot, hanem segítséget kell nyújtania az orvosoknak a betegek hatékonyabb diagnosztizálásában és/vagy kezelésében;
M. mivel a mesterséges intelligencián alapuló technológia felgyorsítja az ipar digitális átalakulását, és alapvető szerepet játszik a digitális gazdaság sikerében az egyre inkább összekapcsolt világban;
N. mivel a jelenlegi uniós jogi keret és etikai iránymutatások már foglalkoztak néhány, a mesterséges intelligenciáról szóló bizottsági fehér könyvben említett, az MI-alkalmazásokkal kapcsolatos etikai kihívással, például az egységes piacon a mesterséges intelligencián alapuló egészségügyi megoldásokra vonatkozó kockázatértékelési eljárásokkal; mivel más területek le vannak maradva a beazonosítandó és megoldandó etikai kihívások tekintetében, mivel a mesterséges intelligencia hatalmas mértékben képes a betegek preferenciáinak, biztonságának és magánéletének veszélyeztetésére; mivel meg kell határozni az egészségügyi és gondozási szakemberek és a gépek betegellátásban betöltött szerepe közötti határokat, többek között a robotok felügyelet melletti autonómiájának elvét, továbbá egyaránt szükség van az egészségügyi dolgozók és a betegek oktatására;
O. mivel az adatvédelemmel kapcsolatos uniós szabályokat ki kell igazítani annak érdekében, hogy figyelembe lehessen venni az ápoló robotok és az orvosi robotok egyre fokozottabb komplexitását és összekapcsolódását, amelyek rendkívül érzékeny személyes és egészségügyi adatokat kezelhetnek, aminek összhangban kell állnia az adatvédelemről szóló (EU) 2016/679 rendeletben meghatározott beépített adatvédelemmel;
P. mivel azok a megoldások, amelyek szerint a tudományos kutatásoknak kell a fejlesztési stratégiák alapjául szolgálniuk az orvosi adatok (például neurológiai és kardiológiai adatok) adattárainak létrehozása és a szóban forgó kutatásokból származó adatok megosztása révén, kézzelfogható társadalmi előnyökkel járhatnak a közbiztonság és a közegészség szempontjából;
Q. mivel a mesterséges intelligenciával kapcsolatos megoldások előnyösek lehetnek a társadalom számára az élelmiszer-biztonság területén, többek között a peszticidek használatának csökkentése, a precíziós gazdálkodás támogatása vagy tágabb értelemben a Mezőgazdaság 2.0 révén, ahol az Unió vezető szerepet tölt be az MI-alkalmazások terén (pl. az időjárás-előrejelzéshez kapcsolódó automatizált gépi beállításokat vagy a betegségek azonosítását illetően), amelyek lehetővé teszik a hatékonyabb termelés szigorúbb környezetvédelmi normákkal való ötvözését és az erőforrások jobb felhasználását, különösen azokon a területeken, ahol szűkösek a vízforrások és az éghajlatváltozás súlyos következményekkel jár, mivel ennek összhangban kell állnia a zöld megállapodás prioritásaival;
R. mivel e keret hatókörének megfelelőnek, arányosnak kell lennie, és azt alapos elemzés tárgyává kell tenni; mivel e keretnek a technológiák és alkotóelemeik széles körét le kell fednie, beleértve az MI által használt vagy előállított algoritmusokat, szoftvereket és adatokat is; mivel a magas kockázat fogalmán alapuló célzott megközelítésre van szükség annak érdekében, hogy ne akadályozzuk meg, hogy a jövőbeli innovációk biztosítani tudják az MI-alkalmazások előnyeit a polgárok számára pl. az egészségügy, a környezetvédelem és az élelmiszerek minősége terén;
S. mivel alapvető fontosságú egy, a megbízható digitális technológiák biztosítására alkalmas hatékony eszköz meghatározása, amely lehetővé teszi azok előnyeinek kiaknázását, ugyanakkor védi az alapvető jogokat, és ösztönzi az informális, nyitott, toleráns és igazságos társadalmak kialakulását; mivel ez különösen fontos a hibrid emberi/mesterségesintelligencia-rendszerek esetében;
T. mivel a robotgépek összezavarják az emberi alanyok és a technológiai tárgyak közötti határokat; mivel ezeknek a gépeknek nem csak olyan társadalmi velejáróik vannak, amelyek etikai szempontú értékelést tesznek szükségessé, hanem még azokat az etikai kereteket is kétségbe vonják, amelyek alapján megpróbálják őket értékelni; mivel – ahogyan arra az UNESCO Tudományos Ismeretek és Technológia Etikai Bizottságának (COMEST) jelentése emlékeztet – külön figyelmet kell szentelni az orvosi robotok, az ápolási robotok, az idősgondozási robotok és a társrobotok használatára;
U. mivel a szociális robotok és a társrobotok használata az egészséggondozás és különösen az idősgondozás területén gyorsan terjed; tekintettel arra a funkcionális és érzelmi szerepre, amelyet az idősgondozó robotok és a társrobotok a jövőben betölthetnek; tekintettel arra a szerepre, amelyet ezek a robotok az idős emberek magányának csökkentésében, a demenciához kapcsolódó viselkedések megelőzésében, neurodegeneratív betegségben szenvedő betegek kognitív képességeinek serkentésében, vagy bizonyos, az idős emberek számára nehéz hétköznapi feladatok végrehajtásában betölthetnek; mivel a társrobotok az idős embereket megtévesztve és infantilizálva így hamis, illuzórikus és viszonzatlan érzelmeket válthatnak ki;
V. mivel a társrobotok egyre inkább szexuális célokra is felhasználhatók; mivel különösen aggasztó etikai következményekkel jár az olyan szexuális robotok használata, amelyek gyermeknek látszanak, vagy amelyeket úgy programoznak meg, hogy bántalmazni lehessen őket;
Az MI jogi és etikai kerete:
1. hangsúlyozza, hogy az Uniónak minden szükséges lépést meg kell tennie annak érdekében, hogy biztosítsa a közösségi vívmányokban kifejezett etikai értékei hatékony érvényesülését a területén használt valamennyi mesterséges intelligencia-ágazatban, valamint hogy világszerte előmozdítsa saját normáit; hangsúlyozza e tekintetben, hogy a mesterséges intelligencia technológiai fejlesztéseinek mindig az emberiség javát kell szolgálnia;
2. hangsúlyozza, hogy az Uniónak minden szükséges lépést meg kell tennie a társadalom MI, a robotika és a kapcsolódó technológiák fejlesztése és végrehajtása iránti bizalmának növelése érdekében; tekintettel arra, hogy ezek a technológiák jelentős hatást gyakorolhatnak a polgárokra; felhívja a Bizottságot, hogy kövesse a megbízható MI-re vonatkozó etikai iránymutatásokat, és javasoljon megfelelő intézkedéseket annak biztosítására, hogy ezek a technológiák ne járjanak méltánytalanul elfogult eredményekkel a polgárok számára;
3. hangsúlyozza, hogy az MI iránti bizalomnak az MI-re vonatkozó uniós etikai kerettel kibővített, jogszabályon alapuló uniós ökoszisztémája – a környezetvédelem, az egészség vagy az élelmiszer-biztonság területén működő alkalmazások tekintetében egyaránt – megerősíti a jogbiztonságot és a kiszámíthatóságot, ösztönzi az érdekelt felek részvételét, növeli az olyan adatok mennyiségét és piaci elfogadottságát, amelyben megbíznak, lehetővé teszi a méretgazdaságosságot, és támogatja a kiválósági ökoszisztémát ezekben az ágazatokban; véleménye szerint ez megerősíti az uniós MI-ágazat globális versenyképességét és az uniós értékek és szabványok előmozdításának lehetőségét;
4 megjegyzi, hogy mivel a jogi szabályozás jobban tud reagálni a jelenlegi, jól meghatározott kihívásokra, valamint tekintettel az MI gyors fejlődéséből fakadóan előttünk álló bizonytalanságra, az MI-re vonatkozó közös, megfelelő jogi alapokon nyugvó, kikényszeríthető uniós etikai keret kialakítja majd a Bizottság fehér könyvében meghatározott, valamennyi érdekelt felet magában foglaló bizalmi ökoszisztémát, különösen a környezetvédelmi, a közegészség védelmét szolgáló, az egészségesebb környezet létrehozására irányuló, a jobb egészségügyi források és szolgáltatások kialakítására irányuló, illetve az élelmiszer-biztonsági alkalmazásokat illetően, ezáltal támogatva a jogbiztonság és a kiszámíthatóság terén a kiválósági ökoszisztémát, és hatékony választ adva azokra a kihívásokra, amelyeket még nem határoztak meg a tárgyalótermekben, a vezetői üléseken vagy a tudományos laboratóriumokban;
5. megjegyzi, hogy a mesterséges intelligencia fogalommeghatározása további munkát igényel; ezért hangsúlyozza a mesterséges intelligenciával kapcsolatos előrelépések és az etikai keret emberközpontú megközelítésének és rendszeres felülvizsgálatának fontosságát a proaktív szabályozás előmozdítása és alkalmazhatóságának időben és az új fejlemények tükrében történő garantálása érdekében; hangsúlyozza, hogy több kockázati szint létezik, amelyek idővel az MI-technológiák fejlődése nyomán alakulnak; hangsúlyozza, hogy arányos jogszabályi keretre van szükség, amelynek a technológiai haladás gyorsaságával összhangban kell fejlődnie; rámutat arra, hogy a Kopernikusz program bevált gyakorlatként szolgálhat magas színvonalú nagy adatkészletek kidolgozásához, amelyek az MI-modellek inputjaként szolgálnak;
6. hangsúlyozza, hogy szükség van olyan szabályozási keretre, amely meghatározza a szóban forgó technológiának a tervezésére, fejlesztésére, megvalósítására és működésére alkalmazandó etikai alapelveket, az adatokhoz való hozzáféréstől az eredmények szigorú nyomon követéséig;
7. hangsúlyozza, hogy a szabályozás tekintetében kiegyensúlyozott megközelítést kell találni, mindenekelőtt biztosítva, hogy értékeink ne sérüljenek, ugyanakkor elkerülve a szükségtelen adminisztratív terhek kialakulását, különösen a kkv-k és az induló innovatív vállalkozások számára; e tekintetben kiemeli, hogy a mesterséges intelligenciával kapcsolatos globális verseny nem mindig követi ugyanazokat az etikai elveket, mint az Unió; kiemeli, hogy a mesterséges intelligenciát és a kapcsolódó technológiákat nem szabad csupán „könnyű” önszabályozásra bízni; alapvető fontosságúnak tartja az arányos és támogató uniós jogalkotási keret kialakítását; rámutat arra, hogy számos harmadik ország foglalkozik saját etikai keretének kidolgozásával, és globális szinten is több javaslat született; tisztában van azzal, hogy az etikai alapelvekkel kapcsolatos legnagyobb nehézség a szóban forgó alapelvek alkalmazásában, nem pedig létezésükben rejlik;
8. támogatja azt a nézetet, hogy a mesterséges intelligenciával foglalkozó magas szintű szakértői csoport megbízható mesterséges intelligenciára vonatkozó etikai iránymutatásaiban meghatározott, a mesterséges intelligenciára vonatkozó hét követelmény szilárd építőkövei a mesterséges intelligenciára vonatkozó közös uniós etikai keretnek, megfelelő jogi háttér mellett, amely többek között a környezetvédelmi, egészségügyi és élelmiszer-védelmi MI-alkalmazások etikai vonatkozásaival foglalkozik; felszólít az átláthatóságra, a nyomon követhetőségre és az emberi felügyeletre vonatkozó közösségi vívmányok javítására, amely területeket az iránymutatásokról 350 szervezettől kapott visszajelzések további javításra szoruló területekként jelöltek meg; ösztönzi továbbá az MI-vel kapcsolatos uniós etikai keret létrehozását, melynek során nyitottnak kell lenni az uniós értékeket valló más nemzetközi partnerek munkája iránt, például az ENSZ munkája iránt és az Európa Tanács munkája iránt, amely kiadta a mesterséges intelligenciáról és az adatvédelemről szóló 2019. évi iránymutatásait[38], valamint a mesterséges intelligencia igazságszolgáltatási rendszerekben való alkalmazásáról szóló európai etikai chartát, továbbá jogi kutatóközpontjának, a mesterséges intelligenciával foglalkozó ad hoc bizottságnak (CAHAI) a munkája iránt, emellett pedig az OECD tagjai által 2019 májusában aláírt, a mesterséges intelligenciára vonatkozó elvek[39], a G20-aknak a kereskedelemről és a digitális gazdaságról szóló, 2019. évi miniszteri nyilatkozata – amelynek melléklete tartalmazza az MI alapelveit –, valamint az IEEE autonóm és intelligens rendszerek etikájáról szóló globális kezdeményezése[40] iránt;
9. határozottan támogatja a Bizottságot az MI-re vonatkozó közös uniós etikai keret létrehozásában, amelynek célja az MI-vel kapcsolatos belső piac – többek között a környezetvédelmi, közegészségügyi, egészségügyi és élelmiszer-biztonsági alkalmazásokra vonatkozó kutatás, innováció és szakértelem tekintetében mutatkozó– széttöredezettsége által okozott hiányosságok kiküszöbölése, valamint az Unióban és az azon kívül kidolgozott MI-re vonatkozó, tagállamok közötti kettős mérce megelőzése, többek között az olyan területeken, mint a fogyasztói adatok kezelése, az intelligens hálózatokon belüli védelem és a magánélet védelme, a hulladékgazdálkodás, a szolgáltatásokhoz és technológiákhoz való egyenlő hozzáférés, a betegek és az orvosok közötti kapcsolatra vonatkozó normák, az adatvédelmet és a magánélet védelmét érintő jogszabályok, ideértve ezeknek a kutatási tevékenységekkel és a gyógyszerfejlesztéssel kapcsolatos kölcsönös összefüggéseit, az MI által támogatott közegészségüggyel kapcsolatos polgári jogi felelősség, valamint az autonóm járművekkel, illetve gépekkel kapcsolatos polgári jogi felelősség; megjegyzi, hogy nemzeti szinten a tagállamok jogszabályai nem tartalmaznak harmonizált felelősségi szabályokat a digitális és viselkedésalapú technológiákból eredő károkra vagy sérülésekre vonatkozóan; felszólít az MI-vel kapcsolatos uniós etikai keret jogi hátterének megfelelő megalkotására és pozicionálására;
10. emlékeztet arra e tekintetben, hogy a robotikára vonatkozó polgári jogi szabályokról szóló, 2017. február 16-i európai parlamenti állásfoglalás[41] felszólította a Bizottságot annak megfontolására, hogy jelöljön ki egy robotikával és mesterséges intelligenciával foglalkozó európai ügynökséget, amely többek között harmonizált megközelítést biztosít az Unióban, közös kritériumokat és alkalmazási folyamatot dolgoz ki az etikai megfelelőség európai tanúsítványának megadását illetően, és amely reagál a folyamatban lévő technológiai fejlődésből eredő, különösen határokon átnyúló jellegű új lehetőségekre és kihívásokra; kéri a Bizottságot annak átgondolására, hogy a meglévő uniós szervek és intézmények elegendőek-e e feladatok elvégzéséhez, vagy új szervet kell-e létrehozni a mesterséges intelligenciával kapcsolatban;
11. úgy véli, hogy az Unióban és azon kívül kifejlesztett valamennyi MI-alkalmazás esetében ugyanolyan szintű védelmet kell biztosítani az Unióban, ahogy az az összes többi technológia esetében történik, ideértve az MI rendszerek által hátrányosan érintett felek számára biztosított hatékony bírósági jogorvoslatot is, ugyanakkor a technológiai innovációt lehetővé kell tenni a további fejlődés érdekében; ezenkívül úgy véli, hogy ez az MI-kockázati terület kritikus fontosságú pl. az egészségügyi szolgáltatások, a vezető nélküli járművekkel történő közlekedés és az élelmiszer-biztonság területén; felszólít a kötelezettségek, a jogok és a felelősségek egyértelmű megosztására az MI-alkalmazások megvalósításával foglalkozó gazdasági szereplők között, hogy az egyes kötelezettségek arra (azokra) a szereplő(k)re háruljanak, aki(k) a lehető leginkább képes(ek) kezelni a lehetséges kockázatokat, függetlenül attól, hogy fejlesztőről, telepítőről, gyártóról, forgalmazóról vagy importőrről, szolgáltatóról, hivatásos vagy magánfelhasználóról van szó, és ebben a tekintetben felszólít a vonatkozó uniós jogszabályok, pl. a termékfelelősségi irányelv megfelelő felülvizsgálatára és a nemzeti jogszabályok harmonizálására; támogatja a fehér könyvben kifejtett bizottsági álláspontot, miszerint az MI-rendszerek bonyolultsága miatt a hatékony védelem és jogorvoslat biztosítása érdekében szükség lehet az MI-alkalmazások működésével okozott károkért való felelősségre vonatkozó nemzeti szabályok által előírt bizonyítási teher kiigazítására; azon a véleményen van, hogy az MI-ágazat jogi felelősségének egyértelműsége megerősíti az uniós joganyagban foglalt etikai értékek érvényesítését, a jogbiztonságot és a kiszámíthatóságot, valamint a társadalmi elfogadottságot, támogatva a mesterséges intelligenciával kapcsolatos uniós kiválósági ökoszisztéma kidolgozását a befektetők összevonása és a piaci elfogadottság bővítése révén;
12. kiemeli, hogy az Unión kívüli országok és a nemzetközi szervezetek javaslatai közül sok az MI közös elveire vagy koncepcióira épül, amelyek a következők: emberközpontúság, megbízhatóság, az emberi autonómia tiszteletben tartása, a kármegelőzés, az igazságosság és mindenki felzárkóztatása, valamint a megmagyarázhatóság; véleménye szerint nagyon kívánatos lenne ezen alapelvek mentén egy nemzetközi etikai keret létrehozása; aggodalmát fejezi ki az MI olyan irányú fejlődésével és azokkal az innovációkkal kapcsolatban, amelyek intézkedés hiányában társadalmi egyenlőtlenséghez vezethetnek; felhívja ezért a Bizottságot és a tagállamokat, hogy tegyék meg a szükséges intézkedéseket annak érdekében, hogy senki ne maradjon le a digitális Európára való átmenet során, és garantálják az ezen innovációkhoz való tisztességes, megfizethető és egyenlő hozzáférést, különösen pl. az egészségügy területén;
13. javasolja, hogy a kockázatalapú megközelítést egészítsék ki egy algoritmikus hatásvizsgálattal, amely például a szabályozási hatásvizsgálatból, a GDPR kockázatértékelési eljárásából és az emberi jogok hatásvizsgálatából gyűjt információkat, és az eredményeket tegyék nyilvánosan elérhetővé;
14. üdvözli, hogy a Bizottság 2020. február 19-i fehér könyvében meghatározott kockázatalapú megközelítési módszer[42] alapértelmezés szerint magas kockázatú ágazatként ismeri el az egészségügyi ellátást, a közlekedést és az energiaszektort, bevezetve ezekben az ágazatokban a meglévő uniós szabályokon túl bizonyos, a mesterséges intelligenciára vonatkozóan meghatározott követelményeket, kivéve, ha a mesterséges intelligencia használatának adott módja nem jár jelentős kockázattal; hangsúlyozza, hogy a mesterséges intelligenciára vonatkozó uniós etikai keretnek különösen a fent említett magas kockázatú ágazatokra kell kiterjednie;
15. egyértelmű, objektív és átlátható eljárásokra szólít fel uniós szinten az MI magas kockázatú alkalmazásai nyilvános katalógusának létrehozása érdekében, amely magában foglal egy időszakos felülvizsgálati és aktualizálási mechanizmust; felszólít arra, hogy fontolja meg azt, hogy a bizonyítási terhet az ilyen eljárásokban az összes MI-alkalmazás és az összes terület vonatkozásában az MI-rendszer kifejlesztésével vagy telepítésével foglalkozó szervezetre hárítja annak érdekében, hogy nyitva maradjanak a lehetőségek az innováció előtt, és elkerülhető legyen az MI-alkalmazások magas kockázattól mentesként történő besorolása kockázatának figyelmen kívül hagyása;
16. úgy ítéli meg, hogy a magas kockázatú mesterséges intelligencia, a robotika és a kapcsolódó technológiák, ezen belül az ilyen technológiák által használt vagy előállított szoftverek, algoritmusok és adatok fejlesztése, bevezetése és használata magában rejti a torzítás és a megkülönböztetés kockázatát; emlékeztet arra, hogy ezeknek a technológiáknak minden körülmények között tiszteletben kell tartaniuk az emberi méltóságot, és mindenki számára egyenlő bánásmódot kell biztosítaniuk; úgy véli, hogy az ilyen esetleges torzítást az adatfeldolgozásra vonatkozó szabályok megállapításával és a társadalmi, gazdasági, etnikai, faji, szexuális, nemi, fogyatékosságon vagy más tényezőkön alapuló torzítással és megkülönböztetéssel szembeni biztosítékokkal lehetne orvosolni; figyelmeztet az MI diagnosztikai alkalmazásokkal való esetleges visszaélésekre, és felszólít az MI-vel kapcsolatos képességek és motivációk biztosítékainak létrehozására;
17 üdvözli a nem magas kockázatú MI önkéntes címkézésére vonatkozó kezdeményezést;
18. intézkedéseket javasol a mesterséges intelligencia etikájával kapcsolatban a magánszektort, a fogyasztói csoportokat és a tudományos köröket képviselő valamennyi érdekelt fél bevonásának ösztönzésére a technológiai, társadalmi és politikai fejleményekre szabott etikai kódex kidolgozása érdekében;
19. emlékeztet arra, hogy a robotok értékeket és etikai kereteket megtestesítő algoritmusokat használnak a döntéshozatalhoz, és bevezetésük fontos etikai vonatkozásokat vet fel az egészséggondozás vagy a társadalmi kapcsolatok terén; különösen aggasztja a társrobotok pedofil célokra és szexuális visszaélésekre történő felhasználása; úgy véli, hogy a robottechnológiák tervezésénél figyelembe kell venni az etikai megfontolásokat; kéri, hogy ezeknek a gépeknek a fejlesztési folyamatában helyet kapjon az etika, azáltal, hogy egy olyan megközelítésre támaszkodik, mint amilyen az etikus tervezés (value sensitive design), nevezetesen az idősgondozó robotok és a társrobotok esetében; hangsúlyozza, hogy ezt a megközelítést oly módon ki kellene igazítani, hogy figyelembe vegye az állatok jólétét is;
20. hangsúlyozza, hogy az elszámoltathatóságra és a felelősségre vonatkozó egyértelmű szabályozási követelmények mellett biztosítani kell az algoritmikus átláthatóságot is, hogy nyomon lehessen követni azt a pillanatot, amikor „a dolgok rosszra fordulnak”, és lehetővé tehessük a szakértők időben történő beavatkozását; az algoritmikus átláthatóságot elengedhetetlennek tartja azoknak a helyzeteknek a megelőzése érdekében, amikor az orvosi döntéshozatal „fekete dobozban” zajlik; hangsúlyozza, hogy a megmagyarázhatatlan döntéseket hozó feketedoboz-algoritmusok egyetlen ágazatban sem elfogadhatók, ám olyan körülmények között, ahol az MI döntéshozatala élettel vagy halállal kapcsolatos döntéseket érint, egy algoritmikus kudarcnak rendkívül súlyos következményei lehetnek; felhívja a Bizottságot és a tagállamokat, hogy kezdjenek párbeszédet az orvostudomány, az informatika, a matematika, a fizika, az orvosi adattechnológia, a klinikai pszichológia, a biotechnológia és a gyógyszerészet kulcsfontosságú érdekelt feleivel annak érdekében, hogy hozzanak létre párbeszédépítő platformokat, és értékeljék az orvosok és a betegek közötti kapcsolatra kifejtett hatást, valamint az orvosi ellátás dehumanizálását.
21. uniós irányító kezdeményezésekre hív fel az értelmezhető algoritmusok, az eXplainable AI (xAI), az MI-vel kapcsolatos szimbolikus érvelés, a fehérdobozos MI tesztelési technikáinak előmozdítása érdekében annak demonstrálásával, hogy ezek a technológiák ötvözhetők mély neurális hálózatokkal, bemutatva ennek jogi, etikai és gyakran üzleti előnyeit, valamint elősegítve a különböző technológiai lehetőségekkel kapcsolatos kockázatok meghatározásának módszereit, többek között felhasználva az Egyesült Királyság Információs Biztosa Irodájának (ICO) tapasztalatait, továbbá az Alan Turing Intézet „Explaining decisions made with AI” [Az MI-vel hozott döntések magyarázata] című iránymutatásait, bebizonyítva, hogy még a nagyon bonyolult neurális MI-rendszerek is kellően értelmezhetők;
22. felszólít az átláthatóság, a felelősség, az ellenőrizhetőség, a kiszámíthatóság és az elszámoltathatóság biztosítására, mivel a polgárokat, a betegeket és a felhasználókat tájékoztatni kell arról, hogy mesterséges intelligenciát használó rendszerrel lépnek kapcsolatba, a felhasznált adatok, az algoritmus működése, célja, eredményei és lehetséges veszélyei egyértelmű és érthető kifejtésével; hangsúlyozza, hogy az átláthatóság és a megmagyarázhatóság elengedhetetlen az ezen technológiákba vetett bizalom biztosításához; úgy véli, hogy a magyarázatot ki kell egészíteni az ellenőrizhetőséggel és a nyomon követhetőséggel, mivel ezen alapelvek tiszteletben tartása garantálja az elszámoltathatóságot; emlékeztet arra, hogy az MI-alkalmazások jól körülhatárolt konkrét feladatok esetében felülmúlhatják az embereket, ugyanakkor átfogó elemzésre alkalmatlanok; emberi felügyeletre, szakmai felelősségvállalásra és a rendszer kiszámíthatóságára szólít fel, az MI-rendszer felülbírálhatóságának lehetőségével együtt;
23. úgy véli, hogy bármely természetes vagy jogi személynek lehetőséget kell biztosítani a jogorvoslatra egy magas kockázattal járó mesterséges intelligencia, robotikai rendszer vagy kapcsolódó technológia által meghozott, számára káros döntéssel szemben, és hogy az MI által hozott döntéseket szigorú emberi ellenőrzésnek kell alávetni, és esetében megfelelő eljárás kell, hogy érvényesüljön; a magas kockázatú mesterséges intelligencia, a robotika és a kapcsolódó technológiák használatával kapcsolatos biztosítékokat javasol a közhatalommal kapcsolatos döntések keretében, ideértve a szabályozási keret időszakos értékelését és esetleges felülvizsgálatát a technológiai fejlődés követése érdekében, a megfelelőség módszertanára vonatkozó kötelező iránymutatások kidolgozását a nemzeti felügyeleti hatóságok számára, továbbá nem kötelező érvényű iránymutatások kidolgozását a fejlesztők, a telepítők és a felhasználók számára;
24. üdvözli az európai adatstratégiát, amely az Unió előtt ezen a téren álló kihívásokkal foglalkozik, és az MI fejlődésének a kulcsa, és lehetőségeket keres Európa számára az új adatgazdaságban a versenyelőny megszerzéséhez, különösen az iparból, az üzleti életből és az állami szektorból, valamint a hálózat perifériáján lévő eszközökből származó decentralizált, nem személyes adatok növekvő ágazatában, amely a 2025-ben várható 175 zetabájt 80%-át fogja képezni, és megfordítja a jelenlegi arányokat;
25. felszólít az Unió MI-transzformációja megfelelő finanszírozásának biztosítására; támogatja a Bizottság fehér könyvében megfogalmazott azon törekvéseket, amelyek célja, hogy az elkövetkező 10 évben 200 milliárd euró összegű, mesterséges intelligenciára irányuló köz- és magánberuházást vonzzanak az Unióba; üdvözli, hogy figyelmet fordítanak az MI-ökoszisztémák kevésbé fejlett régiókban tapasztalt hiányosságaira, valamint a kkv-k és az induló innovatív vállalkozások szükségleteire; felhívja a Bizottságot, hogy azonosítsa az állami infrastrukturális hiányosságokat, és könnyítse meg a mesterséges intelligencia finanszírozását az éghajlatváltozás mérséklése és az ahhoz való alkalmazkodás, a megújuló energiák és az egészségügy terén, valamint könnyítse meg a mesterséges intelligencia valamennyi finanszírozásához való földrajzilag kiegyensúlyozott hozzáférést, többek között a kkv-k és az induló innovatív vállalkozások számára; hangsúlyozza, hogy az új uniós célkitűzések nem csökkenthetik az Unió szerepvállalását az olyan állandó prioritásokban, mint a KAP, a kohéziós politika, a zöld megállapodás és a Next Generation EU Covid19-cel kapcsolatos helyreállítási terv;
26 felszólítja a Bizottságot, hogy támogassa és finanszírozza az olyan emberközpontú mesterséges intelligencia, robotika és kapcsolódó technológiák fejlesztését, amelyek kezelik a környezetvédelemmel és az éghajlatváltozással kapcsolatos kihívásokat, és adókedvezmények, zöld közbeszerzési és egyéb ösztönzők révén biztosítják az alapvető jogokhoz való egyenlő hozzáférést és azok érvényesítését;
A mesterséges intelligencia szénlábnyoma:
27. tudomásul veszi, hogy 2020. február 19-én közzétett digitális csomagjában a Bizottság megállapítja, hogy az IKT ma a globális villamosenergia-fogyasztás 5–9%-áért és a CO2-kibocsátás 2%-áért felelős, és hogy az átadott és tárolt adatok mennyisége továbbra is exponenciálisan növekedni fog a az elkövetkező években, és e tekintetben megoldásokat kell találni; megállapítja továbbá a Közös Kutatóközpont „Mesterséges intelligencia – Európai perspektíva” című, 2018. évi tanulmányának becslése szerint az adatközpontok és az adatátvitel az Unió teljes energiafogyasztásának 3–4% -át tehetik ki;
28. üdvözli, hogy az európai digitális stratégia zöld átalakítási intézkedéseket javasol a digitális ágazatok számára;
29. hangsúlyozza, hogy a mélytanulás és a mesterséges intelligencia jelenlegi magas szénlábnyoma ellenére ezek a technológiák hozzájárulhatnak az IKT-ágazat jelenlegi környezeti lábnyomának csökkentéséhez, valamint a mesterséges intelligencia, a robotika, az automatizált döntések és a gépi tanulás fejlesztéséhez; hangsúlyozza, hogy ezeknek és más megfelelően szabályozott kapcsolódó technológiáknak számos különböző ágazatban döntő szerepet kell játszaniuk a zöld megállapodás, az ENSZ fenntartható fejlődési céljai és a Párizsi Megállapodás céljainak elérésében, és fokozniuk kell a környezetvédelmi politikák hatását, például a hulladékcsökkentést és a környezetkárosodást illetően;
30. felhívja a Bizottságot, hogy készítsen tanulmányt az MI-technológia szénlábnyomáról, valamint a fogyasztók MI-technológia alkalmazására való áttérése miatti pozitív és negatív hatásokról;
31. megjegyzi, hogy tekintettel az MI-alkalmazások fokozódó fejlődésére, amely számítástechnikai, tárolási és energiaforrásokat igényel, az MI-rendszerek környezeti hatásait egész életciklusuk során figyelembe kell venni;
Az MI hatása az egészségügyi ágazatra és a betegek jogaira:
32. elismeri az MI jelentős szerepét az egészségügyben, és hangsúlyozza, hogy az egészségügy területén alkalmazott MI-alkalmazások céljaként mindig a bennük meglévő lehetőségek maximalizálását kell kitűzni, például az egyes betegek egészségének és a tagállami népegészségügyi rendszerek teljesítményének a javítását, az etikai normák csökkentése és a magánélet vagy a polgárok biztonságának veszélyeztetése nélkül;
33. üdvözli a Bizottságnak a fehér könyvben kifejezett elkötelezettségét az egészségügyre jellemző biztonsági és felelősségvállalási kihívások vizsgálata iránt, pl. olyan MI-rendszereket illetően, amelyek speciális orvosi információkat szolgáltatnak az orvosoknak vagy közvetlenül a betegnek, illetve amelyek maguk végeznek orvosi feladatokat közvetlenül a betegen; kéri a többi felsorolt, alapértelmezés szerint magas kockázatú ágazat megfelelő vizsgálatát;
34. úgy véli, hogy például az egészségügy területén a végső felelősséget egy természetes vagy jogi személynek kell viselnie; hangsúlyozza, hogy az algoritmusok számára nyomon követhető és nyilvánosan hozzáférhető tanulóadatokat kell rendelkezésre bocsátani;
35. felhívja a Bizottságot, hogy kezdeményezzen nyílt és átlátható ágazati párbeszédet, prioritásként kezelve az egészségügyi ellátást, majd ezután terjesszen elő cselekvési tervet a mesterséges intelligencia kutatásban és innovációban való fejlesztésének, tesztelésének és bevezetésének, valamint a népegészségügyi szolgáltatások terén történő széles körű alkalmazásának elősegítésére;
36. óva int attól, hogy a gépeket megkíséreljék valamiféle „személyiséggel” felruházni, ez ugyanis műhibák esetén az emberi felelősség megszűnésével járna;
37. határozottan támogatja a Bizottság által javasolt európai egészségügyi adattér[43] létrehozását, amelynek célja az egészségügyi adatcsere előmozdítása és a kutatás támogatása az adatvédelem teljes tiszteletben tartása mellett, ideértve az adatok MI-technológiával történő feldolgozását is, és amely megerősíti és kiterjeszti az egészségügyi adatok felhasználását és újrafelhasználását; kéri az egészségügyi adatok határokon átnyúló cseréjének fokozását, azok összekapcsolását és felhasználását biztonságos, egyesített adattárak, egyedi típusú egészségügyi információk, például az európai egészségügyi nyilvántartások, a genomadatok és a digitális egészségügyi képek révén az Unió egészére kiterjedő interoperábilis nyilvántartások vagy adatbázisok olyan területeken történő előmozdítása érdekében, mint a kutatás, a tudomány és az egészségügyi ágazatok;
38. hangsúlyozza, hogy a betegeknek tudniuk kell arról, mikor és hogyan kerülnek kapcsolatba humán szakemberrel, és arról, amikor nem ez a helyzet; ragaszkodik ahhoz, hogy a betegeknek szabadon kell dönteniük erről a kapcsolatfelvételről, és egyenlő szintű alternatívát kell a rendelkezésükre bocsátani;
39. úgy véli, hogy különösen az egészségügyi ágazatban a mobilalkalmazások elősegíthetik a betegségek nyomon követését, és hasznosnak tartja a robotok – mint az orvosok és az ápolók segítőinek – jelenlétét a diagnosztika és az ápolás javítása céljából, ugyanakkor biztosítani kell, hogy ne dehumanizálják az orvosi és a betegápolási gyakorlatot;
40. felszólít az e-egészségügyi alkalmazások szabványosított uniós interoperabilitására, valamint a receptek, a diagnózisok és az orvosi jelentések minden uniós polgár számára és minden tagállam számára egyszerűen elérhető, közös európai hozzáférésének létrehozására;
41. megismétli, hogy a szóban forgó technológiákban rejlő lehetőségek és kockázatok globális dimenzióval rendelkeznek, amely nemzetközi szintű következetes és harmonizált megközelítést tesz szükségessé; felszólítja a Bizottságot, hogy két- és többoldalú keretek között dolgozzon az etikai megfelelés előmozdítása és biztosítása érdekében;
42. kiemeli az MI előnyeit a betegségmegelőzés, a betegségkezelés és a járványvédelem terén, amit az is jól példáz, hogy a Covid19-járványt az MI már a WHO-t megelőzően előre jelezte; sürgeti a Bizottságot, hogy megfelelően lássa el az ECDC-t a szükséges, anonimizált, valós idejű globális egészségügyi adatok független, a tagállamokkal együttműködve végzett gyűjtéséhez szükséges jogi kerettel és erőforrásokkal, többek között a Covid19-világjárvány nyomán felmerült problémák kezelése érdekében;
43. rámutat arra, hogy a nyomonkövetési és a kapcsolatfelvételi technológiáknak a Covid19-járvány és más lehetséges egészségügyi vészhelyzetek idején a hatóságok által történő használata ütközhet az adatvédelemmel; e tekintetben emlékeztet az adatvédelemmel összefüggésben a Covid19-világjárvány elleni küzdelmet támogató alkalmazásokra vonatkozó iránymutatásról szóló, 2017. április 17-i bizottsági közleményre[44], valamint az arányosság, az időbeli korlátozás, az európai értékekhez való igazodás, valamint az emberi méltóság és az alapvető jogok tiszteletben tartásának szükségességére;
44. úgy véli, hogy az MI és a robotika jelentős mértékben javíthatja az orvostechnikai eszközök irányítását, és megkönnyítheti az egészségügyi szakemberek mindennapi munkáját; úgy véli, hogy a kritikus jelentőségű orvostechnikai eszközökhöz szükség van egy biztonsági rendszerre, amely figyelemmel kíséri és biztosítja az eszköz működését esetleges interferenciahelyzetekben, és hogy az ilyen eszközök ellenőrzése során figyelembe kell venni és enyhíteni kell az esetleges kiberfenyegetéseket; hangsúlyozza, hogy a számítógépes fenyegetések a hackerek és a külső fenyegetések mellett emberi hibából vagy rendszerhibából is eredhetnek, és megfelelő biztonsági rendszereket kell létrehozni és működtetni; úgy véli továbbá, hogy az Uniónak el kell készítenie az MI biztonsági mentéssel kapcsolatos fejlesztési ütemtervét az MI rendszervezérlése lehetséges hibáinak kezelésére;
45. felhívja a figyelmet arra, hogy az (EU) 2017/745 európai parlamenti és tanácsi rendeletben[45] meghatározott biztonsági előírások nem feltétlenül elegendőek az MI-rendszerek jelentette kihívások kezelésére; felhívja a Bizottságot, hogy kövesse nyomon az e téren jelentkező problémákat, és szükség esetén terjesszen elő javaslatokat;
46. hangsúlyozza annak biztosítását, hogy az MI-vezérelt orvostechnikai eszközöknek meg kell felelniük az (EU) 2017/745 rendelet biztonsági és teljesítménykövetelményeinek; felhívja a Bizottságot és a tagállamokat, hogy biztosítsák az (EU) 2017/745 rendelet ezen technológiákra tekintettel történő végrehajtását; úgy véli, hogy új iránymutatásokra és előírásokra van szükség a szoftverek, az MI és a mélytanulásra képes eszközök biztonságának és hatékonyságának teljes használati ciklusuk alatt történő értékeléséhez;
47. egyértelműbb jogi hatáskör és megfelelő finanszírozás biztosítására szólít fel az EMA és a gyógyszerekkel kapcsolatban illetékes nemzeti hatóságok számára annak érdekében, hogy az MI-vel kapcsolatos innovációs és közegészségügyi szempontok támogathatók legyenek a gyógyszer teljes életciklusa során, különös tekintettel a valós egészségügyi adatok gyűjtésére és elemzésére, amelyek további bizonyítékokat generálhatnak a gyógyszerekkel kapcsolatban a K+F támogatása céljából, valamint optimalizálják a meglévő gyógyszerek biztonságos és hatékony felhasználását a betegek és az európai egészségügyi rendszerek érdekében;
48. kitart amellett, hogy a biztosítótársaságoknak vagy bármilyen más szolgáltatóknak nem helyénvaló engedélyezni az elektronikus egészségügyi kérvényekből származó adatok abból a célból történő felhasználását, hogy hátrányos megkülönböztetést gyakoroljanak az árak megszabásánál, mivel ez ellentétes a lehető legmagasabb szintű egészséghez való hozzáférésre irányuló alapvető joggal;
MI és adatvédelem
49. üdvözli az (EU) 2016/679 rendelet Bizottság által nemrégiben közzétett felülvizsgálatát[46], megjegyzi, hogy a tagállami jogszabályok eltérő megközelítéseket követnek a személyes adatok különleges kategóriáinak kezelésére vonatkozó általános tilalomtól való eltérések végrehajtása során az előírások és a biztosítékok szintje tekintetében, többek között egészségügyi célokból; ezért kijelenti, hogy végső soron az embereknek kell felelősséget viselniük a döntéshozatalért, különösen olyan ágazatokban, például az egészségügyben, ahol magas a tét és jelentősek a kockázatok;
50. üdvözli a Bizottság azon szándékát, hogy nyomon kövesse az (EU) 2016/679 rendelet új technológiákra való alkalmazását, többek között az MI területén és az adatstratégia keretében megvalósuló lehetséges jövőbeli kezdeményezések esetében, és támogatja a Bizottság Európai Adatvédelmi Testülethez intézett azon felhívását, hogy adjon ki iránymutatásokat az (EU) 2016/679 rendeletnek a tudományos kutatás, az MI, a blokklánc és más lehetséges technológiai fejlesztések területén történő alkalmazásáról;
51. kéri a polgárok és a betegek személyes adataikkal kapcsolatos önrendelkezésének biztosítását az adatvédelemre és a magánélet védelmére vonatkozó uniós jogi keret teljes körű végrehajtása és egységes értelmezése érdekében, különösen az egészségügyi célú MI-alkalmazások és a kapcsolódó érzékeny adatok tekintetében, az (EU) 2016/679 rendelet 17. cikkében foglalt, a személyes adatok tárolásának megszüntetéséhez való jog teljes körű tiszteletben tartása, valamint a 22. cikkében előírt „magyarázathoz való jog” és a magas kockázatú MI-re vonatkozó szigorúbb értelmezhetőségi követelmények megerősítése céljából;
52. hangsúlyozza, hogy az MI-re vonatkozó etikai keretnek magában kell foglalnia az automatizált feldolgozáson alapuló döntés indokolásához való jogot az ilyen döntések által érintett személyek számára;
53. felszólít a magánélet, az adatvédelem és az adathasználat közötti megfelelő egyensúly kialakítására; úgy véli, hogy a tudományos haladás szempontjából biztosítani kell a lehetőséget a kellő mélységű és részletességű egészségügyi adatok megosztására és feldolgozására; felszólít az adatok anonimizálásának biztosítására, a túlzott adatminimalizálás elkerülése mellett; uniós szintű, megfelelő interoperábilis adatbázisok, nyilvántartások és adattárak létrehozására szólít fel, hogy megkönnyítsék az egészségügyi adatok felhasználását az egészségügyi, környezetvédelmi és élelmiszer-biztonsági ágazatokban;
54. hangsúlyozza, hogy biztosítani kell az egészségügyi adatok és a veszélyeztetett csoportokhoz tartozó adatok védelmét, és rámutat arra, hogy amennyiben az MI-alkalmazások az érintett hozzájárulása alapján dolgozzák fel az egészségügyi adatokat, teljesülniük kell az (EU) 2016/679 rendelet 7. cikkében meghatározott feltételeknek;
55. hangsúlyozza, hogy az előállított adatok semmiképpen nem járulhatnak hozzá a megkülönböztetéshez semmilyen formájához; garanciákat kér arra vonatkozóan, hogy az adatgyűjtés és a hozzáférhetőség mindig összhangban legyen az Unió jogi keretével;
56. rámutat, hogy a rosszindulatú adatmódosítás és -manipuláció, valamint az esetleges feltörések vagy adatlopások kockázata különösen súlyos lehet az egészségügyi ágazatban, és felhasználható az egyének sérelmére, hírnevük rontására vagy anyagi kihasználásukra; hangsúlyozza, hogy ezekre a hálózatokra vonatkozóan a kiberbiztonság legmagasabb követelményeit kell megszabni;
Az MI hatása a munka- és társadalmi környezetre:
57. emlékeztet arra, hogy az OECD etikai kerete figyelembe veszi a munkaerőpiacon bekövetkező megrázkódtatásokat; hangsúlyozza, hogy az MI-vel ötvözött automatizálás növeli a termelékenységet, és ezáltal növeli az outputokat; megjegyzi, hogy hasonló módon, mint a korábbi technológiai forradalmak idején, bizonyos munkahelyeket másokkal fognak helyettesíteni; hangsúlyozza, hogy a robotika és a mesterséges intelligencia fokozott használatának csökkentenie kell az emberek ártalmas és veszélyes körülményeknek való kitettségét is, továbbá elő kell segítenie a több jó minőségű és tisztességes munkahely létrehozását és a termelékenység javítását; emlékeztet az OECD munkájára, amely hangsúlyozza, hogy az automatizálás lehetővé teszi a társadalom számára, hogy a munkaidő csökkentése mellett döntsön, ezáltal javítva a munkavállalók életkörülményeit és egészségét;
58. felhívja tágabb körben a figyelmet az OECD arra vonatkozó ajánlásaira, hogy a kormányzatok szorosan működjenek együtt az érdekelt felekkel annak érdekében, hogy elősegítsék az MI felelős használatát a munkavégzés során, erősítsék a munkavállalók biztonságát és a munkahelyek minőségét, és ügyeljenek arra, hogy az MI előnyeit széles körben és méltányosan osszák meg; ezzel összefüggésben hangsúlyozza, hogy a kulcsfontosságú szereplőkkel együttműködő fejlesztők és mérnökök különböző csoportjai hozzájárulhatnak a nemi és kulturális elfogultság elkerüléséhez, valamint annak biztosításához, hogy az MI-algoritmusokban, -rendszerekben és -alkalmazásokban tiszteletben tartsák a munkavállalók fizikai és szellemi jóllétét;
59. hangsúlyozza, hogy az MI-alkalmazások kifejlesztése csökkentheti a költségeket és növelheti a rendelkezésre álló szolgáltatások – pl. egészségügyi szolgáltatások, tömegközlekedés, mezőgazdaság 2.0 – mennyiségét, megfizethetőbbé téve ezeket a társadalom szélesebb körei számára; hangsúlyozza, hogy az MI-alkalmazások a munkanélküliség növekedésével, a szociális gondozási rendszerekre nehezedő nyomással és a szegénység növekedésével is járhatnak; az Európai Unióról szóló szerződés 3. cikkében foglalt értékekkel összhangban hangsúlyozza, hogy az MI-vel kapcsolatos uniós átalakulást a társadalmi-gazdasági képességekhez, a megfelelő szociális védelemhez, az oktatáshoz és az alternatív munkahelyek létrehozásához kell igazítani; felszólít egy uniós MI-alkalmazkodási alap létrehozásának megfontolására, amely az Európai Globalizációs Alkalmazkodási Alap (EGAA) vagy a most kidolgozott Méltányos Átállást Támogató Alap tapasztalataira épül;
60. hangsúlyozza továbbá a szociális párbeszéd fontosságát annak érdekében, hogy a munkavállalók számára méltányos és inkluzív legyen az átmenet az MI teremtette új munkakörülmények felé, valamint azt, hogy a vállalatoknak be kell ruházniuk a munkavállalóik képzésébe és átképzésébe;
61. felhívja a tagállamokat, hogy a környezetvédelmi, egészségügyi és élelmiszer-biztonsági szakemberek oktatását hangolják össze az MI-vel kapcsolatos fejleményekkel, és hívják fel a figyelmet az MI-hez kapcsolódó kockázatokra és etikai kihívásokra;
62. üdvözli a fehér könyvben az MI-vel kapcsolatos magas kockázatú tanulóadatokra vonatkozóan javasolt követelményeket, amelyek a biztonságot is érintik – kellően széles körű adatok szükségesek ahhoz, hogy lefedjék az összes releváns forgatókönyvet a veszélyes helyzetek, például a hátrányos megkülönböztetés elkerülése érdekében, valamint kellően reprezentatív adatok szükségesek, hogy megfelelően tükrözzék azt a társadalmi környezetet, amelyre alkalmazzák őket;
63. hangsúlyozza, hogy a közszférának a társadalmi problémák megoldására kell összpontosítania, nem pedig az MI elfogadottságának öncélú megteremtésére; szorgalmazza az Unió közbeszerzési szabályainak és iránymutatásainak fejlesztését, ideértve az Európai Unió környezettudatos közbeszerzését is, hogy a pályázatok releváns értékelési eljárásai során figyelembe vegyék, hogy egy adott problémát illetően szükség van-e MI-rendszer alkalmazására, és alternatív megoldás álljon rendelkezésre azokban az esetekben, amikor az értékelés szerint egy MI-t nem alkalmazó megoldás megfelelőbben kezeli a társadalmi problémát;
INFORMÁCIÓ A VÉLEMÉNYNYILVÁNÍTÁSRA FELKÉRT BIZOTTSÁG ÁLTALI ELFOGADÁSRÓL
Az elfogadás dátuma |
10.9.2020 |
|
|
|
A zárószavazás eredménye |
+: –: 0: |
77 2 2 |
||
A zárószavazáson jelen lévő tagok |
Nikos Androulakis, Bartosz Arłukowicz, Margrete Auken, Simona Baldassarre, Marek Paweł Balt, Traian Băsescu, Aurelia Beigneux, Monika Beňová, Sergio Berlato, Alexander Bernhuber, Malin Björk, Simona Bonafè, Delara Burkhardt, Pascal Canfin, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Nathalie Colin-Oesterlé, Miriam Dalli, Esther de Lange, Christian Doleschal, Marco Dreosto, Bas Eickhout, Eleonora Evi, Agnès Evren, Fredrick Federley, Pietro Fiocchi, Andreas Glück, Catherine Griset, Jytte Guteland, Teuvo Hakkarainen, Martin Hojsík, Pär Holmgren, Jan Huitema, Yannick Jadot, Adam Jarubas, Petros Kokkalis, Athanasios Konstantinou, Ewa Kopacz, Joanna Kopcińska, Ryszard Antoni Legutko, Peter Liese, Sylvia Limmer, Javi López, César Luena, Fulvio Martusciello, Liudas Mažylis, Joëlle Mélin, Tilly Metz, Silvia Modig, Dolors Montserrat, Alessandra Moretti, Dan-Ștefan Motreanu, Ville Niinistö, Ljudmila Novak, Jutta Paulus, Stanislav Polčák, Jessica Polfjärd, Luisa Regimenti, Frédérique Ries, María Soraya Rodríguez Ramos, Sándor Rónai, Rob Rooken, Silvia Sardone, Christine Schneider, Günther Sidl, Ivan Vilibor Sinčić, Linea Søgaard-Lidell, Nicolae Ştefănuță, Nils Torvalds, Edina Tóth, Véronique Trillet-Lenoir, Alexandr Vondra, Mick Wallace, Pernille Weiss, Michal Wiezik, Tiemo Wölken, Anna Zalewska |
|||
A zárószavazáson jelen lévő póttagok |
Michael Bloss, Manuel Bompard, Christel Schaldemose |
NÉV SZERINTI ZÁRÓSZAVAZÁS A VÉLEMÉNYNYILVÁNÍTÁSRA FELKÉRT BIZOTTSÁGBAN
77 |
+ |
#PPE# |
Bartosz Arłukowicz, Alexander Bernhuber, Traian Băsescu, Nathalie Colin-Oesterlé, Christian Doleschal, Agnès Evren, Adam Jarubas, Ewa Kopacz, Peter Liese, Fulvio Martusciello, Liudas Mažylis, Dolors Montserrat, Dan-Ștefan Motreanu, Ljudmila Novak, Jessica Polfjärd, Stanislav Polčák, Christine Schneider, Edina Tóth, Pernille Weiss, Michal Wiezik, Esther de Lange |
S&D |
Nikos Androulakis, Marek Paweł Balt, Monika Beňová, Simona Bonafè, Delara Burkhardt, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Miriam Dalli, Jytte Guteland, César Luena, Javi López, Alessandra Moretti, Sándor Rónai, Christel Schaldemose, Günther Sidl, Tiemo Wölken |
Renew |
Pascal Canfin, Fredrick Federley, Andreas Glück, Martin Hojsík, Jan Huitema, Frédérique Ries, María Soraya Rodríguez Ramos, Linea Søgaard-Lidell, Nils Torvalds, Véronique Trillet-Lenoir, Nicolae Ştefănuță |
ID |
Simona Baldassarre, Aurelia Beigneux, Marco Dreosto, Catherine Griset, Joëlle Mélin, Luisa Regimenti, Silvia Sardone |
Verts/ALE |
Margrete Auken, Michael Bloss, Bas Eickhout, Pär Holmgren, Yannick Jadot, Tilly Metz, Ville Niinistö, Jutta Paulus |
ECR |
Sergio Berlato, Pietro Fiocchi, Joanna Kopcińska, Ryszard Antoni Legutko, Alexandr Vondra, Anna Zalewska |
GUE/NGL |
Malin Björk, Manuel Bompard, Petros Kokkalis, Silvia Modig, Mick Wallace |
NI |
Eleonora Evi, Athanasios Konstantinou |
2 |
- |
ID |
Sylvia Limmer |
ECR |
Rob Rooken |
2 |
0 |
ID |
Teuvo Hakkarainen |
NI |
Ivan Vilibor Sinčić |
Jelmagyarázat:
+ : mellette
- : ellene
0 : tartózkodás
VÉLEMÉNY A KULTURÁLIS ÉS OKTATÁSI BIZOTTSÁG RÉSZÉRŐL (3.9.2020)
a Jogi Bizottság részére
a Bizottsághoz intézett ajánlásokkal a mesterséges intelligencia, a robotika és a kapcsolódó technológiák etikai szempontjainak keretéről
A vélemény előadója: Łukasz Kohut
(Kezdeményezés – az eljárási szabályzat 47. cikke)
JAVASLATOK
A Kulturális és Oktatási Bizottság felkéri a Jogi Bizottságot mint illetékes bizottságot, hogy:
– állásfoglalási indítványába foglalja bele a következő javaslatokat:
1. emlékeztet arra, hogy a mesterséges intelligencia fejlesztése, bevezetése és alkalmazása a kulturális és kreatív ágazatok, az oktatás, valamint a média, az ifjúság- és tájékoztatási politika területén nemcsak óriási lehetőségeket rejt, hanem olyan etikai kérdések széles körét is felveti és fogja a jövőben is felvetni, amelyekre megoldást kell találni; hangsúlyozza, hogy az Uniónak egy, az európai értékekben gyökerező, etikus mesterséges intelligencia felé kell utat mutatnia, amely biztosítja az emberi méltóság és az alapvető jogok védelmét egy demokratikus, igazságos és fenntartható Európában; felhívja az uniós intézményeket, hogy a mesterséges intelligenciát alkalmazó technológia olyan útjának egyengetése érdekében, amely tiszteletben tartja a szabadságunkat, nem teszi tönkre az innovációt, és nem korlátozza a szólásszabadságot, gondolkodjanak el hosszú távon a mesterséges intelligencia által demokratikus vitáinkra, társadalmunkra és magára az emberi lény természetére gyakorolt hatásról;
2. határozottan úgy véli, hogy meg kell vizsgálni, hogy az emberi jogi keretek és kötelezettségek hogyan alakíthatják az új és kialakulóban lévő digitális technológiákkal kapcsolatos fellépéseket és politikákat annak érdekében, hogy biztosítsák azok antropocentrikus megközelítését és az előnyeik hozzáférhetőségét mindenki számára; elismeri, hogy biztosítani kell, hogy a mesterséges intelligencia fejlesztése, telepítése és használata mentes legyen a megkülönböztetéstől, az elfogult profilalkotástól, és tükrözze a társadalom valamennyi lényeges elemét; elismeri, hogy a mesterséges intelligencia és az automatizálás olyan hatással lesz a globalizálódott gazdaságra, amely a fennálló egyenlőtlenségek megmerevedéséhez vezet;
3. hangsúlyozza, hogy az adott sajátosságokhoz szabott kritériumokat kell kidolgozni a mesterséges intelligenciának az oktatásban, a médiában, az ifjúsági politikában, a kutatásban, továbbá a kulturális és kreatív ágazatokban való fejlesztésére, bevezetésére és alkalmazására vonatkozóan, az e területeken alkalmazott mesterségesintelligencia-technológiák etikailag felelős és elfogadott felhasználására vonatkozó referenciaértékek kidolgozása és alapvelvek meghatározása révén, beleértve egy, a mesterséges intelligencia felhasználásából eredő termékekre vonatkozó világos felelősségi rendszert is; hangsúlyozza, hogy e kritériumoknak rugalmasnak kell lenniük és folyamatosan a mesterségesintelligencia-technológiák fejlődéséhez kell őket igazítani, felelősségteljesen segítve ezzel a mesterséges intelligenciában rejlő valamennyi lehetőség kiaknázását; kiemeli különösen annak szükségességét, hogy megoldás szülessen a személyes felhasználói adatok gyűjtésével és a magánélet védelmével kapcsolatos aggályokra, valamint a felelősséggel kapcsolatos problémákra azokban az esetekben, amikor az automatikus folyamatok nemkívánatos eredményekhez vezetnek; emlékeztet arra, hogy – a szilárd alapok biztosítása érdekében ezen kritériumok számára – elő kell írni, hogy a rendszernek a rá vonatkozó előírásoknak való megfelelése, az átláthatóság, a jóhiszeműség és a méltányosság elvét tiszteletben kell tartani, konzultálva az Európai Unió kulturális értékeivel és jogi keretrendelkezéseivel való összhang megteremtéséért felelős illetékes etikai bizottságokkal; megállapítja, hogy a mesterségesintelligencia-rendszerek szoftveralapú rendszerek, amelyek a környezetük elemzése alapján képesek intelligens viselkedésre; hangsúlyozza, hogy ez az elemzés statisztikai modelleken alapul, amelyeknek elkerülhetetlen részét képezik a hibák; hangsúlyozza, hogy biztosítani kell, hogy olyan rendszerek és módszerek álljanak rendelkezésre, amelyek lehetővé teszik az algoritmus ellenőrzését, megmagyarázhatóságát és a jogorvoslatokhoz való hozzáférést; hangsúlyozza, hogy olyan kötelező erejű szabályokat kell hozni, amelyek biztosítják az átláthatóság, az elszámoltathatóság és a megkülönböztetésmentesség elvének tiszteletben tartását; emlékeztet a megbízható mesterséges intelligenciára vonatkozó 2019-es etikai iránymutatásra és a mesterséges intelligencia megbízhatóságának hét kulcsfontosságú követelményére;
4. megjegyzi, hogy minden gyermeket minden szinten megillet a jó minőségű közoktatáshoz való jog; ezért olyan jó minőségű mesterségesintelligencia-rendszerek fejlesztését, bevezetését és használatát szorgalmazza, amelyek mindenki számára minden szinten jó minőségű oktatási eszközöket segítenek elő és biztosítanak, és hangsúlyozza, hogy az új mesterségesintelligencia-rendszerek iskolákban való bevezetése nem eredményezheti még szélesebb társadalmi szakadék létrejöttét;
5. megjegyzi, hogy a mesterséges intelligencián alapuló, személyre szabott tanulási rendszereket egyre inkább alkalmazzák az iskolákban és az egyetemeken, ami által a tanárok szerepe fokozatoan átalakul a tanulási folyamatban; hangsúlyozza, hogy erről a változásról alapos elemzést kell készíteni, tükröződnie kell a tantervekben, és emberközpontú értékeken kell alapulnia; elismeri, hogy a mesterséges intelligencia és a robotika hatalmas mértékben hozzájárulhat az oktatáshoz; megjegyzi, hogy a mesterséges intelligencia személyre szabott tanulási rendszerei nem helyettesíthetik a tanárokkal az oktatás során kialakított kapcsolatot, és hogy az oktatás hagyományos formáit nem szabad megszüntetni, ugyanakkor rámutat arra, hogy pénzügyi, technológiai és oktatási támogatást – többek között az információs és kommunikációs technológiákkal kapcsolatos speciális képzést – kell nyújtani azoknak a tanároknak, akik megfelelő készségeket kívánnak elsajátítani a technológiai változásokhoz való alkalmazkodás érdekében, és nem csupán a mesterséges intelligenciában rejlő lehetőségek kiaknázása, hanem korlátainak megértése terén is;
6. hangsúlyozza, hogy amennyiben a leendő diákok kiválasztása során gépi tanulást alkalmaznak, megfelelő biztosítékokat kell bevezetni, amelyek magukban foglalják a pályázó fiataloknak az alkalmazott eljárásokról és az őket e tekintetben megillető jogokról való tájékoztatását; megállapítja, hogy a vonatkozó algoritmusokat nagy adathalmazokon kell „tanítani”, megelőzve ezzel azt, hogy az algoritmusok igazságtalanul megkülönböztessenek bizonyos csoportokat; úgy véli, hogy az automatizált folyamatok segítségével hozott, a fentiekre vonatkozó döntéseknek indokolhatónak kell lenniük, szükség esetén többek között az elutasított diákok számára is;
7. szorgalmazza a mesterséges intelligencia, a robotika és a kapcsolódó technológiák vonatkozásában uniós szintű stratégia kialakítását oktatási rendszereink átalakításának és naprakésszé tételének elősegítése, oktatási intézményeink valamennyi szinten történő felkészítése, valamint a tanárok és diákok a szükséges készségekkel és képességekkel való felvértezése érdekében; úgy véli, hogy szükség van az oktatás etikájának keretrendszerére; javasolja a civil társadalom, az egyetemek, a szakszervezetek és a munkáltatói szervezetek bevonását egy ilyen keret kidolgozásának folyamatába; megállapítja, hogy az Unióban kifejlesztett, bevezetett és alkalmazott mesterségesintelligencia-rendszereknek tükrözniük kell az Unió kulturális sokszínűségét és többnyelvűségét; kiemeli, hogy külön támogatást kell biztosítani az informatika hátrányos helyzetű és fogyatékossággal élő csoportokhoz tartozó fejlesztőinek és felhasználóinak;
8. úgy véli, hogy mivel az oktatási környezetnek kiemelt hatása van a fiatalok jövőjére, különös figyelmet és kell fordítani a kiskorúak jogainak biztosítására, különös tekintettel a magánélet tiszteletben tartásához való jog megőrzésére és a minőségi oktatáshoz való hozzáférés elősegítésére, minden esetben biztosítva az esélyegyenlőséget; hangsúlyozza, hogy az oktatási intézményeknek csak olyan mesterségesintelligencia-rendszereket szabad oktatási célból használniuk, amelyeket megvizsgáltak és etikus, hasznos és az emberi jogi elvekkel összhangban működő rendszerként tanúsítottak felhívja a Bizottságot és a tagállamokat, hogy mozdítsák elő az állami és a magánszektor, valamint a tudományos körök közötti együttműködést a tudásmegosztás és a nyílt források megerősítése érdekében;
9. megállapítja, hogy tisztázni kell a művészetek és a kulturális és kreatív művek fogalmát, valamint az emberek mint alkotók és művészek szerepét; hangsúlyozza, hogy a digitalizáció és az új technológiák által kínált lehetőségek nem vezethetnek a munkahelyek számának csökkenéséhez a kulturális és kreatív ágazatokban, sem az eredeti művek megőrzésének elhanyagolásához, és nem szűkíthetik a kulturális örökséghez való hagyományos hozzáférés lehetőségeit, amit szintén ösztönözni kell;
10. elismeri, hogy a mesterséges intelligenciában növekvő lehetőségek rejlenek a tájékoztatás, a média és az online platformok területén, többek között a dezinformáció elleni küzdelem terén is hathatós eszköz lehet; aggodalmát fejezi ki azonban a mesterséges intelligenciával való visszaélés lehetősége miatt a közvélemény online manipulálása érdekében; hangsúlyozza, hogy szabályozás hiányában e technológiáknak etikai szempontból káros hatásaik lehetnek az adatokba és az algoritmusokba beépített torzítások kihasználása révén, ami dezinformáció terjesztéséhez, információs buborékok létrehozásához, és a mesterségesintelligencia-algoritmusokba beépített torzítások kihasználásához vezethet emlékeztet arra, hogy a megfelelő oktatás szükséges feltétele a polgárok jogai védelmének a tájékoztatás, a véleményalkotás és a szólás szabadsága tekintetében, és felszólít a mesterségesintelligencia-technológiák etikus használatára a média területén; figyelmeztet a technológián alapuló cenzúra kockázataira és arra, hogy a szólásszabadságot védő etikai keretre van szükség;
11. úgy véli, hogy a mesterséges intelligencia bizonyos típusainak, például az arcfelismerésnek, az érzelmeket azonosító és a viselkedésfelderítési rendszereknek a használata káros hatással lehet a média és az újságírók demokrácia őreiként betöltött szerepére, és ezért a demokratikus folyamatra; hangsúlyozza ezért, hogy minden szükséges esetben korlátozni vagy tiltani kell e rendszerek közterületeken való használatát; hangsúlyozza, hogy folytatni kell az álhírek – többek között az olyan technikák, mint a „deepfake” – elleni küzdelmet, továbbá a cenzúra és az automatizált felügyelet elleni küzdelmet;
12. hangsúlyozza, hogy a formális és nem formális oktatás révén meg kell ismertetni a széles nyilvánosságot a mesterséges intelligencia szerepével és hatásával, beleértve a humán tanszékeket is, kitérve egyebek mellett az algoritmusok használatára és azok – többek között munkahelyekre és adatvédelemre gyakorolt – hatására, valamint az IT-rendszerek szerepére az adatok értelmezése, tárolása és bemutatása terén; támogatja, hogy az oktatás minden szintjén hozzanak létre digitális jártassági eszközöket, és ezért felhívja a tagállamokat és az uniós intézményeket, hogy fektessenek be az információkkal kapcsolatos tájékoztatásba és a médiaműveltségbe, valamint az oktatásba és képzésbe; úgy véli, hogy az információs és médiakompetencia kulcsfontosságú valamennyi polgár számára, beleértve a kiszolgáltatott társadalmi csoportokat is, hogy képesek legyenek kritikusan értékelni és megérteni az új fejleményeket, beleértve a mesterséges intelligencia működésének és a jellegéből fakadó elfogultságnak a megértését, és ezáltal a kritikus gondolkodás új formáit kialakítani; ajánlja, hogy a Bizottság mozdítsa elő az oktatás és a továbbképzés mesterséges intelligencián, robotikán és technológián alapuló formáit;
13. megjegyzi, hogy fontos különbséget tenni az algoritmusok átláthatósága és az algoritmusok használatának átláthatósága között; hangsúlyozza a videomegosztó platformok és az online közvetítéssel foglalkozó platformok által használt algoritmusok átláthatóságának és elszámoltathatóságának fontosságát a kulturális és nyelvi szempontból sokszínű tartalmakhoz való hozzáférés biztosítása és a privilegizálás elkerülése érdekében; meggyőződése, hogy minden felhasználót megfelelően tájékoztatni kell, ha valamely tartalom ajánlásához algoritmust használnak, és a felhasználónak módot kell adni arra, hogy azt a saját ízlése szerint optimalizálja, továbbá, hogy ezen algoritmusok nem korlátozhatják a felhasználók választási lehetőségeit; úgy véli, hogy bármely felhasználónak arra is képesnek kell lennie, hogy kikapcsolja a tartalmak mesterséges intelligencián alapuló ajánlását; hangsúlyozza, hogy ezen algoritmusokat úgy kell kialakítani, hogy azok tükrözzék társadalmaink kulturális sokszínűségét, biztosítva a valódi kulturális nyitottságot és garantálva az alkotás szabadságát; kitart amellett, hogy a mesterséges intelligencia által gyűjtött felhasználói adatokat, így például a kulturális preferenciákat vagy tanulás terén elért eredményeket ne lehessen az érintett tudomása nélkül továbbítani vagy felhasználni;
14. megjegyzi, hogy a sport mindig is felkarolta a technológiai innovációt; úgy véli mindazonáltal, hogy a mesterségesintelligencia-technológiák használata – amely gyorsan terjed a sportversenyeken – egyre inkább kérdéseket vet fel a sport területén megvalósuló tisztességes verseny tekintetében, minthogy a legtöbb pénzügyi forrással rendelkező csapatok tudják a legjobb technológiát megszerezni, ami potenciálisan tisztességtelen előnyhöz juttatja e csapatokat; hangsúlyozza, hogy e fejleményeket szoros figyelemmel kell kísérni, továbbá, hogy e területen olyan szabályozási keretre van szükség, amely az MI-technológiák fejlesztése és használata során etikus és emberközpontú kritériumokat alkalmaz teljes átláthatóságot kér a sportban használt algoritmusokkal és technológiákkal kapcsolatban, a tisztességes versenyfeltételek megteremtése érdekében.
INFORMÁCIÓ A VÉLEMÉNYNYILVÁNÍTÁSRA FELKÉRT
BIZOTTSÁG ÁLTALI ELFOGADÁSRÓL
Az elfogadás dátuma |
31.8.2020 |
|
|
|
A zárószavazás eredménye |
+: –: 0: |
28 0 2 |
||