Az első uniós rendelet a mesterséges intelligenciáról

A mesterséges intelligencia (MI) használatát az EU-ban a világ első átfogó MI-törvénye fogja szabályozni. Összefoglaltuk a legfontosabb tudnivalókat.

Egy férfi számítógéppel generált figurával néz szembe, háttérben programozási nyelvvel
Ez az illusztrációt valójában mesterséges intelligencia alkotta

A digitális stratégia részeként az EU szabályozná a mesterséges intelligenciát (MI), hogy jobb feltételeket teremtsen az innovatív technológia fejlesztéséhez és használatához. A mesterséges intelligencia számos előnnyel járhat, mint például a jobb egészségügyi ellátás; biztonságosabb és tisztább közlekedés; hatékonyabb termelés; olcsóbb és fenntarthatóbb energia.

2021 áprilisában az Európai Bizottság javaslatot tett a mesterséges intelligencia első uniós szabályozási keretrendszerére. Eszerint a különböző alkalmazásokban használható mesterséges intelligencia rendszereket elemzik és osztályozzák aszerint, hogy milyen kockázatot jelentenek a felhasználók számára. Az eltérő kockázati szintek több-kevesebb szabályozást jelentenek. 

Tudjon meg többet arról, hogy mi a mesterséges intelligencia és hogyan használják fel!

Mit vár a Parlament a MI-szabályozás terén?


A Parlament számára prioritást jelent annak biztosítása, hogy az EU-ban használt mesterséges intelligencia-rendszerek biztonságosak, átláthatóak, nyomon követhetőek, megkülönböztetéstől mentesek és környezetbarátak legyenek. Az MI-rendszereket az automatizálás helyett az embereknek kell felügyelniük a káros következmények megelőzése érdekében.

A Parlament emellett technológiasemleges, egységes definíciót szeretne a mesterséges intelligencia számára, amelyet a jövőbeli mesterséges intelligencia-rendszerekre is alkalmazni lehetne.

Bővebben a Parlament mesterséges intelligencia terén végzett munkájáról és a mesterséges intelligencia jövőjével kapcsolatos elképzeléseiről.

AI törvény: különböző szabályok a különböző kockázati szintekre


Az új szabályok kötelezettségeket írnak elő a szolgáltatók és a felhasználók számára a mesterséges intelligencia kockázatának mértékétől függően. Ugyan sok mesterséges intelligencia rendszer minimális kockázatot jelent, ezeket fel kell mérni.

Elfogadhatatlan kockázat

Az elfogadhatatlan kockázatú mesterséges intelligencia-rendszerek olyan rendszerek, amelyek veszélyt jelentenek az emberekre, és betiltásra kerülnek. Tartalmazzák:

  • Emberek vagy meghatározott veszélyeztetett csoportok kognitív viselkedési manipulációja: például hangvezérelt játékok, amelyek veszélyes viselkedésre ösztönzik a gyermekeket
  • Társadalmi pontozás: az emberek osztályozása viselkedés, társadalmi-gazdasági státusz vagy személyes jellemzők alapján
  • természetes személyek biometrikus azonosítása és kategorizálása
  • Valós idejű és távoli biometrikus azonosítási rendszerek, például arcfelismerés


Néhány kivétel megengedhető. A „valós idejű” távoli biometrikus azonosítási rendszerek korlátozott számú, súlyos esetben lesznek engedélyezettek, míg az olyan biometrikus azonosítási rendszerek, ahol az azonosítás jelentős késéssel történik és súlyos bűncselekmények felderítésére használják csak a bíróság jóváhagyását követően lesznek engedélyezve.

Magas kockázat


A biztonságot vagy az alapvető jogokat negatívan befolyásoló mesterséges intelligencia rendszerek magas kockázatúnak minősülnek, és két kategóriába sorolhatók:

1) MI-rendszerek, amelyeket az EU termékbiztonsági jogszabályai hatálya alá tartozó termékekben használnak. Ide tartoznak a játékok, a repülés, az autók, az orvosi eszközök és a felvonók.

2) Nyolc speciális terület mesterséges intelligencia-rendszerei, amelyeket regisztrálni kell egy uniós adatbázisban:

  • Kritikus infrastruktúra kezelése és üzemeltetése
  • Oktatás és szakképzés
  • Foglalkoztatás, munkavállalók irányítása és az egyéni vállalkozáshoz való hozzáférés
  • Hozzáférés az alapvető magánszolgáltatásokhoz, valamint a közszolgáltatásokhoz és azok előnyeihez
  • Bűnüldözés
  • Migráció, menekültügy és határellenőrzés kezelése
  • Segítségnyújtás a jogértelmezésben és a jogalkalmazásban.


Valamennyi nagy kockázatú mesterséges intelligencia-rendszert a forgalomba hozatal előtt, valamint az egész életciklusa során értékelnek. A polgároknak jogukban áll panaszt benyújtani a mesterséges intelligenciarendszerekkel kapcsolatban a kijelölt nemzeti hatóságokhoz.

Átláthatósági követelmények


A generatív MI, mint a ChatGPT nem minősül magas kockázatúnak, de meg kell felelnie az átláthatósági követelményeknek és az EU szerzői jogi törvényének:

  • Felfedve, hogy a tartalmat mesterséges intelligencia hozta létre
  • A modell megtervezése annak megakadályozására, hogy illegális tartalmat generáljon
  • A képzéshez felhasznált szerzői joggal védett adatok összefoglalóinak közzététele


A nagy hatásfokkal rendelkező, általános célú mesterséges intelligencia modellek rendszerszintű kockázatot jelenthetnek, mint például a fejlettebb GPT-4 AI-modell, amelyet alapos értékelésnek kell alávetni, és minden súlyos incidenst jelenteni kell a Bizottságnak.

A mesterséges intelligencia segítségével generált vagy módosított tartalmat – képek, hang- vagy videofájlok (pl. mélyhamisítás) – egyértelműen mesterséges intelligencia által generáltként kell megjelölni, hogy a felhasználók tudatában legyenek, amikor ilyen tartalommal találkoznak.

Az innováció támogatása


A törvény célja, hogy lehetőséget kínáljon a kkv-knak és az induló vállalkozásoknak mesterséges intelligencia-modellek fejlesztésére és képzésére, mielőtt azok a nagyközönség elé kerülnének. Éppen ezért megköveteli, hogy a nemzeti hatóságok olyan tesztelési környezetet biztosítsanak a vállalatok számára, amely a való világhoz közeli körülményeket szimulál.

A következő lépések


A szöveget várhatóan 2024 áprilisában fogadják el véglegesen.A hatálybalépést követő 24 hónap elteltével a trövény teljes mértékben alkalmazandó lesz, egyes részei azonban már korábban is alkalmazandók:

  • az elfogadhatatlan kockázatot jelentő mesterséges intelligencia rendszerek tilalma hat hónappal a hatálybalépést követően lép életbe
  • a gyakorlati kódexeket a hatálybalépést követően kilenc hónappal kell alkalmazni
  • az általános célú mesterséges intelligencia-rendszerekre vonatkozó szabályok, amelyeknek meg kell felelniük az átláthatósági követelményeknek, 12 hónappal a hatálybalépést követően lépnek hatályba.

A magas kockázatú rendszereknek több idejük lesz a követelmények teljesítésére, mivel a rájuk vonatkozó kötelezettségek a hatálybalépést követő 36 hónap elteltével lépnek életbe.

Bővebben az EU digitális intézkedéseiről