Az első uniós rendelet a mesterséges intelligenciáról
A mesterséges intelligencia (MI) használatát az EU-ban a világ első átfogó MI-törvénye fogja szabályozni. Összefoglaltuk a legfontosabb tudnivalókat.
A digitális stratégia részeként az EU szabályozná a mesterséges intelligenciát (MI), hogy jobb feltételeket teremtsen az innovatív technológia fejlesztéséhez és használatához. A mesterséges intelligencia számos előnnyel járhat, mint például a jobb egészségügyi ellátás; biztonságosabb és tisztább közlekedés; hatékonyabb termelés; olcsóbb és fenntarthatóbb energia.
2021 áprilisában az Európai Bizottság javaslatot tett a mesterséges intelligencia első uniós szabályozási keretrendszerére. Eszerint a különböző alkalmazásokban használható mesterséges intelligencia rendszereket elemzik és osztályozzák aszerint, hogy milyen kockázatot jelentenek a felhasználók számára. Az eltérő kockázati szintek több-kevesebb szabályozást jelentenek.
Tudjon meg többet arról, hogy mi a mesterséges intelligencia és hogyan használják fel!
Mit vár a Parlament a MI-szabályozás terén?
A Parlament számára prioritást jelent annak biztosítása, hogy az EU-ban használt mesterséges intelligencia-rendszerek biztonságosak, átláthatóak, nyomon követhetőek, megkülönböztetéstől mentesek és környezetbarátak legyenek. Az MI-rendszereket az automatizálás helyett az embereknek kell felügyelniük a káros következmények megelőzése érdekében.
A Parlament emellett technológiasemleges, egységes definíciót szeretne a mesterséges intelligencia számára, amelyet a jövőbeli mesterséges intelligencia-rendszerekre is alkalmazni lehetne.
Bővebben a Parlament mesterséges intelligencia terén végzett munkájáról és a mesterséges intelligencia jövőjével kapcsolatos elképzeléseiről.
AI törvény: különböző szabályok a különböző kockázati szintekre
Az új szabályok kötelezettségeket írnak elő a szolgáltatók és a felhasználók számára a mesterséges intelligencia kockázatának mértékétől függően. Ugyan sok mesterséges intelligencia rendszer minimális kockázatot jelent, ezeket fel kell mérni.
Elfogadhatatlan kockázat
Az elfogadhatatlan kockázatú mesterséges intelligencia-rendszerek olyan rendszerek, amelyek veszélyt jelentenek az emberekre, és betiltásra kerülnek. Tartalmazzák:
- Emberek vagy meghatározott veszélyeztetett csoportok kognitív viselkedési manipulációja: például hangvezérelt játékok, amelyek veszélyes viselkedésre ösztönzik a gyermekeket
- Társadalmi pontozás: az emberek osztályozása viselkedés, társadalmi-gazdasági státusz vagy személyes jellemzők alapján
- természetes személyek biometrikus azonosítása és kategorizálása
- Valós idejű és távoli biometrikus azonosítási rendszerek, például arcfelismerés
Néhány kivétel megengedhető. A „valós idejű” távoli biometrikus azonosítási rendszerek korlátozott számú, súlyos esetben lesznek engedélyezettek, míg az olyan biometrikus azonosítási rendszerek, ahol az azonosítás jelentős késéssel történik és súlyos bűncselekmények felderítésére használják csak a bíróság jóváhagyását követően lesznek engedélyezve.
Magas kockázat
A biztonságot vagy az alapvető jogokat negatívan befolyásoló mesterséges intelligencia rendszerek magas kockázatúnak minősülnek, és két kategóriába sorolhatók:
1) MI-rendszerek, amelyeket az EU termékbiztonsági jogszabályai hatálya alá tartozó termékekben használnak. Ide tartoznak a játékok, a repülés, az autók, az orvosi eszközök és a felvonók.
2) Nyolc speciális terület mesterséges intelligencia-rendszerei, amelyeket regisztrálni kell egy uniós adatbázisban:
- Kritikus infrastruktúra kezelése és üzemeltetése
- Oktatás és szakképzés
- Foglalkoztatás, munkavállalók irányítása és az egyéni vállalkozáshoz való hozzáférés
- Hozzáférés az alapvető magánszolgáltatásokhoz, valamint a közszolgáltatásokhoz és azok előnyeihez
- Bűnüldözés
- Migráció, menekültügy és határellenőrzés kezelése
- Segítségnyújtás a jogértelmezésben és a jogalkalmazásban.
Valamennyi nagy kockázatú mesterséges intelligencia-rendszert a forgalomba hozatal előtt, valamint az egész életciklusa során értékelnek. A polgároknak jogukban áll panaszt benyújtani a mesterséges intelligenciarendszerekkel kapcsolatban a kijelölt nemzeti hatóságokhoz.
Átláthatósági követelmények
A generatív MI, mint a ChatGPT nem minősül magas kockázatúnak, de meg kell felelnie az átláthatósági követelményeknek és az EU szerzői jogi törvényének:
- Felfedve, hogy a tartalmat mesterséges intelligencia hozta létre
- A modell megtervezése annak megakadályozására, hogy illegális tartalmat generáljon
- A képzéshez felhasznált szerzői joggal védett adatok összefoglalóinak közzététele
A nagy hatásfokkal rendelkező, általános célú mesterséges intelligencia modellek rendszerszintű kockázatot jelenthetnek, mint például a fejlettebb GPT-4 AI-modell, amelyet alapos értékelésnek kell alávetni, és minden súlyos incidenst jelenteni kell a Bizottságnak.
A mesterséges intelligencia segítségével generált vagy módosított tartalmat – képek, hang- vagy videofájlok (pl. mélyhamisítás) – egyértelműen mesterséges intelligencia által generáltként kell megjelölni, hogy a felhasználók tudatában legyenek, amikor ilyen tartalommal találkoznak.
Az innováció támogatása
A törvény célja, hogy lehetőséget kínáljon a kkv-knak és az induló vállalkozásoknak mesterséges intelligencia-modellek fejlesztésére és képzésére, mielőtt azok a nagyközönség elé kerülnének. Éppen ezért megköveteli, hogy a nemzeti hatóságok olyan tesztelési környezetet biztosítsanak a vállalatok számára, amely a való világhoz közeli körülményeket szimulál.
A következő lépések
A Parlament 2024 márciusában fogadta el a mesterséges intelligenciáról szóló törvényt, a Tanács pedig 2024 májusában. A Parlament 2024 márciusában fogadta el a mesterséges intelligenciáról szóló törvényt. A hatálybalépést követő 24 hónap elteltével a trövény teljes mértékben alkalmazandó lesz, egyes részei azonban már korábban is alkalmazandók:
- az elfogadhatatlan kockázatot jelentő mesterséges intelligencia rendszerek tilalma hat hónappal a hatálybalépést követően lép életbe
- a gyakorlati kódexeket a hatálybalépést követően kilenc hónappal kell alkalmazni
- az általános célú mesterséges intelligencia-rendszerekre vonatkozó szabályok, amelyeknek meg kell felelniük az átláthatósági követelményeknek, 12 hónappal a hatálybalépést követően lépnek hatályba.
A magas kockázatú rendszereknek több idejük lesz a követelmények teljesítésére, mivel a rájuk vonatkozó kötelezettségek a hatálybalépést követő 36 hónap elteltével lépnek életbe.
Bővebben az EU digitális intézkedéseiről
-
A kriptovaluta veszélyei és az uniós jogszabályok előnyei
- Harc a kiberbűnözés ellen: az új uniós kiberbiztonsági törvények magyarázata
- Az adatmegosztás fellendítése az EU-ban: milyen előnyökkel jár?
-
Az EU digitális piacokról és a digitális szolgáltatásokról szóló törvényei
-
Öt módszer, amivel a Parlament megvédené az online játékosokat