Akt EU o UI: prva zakonodaja o umetni inteligenci
Uporabo umetne inteligence v EU bo urejal akt o umetni inteligenci, ki je prva celovita zakonodaja o umetni inteligenci na svetu. Preberite, kako vas bo zaščitila.
V okviru evropske digitalne strategije želi EU urediti področje umetne inteligence, da bi zagotovila boljše pogoje za razvoj in uporabo te inovativne tehnologije. Umetna inteligenca ima lahko številne koristi, denimo izboljšave zdravstva, varnejši in čistejši promet, učinkovitejšo proizvodnjo ter cenejšo in bolj trajnostno energijo.
Evropska komisija je aprila 2021 predlagala prvi zakonodajni okvir EU za umetno inteligenco. V skladu z njim se sistemi UI analizirajo in razvrščajo glede na tveganje, ki ga predstavljajo za uporabnike. Različne stopnje tveganja bodo pomenile, da bo sistem strožje ali bolj ohlapneje urejen. Gre za prve celovite predpise o umetni inteligenci na svetu.
Preberite več o tem, kaj je umetna inteligenca in kako se uporablja.
Kaj hoče Parlament v zakonodaji o umetni inteligenci
Prednostna naloga Parlamenta je zagotoviti, da bodo sistemi umetne inteligence, ki se uporabljajo v EU, varni, pregledni, sledljivi, nediskriminatorni in okolju prijazni. Da bi preprečili škodljive posledice, morajo biti sistemi umetne inteligence pod človeškim nadzorom in ne samodejnim.
Parlament želi vzpostaviti tudi tehnološko nevtralno, enotno opredelitev umetne inteligence, ki bi se lahko uporabljala za prihodnje sisteme umetne inteligence.
Preberite več o delu Parlamenta na področju umetne inteligence in njegovi viziji za prihodnost umetne inteligence.
Zakon o umetni inteligenci: različni predpisi za različne stopnje tveganja
Novi predpisi določajo obveznosti za ponudnike in uporabnike glede na stopnjo tveganja, ki ga povzroča umetna inteligenca. Številni sistemi umetne inteligence predstavljajo le majhno tveganje, a jih je vseeno potrebno oceniti.
Nesprejemljivo tveganje
Sistemi umetne inteligence z nesprejemljivim tveganjem so sistemi, ki veljajo za grožnjo ljudem in bodo prepovedani. Med njimi so:
- Kognitivno-vedenjska manipulacija ljudi ali določenih ranljivih skupin: denimo glasovno aktivirane igrače, ki pri otrocih spodbujajo nevarno vedenje
- Socialno točkovanje: razvrščanje ljudi na podlagi vedenja, socialno-ekonomskega statusa ali osebnih značilnosti
- Biometrična identifikacija in kategorizacija fizičnih oseb
- Biometrični sistemi identifikacije v realnem času in na daljavo, kot je prepoznavanje obraza
Dovoljene so nekatere izjeme za namene kazenskega pregona. Sistemi biometrične identifikacije na daljavo bodo v "realnem času" dovoljeni v izjemno resnih primerih, "naknadni" sistemi biometrične identifikacije na daljavo, pri katerih se identifikacija izvede z veliko zamudo, bodo dovoljeni za pregon hudih kaznivih dejanj, vendar le po odobritvi sodišča.
Visoko tveganje
Sistemi umetne inteligence, ki negativno vplivajo na varnost ali temeljne pravice, bodo šteli za zelo tvegane in bodo razdeljeni v dve kategoriji:
1) Sistemi UI, ki se uporabljajo v izdelkih, za katere velja zakonodaja EU o varnosti proizvodov (denimo igrače, letalstvo, avtomobili, medicinski pripomočki, dvigala).
2) Sistemi umetne inteligence, ki se umeščajo na posebna področja in jih bo treba registrirati v podatkovni zbirki EU:
- Upravljanje in delovanje kritične infrastrukture
- Izobraževanje in poklicno usposabljanje
- Zaposlovanje, upravljanje delavcev in dostop do samozaposlitve
- Dostop do bistvenih zasebnih storitev ter javnih storitev in pravic ter njihovo koriščenje
- Izvrševanje zakonodaje
- Upravljanje migracij, azila in mejnega nadzora
- Pomoč pri pravni razlagi in uporabi zakonodaje.
Vsi sistemi umetne inteligence z visokim tveganjem bodo ocenjeni, preden bodo prišli na trg, in tudi v celotnem življenjskem ciklu.
Splošna uporaba in generativna umetna inteligenca
Generativna umetna inteligenca, kot je ChatGPT, bo morala izpolnjevati zahteve glede preglednosti:
- Oznaka, da je bila vsebina ustvarjena z umetno inteligenco
- Zasnova modela tako, da se prepreči ustvarjanje nezakonite vsebine
- Objavljanje povzetkov avtorsko zaščitenih podatkov, uporabljenih za usposabljanje
Modeli umetne inteligence z velikim vplivom, ki se uporablja za splošne namene, bi lahko predstavljali sistemsko tveganje. Naprednejši modeli umetne inteligence, kot so GPT-4, bi morali opraviti temeljito oceno stanja in Komisiji poročati o vseh resnih incidentih.
Omejeno tveganje
Sistemi umetne inteligence z omejenim tveganjem morajo izpolnjevati minimalne zahteve glede preglednosti, ki bi uporabnikom omogočile sprejemanje informiranih odločitev, pravijo evropski poslanci. Po interakciji z aplikacijami se lahko uporabnik odloči, ali jih želi še naprej uporabljati. Uporabniki bi morali biti obveščeni o tem, kdaj sodelujejo z umetno inteligenco. To vključuje sisteme UI, ki ustvarjajo ali manipulirajo s slikovnimi, zvočnimi ali video vsebinami, na primer globoke ponaredke ("deepfakes")
Naslednji koraki
Parlament je 9. decembra 2023 s Svetom dosegel začasni dogovor o aktu o UI. Da se vpiše v zakonodajo, morata sprejeto besedilo sedaj Parlament in Svet še uradno potrditi.
Parlamentarna odbora za notranji trg in državljanske svoboščine bosta o dogovoru glasovala na naslednji seji.
Več o ukrepih EU na digitalnem področju
- Kakšna so tveganja kriptovalut in kako lahko zakonodaja EU pomaga
- Boj proti kibernetskemu kriminalu: razlaga novih predpisov EU za kibernetsko varnost
- Novi akt o podatkih: Kakšne koristi prinaša izboljševanje deljenja podatkov v EU
- Kaj prinašata akt o digitalnih trgih in akt o digitalnih storitvah
- Pet ukrepov, s katerimi hoče Evropski parlament zaščititi igralce spletnih iger