Akt EU o UI: prva zakonodaja o umetni inteligenci

Uporabo umetne inteligence v EU bo urejal akt o umetni inteligenci, ki je prva celovita zakonodaja o umetni inteligenci na svetu. Preberite, kako vas bo zaščitila.

Moški in hologram
To ilustracijo o umetni inteligenci je ustvarila umetna inteligenca.

V okviru evropske digitalne strategije želi EU urediti področje umetne inteligence (UI), da bi zagotovila boljše pogoje za razvoj in uporabo te inovativne tehnologije. Umetna inteligenca ima lahko številne koristi, denimo izboljšave zdravstva, varnejši in čistejši promet, učinkovitejšo proizvodnjo ter cenejšo in bolj trajnostno energijo.

Evropska komisija je aprila 2021 predlagala prvi zakonodajni okvir EU za umetno inteligenco. V skladu z njim se sistemi UI analizirajo in razvrščajo glede na tveganje, ki ga predstavljajo za uporabnike. Različne stopnje tveganja bodo pomenile, da bo sistem strožje ali bolj ohlapneje urejen.

Kaj hoče Parlament v zakonodaji o umetni inteligenci


Prednostna naloga Parlamenta je zagotoviti, da bodo sistemi umetne inteligence, ki se uporabljajo v EU, varni, pregledni, sledljivi, nediskriminatorni in okolju prijazni. Da bi preprečili škodljive posledice, morajo biti sistemi umetne inteligence pod človeškim nadzorom in ne samodejnim.

Parlament želi vzpostaviti tudi tehnološko nevtralno, enotno opredelitev umetne inteligence, ki bi se lahko uporabljala za prihodnje sisteme umetne inteligence.

Zakon o umetni inteligenci: različni predpisi za različne stopnje tveganja


Novi predpisi določajo obveznosti za ponudnike in uporabnike glede na stopnjo tveganja, ki ga povzroča umetna inteligenca. Številni sistemi umetne inteligence predstavljajo le majhno tveganje, a jih je vseeno potrebno oceniti.

Nesprejemljivo tveganje

Sistemi umetne inteligence z nesprejemljivim tveganjem so sistemi, ki veljajo za grožnjo ljudem in bodo prepovedani. Med njimi so:

  • Kognitivno-vedenjska manipulacija ljudi ali določenih ranljivih skupin: denimo glasovno aktivirane igrače, ki pri otrocih spodbujajo nevarno vedenje
  • Socialno točkovanje: razvrščanje ljudi na podlagi vedenja, socialno-ekonomskega statusa ali osebnih značilnosti
  • Biometrična identifikacija in kategorizacija fizičnih oseb
  • Biometrični sistemi identifikacije v realnem času in na daljavo, kot je prepoznavanje obraza


Dovoljene so nekatere izjeme za namene kazenskega pregona. Sistemi biometrične identifikacije na daljavo bodo v "realnem času" dovoljeni v izjemno resnih primerih, "naknadni" sistemi biometrične identifikacije na daljavo, pri katerih se identifikacija izvede z veliko zamudo, bodo dovoljeni za pregon hudih kaznivih dejanj, vendar le po odobritvi sodišča.

Visoko tveganje

Sistemi umetne inteligence, ki negativno vplivajo na varnost ali temeljne pravice, bodo šteli za zelo tvegane in bodo razdeljeni v dve kategoriji:

1) Sistemi UI, ki se uporabljajo v izdelkih, za katere velja zakonodaja EU o varnosti proizvodov (denimo igrače, letalstvo, avtomobili, medicinski pripomočki, dvigala).

2) Sistemi umetne inteligence, ki se umeščajo na posebna področja in jih bo treba registrirati v podatkovni zbirki EU:

  • Upravljanje in delovanje kritične infrastrukture
  • Izobraževanje in poklicno usposabljanje
  • Zaposlovanje, upravljanje delavcev in dostop do samozaposlitve
  • Dostop do bistvenih zasebnih storitev ter javnih storitev in pravic ter njihovo koriščenje
  • Izvrševanje zakonodaje
  • Upravljanje migracij, azila in mejnega nadzora
  • Pomoč pri pravni razlagi in uporabi zakonodaje.


Vsi sistemi umetne inteligence z visokim tveganjem bodo ocenjeni, preden bodo prišli na trg, in tudi v celotnem življenjskem ciklu. Državljani se bodo lahko pristojnim državnim organom pritožili o sistemih UI.

Pogoji preglednosti

Generativna umetna inteligenca, kot je ChatGPT, ne bo označena z visoko stopnjo tveganja, bo pa morala izpolnjevati zahteve glede preglednosti in predpisov EU o avtorskih pravicah:

  • Oznaka, da je bila vsebina ustvarjena z umetno inteligenco
  • Zasnova modela tako, da se prepreči ustvarjanje nezakonite vsebine
  • Objavljanje povzetkov avtorsko zaščitenih podatkov, uporabljenih za usposabljanje

Modeli umetne inteligence z velikim vplivom, ki se uporablja za splošne namene, bi lahko predstavljali sistemsko tveganje. Naprednejši modeli umetne inteligence, kot so GPT-4, bi morali opraviti temeljito oceno stanja in Komisiji poročati o vseh resnih incidentih. 

Vsebina, ki je ali ustvarjena ali spremenjena s pomočjo UI denimo slike, zvočni in video posnetki ter t.i. globoki ponaredki (t.i. "deepfakes"), mora biti jasno označena, da je bila narejena s pomočjo UI, tako da so uporabniki z njo jasno seznanjeni.

Podpora inovaciji


Namen predpisov je ponuditi mikro, majhnjim in srednjim podjetjem možnost, da razvijejo in usposabljajo modele UI preden je ta izdana za javnost. Državni organi morajo tem podjetjem zagotoviti testno okolje, ki posnema dejanski svet.

Naslednji koraki


Dogovorjeno besedilo bo uradno sprejeto aprila 2024. Obvezujoče bo 24 mesecev po sprejetju, nekateri členi pa bodo veljavni že prej:

  • Prepoved sistemov UI, ki predstavljajo nesprejemljivo tveganje bo veljalo šest mesecev po uradni potrditvi.
  • Kodeks ravnanja bo veljal 9 mesecev po uradni potrditvi.
  • Predpisi o splošni uporabi sistemov UI, ki morajo ustrezati z pogoji preglednosti bo veljal 12 mesecev po uradni potrditvi.


Sistemi z visokim tveganjem bodo imeli več časa za uskladitev z zahtevami, saj bodo obveznosti v zvezi z njimi začele veljati 36 mesecev po začetku veljavnosti.

Več o ukrepih EU na digitalnem področju