Akt EU-a o umjetnoj inteligenciji: prva regulacija tog područja

Upotreba umjetne inteligencije u EU-u regulirat će se Aktom o umjetnoj inteligenciji, prvim sveobuhvatnim zakonom o umjetnoj inteligenciji na svijetu. Saznajte kako će vas zaštititi.

Čovjek gleda u računalno generiranu osobu s programskim jezikom u pozadini
Ovu ilustraciju stvorila je umjetna inteligencija

U okviru svoje digitalne strategije EU želi regulirati umjetnu inteligenciju i osigurati bolje uvjete za razvoj i upotrebu te inovativne tehnologije. Umjetna inteligencija može donijeti brojne koristi, kao što je bolja zdravstvena skrb, sigurniji i čišći prijevoz, učinkovitija proizvodnja, jeftinija i održivija energija.

Komisija je u travnju 2021. predložila prvi regulatorni okvir EU-a za umjetnu inteligenciju. U sklopu njega se predlaže analiziranje i klasifikacija sustava umjetne inteligencije prema riziku koji predstavljaju za korisnike. Različite razine rizika značit će veću ili manju regulaciju.

Što Parlament želi u zakonodavstvu o umjetnoj inteligenciji


Prioritet Parlamenta je osigurati da sustavi umjetne inteligencije u EU-u budu sigurni, transparentni, mogu se pratiti, ne diskriminiraju i ekološki su prihvatljivi. Trebali bi ih nadzirati ljudi kako bi se spriječili štetni ishodi.

Parlament također želi uspostaviti tehnološki neutralnu i ujednačenu definiciju umjetne inteligencije koja se može primijeniti na buduće sustave umjetne inteligencije.

Akt o umjetnoj inteligenciji: različita pravila za različite razine rizika


Novim pravilima utvrđuju se obveze za dobavljače i korisnike ovisno o razini rizika koji umjetna inteligencija predstavlja. Iako mnogi sustavi umjetne inteligencije predstavljaju minimalan rizik, potrebno ih je procijeniti.

Neprihvatljiv rizik


Rizik koji donose sustavi koji se smatraju prijetnjom ljudima je neprihvatljiv i takvi sustavi bit će zabranjeni. Među njima su:

  • kognitivno bihevioralno manipuliranje osobama ili određenim ranjivim skupinama, primjerice, glasovno aktivirane igračke koje potiču opasno ponašanje kod djece
  • bodovanje i klasifikacija ljudi na temelju ponašanja, socioekonomskog statusa, osobnih obilježja
  • biometrijska identifikacija i kategorizacija fizičkih osoba
  • sustavi biometrijske identifikacije u stvarnom vremenu i daljinski sustavi za biometrijsku identifikaciju, kao što je prepoznavanje lica

Neke iznimke mogu biti dopuštene za potrebe provedbe zakona. Sustavi daljinske biometrijske identifikacije u "stvarnom vremenu" bit će dopušteni u ograničenom broju ozbiljnih slučajeva, dok će korištenje sustava za daljinsku biometrijsku identifikaciju u kojima se identifikacija odvija sa znatnim kašnjenjem, a koristi se nakon odobrenja suda za kazneni progon kod počinjenja teških kaznenih djela biti dopušteno.

Visok rizik


Sustavi koji negativno utječu na sigurnost ili temeljna prava su visokorizični i bit će podijeljeni u dvije kategorije.

1. Sustavi koji se upotrebljavaju u proizvodima obuhvaćenima zakonodavstvom EU-a o sigurnosti proizvoda. Oni uključuju igračke, zrakoplovstvo, automobile, medicinske uređaje i dizala.

2. Sustavi iz posebnih područja morat će biti registrirani u bazi podataka EU-a:

  • upravljanje kritičnom infrastrukturom i njezin rad
  • obrazovanje i strukovno osposobljavanje
  • zapošljavanje, upravljanje radnicima i pristup samozapošljavanju
  • pristup i korištenje osnovnih privatnih usluga i javnih usluga
  • provedba zakona
  • upravljanje migracijama, azilom i nadzor granica
  • pomoć u pravnom tumačenju i primjeni zakona

Svi visokorizični sustavi umjetne inteligencije trebaju se procijeniti prije stavljanja na tržište i tijekom njihova životnog ciklusa.

Građani će moći podnijeti pritužbe protiv sustava umjetne inteligencije određenim nacionalnim tijelima.

Zahtjevi u vezi transparentnosti

Generativna umjetna inteligencija, kao što je ChatGPT, neće se klasificirati kao visokorizična, ali će morati ispunjavati zahtjeve za transparentnost i biti u skladu sa zakonom EU-a o autorskim pravima:

  • informaciju da je sadržaj generiran umjetnom inteligencijom
  • korištenje modela koji sprječava stvaranje nezakonitog sadržaja
  • objavljivanje sažetaka podataka zaštićenih autorskim pravima koji se upotrebljavaju za obuku

Modeli umjetne inteligencije opće namjene koji imaju veliki utjecaj i mogu predstavljati sistemski rizik, kao što je napredniji model umjetne inteligencije GPT-4, trebaju se detaljno ocijeniti, a svi ozbiljni incidenti prijaviti Komisiji.

Sadržaj koji se generira ili mijenja uz pomoć umjetne inteligencije, kao što su slike, audiozapisi ili videodatoteke (npr. deepfakes) mora biti jasno označen kao generiran od strane umjetne inteligencije kako bi korisnici bili toga svjesni.

Podržavanje inovacija

Zakonom se želi malim i srednjim, te novoosnovanim poduzećima ponuditi mogućnosti za razvoj i osposobljavanje modela umjetne inteligencije prije njihova predstavljanja široj javnosti.

Zbog toga nacionalna tijela trebaju poduzećima osigurati okruženje za testiranje u kojem se simuliraju uvjeti slični stvarnom svijetu.

Sljedeći koraci

Dogovoreni tekst trebao bi biti konačno usvojen u travnju 2024. U potpunosti će se primjenjivati 24 mjeseca nakon stupanja na snagu, ali neki dijelovi će se primjenjivati i prije:

• Zabrana sustava umjetne inteligencije koji predstavljaju neprihvatljive rizike primjenjivat će se šest mjeseci nakon stupanja na snagu
• Kodeksi prakse primjenjivat će se devet mjeseci nakon stupanja na snagu
• Pravila o sustavima umjetne inteligencije opće namjene koji trebaju ispunjavati zahtjeve transparentnosti primjenjivat će se 12 mjeseci nakon stupanja na snagu

Visokorizični sustavi imat će više vremena za usklađivanje sa zahtjevima jer će se obveze koje se na njih odnose primjenjivati 36 mjeseci nakon stupanja na snagu.