AI-regulering i Europa: den første omfattende restlige ramme
Brugen af kunstig intelligens i EU er reguleret af AI-loven, verdens første omfattende lov om kunstig intelligens. Find ud af, hvordan den beskytter dig.
Som en del af sin digitale strategi ønskede EU at regulere kunstig intelligens til at sikre bedre forhold for udviklingen og brugen af denne innovative teknologi. AI kan give mange fordele som bedre sundhedspleje, mere sikker eller renere transport, mere effektiv manufaktur og billigere og mere bæredygtig energi.
AI-regulering i Europa: den første omfattende retlige ramme
I april 2021 fremsatte Europa-Kommissionen et forslag til den første EU-lov om kunstig intelligens, der indfører et risikobaseret AI-klassificeringssystem. AI-systemer, der kan bruges i forskellige applikationer, analyseres og klassificeres i henhold til den risiko, de udgør for brugerne.
De forskellige risikoniveauer indebærer varierende krav til overholelse af reglerne om AI.
I april 2021 foreslog Kommissionen den første lovgivningsramme for AI. Kommissionen foreslår, at AI-systemer, der kan bruges i forskellige applikationer, analyseres og klassificeres efter den risiko, de udgør for brugerne. De forskellige risikoniveauer vil betyde mere eller mindre regulering.
Parlamentets formål med AI-lovgivningen
Parlamentets prioritet var at sikre sig, at AI-systemer, der bruges i EU er sikre, gennemsigtige, sporbare, ikke-diskriminerende og miljøvenlige. Der skal føres tilsyn med AI-systemer af mennesker, frem for af automatisering, for at forebygge skadelige udfald.
Parlamentet ønskede også at oprette en teknologineutral, ensartet definition for AI, der kan anvendes på fremtidige AI-systemer.
AI-forordning: Forskellige regler for forskellige sikkerhedsniveauer
De nye regler skaber en forpligtelse hos udbyderne og forbrugerne afhængig af klassifikationen af risikoen fra den kunstige intelligens. Da mange AI-systemer udgør minimal risiko, skal de evalueres.
Unacceptable risici
Forbudte AI-applikationer i EU omfatter:
- kognitiv adfærdsmanipulation af personer eller særlige sårbare grupper f.eks. stemmeaktiveret legetøj, der opfordrer til en farlig adfærd hos børn.
- Ai til social klassificiering: Klassificering af personer baseret på adfærd, socioøkonomisk status eller personlig karakteristik.
- biometrisk identifikation og kategorisering af fysiske personer.
- realtids- og eksterne biometriske identifikationssystemer som ansigtsgenkendelse i det offentlige rum.
Nogle undtagelser kan blive tilladt til retshåndhævelsesformål. " Realtids"-fjernbiometriske identifikationssystemer vil blive tilladt i et begrænset antal alvorlige sager, mens eksempelvis "post" eksterne biometriske identifikationssystemer, hvor der opstår en markant forsinkelse, vil blive tilladt til at retsforfølge alvorlig kriminalitet og kun efter retslig godkendelse.
Højrisiko
AI-systemer, der negativt påvirker sikkerheden eller grundlæggende rettigheder, vil blive betragtet som højrisiko og vil blive inddelt i to kategorier.
1. AI-systemer, der bruges i produkter, der kommer under EU’s produktsikkerhedslovgivning. Dette inkluderer legetøj, luftfart, biler, medicinsk udstyr og lifte.
2. AI-systemer, der kommer ind under særlige områder, der skal registreres i en EU-database:
- håndtering og betjening af kritisk infrastruktur
- uddannelse og erhvervsrettet oplæring
- beskæftigelse, arbejdstagerhåndtering og adgang til selvstændig beskæftigelse
- adgang til og glæde af vigtige private tjenester, offentlige tjenester og ydelser
- retshåndhævelse
- migration, asyl og håndtering af grænsekontrollen
- assistance i den juridiske fortolkning og anvendelse af loven.
Alle højrisiko AI-systemer vil blive evalueret, før de kommer på markedet og gennem deres livscyklus. Borgerne vil have ret til at indgive klager over AI-systemer til de nationale myndigheder.
Krav til gennemsigtighed
Generativ AI, som ChatGPT, vil ikke blive klassificeret som højrisiko, men vil skulle overholde krav om gennemsigtighed og EU's ophavsretslovgivning:
- oplyse at indholdet var genereret af AI
- designe modellen til at forebygge, at det genererer ulovligt indhold
- udgive resuméer om copyrightdata brugt til oplæringen
Generelle AI-modeller med stor indflydelse, der kan udgøre en systemisk risiko, såsom den mere avancerede AI-model GPT-4, skal gennemgå grundige evalueringer og rapportere eventuelle alvorlige hændelser til Kommissionen.
Indhold, der enten er genereret eller ændret ved hjælp af AI, billeder, lyd- eller videofiler (eksempelvis deepfakes), skal tydeligt mærkes som AI-genereret, så brugerne er klar over, når de støder på sådant indhold.
Fremme af innovation inden for AI og opstartsvirksomheder i Europa
Loven sigter mod at understøtte innovation inden for kunstig intelligens og opstartsvirksomheder i Europa ved at give virksomheder mulighed for at udvikle og teste AI-modeller til generelle formål, før de frigives til offentligheden.
Derfor kræver loven, at de nationale myndigheder forsyner virksomhederne med et testmiljø for AI, der simulerer forhold tæt på den virkelige verden. Det vil hjælpe små og mellemstore virksomheder (SMV'er) med at konkurrere på det voksende EU-marked for kunstig intelligens.
Implementering
Parlamentet har nedsat en arbejdsgruppe, der skal overvåge implementeringen og håndhævelsen af AI-loven. MEP'erne ønsker at sikre, at de vedtagne AI-regler bidrager til udviklingen af den digitale sektor i Europa.
Gruppen samarbejder med Europa-Kommissionens EU-kontor for kunstig intelligens, som blev oprettet for at afklare centrale bestemmelser i loven.
Tidslinje for overholdelse af EU's AI-lov
I juni 2024 vedtog EU verdens første lovgivning om kunstig intelligens. Forordningen om kunstig intelligens vil være fuldt ud gældende 24 måneder efter at den er trådt i kraft, men nogle dele vil være gældende tidligere:
- Forbuddet mod AI-systemer, der udgør uacceptable risici, begyndte at gælde den 2. februar 2025.
- Adfærdskodekser vil gælde ni måneder efter at loven er trådt i kraft.
- Regler om AI-systemer til generelle formål, der skal overholde gennemsigtighedskrav, vil gælde 12 måneder efter at loven er trådt i kraft.
Højrisikosystemer vil have mere tid til at overholde kravene, da forpligtelserne vedrørende dem vil gælde 36 måneder efter lovens ikrafttræden.
Mere om EU’s digitale tiltag: