EU's lovgivning for kunstig intelligens skal blive den første i verden

Brugen af kunstig intelligens (AI) i EU vil blive reguleret gennem en forordning, der bliver verdens første omfattende AI-lovgivning. Læs mere her om hvordan den vil beskytte dig.

Kunstig intelligens
Kunstig intelligens.

Som en del af sin digitale strategi ønsker EU at regulere kunstig intelligens til at sikre bedre forhold for udviklingen og brugen af denne innovative teknologi. AI kan give mange fordele som bedre sundhedspleje, mere sikker eller renere transport, mere effektiv manufaktur og billigere og mere bæredygtig energi.

I april 2021 foreslog Kommissionen den første lovgivningsramme for AI. Kommissionen foreslår, at AI-systemer, der kan bruges i forskellige applikationer, analyseres og klassificeres efter den risiko, de udgør for brugerne. De forskellige risikoniveauer vil betyde mere eller mindre regulering.

Læs mere om hvad kunstig intelligens er, og hvordan det bruges


Hvad Parlamentet ønsker at se i AI-lovgivningen 

Parlamentets prioritet er at sikre sig, at AI-systemer, der bruges i EU er sikre, gennemsigtige, sporbare, ikke-diskriminerende og miljøvenlige. Der skal føres tilsyn med AI-systemer af mennesker, frem for af automatisering, for at forebygge skadelige udfald.

Parlamentet ønsker også at oprette en teknologineutral, ensartet definition for AI, der kan anvendes på fremtidige AI-systemer.

Læs mere om Parlamentets arbejde med AI og dets vision for AI's fremtid.


AI-forordning: Forskellige regler for forskellige sikkerhedsniveauer

De nye regler skaber en forpligtelse hos udbyderne og forbrugerne afhængig af risikoniveauet fra den kunstige intelligens. Da mange AI-systemer udgør minimal risiko, skal de evalueres.

Unacceptable risici

AI-systemer med unacceptable risici er systemer, der betragtes som en trussel mod mennesker og vil blive forbudt. De inkluderer:

  • kognitiv adfærdsmanipulation af personer eller særlige sårbare grupper f.eks. stemmeaktiveret legetøj, der opfordrer til en farlig adfærd hos børn.
  • social klassificiering: Klassificering af personer baseret på adfærd, socioøkonomisk status eller personlig karakteristik.
  • biometrisk identifikation og kategorisering af fysiske personer.
  • realtids- og eksterne biometriske identifikationssystemer som ansigtsgenkendelse.

Nogle undtagelser kan blive tilladt til retshåndhævelsesformål. " Realtids"-fjernbiometriske identifikationssystemer vil blive tilladt i et begrænset antal alvorlige sager, mens eksempelvis "post" eksterne biometriske identifikationssystemer, hvor der opstår en markant forsinkelse, vil blive tilladt til at retsforfølge alvorlig kriminalitet og kun efter retslig godkendelse.

Højrisiko

AI-systemer, der negativt påvirker sikkerheden eller grundlæggende rettigheder, vil blive betragtet som højrisiko og vil blive inddelt i to kategorier.

1. AI-systemer, der bruges i produkter, der kommer under EU’s produktsikkerhedslovgivning. Dette inkluderer legetøj, luftfart, biler, medicinsk udstyr og lifte.

2. AI-systemer, der kommer ind under særlige områder, der skal registreres i en EU-database:

  • håndtering og betjening af kritisk infrastruktur
  • uddannelse og erhvervsrettet oplæring
  • beskæftigelse, arbejdstagerhåndtering og adgang til selvstændig beskæftigelse
  • adgang til og glæde af vigtige private tjenester, offentlige tjenester og ydelser
  • retshåndhævelse
  • migration, asyl og håndtering af grænsekontrollen
  • assistance i den juridiske fortolkning og anvendelse af loven.

Alle højrisiko AI-systemer vil blive evalueret, før de kommer på markedet og gennem deres livscyklus. Borgerne vil have ret til at indgive klager over AI-systemer til de nationale myndigheder. 

Krav til gennemsigtighed

Generativ AI, som ChatGPT, vil ikke blive klassificeret som højrisiko, men vil skulle overholde krav om gennemsigtighed og EU's ophavsretslovgivning:

  • oplyse at indholdet var genereret af AI
  • designe modellen til at forebygge, at det genererer ulovligt indhold
  • udgive resuméer om copyrightdata brugt til oplæringen

Generelle AI-modeller med stor indflydelse, der kan udgøre en systemisk risiko, såsom den mere avancerede AI-model GPT-4, skal gennemgå grundige evalueringer og rapportere eventuelle alvorlige hændelser til Kommissionen.

Indhold, der enten er genereret eller ændret ved hjælp af AI, billeder, lyd- eller videofiler (eksempelvis deepfakes), skal tydeligt mærkes som AI-genereret, så brugerne er klar over, når de støder på sådant indhold.

Støtte til innovation

Loven sigter mod at give SMV'er og nystartede virksomheder mulighed for at udvikle og træne AI-modeller, før de frigives til den brede offentlighed.

Derfor kræver den, at de nationale myndigheder giver virksomhederne et testmiljø, der simulerer forhold tæt på den virkelige verden.


Næste skridt

Den aftalte tekst vil blive formelt vedtaget på et kommende plenarmøde i Parlamentet. Den vil være fuldt gældende 24 måneder efter ikrafttrædelsen, men nogle dele vil være gældende tidligere:

  • Forbuddet mod AI-systemer, der udgør uacceptable risici, vil gælde seks måneder efter ikrafttrædelsen.
  • Praksiskodekser vil gælde ni måneder efter ikrafttrædelsen.
  • Regler om AI-systemer til generelle formål, der skal overholde gennemsigtighedskrav, vil gælde 12 måneder efter ikrafttrædelsen.

Højrisikosystemer vil have mere tid til at overholde kravene, da forpligtelserne vedrørende dem vil gælde 36 måneder efter ikrafttrædelsen.

Mere om EU’s digitale tiltag:

Relaterede artikler