EU:s AI-lag: första lagstiftningen om artificiell intelligens

Användningen av artificiell intelligens i EU kommer att regleras av AI-lagen, världens första heltäckande AI-lagstiftning. Såhär skyddar den dig.

En man står mitt emot en datagenererad figur med programmeringsspråk i bakgrunden.
Denna illustration av AI har skapats av AI.

Som en del av den digitala strategin vill EU reglera artificiell intelligens (AI) för att säkerställa bättre villkor för utveckling och användning av denna innovativa teknik. AI kan medföra många fördelar som bättre hälso- och sjukvård, säkrare och renare transporter, effektivare tillverkning samt billigare och mer hållbar energi.

I april 2021 föreslog kommissionen EU:s första regelverk för AI. Enligt förslaget ska AI-system analyseras och klassificeras utifrån den risk de utgör för användare. De olika risknivåerna kommer att innebära mer eller mindre reglering.

Läs mer om vad artificiell intelligens är och hur det används.

Vad Europaparlamentet vill se i AI-lagstiftningen

Europaparlamentet vill se till att AI-system som används i EU är säkra, transparenta, spårbara, icke-diskriminerande och miljövänliga. AI-system bör övervakas av människor, snarare än av automatisering, för att förhindra skadliga effekter.

Europaparlamentet vill också fastställa en teknikneutral och enhetlig definition av AI som kan tillämpas på framtida AI-system.

Läs mer om Europaparlamentets arbete med AI och vision för AI:s framtid.

AI-akten: olika regler för olika risknivåer

De nya reglerna fastställer skyldigheter för leverantörer och användare beroende på den risknivå som AI kan generera. Även om många AI-system utgör en minimal risk måste de genomgå en bedömning.

Oacceptabel risk

AI-system med oacceptabel risk är system som anses utgöra ett hot mot människor och kommer att förbjudas. De omfattar:

  • Kognitiv beteendemanipulation av personer eller specifika sårbara grupper: till exempel röstaktiverade leksaker som uppmuntrar till farligt beteende hos barn.
  • Social poängsättning: klassificering av människor baserat på beteende, socioekonomisk status, personliga egenskaper.
  • Biometrisk identifiering och kategorisering av fysiska personer.
  • Biometriska identifieringssystem i realtid och på distans, t.ex. ansiktsigenkänning.

Vissa undantag kan tillåtas i brottsbekämpningssyfte: insatser i realtid där exempelvis misstänkta brottslingar identifieras av AI kommer att tillåtas i undantagsfall, medan system för biometrisk identifiering på distans, där identifieringen sker efter en betydande fördröjning, tillåts vid åtal för allvarliga brott efter domstols godkännande.

Hög risk

AI-system som har en negativ påverkan på vår säkerhet eller våra grundläggande rättigheter kommer att betraktas som högrisk och delas in i två kategorier.

1. AI-system som används i produkter som faller under EU:s produktsäkerhetslagstiftning. Detta inkluderar leksaker, flyg, bilar, medicintekniska produkter och hissar.

2. AI-system som faller inom sju specifika områden och som kommer att behöva registreras i en EU-databas:

  • Hantering och drift av kritisk infrastruktur.
  • Utbildning och yrkesutbildning.
  • Sysselsättning, förvaltning av arbetstagare och tillgång till egenföretagande.
  • Tillgång till och ägande av nödvändig privat egendom.
  • Brottsbekämpning.
  • Hantering av migration, asyl och gränskontroll.
  • Hjälp med rättslig tolkning och tillämpning av lagen.

Alla AI-system med hög risk kommer att bedömas både innan de släpps ut på marknaden och under hela sin livscykel. Medborgare kommer också att kunna lämna in klagomål mot AI-system till nationella myndigheter, såsom den svenska Integritetsskyddsmyndigheten.

Krav på transparens

Generativ AI, som ChatGPT, klassas inte som hög risk, men måste uppfylla kraven på transparens och copyrightlagstiftning inom EU. Det krävs att tillverkare/ägare måste:

  • Märka att innehållet har genererats av AI.
  • Utforma systemet för att förhindra att produkten genererar olagligt innehåll.
  • Offentliggöra sammanfattningar av upphovsrättsskyddade data som används för utbildning.

Kraftfull, generell AI som kan innebära systemrisker, exempelvis den mer avancerade modellen GPT-4, måste gå igenom omfattande undersökningar. Alla misstänkta resultat måste rapporteras till EU-kommissionen.

Innehåll som antingen genereras eller modifieras med hjälp av AI - bilder, ljud eller videofiler (t.ex. så kallade "deepfakes") - måste tydligt märkas som AI-genererat så att användare är medvetna om när de stöter på sådant innehåll.

Att stödja innovation

Lagen syftar till att erbjuda små och medelstora företag, och nystartade företag, möjligheter att utveckla och träna AI-modeller innan de blir tillgängliga för allmänheten. Det är därför den kräver att nationella myndigheter förser företag med en testmiljö som simulerar förhållanden som liknar den verkliga världen.

Vad händer härnäst?

Den överenskomna texten kommer formellt att antas vid en plenarsession i parlamentet. De flesta delarna kommer att börja gälla fullt ut 24 månader efter ikraftträdandet, men vissa delar kommer att tillämpas tidigare:

  • Förbudet mot AI-system som utgör oacceptabla risker kommer att börja gälla sex månader efter ikraftträdandet
  • Uppförandekoder kommer att börja gälla nio månader efter ikraftträdandet
  • Regler om AI-system som måste uppfylla kraven på insyn kommer att börja gälla 12 månader efter ikraftträdandet

Högrisksystem kommer att få mer tid på sig att uppfylla kraven. Skyldigheterna som rör dem kommer att bli tillämpliga 36 månader efter ikraftträdandet.

Mer om EU:s digitala åtgärder