EU:s AI-lag: första lagstiftningen om artificiell intelligens
Användningen av artificiell intelligens i EU kommer att regleras av AI-lagen, världens första heltäckande AI-lagstiftning. Såhär skyddar den dig.
Som en del av den digitala strategin vill EU reglera artificiell intelligens (AI) för att säkerställa bättre villkor för utveckling och användning av denna innovativa teknik. AI kan medföra många fördelar som bättre hälso- och sjukvård, säkrare och renare transporter, effektivare tillverkning samt billigare och mer hållbar energi.
I april 2021 föreslog kommissionen EU:s första regelverk för AI. Enligt förslaget ska AI-system analyseras och klassificeras utifrån den risk de utgör för användare. De olika risknivåerna kommer att innebära mer eller mindre reglering.
Läs mer om vad artificiell intelligens är och hur det används.
Vad Europaparlamentet vill se i AI-lagstiftningen
Europaparlamentet vill se till att AI-system som används i EU är säkra, transparenta, spårbara, icke-diskriminerande och miljövänliga. AI-system bör övervakas av människor, snarare än av automatisering, för att förhindra skadliga effekter.
Europaparlamentet vill också fastställa en teknikneutral och enhetlig definition av AI som kan tillämpas på framtida AI-system.
Läs mer om Europaparlamentets arbete med AI och vision för AI:s framtid.
AI-akten: olika regler för olika risknivåer
De nya reglerna fastställer skyldigheter för leverantörer och användare beroende på den risknivå som AI kan generera. Även om många AI-system utgör en minimal risk måste de genomgå en bedömning.
Oacceptabel risk
AI-system med oacceptabel risk är system som anses utgöra ett hot mot människor och kommer att förbjudas. De omfattar:
- Kognitiv beteendemanipulation av personer eller specifika sårbara grupper: till exempel röstaktiverade leksaker som uppmuntrar till farligt beteende hos barn.
- Social poängsättning: klassificering av människor baserat på beteende, socioekonomisk status, personliga egenskaper.
- Biometrisk identifiering och kategorisering av fysiska personer.
- Biometriska identifieringssystem i realtid och på distans, t.ex. ansiktsigenkänning.
Vissa undantag kan tillåtas i brottsbekämpningssyfte: insatser i realtid där exempelvis misstänkta brottslingar identifieras av AI kommer att tillåtas i undantagsfall, medan system för biometrisk identifiering på distans, där identifieringen sker efter en betydande fördröjning, tillåts vid åtal för allvarliga brott efter domstols godkännande.
Hög risk
AI-system som har en negativ påverkan på vår säkerhet eller våra grundläggande rättigheter kommer att betraktas som högrisk och delas in i två kategorier.
1. AI-system som används i produkter som faller under EU:s produktsäkerhetslagstiftning. Detta inkluderar leksaker, flyg, bilar, medicintekniska produkter och hissar.
2. AI-system som faller inom sju specifika områden och som kommer att behöva registreras i en EU-databas:
- Hantering och drift av kritisk infrastruktur.
- Utbildning och yrkesutbildning.
- Sysselsättning, förvaltning av arbetstagare och tillgång till egenföretagande.
- Tillgång till och ägande av nödvändig privat egendom.
- Brottsbekämpning.
- Hantering av migration, asyl och gränskontroll.
- Hjälp med rättslig tolkning och tillämpning av lagen.
Alla AI-system med hög risk kommer att bedömas både innan de släpps ut på marknaden och under hela sin livscykel. Medborgare kommer också att kunna lämna in klagomål mot AI-system till nationella myndigheter, såsom den svenska Integritetsskyddsmyndigheten.
Krav på transparens
Generativ AI, som ChatGPT, klassas inte som hög risk, men måste uppfylla kraven på transparens och copyrightlagstiftning inom EU. Det krävs att tillverkare/ägare måste:
- Märka att innehållet har genererats av AI.
- Utforma systemet för att förhindra att produkten genererar olagligt innehåll.
- Offentliggöra sammanfattningar av upphovsrättsskyddade data som används för utbildning.
Kraftfull, generell AI som kan innebära systemrisker, exempelvis den mer avancerade modellen GPT-4, måste gå igenom omfattande undersökningar. Alla misstänkta resultat måste rapporteras till EU-kommissionen.
Innehåll som antingen genereras eller modifieras med hjälp av AI - bilder, ljud eller videofiler (t.ex. så kallade "deepfakes") - måste tydligt märkas som AI-genererat så att användare är medvetna om när de stöter på sådant innehåll.
Att stödja innovation
Lagen syftar till att erbjuda små och medelstora företag, och nystartade företag, möjligheter att utveckla och träna AI-modeller innan de blir tillgängliga för allmänheten. Det är därför den kräver att nationella myndigheter förser företag med en testmiljö som simulerar förhållanden som liknar den verkliga världen.
Vad händer härnäst?
Parlamentet antog lagen i mars 2024, och ministerrådet i maj 2024. De flesta delarna kommer att börja gälla fullt ut 24 månader efter ikraftträdandet, men vissa delar kommer att tillämpas tidigare:
- Förbudet mot AI-system som utgör oacceptabla risker kommer att börja gälla sex månader efter ikraftträdandet
- Uppförandekoder kommer att börja gälla nio månader efter ikraftträdandet
- Regler om AI-system som måste uppfylla kraven på insyn kommer att börja gälla 12 månader efter ikraftträdandet
Högrisksystem kommer att få mer tid på sig att uppfylla kraven. Skyldigheterna som rör dem kommer att bli tillämpliga 36 månader efter ikraftträdandet.
Mer om EU:s digitala åtgärder
- Kryptovalutor: vilken nytta kan EU-regler göra?
- Kampen mot cyberbrott: Så funkar EU:s nya lagar om cybersäkerhet
- Datadelning: varför är EU:s lagstiftning viktig?
- Nya regler om digitala marknader och digitala tjänster
- Onlinedatorspel: Fem sätt för Europaparlamentet att skydda spelare online