AI-verordening: eerste regels voor artificiële intelligentie 

 
 

De AI-verordening, de allereerste uitgebreide AI-wet ter wereld, bevat regels voor het gebruik van artificiële intelligentie in de EU. Lees hier hoe deze verordening u zal beschermen.

Als onderdeel van haar digitale strategie wil de EU regels voor artificiële intelligentie (AI) vaststellen om beter vat te krijgen op de voorwaarden voor de ontwikkeling en het gebruik van deze innovatieve technologie. AI kan veel voordelen opleveren, zoals betere gezondheidszorg, veiliger en schoner vervoer, efficiëntere productiemethoden en schonere en duurzamere energie.

In april 2021 maakte de Europese Commissie haar voorstel bekend met de allereerste EU-regels voor AI. Hierin wordt voorgesteld de diverse AI-toepassingen te analyseren en in te delen volgens het risico dat zij inhouden voor gebruikers. Afhankelijk van het risiconiveau zouden er meer of minder regels gelden. Als dit voorstel wordt goedgekeurd, wordt de EU de eerste plek ter wereld waar AI aan regels gebonden zal zijn.

Lees meer over wat artificiële intelligentie is en hoe het wordt gebruikt

Wat volgens het Parlement in de AI-wetgeving moet komen

De prioriteit van het Parlement is ervoor te zorgen dat AI-systemen die in de EU worden gebruikt veilig, transparant, traceerbaar, niet-discriminerend en milieuvriendelijk zijn. Het Parlement vindt dat AI-systemen nooit volledig geautomatiseerd mogen zijn, maar altijd onder menselijk toezicht moeten staan om schadelijke gevolgen te kunnen voorkomen.

Het Parlement pleit daarnaast voor een technologieneutrale, uniforme definitie van AI die geldt voor alle toekomstige AI-systemen.

Lees meer over de voorstellen van het Parlement over AI en zijn visie voor de toekomst van AI

AI-verordening: verschillende regels naargelang het risico

De nieuwe regels houden bepaalde verplichtingen voor aanbieders en gebruikers in, afhankelijk van het risico van de AI-toepassing. Bij veel AI-systemen is het risico minimaal, maar toch moeten ook die worden beoordeeld.

 

Onaanvaardbaar risico

AI-systemen met een onaanvaardbaar risico zijn systemen die als een gevaar voor de mens worden beschouwd. Deze zullen worden verboden. Het gaat hier onder meer om:

  • cognitieve gedragsmanipulatie van personen of specifieke kwetsbare groepen: bijvoorbeeld speelgoed dat reageert op een stem en dat bij kinderen gevaarlijk gedrag uitlokt;
  • sociale scoring: het classificeren van mensen op basis van hun gedrag, sociaal-economische status of persoonlijke kenmerken;
  • biometrische systemen voor identificatie op afstand in real time, zoals gezichtsherkenning.

Toch is er ook ruimte voor uitzonderingen. Zo zijn systemen voor identificatie op afstand “achteraf”, waarbij de identificatie met een aanzienlijke vertraging plaatsvindt, wel toegestaan bij vervolging van ernstige misdrijven, maar alleen met toestemming van de rechter.

Hoog risico

AI-systemen die een negatief effect hebben op de veiligheid of de grondrechten worden als systemen met een hoog risico beschouwd en worden onderverdeeld in twee categorieën:

1) AI-toepassingen in producten die onder de EU-wetgeving op het gebied van productveiligheid vallen. Voorbeelden hiervan zijn speelgoed, luchtvaartuigen, auto’s, medische hulpmiddelen en liften.

2) AI-systemen op acht verschillende gebieden, die in een EU-databank moeten worden geregistreerd:

  • biometrische identificatie en categorisering van natuurlijke personen;
  • beheer en exploitatie van kritieke infrastructuur;
  • onderwijs en beroepsopleiding;
  • werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid;
  • toegang tot en gebruik van essentiële particuliere diensten en openbare diensten en uitkeringen;
  • rechtshandhaving;
  • migratie, asiel en beheer van grenscontroles;
  • ondersteuning van rechterlijke instanties bij het uitleggen van feiten en toepassing van het recht.



Alle AI-systemen met een hoog risico krijgen een beoordeling voor zij in de handel worden gebracht en worden tijdens de volledige levensduur van het systeem gevolgd.

Generatieve AI

Generatieve AI, zoals ChatGPT, zal moeten voldoen aan een aantal transparantievereisten:

  • de toepassingen moeten de vermelding bevatten dat de inhoud is gegenereerd door AI;
  • het model moet zodanig worden ontworpen dat er geen illegale inhoud kan worden gegenereerd;
  • er moet een overzicht worden gegeven van auteursrechtelijk beschermde gegevens die voor het trainen van het systeem zijn gebruikt.


Beperkt risico

AI-systemen met een beperkt risico moeten voldoen aan minimale transparantievereisten om gebruikers in staat te stellen weloverwogen beslissingen te nemen. Na interactie met een toepassing is het dan aan de gebruikers om te beslissen of zij de toepassing willen blijven gebruiken. Het moet aan de gebruikers duidelijk worden gemaakt dat zij interageren met een AI-systeem. Dit geldt onder meer voor AI-systemen die beeld-, audio- of videomateriaal genereren, zoals deepfakes.

Volgende stappen

Op 14 juni 2023 hebben de EP-leden het standpunt van het Parlement voor de onderhandelingen over de AI-verordening vastgesteld. Op basis daarvan zullen nu de gesprekken met de EU-lidstaten in de Raad van start gaan om de verordening in een definitieve vorm te gieten.

Het doel is om vóór het einde van dit jaar tot een akkoord te komen.


Meer over de digitale maatregelen van de EU