AI-verordening: eerste regels voor artificiële intelligentie
De AI-verordening, de allereerste uitgebreide AI-wet ter wereld, bevat regels voor het gebruik van artificiële intelligentie in de EU. Lees hier hoe deze verordening u beschermt.
Als onderdeel van haar digitale strategie wilde de EU regels voor artificiële intelligentie (AI) vaststellen om beter vat te krijgen op de voorwaarden voor de ontwikkeling en het gebruik van deze innovatieve technologie. AI kan veel voordelen opleveren, zoals betere gezondheidszorg, veiliger en schoner vervoer, efficiëntere productiemethoden en schonere en duurzamere energie.
AI-regelgeving in Europa: het eerste allesomvattende kader
In april 2021 maakte de Europese Commissie haar voorstel bekend met de allereerste EU-wet inzake kunstmatige intelligentie die een AI-classificatiesysteem op basis van risico's invoert. Hierin kunnen de diverse AI-toepassingen worden geanalyseerd en ingedeeld volgens het risico dat zij inhouden voor gebruikers. Afhankelijk van het risiconiveau gelden er meer of minder AI-nalevingsvereisten.
Wat het Parlement in de AI-wetgeving wilde
De prioriteit van het Parlement was ervoor te zorgen dat AI-systemen die in de EU worden gebruikt veilig, transparant, traceerbaar, niet-discriminerend en milieuvriendelijk zijn. Het Parlement vindt dat AI-systemen nooit volledig geautomatiseerd mogen zijn, maar altijd onder menselijk toezicht moeten staan om schadelijke gevolgen te kunnen voorkomen.
Het Parlement pleitte daarnaast voor een technologieneutrale, uniforme definitie van AI die geldt voor alle toekomstige AI-systemen.
AI-verordening: verschillende regels naargelang het risico
De nieuwe regels houden bepaalde verplichtingen in voor aanbieders en gebruikers, afhankelijk van de classificatie van het AI-risico. Bij veel AI-systemen is het risico minimaal, maar toch moeten ook die worden beoordeeld.
Onaanvaardbaar risico
Verboden AI-toepassingen in de EU zijn onder andere:
- cognitieve gedragsmanipulatie van personen of specifieke kwetsbare groepen: bijvoorbeeld speelgoed dat reageert op een stem en dat bij kinderen gevaarlijk gedrag uitlokt;
- sociale scoring AI: het classificeren van mensen op basis van hun gedrag, sociaal-economische status of persoonlijke kenmerken;
- Biometrische identificatie en categorisering van natuurlijke personen
- biometrische systemen voor identificatie op afstand in real time, zoals gezichtsherkenning in openbare ruimten.
Toch is er ook ruimte voor uitzonderingen voor rechtshandhavingsdoeleinden. Biometrische systemen voor identificatie op afstand in real-time zullen slechts in een beperkt aantal ernstige gevallen worden toegestaan. Aan de andere kant worden systemen voor identificatie op afstand 'achteraf', waarbij de identificatie met aanzienlijke vertraging plaatsvindt, wel toegestaan bij de vervolging van ernstige misdrijven, maar alleen met toestemming van de rechter.
Hoog risico
AI-systemen die een negatief effect hebben op de veiligheid of de grondrechten worden als systemen met een hoog risico beschouwd en worden onderverdeeld in twee categorieën:
1) AI-toepassingen in producten die onder de EU-wetgeving op het gebied van productveiligheid vallen. Voorbeelden hiervan zijn speelgoed, luchtvaartuigen, auto’s, medische hulpmiddelen en liften.
2) AI-systemen op acht verschillende gebieden, die in een EU-databank moeten worden geregistreerd:
- beheer en exploitatie van kritieke infrastructuur;
- onderwijs en beroepsopleiding;
- werkgelegenheid, personeelsbeheer en toegang tot zelfstandige arbeid;
- toegang tot en gebruik van essentiële particuliere diensten en openbare diensten en uitkeringen;
- rechtshandhaving;
- migratie, asiel en beheer van grenscontroles;
- ondersteuning van rechterlijke instanties bij het uitleggen van feiten en toepassing van het recht.
Alle AI-systemen met een hoog risico krijgen een beoordeling voor zij in de handel worden gebracht en worden tijdens de volledige levensduur van het systeem gevolgd. Burgers krijgen het recht om klachten in te dienen over AI-systemen bij aangewezen nationale autoriteiten.
Transparantie-eisen
Generatieve AI, zoals ChatGPT, wordt niet als hoogrisico geclassificeerd, maar moet wel voldoen aan transparantievereisten en het auteursrecht van de EU:
- de toepassingen moeten de vermelding bevatten dat de inhoud is gegenereerd door AI;
- het model moet zodanig worden ontworpen dat er geen illegale inhoud kan worden gegenereerd;
- er moet een overzicht worden gegeven van auteursrechtelijk beschermde gegevens die voor het trainen van het systeem zijn gebruikt.
AI-modellen met een grote impact die een systeemrisico kunnen vormen, zoals het meer geavanceerde AI-model GPT-4, zouden grondig moeten worden geëvalueerd en alle ernstige incidenten aan de Commissie moeten rapporteren.
Inhoud die met behulp van AI tot stand komt, of dat nu gaat om afbeeldingen, audio of video's (denk aan deepfakes), moet duidelijk als door AI gecreëerd worden aangeduid. Zo weten gebruikers dat ze met dergelijke content te maken hebben.
Aanmoediging van AI-innovatie en start-ups in Europa
De wet is bedoeld om AI-innovatie en start-ups in Europa te ondersteunen door bedrijven toe te staan AI-modellen voor algemeen gebruik te ontwikkelen en te testen voordat ze openbaar worden gemaakt.
Om dit mogelijk te maken, moeten nationale autoriteiten bedrijven toegang geven tot een testomgeving voor AI die zo veel mogelijk lijkt op de werkelijke omstandigheden. Dit zal kleine en middelgrote ondernemingen (mkb's of kmo's) helpen concurreren op de groeiende EU-markt voor kunstmatige intelligentie.
Toepassing
Het Parlement heeft een werkgroep opgericht om toezicht te houden op de implementatie en handhaving van de AI-wet. Leden van het Europees Parlement willen er zeker van zijn dat de aangenomen AI-regels bijdragen aan de ontwikkeling van de digitale sector in Europa.
De groep werkt samen met het Europees AI-bureau van de Europese Commissie, dat is opgericht om de belangrijkste voorschriften van de wet te verduidelijken.
Tijdlijn voor de naleving van de EU AI-wet
In juni 2024 heeft de EU 's werelds eerste regels voor AI aangenomen. De AI-verordening zal 24 maanden na de datum waarop de regelgeving actief wordt volledig van toepassing zijn, maar sommige onderdelen gelden al eerder:
- Het verbod op AI-systemen die onaanvaardbare risico's vormen, trad op 2 februari 2025 in werking.
- Gedragscodes zijn van toepassing negen maanden na inwerkingtreding.
- Regels voor algemene AI-systemen die aan transparantievereisten moeten voldoen, zijn geldig twaalf maanden na inwerkingtreding.
Systemen met een hoog risico krijgen meer tijd om aan de eisen te voldoen, omdat de verplichtingen voor hen 36 maanden na inwerkingtreding gelden.
Meer over de digitale maatregelen van de EU
- De gevaren van cryptomunten en de voordelen van EU-wetgeving
- Bestrijding van cybercriminaliteit: nieuwe EU-wetgeving inzake cyberbeveiliging uitgelegd
- Meer gegevensuitwisseling in de EU: wat zijn de voordelen?
- Wet inzake digitale markten en wet inzake digitale diensten van de EU: een toelichting
- Vijf manieren waarop het Europees Parlement online gamers wil beschermen