Procedure : 2020/2014(INL)
Stadium plenaire behandeling
Documentencyclus : A9-0178/2020

Ingediende teksten :

A9-0178/2020

Debatten :

PV 19/10/2020 - 18
CRE 19/10/2020 - 15
CRE 19/10/2020 - 18

Stemmingen :

Aangenomen teksten :

P9_TA(2020)0276

<Date>{05/10/2020}5.10.2020</Date>
<NoDocSe>A9‑0178/2020</NoDocSe>
PDF 320kWORD 113k

<TitreType>VERSLAG</TitreType>

<Titre>met aanbevelingen aan de Commissie betreffende het civielrechtelijk aansprakelijkheidsstelsel voor kunstmatige intelligentie</Titre>

<DocRef>(2020/2014(INL))</DocRef>


<Commission>{JURI}Commissie juridische zaken</Commission>

Rapporteur: <Depute>Axel Voss</Depute>

(Initiatief – Artikel 47 van het Reglement)

 


PR_INL

INHOUD

Blz.

 


ONTWERPRESOLUTIE VAN HET EUROPEES PARLEMENT

met aanbevelingen aan de Commissie betreffende het civielrechtelijk aansprakelijkheidsstelsel voor kunstmatige intelligentie

(2020/2014(INL))

Het Europees Parlement,

 gezien artikel 225 van het Verdrag betreffende de werking van de Europese Unie,

 gezien de artikelen 114 en 169 van het Verdrag betreffende de werking van de Europese Unie,

 gezien Richtlijn 85/374/EEG van de Raad van 25 juli 1985 betreffende de onderlinge aanpassing van de wettelijke en bestuursrechtelijke bepalingen der Lid-Staten inzake de aansprakelijkheid voor produkten met gebreken,

 gezien Richtlijn 2005/29/EG van het Europees Parlement en de Raad van 11 mei 2005 betreffende oneerlijke handelspraktijken van ondernemingen jegens consumenten op de interne markt (“richtlijn oneerlijke handelspraktijken”)[1] en Richtlijn 2011/83/EU van het Europees Parlement en de Raad van 25 oktober 2011 betreffende consumentenrechten[2], alsmede andere regels inzake consumentenbescherming,

 gezien Verordening (EU) 2017/745 van het Europees Parlement en de Raad van 5 april 2017 betreffende medische hulpmiddelen[3],

 gezien Verordening (EU) 2018/1488 van de Raad van 28 september 2018 tot oprichting van de Gemeenschappelijke Onderneming Europese high-performance computing[4],

 gezien Richtlijn (EU) 2019/770 van het Europees Parlement en de Raad van 20 mei 2019 betreffende bepaalde aspecten van overeenkomsten voor de levering van digitale inhoud en digitale diensten[5],

 gezien het Interinstitutioneel Akkoord over beter wetgeven van 13 april 2016[6] en de richtsnoeren voor betere regelgeving,

 gezien het voorstel voor een verordening van het Europees Parlement en de Raad van 6 juni 2018 tot vaststelling van het programma Digitaal Europa voor de periode 2021-2027 (COM(2018)0434),

 gezien de mededeling van de Commissie van 25 april 2018 getiteld “Kunstmatige intelligentie voor Europa” (COM(2018)0237),

 gezien de mededeling van de Commissie van 7 december 2018 getiteld “Gecoördineerd plan inzake kunstmatige intelligentie” (COM(2018)0795),

 gezien de mededeling van de Commissie van 8 april 2019 getiteld “Vertrouwen kweken in mensgerichte kunstmatige intelligentie” (COM(2019)0168),

 gezien het verslag van de Commissie van 19 februari 2020 aan het Europees Parlement, de Raad en het Europees Economisch en Sociaal Comité over de gevolgen van kunstmatige intelligentie, het internet der dingen en robotica op het gebied van veiligheid en aansprakelijkheid (COM(2020)0064),

 gezien het Witboek van de Europese Commissie van 19 februari 2020 over kunstmatige intelligentie – een Europese benadering op basis van excellentie en vertrouwen (COM(2020)0065),

 gezien zijn resolutie van 16 februari 2017 met aanbevelingen aan de Commissie over civielrechtelijke regels inzake robotica[7],

 gezien zijn resolutie van 1 juni 2017 over de digitalisering van de Europese industrie[8],

 gezien zijn resolutie van 12 september 2018 over autonome wapensystemen[9],

 gezien zijn resolutie van 12 februari 2019 inzake een alomvattend Europees industriebeleid inzake artificiële intelligentie en robotica[10],

 gezien zijn resolutie van 12 februari 2020 over geautomatiseerde besluitvormingsprocessen: waarborging van consumentenbescherming en vrij verkeer van goederen en diensten[11],

 gezien het verslag van de deskundigengroep op hoog niveau inzake kunstmatige intelligentie van 8 april 2019 getiteld “Ethische richtsnoeren voor betrouwbare KI”,

 gezien het verslag van de deskundigengroep op hoog niveau inzake kunstmatige intelligentie van 8 april 2019 getiteld “A definition of AI: Main Capabilities and Disciplines”,

 gezien het verslag van de deskundigengroep op hoog niveau inzake kunstmatige intelligentie van 26 juni 2019 getiteld “Policy and investment recommendations for trustworthy AI”,

 gezien het verslag van de deskundigengroep op hoog niveau voor aansprakelijkheid en nieuwe technologieën van 21 november 2019 getiteld “Liability for Artificial Intelligence and other emerging digital technologies”,

 gezien de STOA-beleidsnota van de Onderzoeksdienst van het Europees Parlement van juni 2016 over juridische en ethische overwegingen met betrekking tot robotica,

 gezien de studie van het directoraat-generaal Intern Beleid van het Europees Parlement voor de Commissie juridische zaken van oktober 2016 getiteld “European Civil Law Rules in Robotics”,

 gezien de artikelen 47 en 54 van zijn Reglement,

 gezien de adviezen van de Commissie interne markt en consumentenbescherming en de Commissie vervoer en toerisme,

 gezien het verslag van de Commissie juridische zaken (A9-0178/2020),

A. overwegende dat het begrip aansprakelijkheid een belangrijke dubbele rol speelt in ons dagelijks leven: enerzijds zorgt het ervoor dat een persoon die schade heeft geleden, aanspraak kan maken op schadevergoeding en deze kan verkrijgen van de partij waarvan is bewezen dat deze aansprakelijk is voor die schade, en anderzijds voorziet het in de economische stimulansen voor natuurlijke en rechtspersonen om eerst en vooral schade te voorkomen of om het risico dat zij een schadevergoeding moeten betalen, te verdisconteren in hun gedrag;

B. overwegende dat elk op de toekomst gericht rechtskader voor civielrechtelijke aansprakelijkheid moet zorgen voor vertrouwen in de veiligheid, betrouwbaarheid en consistentie van producten en diensten, met inbegrip van digitale technologie, om een evenwicht te vinden tussen het efficiënt en billijk beschermen van potentiële slachtoffers van schade en tegelijkertijd voldoende ruimte bieden aan ondernemingen, en met name kleine en middelgrote ondernemingen, om nieuwe technologieën, producten of diensten te ontwikkelen; overwegende dat dit het vertrouwen zal helpen versterken en voor stabiliteit voor investeringen zal zorgen; overwegende dat het doel van elk aansprakelijkheidskader uiteindelijk moet zijn alle partijen rechtszekerheid te bieden, ongeacht of het gaat om de producent, de operator, de betrokken persoon of enige andere derde partij;

 C. overwegende dat binnen het rechtsstelsel van een lidstaat de aansprakelijkheidsregels voor bepaalde actoren kunnen worden aangepast of de aansprakelijkheid voor bepaalde activiteiten kan worden aangescherpt; overwegende dat risicoaansprakelijkheid betekent dat een partij aansprakelijk kan zijn zonder dat er sprake is van schuld; overwegende dat de verweerder op grond van veel nationale wetgeving inzake onrechtmatige daad risicoaansprakelijk is wanneer een risico dat hij voor het publiek heeft gecreëerd, bijvoorbeeld in de vorm van auto’s of gevaarlijke activiteiten, of een risico dat hij niet kan beheersen, zoals in het geval van dieren, zich verwezenlijkt;

D. overwegende dat alle toekomstige wetgevingsactiviteiten in de Unie die de expliciete toewijzing van aansprakelijkheid in verband met kunstmatige-intelligentiesystemen (KI-systemen) als doel hebben, moeten worden voorafgegaan door analyse en overleg met de lidstaten over de overeenstemming van de voorgestelde wetgevingshandeling met de economische, juridische en sociale voorwaarden;

E. overwegende dat een civielrechtelijk aansprakelijkheidsstelsel voor kunstmatige intelligentie het onderwerp moet zijn van een breed publiek debat met aandacht voor alle ethische, juridische, economische en maatschappelijke aspecten, om misverstanden en ongegronde angst die deze technologie onder burgers kan teweegbrengen, te voorkomen; overwegende dat zorgvuldig onderzoek naar de gevolgen van een nieuw regelgevingskader voor alle actoren door middel van een effectbeoordeling een eerste voorwaarde dient te zijn voor verdere wetgevingsmaatregelen;

F. overwegende dat het begrip KI-systemen een grote groep uiteenlopende technologieën omvat, waaronder eenvoudige statistieken, machinaal leren en deep learning;

G. overwegende dat het gebruik van de term “geautomatiseerde besluitvorming” de mogelijke dubbelzinnigheid van de term KI kan voorkomen; overwegende dat bij “geautomatiseerde besluitvorming” sprake is van een gebruiker die initieel een besluit, gedeeltelijk of volledig, aan een entiteit delegeert door het gebruik van software of een dienst; overwegende dat die entiteit vervolgens automatische besluitvormingsmodellen gebruikt om een handeling uit te voeren namens een gebruiker of om te informeren over het besluit van de gebruiker door middel van het uitvoeren van een handeling;

H. overwegende dat bepaalde KI-systemen aanzienlijke juridische uitdagingen voor het bestaande aansprakelijkheidskader met zich meebrengen en kunnen leiden tot situaties waarin het gebrek aan transparantie van een dergelijk systeem het uiterst kostbaar of zelfs onmogelijk kan maken om te bepalen wie de controle heeft over het risico dat aan het KI-systeem verbonden is, of welke code, input of data uiteindelijk de schadelijke werking heeft veroorzaakt; overwegende dat deze factor de vaststelling van de relatie tussen de schade en het schadeveroorzakende gedrag kan bemoeilijken, met als gevolg dat slachtoffers mogelijk geen passende vergoeding ontvangen;

I. overwegende dat de juridische problemen ook een gevolg zijn van de connectiviteit tussen een KI-systeem en andere KI-systemen en niet-KI-systemen, hun afhankelijkheid van externe gegevens, hun kwetsbaarheid voor inbreuken op de cyberbeveiliging en van het ontwerp van toenemend autonome KI-systemen die gebruikmaken van technieken als machinaal leren en deep learning;

J. overwegende dat degelijke ethische normen voor KI-systemen in combinatie met solide en billijke schadevergoedingsprocedures kunnen helpen deze juridische problemen aan te pakken en het risico weg te nemen dat gebruikers minder bereid zijn om opkomende technologieën te omarmen; overwegende dat billijke schadevergoedingsprocedures ervoor zorgen dat een ieder die personenschade of zaakschade lijdt door KI-systemen hetzelfde niveau van bescherming geniet als in gevallen waarbij geen KI-systeem betrokken is; overwegende dat de gebruiker er zeker van moet zijn dat de potentiële schade als gevolg van systemen die KI gebruiken, naar behoren is verzekerd, en dat er een afgebakend juridisch traject is om verhaal te halen;

K. overwegende dat rechtszekerheid ook een essentiële voorwaarde is voor de dynamische ontwikkeling en innovatie van op KI gebaseerde technologie, met name voor start-ups, micro-, kleine en middelgrote ondernemingen, en de praktische toepassing ervan in het dagelijks leven; overwegende dat de cruciale rol van start-ups, micro-, kleine en middelgrote ondernemingen, met name in de Europese economie, een strikt evenredige aanpak rechtvaardigt, zodat zij zich kunnen ontwikkelen en kunnen innoveren;

L. overwegende dat de verscheidenheid aan KI-systemen en het brede scala aan risico’s in verband met deze technologie het vinden van één oplossing voor het gehele spectrum van risico’s bemoeilijken; overwegende dat in dit verband moet worden gekozen voor een aanpak waarin experimenten, proefprojecten en testomgevingen voor regelgeving worden gebruikt om waar nodig te komen tot evenredige, empirisch onderbouwde oplossingen voor specifieke situaties en sectoren;

Inleiding

1. is van mening dat de problemen die gepaard gaan met de invoering van KI-systemen in de maatschappij, op de werkplek en in de economie tot de belangrijkste kwesties op de huidige politieke agenda behoren; overwegende dat op KI gebaseerde technologieën ons leven op bijna elk gebied kunnen en moeten trachten te verbeteren, van de persoonlijke omgeving zoals de vervoerssector, gepersonaliseerd onderwijs, bijstand voor kwetsbare personen, fitnessprogramma’s en kredietvoorwaarden, tot de werkomgeving, zoals verlichting van vervelende en repetitieve taken, en mondiale uitdagingen, zoals klimaatproblemen, gezondheidszorg, voeding en logistiek;

2. is er vast van overtuigd dat om de voordelen efficiënt te benutten en potentieel misbruik van KI-systemen te vermijden, alsmede versnipperde regelgeving in de Unie te voorkomen, uniforme, op beginselen gebaseerde en toekomstbestendige wetgeving in de gehele EU voor alle KI-systemen van cruciaal belang is; is van mening dat sectorspecifieke regelgeving voor het brede scala aan mogelijke toepassingen weliswaar de voorkeur verdient, maar dat een horizontaal, geharmoniseerd, op gemeenschappelijke beginselen gebaseerd rechtskader nodig lijkt om juridische helderheid te waarborgen, gelijke normen voor de hele Unie vast te stellen en onze Europese waarden en burgerrechten doeltreffend te beschermen;

3. stelt dat de digitale eengemaakte markt volledig moet worden geharmoniseerd gezien het feit dat de digitale omgeving wordt gekenmerkt door een snelle, niet aan grenzen gebonden dynamiek en internationale gegevensstromen; is van mening dat de Unie de doelstellingen van het behoud van de digitale soevereiniteit van de Unie en de bevordering van digitale innovatie in Europa, uitsluitend kan verwezenlijken met samenhangende en gemeenschappelijke regels die aansluiten op een cultuur van innovatie;

4. merkt op dat er reeds een wereldwijde wedloop op het gebied van KI plaatsvindt en dat de Unie daarin de toon moet zetten door haar wetenschappelijke en technologische potentieel te benutten; onderstreept dat de ontwikkeling van technologie niet ten koste mag gaan van de bescherming van gebruikers tegen schade die kan worden veroorzaakt door apparaten en systemen die KI gebruiken; pleit voor de internationale bevordering van de normen van de Unie op het gebied van civielrechtelijke aansprakelijkheid;

5. is er vast van overtuigd dat de nieuwe gemeenschappelijke regels voor KI-systemen alleen in de vorm van een verordening moeten worden gegoten; is van mening dat de kwestie van aansprakelijkheid in geval van door een KI-systeem veroorzaakte schade een van de belangrijkste aspecten is die in dit kader aan bod moeten komen;

Aansprakelijkheid en kunstmatige intelligentie

6. is van mening dat er geen behoefte is aan een volledige herziening van de goed werkende aansprakelijkheidsregelingen, maar dat de complexiteit, de connectiviteit, het gebrek aan transparantie, de kwetsbaarheid, het vermogen via updates te worden gewijzigd, de capaciteit voor zelfleren en het potentieel autonome gedrag van KI-systemen, alsook het grote aantal betrokkenen, niettemin een belangrijke uitdaging vormen voor de doeltreffendheid van de bepalingen van het aansprakelijkheidskader van de lidstaten en van de Unie; is van mening dat er specifieke en gecoördineerde aanpassingen van de aansprakelijkheidsregelingen nodig zijn om situaties te vermijden waarin personen die personen- of zaakschade lijden, geen schadevergoeding krijgen;

7. merkt op dat alle fysieke of virtuele activiteiten, apparaten of processen die door KI-systemen worden aangestuurd, weliswaar technisch gezien de directe of indirecte oorzaak kunnen zijn van schade, maar bijna altijd als startpunt iemand hebben die de systemen creëert, exploiteert of binnendringt; merkt in dit verband op dat het niet nodig is om rechtspersoonlijkheid te verlenen aan KI-systemen; is van mening dat door gebrek aan transparantie, connectiviteit en autonoom gedrag van KI-systemen het in de praktijk zeer moeilijk of zelfs onmogelijk kan zijn om specifieke schadelijke acties van KI-systemen te herleiden tot specifiek menselijk handelen of tot beslissingen in het ontwerp; herinnert eraan dat in overeenstemming met algemeen aanvaarde aansprakelijkheidsconcepten, men niettemin in staat is dit obstakel te omzeilen door de verschillende personen in de algehele waardeketen aansprakelijk te houden die het risico in verband met het KI-systeem creëren, in stand houden of beheersen;

8. is van mening dat de richtlijn productaansprakelijkheid al meer dan 30 jaar een doeltreffend middel is gebleken om vergoeding te krijgen voor schade als gevolg van een gebrekkig product, maar niettemin moet worden herzien om deze aan te passen aan de digitale wereld en om de uitdagingen van opkomende digitale technologieën aan te pakken, waardoor voor consumenten en bedrijven een hoog niveau van effectieve consumentenbescherming, alsook rechtszekerheid wordt gewaarborgd, terwijl hoge kosten en risico’s voor kmo’s en start-ups worden vermeden; spoort de Commissie met klem aan te beoordelen of de richtlijn productaansprakelijkheid moet worden omgezet in een verordening, de definitie van “producten” te verduidelijken door aan te geven of digitale inhoud en digitale diensten daaronder vallen en te overwegen concepten als “schade”, “gebrek” en “producent” aan te passen; is van mening dat, met het oog op de rechtszekerheid in de hele Unie, na de herziening van de richtlijn productaansprakelijkheid, het begrip “producent” ook fabrikanten, ontwikkelaars, programmeurs, dienstverleners, alsmede backend operators, moet omvatten; verzoekt de Commissie te overwegen, in duidelijk omschreven gevallen en na een grondige beoordeling, de regels ten aanzien van de bewijslast voor door opkomende digitale technologieën veroorzaakte schade aan te passen; benadrukt dat het belangrijk is ervoor te zorgen dat de geactualiseerde Uniehandeling beperkt blijft tot duidelijk afgebakende problemen waar haalbare oplossingen voor bestaan, en tegelijkertijd van toepassing kan zijn op toekomstige technologische ontwikkelingen, waaronder ontwikkelingen op basis van gratis en opensourcesoftware; merkt op dat de richtlijn productaansprakelijkheid blijvend moet worden gebruikt in verband met civielrechtelijke aansprakelijkheidsvorderingen tegen de producent van een gebrekkig KI-systeem, indien het KI-systeem in het kader van die richtlijn als een product kan worden aangemerkt; benadrukt dat elke actualisering van het kader voor productaansprakelijkheid hand in hand moet gaan met een actualisering van Richtlijn 2001/95/EG van het Europees Parlement en de Raad van 3 december 2001 inzake algemene productveiligheid[12] om te waarborgen dat de beginselen van veiligheid en beveiliging door ontwerp in KI-systemen worden geïntegreerd;

9. is van mening dat de bestaande, op schuldaansprakelijkheid gebaseerde wetgeving van de lidstaten inzake onrechtmatige daad in de meeste gevallen voldoende bescherming biedt aan personen die personenschade lijden door een binnendringende derde zoals een hacker, of aan personen die zaakschade lijden door een dergelijke derde, aangezien het binnendringen in de regel een verwijtbare handeling vormt; merkt op dat alleen voor specifieke gevallen, met inbegrip van gevallen waarin de derde onvindbaar of onbemiddeld is, toevoeging van aansprakelijkheidsregels ter aanvulling van het bestaande nationale recht inzake onrechtmatige daad noodzakelijk lijkt;

10. is van mening dat het daarom passend is dat in dit verslag de nadruk wordt gelegd op civielrechtelijke aansprakelijkheidsvorderingen tegen de operator van een KI-systeem; bevestigt dat de aansprakelijkheid van de operator wordt gerechtvaardigd door het feit dat hij de controle heeft over een risico dat aan het KI-systeem verbonden is, vergelijkbaar met een eigenaar van een auto; is van mening dat vanwege de complexiteit en connectiviteit van het KI-systeem de operator in veel gevallen het eerste zichtbare aanspreekpunt voor de betrokken persoon zal zijn;

Aansprakelijkheid van de operator

11. stelt zich op het standpunt dat aansprakelijkheidsregels ten aanzien van de operator van toepassing moeten zijn op alle werkingen van KI-systemen, ongeacht de locatie van de werking en of deze van fysieke dan wel virtuele aard is; merkt op dat aan de werking in openbare ruimten waarbij veel personen aan een risico worden blootgesteld, meer aandacht moet worden besteed; is van mening dat de potentiële schadeslachtoffers veelal niet op de hoogte zijn van de werking en in de regel geen contractuele-aansprakelijkheidsvorderingen zullen hebben jegens de operator; merkt op dat wanneer in een dergelijk geval schade optreedt, deze personen slechts een schuldaansprakelijkheidsvordering zouden hebben, en dat zij problemen zouden kunnen hebben om de schuld van de operator van het KI-systeem aan te tonen, waardoor aansprakelijkheidsvorderingen in die gevallen tot niets leiden;

12. acht het passend dat het begrip “operator” zowel de frontend als de backend operator omvat, zolang deze laatste niet onder de richtlijn productaansprakelijkheid valt; merkt op dat “frontend operator” moet worden omschreven als de natuurlijke persoon of rechtspersoon die een mate van controle over een risico in verband met de werking van het KI-systeem uitoefent en die baat heeft bij de werking van het KI-systeem; stelt dat “backend operator” moet worden omschreven als de natuurlijke of rechtspersoon die doorlopend de kenmerken van de technologie definieert en gegevens en een essentiële backendondersteuning biedt, en daardoor ook een zekere mate van controle uitoefent over het risico dat aan de werking van het KI-systeem verbonden is; is van mening dat de uitoefening van controle elke handeling van de operator betreft die van invloed is op de werking van het KI-systeem en bijgevolg op de mate waarin het systeem derden blootstelt aan de potentiële risico’s van dat systeem; is van mening dat dergelijke handelingen de werking van een KI-systeem van begin tot eind kunnen beïnvloeden door de input, de output of de resultaten te bepalen, of specifieke functies of processen binnen het KI-systeem kunnen wijzigen;

13. merkt op dat er situaties kunnen zijn waarin sprake is van meer dan een operator, bijvoorbeeld een backend operator en een frontend operator; is van mening dat in dat geval alle operators hoofdelijk aansprakelijk moeten zijn en naar evenredigheid op elkaar moeten kunnen verhalen; is van mening dat de verdeelsleutel voor de aansprakelijkheid gebaseerd moet zijn op de respectieve mate van controle die de operators hadden over het risico dat aan de werking van het KI-systeem verbonden is; is van mening dat de traceerbaarheid van het product moet worden verbeterd teneinde beter te kunnen vaststellen wie bij de verschillende fases betrokken zijn;

Verschillende aansprakelijkheidsregels voor verschillende risico’s

14. constateert dat het soort KI-systeem waarover de operator controle uitoefent een bepalende factor is met betrekking tot aansprakelijkheid; merkt op dat een KI-systeem dat een inherent hoog risico met zich meebrengt en autonoom opereert het algemene publiek potentieel in veel grotere mate in gevaar brengt; is van mening dat, gezien de juridische problemen die de KI-systemen voor de bestaande civielrechtelijke aansprakelijkheidsregelingen vormen, het redelijk lijkt voor deze autonome KI-systemen met een hoog risico in een gemeenschappelijke risicoaansprakelijkheidsregeling te voorzien; onderstreept dat een dergelijke op risico’s gebaseerde aanpak, die diverse risiconiveaus kan omvatten, op heldere criteria en een passende definitie van hoog risico moet stoelen en voor rechtszekerheid moet zorgen;

15. is van mening dat een KI-systeem een hoog risico met zich meebrengt wanneer de autonome werking ervan leidt tot een aanzienlijk kans op schade voor een of meer personen, op een willekeurige wijze die verder gaat dan wat redelijkerwijs mag worden verwacht; is van mening dat bij het bepalen of een KI-systeem een hoog risico vormt tevens rekening moet worden gehouden met de sector waarin zich naar verwachting aanzienlijke risico’s zullen voordoen en met de aard van de ondernomen activiteiten; is van mening dat de kans op schade afhangt van de wisselwerking tussen de ernst van de mogelijke schade, de waarschijnlijkheid dat het risico schade veroorzaakt en de wijze waarop het KI-systeem wordt gebruikt;

16. pleit ervoor dat alle KI-systemen met een hoog risico in een uitputtende lijst worden opgenomen in een bijlage bij de voorgestelde verordening; wijst erop dat, gezien de snelle technologische ontwikkelingen en de vereiste technische deskundigheid, de Commissie die bijlage onverwijld, maar ten minste iedere zes maanden moet herzien, en in voorkomend geval moet wijzigen door middel van een gedelegeerde handeling; is van mening dat de Commissie nauw moet samenwerken met een nieuwe permanent comité dat vergelijkbaar is met het bestaande Permanent Comité precursoren of het Technisch Comité motorvoertuigen, waarin nationale deskundigen van de lidstaten en belanghebbenden zitting hebben; is van mening dat de evenwichtige samenstelling van de deskundigengroep op hoog niveau inzake kunstmatige intelligentie als voorbeeld kan dienen voor de samenstelling van de groep belanghebbenden en dat ook deskundigen op het gebied van ethiek, antropologen, sociologen en specialisten op het gebied van geestelijke gezondheid hiertoe moeten behoren; is tevens van mening dat het Europees Parlement raadgevende deskundigen moet aanwijzen om het nieuw opgerichte permanente comité te adviseren;

17. merkt op dat de ontwikkeling van technologieën op basis van KI enorm dynamisch is en voortdurend versnelt; benadrukt dat er om gebruikers passende bescherming te bieden een versnelde procedure nodig is om de potentiële risico’s van nieuwe apparaten en systemen te analyseren die gebruikmaken van opkomende KI-systemen op de Europese markt; beveelt aan om alle procedures in dit verband zoveel mogelijk te vereenvoudigen; stelt voorts voor dat de beoordeling door de Commissie van de vraag of een KI-systeem een hoog risico vormt, tegelijk met de beoordeling van de productveiligheid moeten worden aangevat, om te voorkomen dat een KI-systeem met een hoog risico reeds voor de markt wordt goedgekeurd maar nog niet als “met een hoog risico” is ingedeeld, en zo zonder de verplichte verzekeringsdekking werkt;

18. merkt op dat de Commissie moet beoordelen hoe de verzamelde, geregistreerde of opgeslagen gegevens op KI-systemen met een hoog risico, met het oog op het verzamelen van bewijsmateriaal in geval van door dat KI-systeem veroorzaakte schade, geraadpleegd en gebruikt kunnen worden door de onderzoekende autoriteit, en hoe de traceerbaarheid en controleerbaarheid van dergelijke gegevens kunnen worden verbeterd, waarbij rekening gehouden wordt met de grondrechten en de privacyrechten;

19. stelt dat, in overeenstemming met de risico-aansprakelijkheidsregelingen van de lidstaten, de voorgestelde verordening uitsluitend betrekking mag hebben op de inbreuken op de belangrijke wettelijk beschermde rechten, zoals het recht op leven, op gezondheid, op lichamelijke integriteit en op eigendom, en dat de bedragen, de omvang van de vergoeding en de verjaringstermijn in de verordening moeten worden vastgesteld; is van mening dat de voorgestelde verordening ook bepalingen moet bevatten met betrekking tot significante immateriële schade die tot een verifieerbaar economisch verlies leidt, boven een in het aansprakelijkheidsrecht van de Unie geharmoniseerde drempel die een evenwicht tot stand brengt tussen de toegang van betrokken personen tot de rechter en de belangen van andere betrokkenen; dringt er bij de Commissie op aan de schadedrempels in het Unierecht opnieuw te evalueren en op elkaar af te stemmen; is van mening dat de Commissie een grondige analyse moet maken van de rechtstradities in alle lidstaten en hun bestaande nationale wetgeving betreffende immateriële schadevergoeding, om te beoordelen of het opnemen van bepalingen omtrent immateriële schade in specifieke KI-wetgevingshandelingen noodzakelijk is, met het bestaande rechtskader van de Unie strijdig is, of het nationale recht van de lidstaten ondermijnt;

20. stelt vast dat schuldaansprakelijkheid van toepassing blijft op alle schadetoebrengende activiteiten, apparaten of processen die worden aangestuurd door KI-systemen die niet in de bijlage bij de voorgestelde verordening zijn opgenomen; is van mening dat de betrokken persoon niettemin het voordeel moet hebben van een vermoeden van schuld van de operator, die zichzelf kan vrijpleiten door te bewijzen dat hij heeft voldaan aan zijn zorgplicht;

21. is van mening dat een KI-systeem dat nog niet door de Commissie en het nieuw opgerichte permanente comité is beoordeeld en dus nog niet als “met een hoog risico” is ingedeeld en niet is opgenomen in de lijst in de bijlage bij de voorgestelde verordening, niettemin, bij wijze van uitzondering op het in paragraaf 20 bedoelde systeem, aan risicoaansprakelijkheid moet worden onderworpen indien het herhaaldelijk incidenten heeft veroorzaakt die tot ernstige schade hebben geleid; merkt op dat indien dit het geval is, de Commissie ook onverwijld moet beoordelen of herziening van de bijlage nodig is om het desbetreffende KI-systeem aan de lijst toe te voegen; is van mening dat indien de Commissie na deze beoordeling besluit dat KI-systeem in de lijst op te nemen, die opneming terugwerkende kracht moet hebben tot de datum waarop dat KI-systeem voor de eerste keer aantoonbaar een incident heeft veroorzaakt dat tot ernstige schade heeft geleid;

22. verzoekt de Commissie na te gaan of er behoefte is aan wettelijke bepalingen op het niveau van de Unie met betrekking tot contracten om contractuele clausules tot uitsluiting van aansprakelijkheid te voorkomen, onder meer in betrekkingen tussen bedrijven en tussen bedrijven en de overheid;

Verzekeringen en KI-systemen

23. is van mening dat aansprakelijkheidsdekking een van de sleutelfactoren is die het succes van nieuwe technologieën, producten en diensten bepalen; merkt op dat een adequate aansprakelijkheidsdekking ook van essentieel belang is om het publiek ervan te verzekeren dat op de nieuwe technologie kan worden vertrouwd, ondanks de mogelijkheid van schade of rechtsvorderingen van betrokken personen; merkt tegelijkertijd op dat dit regelgevingskader gericht is op de noodzaak om de voordelen van KI-systemen te benutten en te vergroten, waarbij krachtige waarborgen worden ingebouwd;

24. is van mening dat, gezien het aanzienlijke potentieel om schade te berokkenen, en met inachtneming van Richtlijn 2009/103/EG van het Europees Parlement en de Raad van 16 september 2009 betreffende de verzekering tegen de wettelijke aansprakelijkheid waartoe de deelneming aan het verkeer van motorrijtuigen aanleiding kan geven en de controle op de verzekering tegen deze aansprakelijkheid[13], alle operators van in de bijlage bij de voorgestelde verordening opgenomen KI-systemen met een hoog risico een aansprakelijkheidsverzekering moeten afsluiten; is van mening dat een dergelijke verplichte verzekeringsregeling voor KI-systemen met een hoog risico dekking moet bieden voor de bedragen en de omvang van de vergoeding zoals vastgelegd in de voorgestelde verordening; is zich bewust van het feit dat dergelijke technologie nog erg zeldzaam is, omdat die een hoge mate van autonome besluitvorming met zich meebrengt, en dat de huidige discussies derhalve vooral op de toekomst zijn gericht; is niettemin van mening dat onzekerheid over risico’s niet mag leiden tot onbetaalbare verzekeringspremies die onderzoek en innovatie belemmeren;

25. is van mening dat een vergoedingsmechanisme op Unieniveau, gefinancierd met overheidsgeld, niet de juiste manier is om mogelijke lacunes in de dekking van verzekeringen aan te vullen; is van mening dat het gebrek aan gegevens over de risico’s van KI-systemen in combinatie met onzekerheid over toekomstige ontwikkelingen, het voor de verzekeringsbranche moeilijk maakt om te komen met aangepaste of nieuwe verzekeringsproducten; meent dat, wanneer de ontwikkeling van een verplichte verzekering geheel aan de markt wordt overgelaten, dit waarschijnlijk tot een ongedifferentieerde aanpak met buitensporig hoge premies en perverse prikkels leidt, waarbij operators worden gestimuleerd om de goedkoopste verzekering te kiezen in plaats van de beste dekking, en een belemmering kan vormen voor onderzoek en innovatie; meent dat de Commissie nauw moet samenwerken met de verzekeringsbranche om te bezien hoe gegevens en innovatieve modellen kunnen worden gebruikt om verzekeringspolissen te creëren die een passende dekking bieden tegen een betaalbare premie;

Overige aspecten

26. verzoekt de Commissie op grond van artikel 225 van het Verdrag betreffende de werking van de Europese Unie een voorstel in te dienen voor een verordening betreffende de aansprakelijkheid voor de exploitatie van kunstmatige intelligentiesystemen, aan de hand van de aanbevelingen in de bijbehorende bijlage;

27. is van oordeel dat het verlangde voorstel geen financiële gevolgen zal hebben;

28. verzoekt zijn Voorzitter deze resolutie en de bijgevoegde aanbevelingen te doen toekomen aan de Commissie en de Raad.

 

 


BIJLAGE BIJ DE ONTWERPRESOLUTIE:
GEDETAILLEERDE AANBEVELINGEN VOOR DE OPSTELLING VAN EEN VERORDENING VAN HET EUROPEES PARLEMENT EN DE RAAD BETREFFENDE DE AANSPRAKELIJKHEID VOOR DE EXPLOITATIE VAN KUNSTMATIGE INTELLIGENTIESYSTEMEN

A. BEGINSELEN EN DOELSTELLINGEN VAN HET VOORSTEL

 In dit verslag wordt ingegaan op een belangrijk aspect van de digitalisering, waaraan op zijn beurt vorm wordt gegeven door grensoverschrijdende activiteiten, wereldwijde concurrentie en belangrijke maatschappelijke overwegingen. De volgende beginselen moeten als leidraad dienen:

Een daadwerkelijke digitale eengemaakte markt vereist volledige harmonisatie door middel van een verordening.  Nieuwe juridische problemen in verband met de ontwikkeling van kunstmatige-intelligentiesystemen (KI-systemen) moeten worden aangepakt door maximale rechtszekerheid te bieden in de gehele aansprakelijkheidsketen, onder meer voor de producent, de operator, de betrokken persoon en eventuele andere derden. Er mag geen overregulering zijn en bureaucratie moet worden voorkomen, aangezien dit de Europese innovatie op het gebied van KI zou belemmeren, met name als de technologie, het product of de dienst wordt ontwikkeld door kmo’s of start-ups. Bij regels inzake civielrechtelijke aansprakelijkheid voor KI moet gezocht worden naar een evenwicht tussen de bescherming van het publiek enerzijds en stimulansen voor bedrijven om te investeren in innovatie, met name in KI-systemen, anderzijds.  In plaats van goed werkende bestaande aansprakelijkheidsregelingen te vervangen, moeten enkele noodzakelijke aanpassingen worden doorgevoerd door nieuwe en toekomstgerichte ideeën te introduceren. Het toekomstige voorstel voor een verordening en de richtlijn productaansprakelijkheid vormen twee pijlers van een gemeenschappelijk aansprakelijkheidskader voor KI-systemen die nauwe coördinatie vereisen tussen alle politieke actoren op Unie- en nationaal niveau.

 Burgers moeten aanspraak kunnen doen op hetzelfde niveau van bescherming en rechten, ongeacht of de schade door een KI-systeem, fysiek of virtueel wordt veroorzaakt, zodat hun vertrouwen in deze nieuwe technologie wordt versterkt.

 In het toekomstige voorstel voor een verordening moeten zowel materiële als immateriële schade in aanmerking worden genomen. Naar aanleiding van, onder meer, haar verslag van 19 februari 2020 over de gevolgen van kunstmatige intelligentie, het internet der dingen en robotica op het gebied van veiligheid en aansprakelijkheid, wordt de Europese Commissie verzocht een grondige analyse te maken van de rechtstradities in alle lidstaten en van de bestaande wettelijke bepalingen die vergoeding toekennen voor immateriële schade, teneinde te beoordelen of de opneming van immateriële schade in het toekomstige voorstel voor een verordening vanuit het oogpunt van de betrokken persoon juridisch verantwoord en noodzakelijk is. Op basis van de thans beschikbare informatie is het Parlement van mening dat in het voorstel aanzienlijke immateriële schade moet worden opgenomen indien de getroffen persoon een merkbaar economisch verlies heeft geleden, dat wil zeggen een controleerbaar, economisch verlies.

 


B. TEKST VAN HET VERLANGDE VOORSTEL

 

Voorstel voor een

VERORDENING VAN HET EUROPEES PARLEMENT EN DE RAAD

betreffende de aansprakelijkheid voor de exploitatie van kunstmatige intelligentiesystemen

 

Gezien het Verdrag betreffende de werking van de Europese Unie, en met name artikel 114,

Gezien het voorstel van de Europese Commissie,

Na toezending van het ontwerp van wetgevingshandeling aan de nationale parlementen,

Gezien het advies van het Europees Economisch en Sociaal Comité[14],

Handelend volgens de gewone wetgevingsprocedure[15],

Overwegende hetgeen volgt:

 

(1) Het begrip aansprakelijkheid speelt een belangrijke dubbele rol in ons dagelijks leven: enerzijds zorgt het ervoor dat een persoon die schade heeft geleden, aanspraak kan maken op schadevergoeding door de partij die voor die schade aansprakelijk is gehouden, en anderzijds voorziet het in de economische stimulansen voor personen om eerst en vooral schade te voorkomen. Elk aansprakelijkheidskader moet erop gericht zijn vertrouwen op te wekken in de veiligheid, betrouwbaarheid en consistentie van producten en diensten, met inbegrip van opkomende digitale technologieën, zoals kunstmatige intelligentie (KI), het internet der dingen of robotica, teneinde een evenwicht te vinden tussen het efficiënt beschermen van potentiële slachtoffers van schade en het voldoende ruimte bieden aan de ontwikkeling van nieuwe technologieën, producten of diensten.

 

(2) Met name aan het begin van de levenscyclus van nieuwe producten en diensten, nadat ze vooraf zijn getest, bestaat een zeker risico voor de gebruiker en voor derden dat iets niet goed werkt. Dit proces van trial-and-error is tegelijkertijd onontbeerlijk voor de technische vooruitgang, zonder welke de meeste van onze technologieën niet zouden bestaan. Tot dusverre zijn als gevolg van de stringente productveiligheidswetgeving en aansprakelijkheidsregels de aan nieuwe producten en diensten verbonden risico’s naar behoren beperkt gebleven.

(3) De opkomst van KI vormt daarentegen een aanzienlijke uitdaging voor de bestaande aansprakelijkheidskaders. Het gebruik van KI-systemen in het dagelijks leven zal leiden tot situaties waarin, als gevolg van het gebrek aan transparantie van de systemen (het zwarte-doos-effect) en het grote aantal actoren dat tijdens de levenscyclus van de systemen intervenieert, het uiterst kostbaar of zelfs onmogelijk is om vast te stellen wie de controle had over het risico van het gebruik van het desbetreffende KI-systeem, of welke code of input de schadelijke werking heeft veroorzaakt. Dit probleem wordt vergroot door de connectiviteit tussen een KI-systeem en andere KI-systemen en niet-KI-systemen, hun afhankelijkheid van externe gegevens, hun kwetsbaarheid voor inbreuken op de cyberbeveiliging en de toenemende autonomie van KI-systemen als gevolg van machinaal leren en deep learning-capaciteiten. Naast deze complexe kenmerken en potentiële kwetsbaarheden kunnen KI-systemen ook worden gebruikt om ernstige schade te veroorzaken, zoals de ondermijning van de menselijke waardigheid en Europese waarden en vrijheden, door personen tegen hun wil te traceren, door sociale kredietsystemen in te voeren, door vooringenomen beslissingen te nemen op het gebied van ziektekostenverzekering, kredietverstrekking, rechterlijke beslissingen, aanwerving of indienstneming, of door dodelijke autonome wapensystemen te bouwen.

(4) Het is belangrijk erop te wijzen dat de voordelen van de invoering van KI-systemen ruimschoots zullen opwegen tegen de nadelen. Zij zullen helpen de klimaatverandering doeltreffender te bestrijden, medische onderzoeken en ook werkomstandigheden te verbeteren, gehandicapten en ouderen beter in de samenleving te integreren en cursussen op maat aan alle soorten studenten aan te bieden. De beste manier om de verschillende technologische mogelijkheden te benutten en het vertrouwen van de mensen in het gebruik van KI-systemen te versterken en tegelijkertijd schadelijke scenario’s te voorkomen, is het vaststellen van passende ethische normen in combinatie met deugdelijke en billijke vergoedingsprocedures.

(5) Ook is er een passende aansprakelijkheidsregeling nodig tegen inbreuken op de veiligheidsregels. Bij de in deze verordening vastgestelde aansprakelijkheidsregeling moet echter rekening worden gehouden met alle belangen die op het spel staan. Een zorgvuldig onderzoek naar de gevolgen van een eventueel nieuw regelgevingskader voor kleine en middelgrote ondernemingen (kmo’s) en start-ups is een eerste vereiste voor verdere wetgevende maatregelen. De cruciale rol die dergelijke ondernemingen in de Europese economie spelen, rechtvaardigt een strikt evenredige aanpak om hen in staat te stellen zich te ontwikkelen en te innoveren. Anderzijds moeten de slachtoffers van door KI-systemen veroorzaakte schade recht hebben op verhaal en op volledige vergoeding van de door hen geleden schade.

(6) Alle vereiste wijzigingen in het bestaande juridische kader moeten beginnen met de verduidelijking dat KI-systemen geen rechtspersoonlijkheid of menselijk geweten hebben en dat hun enige taak erin bestaat de mensheid te dienen. Veel KI-systemen verschillen ook niet zoveel van andere technologieën, die soms op nog complexere software gebaseerd zijn. Uiteindelijk wordt het overgrote deel van de KI-systemen gebruikt voor het uitvoeren van triviale taken zonder of met minimale risico’s voor de samenleving. Door de term “geautomatiseerde besluitvorming” te gebruiken kan de mogelijke dubbelzinnigheid van de term KI worden vermeden. Die term beschrijft een situatie waarin een gebruiker aanvankelijk een beslissing geheel of gedeeltelijk delegeert aan een entiteit, door middel van software of een dienst. Die entiteit maakt op zijn beurt gebruik van automatische besluitvormingsmodellen om een handeling uit te voeren namens een gebruiker, of om de beslissing van de gebruiker te informeren door een handeling uit te voeren.

(7) Er zijn echter ook KI-systemen die ontwikkeld of gebruikt worden voor kritieke taken en die gebaseerd zijn op technologieën zoals neurale netwerken en deep-learningprocessen. Vanwege het gebrek aan transparantie en het autonoom gedrag van deze systemen kan het zeer moeilijk zijn om specifieke gedragingen van de KI-systemen te herleiden tot specifieke menselijke beslissingen in het kader van het ontwerp of de werking. Een operator van een dergelijk KI-systeem zou bijvoorbeeld kunnen aanvoeren dat hij geen controle had over de schade veroorzakende fysieke of virtuele activiteit, het apparaat of het proces, omdat dit een gevolg was van autonoom gedrag van zijn KI-systeem. Voorts mag het niet zo zijn dat de loutere werking van een autonoom KI-systeem voldoende grond is om een aansprakelijkheidsvordering toe te wijzen. Bijgevolg kunnen er aansprakelijkheidsgevallen zijn waarin de toewijzing van de aansprakelijkheid onbillijk of ondoelmatig is of waarin een persoon die door een KI-systeem schade lijdt, de schuld van de producent, een binnendringende derde of de operator niet kan aantonen en uiteindelijk geen vergoeding krijgt.

(8) Niettemin moet het altijd duidelijk zijn dat wie het KI-systeem creëert, onderhoudt, controleert of daarin binnendringt, verantwoordelijk is voor de door de activiteit, het apparaat of het proces veroorzaakte schade. Dit vloeit voort uit algemeen aanvaarde juridische leerstukken inzake aansprakelijkheid volgens welke degene die een risico voor het publiek creëert of in stand houdt, aansprakelijk is indien het risico schade veroorzaakt en dit risico derhalve vooraf moet minimaliseren of achteraf moet vergoeden. De opkomst van KI-systemen maakt een volledige herziening van de aansprakelijkheidsregels in de hele Unie dan ook niet nodig. Specifieke aanpassingen van de bestaande wetgeving en de invoering van goed onderbouwde en doelgerichte nieuwe bepalingen zouden voldoende zijn om de uitdagingen in verband met KI op te vangen, teneinde versnippering van de regelgeving te voorkomen en de harmonisatie van de wetgeving inzake wettelijke aansprakelijkheid in de hele Unie in verband met KI te waarborgen.

(9) De Richtlijn 85/374/EEG[16] (richtlijn productaansprakelijkheid) is al meer dan 30 jaar een doeltreffend instrument gebleken om schadevergoeding te verkrijgen voor schade die wordt veroorzaakt door een gebrekkig product. Daarom moet de richtlijn ook worden gebruikt in verband met civielrechtelijke aansprakelijkheidsvorderingen van een schadelijdende partij jegens de producent van een gebrekkig KI-systeem. Overeenkomstig de beginselen van betere regelgeving van de Unie moeten alle noodzakelijke aanpassingen van de wetgeving worden besproken tijdens de noodzakelijke herziening van die richtlijn. Het bestaande recht inzake schuldaansprakelijkheid van de lidstaten biedt in de meeste gevallen voldoende bescherming aan personen die schade lijden door een binnendringende derde, aangezien binnendringen in de regel een verwijtbare handeling vormt wanneer de derde het KI-systeem gebruikt om schade te berokkenen. Derhalve moet deze verordening de nadruk leggen op vorderingen jegens de operator van een KI-systeem.

(10) De aansprakelijkheid van de operator in het kader van deze verordening is gebaseerd op het feit dat hij een zekere mate van controle uitoefent over een risico in verband met de werking van een KI-systeem, dat vergelijkbaar is met de controle die een eigenaar van een auto uitoefent. Hoe geavanceerder en autonomer een systeem is, hoe groter de impact van het definiëren en beïnvloeden van de algoritmen, bijvoorbeeld door continue updates, wordt. Aangezien er vaak meer dan één persoon is van wie op zinvolle wijze kan worden gesteld dat hij het KI-systeem “bedient”, moet in het kader van deze verordening onder “operator” zowel de frontend operator als de backend operator worden verstaan. Hoewel de frontend operator doorgaans de persoon is die “in de eerste plaats” bepaalt hoe het KI-systeem wordt gebruikt, zou de backend operator in feite een hogere mate van controle over de operationele risico’s kunnen hebben. Indien de backend operator ook als “producent” in de zin van artikel 3 van de richtlijn productaansprakelijkheid kan worden beschouwd, moet die richtlijn op hem van toepassing zijn. Indien er slechts één operator is en die operator tevens de producent van het KI-systeem is, moet deze verordening voorrang hebben op de richtlijn productaansprakelijkheid.

(11) Indien een gebruiker, d.w.z. de persoon die het KI-systeem gebruikt, betrokken is bij de schadeveroorzakende gebeurtenis, dient hij op grond van deze verordening alleen aansprakelijk te zijn indien de gebruiker ook als operator kan worden aangemerkt. Zo niet zou de omvang van de ernstig nalatige of welbewuste bijdrage van de gebruiker aan het risico kunnen leiden tot schuldaansprakelijkheid van de gebruiker jegens de eiser. Er mag geen afbreuk worden gedaan aan de toepasselijke consumentenrechten van de gebruiker.

(12) Deze verordening moet de betrokken persoon in staat stellen aansprakelijkheidsvorderingen in te stellen in de gehele aansprakelijkheidsketen en gedurende de gehele levenscyclus van een KI-systeem. In beginsel moet zij ook alle KI-systemen omvatten, ongeacht waar deze in werking zijn en ongeacht of er sprake is van fysieke dan wel virtuele activiteiten. De meeste aansprakelijkheidsvorderingen uit hoofde van deze verordening zullen echter betrekking hebben op gevallen van derdenaansprakelijkheid, wanneer een KI-systeem in een openbare ruimte werkt en veel personen aan een risico blootstelt. In dat geval zijn de betrokken personen vaak niet op de hoogte van het KI-systeem en hebben zij geen contractuele of juridische band met de operator. De werking van het KI-systeem brengt hen dan in een situatie waarin zij, in geval van schade, slechts een schuldaansprakelijkheidsvordering jegens de operator van het KI-systeem hebben, en grote problemen zullen hebben om de schuld van de operator aan te tonen.

(13) Het soort KI-systeem waarover de operator controle uitoefent, is een bepalende factor. Een KI-systeem dat een hoog risico inhoudt, brengt voor de gebruiker of het publiek potentieel veel grotere gevaren met zich mee, en op een willekeurige wijze die verder gaat dan wat redelijkerwijs kan worden verwacht. Dit betekent dat bij het begin van de autonome werking van een KI-systeem, de meeste potentieel betrokken personen onbekend en niet te identificeren zijn (bijvoorbeeld personen op een openbaar plein of in een aangrenzend huis), anders dan bij de werking van een KI-systeem waarbij specifieke personen betrokken zijn, die regelmatig toestemming hebben gegeven voor de inzet ervan (bijvoorbeeld een operatie in een ziekenhuis of verkoopdemonstratie in een kleine winkel). De bepaling van het schadepotentieel van een KI-systeem met een hoog risico hangt af van de wisselwerking tussen het gebruiksdoel waarvoor het KI-systeem op de markt wordt gebracht, de wijze waarop het KI-systeem wordt gebruikt, de ernst van de potentiële schade, de mate van autonome besluitvorming die tot schade kan leiden, en de waarschijnlijkheid dat het risico zich verwezenlijkt. De ernst van de schade moet worden bepaald op basis van relevante factoren zoals de omvang van de potentiële schade die betrokken personen als gevolg van de werking ondervinden, waaronder met name de effecten op de grondrechten, het aantal betrokken personen, de totale waarde van de potentiële schade, en de schade voor de samenleving als geheel. De waarschijnlijkheid dat de schade zich voordoet, moet worden bepaald op basis van relevante factoren zoals de rol van de algoritmische berekeningen in het besluitvormingsproces, de complexiteit van het besluit en de omkeerbaarheid van de effecten. Uiteindelijk moet de wijze van gebruik afhangen van relevante factoren zoals de context en de sector waarin het KI-systeem werkt, of de werking juridische of feitelijke gevolgen kan hebben voor belangrijke wettelijk beschermde rechten van de betrokken persoon, en of de effecten redelijkerwijs kunnen worden voorkomen.

(14) Alle KI-systemen met een hoog risico moeten worden opgenomen in een uitputtende lijst in een bijlage bij deze verordening. Gezien de snelle technische ontwikkelingen en marktontwikkelingen wereldwijd en de voor een adequate beoordeling van KI-systemen vereiste technische expertise, moet aan de Commissie de bevoegdheid worden overgedragen om overeenkomstig artikel 290 van het Verdrag betreffende de werking van de Europese Unie gedelegeerde handelingen vast te stellen tot wijziging van deze verordening met betrekking tot de soorten KI-systemen die een hoog risico vormen en de kritieke sectoren waarin zij worden gebruikt. Op basis van de in deze verordening vastgelegde definities en bepalingen dient de Commissie de bijlage zonder onnodige vertraging, maar ten minste om de zes maanden, te herzien en, indien nodig, te wijzigen door middel van gedelegeerde handelingen. De beoordeling door de Commissie van de vraag of een KI-systeem een hoog risico vormt, moet tegelijk met de beoordeling van de productveiligheid worden aangevat, om te voorkomen dat een KI-systeem met een hoog risico reeds voor de markt wordt goedgekeurd maar nog niet als “met een hoog risico” is ingedeeld, en zo zonder de verplichte verzekeringsdekking werkt. Om bedrijven en onderzoeksorganisaties voldoende zekerheid op het gebied van planning en investeringen te bieden, dienen wijzigingen van de kritieke sectoren slechts om de twaalf maanden te worden aangebracht. De operators moet worden gevraagd de Commissie in kennis te stellen als zij aan nieuwe technologieën, diensten of producten werken die onder een van de bestaande, in de bijlage vermelde kritieke sectoren vallen en die naderhand als KI-systemen met een hoog risico zouden kunnen worden aangemerkt.

(15) Het is van bijzonder belang dat de Commissie bij haar voorbereidende werkzaamheden tot passende raadplegingen van alle relevante belanghebbenden overgaat, onder meer op deskundigenniveau, en dat die raadplegingen gebeuren in overeenstemming met de beginselen die zijn vastgelegd in het Interinstitutioneel Akkoord van 13 april 2016 over beter wetgeven[17]. Een permanent comité genaamd “Technisch Comité voor KI-systemen met een hoog risico” (TCRAI) moet de Commissie ondersteunen bij haar regelmatige beoordeling uit hoofde van deze verordening. Dit permanent comité moet bestaan uit vertegenwoordigers van de lidstaten en een evenwichtige selectie van belanghebbenden, met inbegrip van consumentenorganisaties, verenigingen die betrokken personen vertegenwoordigen, vertegenwoordigers van bedrijven uit verschillende sectoren en van verschillende omvang, alsook onderzoekers en wetenschappers. Met name om te zorgen voor gelijke deelname aan de voorbereiding van gedelegeerde handelingen ontvangen het Europees Parlement en de Raad alle documenten op hetzelfde tijdstip als de deskundigen van de lidstaten, en hebben hun deskundigen stelselmatig toegang tot de vergaderingen van de deskundigengroepen van de Commissie en het TCRAI-comité wanneer die zich bezighouden met de voorbereiding van gedelegeerde handelingen.

(16) Deze verordening moet betrekking hebben op schade aan het leven, de gezondheid, de lichamelijke integriteit en eigendommen en op significante immateriële schade die tot een verifieerbaar economisch verlies leidt, boven een in het aansprakelijkheidsrecht van de Unie geharmoniseerde drempel die een evenwicht tot stand brengt tussen de toegang van betrokken personen tot de rechter en de belangen van andere betrokkenen. De Commissie moet de schadedrempels in het Unierecht opnieuw evalueren en op elkaar afstemmen. Onder significante immateriële schade moet schade worden verstaan als gevolg waarvan de betrokken persoon een aanzienlijk nadeel ondervindt, op objectieve en aantoonbare wijze in zijn persoonlijke belangen wordt getroffen en een economisch verlies lijdt dat wordt berekend met inachtneming van bijvoorbeeld gemiddelde jaarcijfers over inkomsten uit het verleden en andere relevante omstandigheden. Het bedrag en de omvang van de vergoeding alsmede de verjaringstermijn voor de instelling van schadevorderingen moeten ook bij deze verordening worden bepaald. Deze verordening moet een aanzienlijk lager plafond voor vergoeding vaststellen dan de richtlijn productaansprakelijkheid, aangezien deze verordening alleen betrekking heeft op de door één persoon geleden schade als gevolg van één enkele werking van een KI-systeem, terwijl de richtlijn productaansprakelijkheid betrekking heeft op een aantal producten of zelfs op een productlijn van producten die hetzelfde gebrek vertonen.

(17) Op alle fysieke en virtuele activiteiten, apparaten of processen die worden aangestuurd door KI-systemen die niet in de lijst van KI-systemen met een hoog risico in de bijlage bij deze verordening zijn opgenomen, blijft schuldaansprakelijkheid van toepassing, tenzij er strengere nationale wetten en consumentenwetgeving gelden. De nationale wetgeving van de lidstaten, met inbegrip van relevante jurisprudentie, betreffende het bedrag en de omvang van de vergoeding en betreffende de verjaringstermijn moet van toepassing blijven. Een persoon die schade lijdt door een KI-systeem dat niet op de lijst van KI-systemen met een hoog risico staat, moet het voordeel hebben van het vermoeden van schuld van de operator.

(18) De zorgvuldigheid die van een operator kan worden verwacht, moet in verhouding staan tot i) de aard van het KI-systeem, ii) het wettelijk beschermde recht waarop potentieel inbreuk wordt gemaakt, iii) de potentiële schade die het KI-systeem zou kunnen veroorzaken; en v) de waarschijnlijkheid van die schade. Daarbij moet rekening worden gehouden met het feit dat de operator mogelijk beperkte kennis heeft van de in het KI-systeem gebruikte algoritmen en gegevens. Als de operator een KI-systeem heeft geselecteerd dat is gecertificeerd op grond van een soortgelijke regeling als de door de Commissie overwogen vrijwillige certificeringsregeling[18], moet worden aangenomen dat de operator bij de keuze van een geschikt KI-systeem de nodige zorgvuldigheid heeft betracht die redelijkerwijs van hem kan worden verwacht. Als de operator kan aantonen dat hij het KI-systeem tijdens de werking daadwerkelijk en regelmatig heeft gemonitord en de fabrikant in kennis heeft gesteld van mogelijke onregelmatigheden tijdens de werking, moet worden aangenomen dat de operator tijdens de werking van het KI-systeem de nodige zorgvuldigheid heeft betracht die redelijkerwijs van hem kan worden verwacht. Als de operator alle beschikbare updates van de producent van het KI-systeem heeft geïnstalleerd, moet worden aangenomen dat de operator wat betreft het behoud van de operationele betrouwbaarheid de nodige zorgvuldigheid heeft betracht die redelijkerwijs van hem kan worden verwacht. Aangezien het kennisniveau van operators kan variëren naargelang zij louter consumenten dan wel professionals zijn, moeten de zorgvuldigheidsplichten dienovereenkomstig worden aangepast.

(19) Om de operator in staat te stellen aan te tonen dat hem geen schuld treft, of om de betrokken persoon in staat te stellen aan te tonen dat er sprake is van schuld, moeten de producenten worden verplicht om met beide partijen samen te werken, onder meer door goed gedocumenteerde informatie te verstrekken. Voorts moeten zowel in als buiten de Unie gevestigde producenten worden verplicht om een vertegenwoordiger voor KI-aansprakelijkheid in de Unie aan te wijzen als contactpunt voor het beantwoorden van alle verzoeken van de operators, op soortgelijke wijze als de functionaris voor gegevensbescherming als bedoeld in artikel 37 van Verordening (EU) 2016/679 van het Europees Parlement en de Raad[19], de vertegenwoordiger van de fabrikant als bedoeld in artikel 3, punt 41, en artikel 13, lid 4, van Verordening (EU) 2018/858 van het Europees Parlement en de Raad[20] en de gemachtigde als bedoeld in artikel 4, lid 2, en artikel 5 van Verordening (EU) 2019/1020 van het Europees Parlement en de Raad[21].

(20) De wetgever moet rekening houden met de aansprakelijkheidsrisico’s die aan KI-systemen verbonden zijn gedurende hun hele levenscyclus, van de ontwikkeling over het gebruik tot het einde van de levensduur, met inbegrip van afvalbeheer en recycling. Het gebruik van KI-systemen in een product of dienst vormt een financieel risico voor bedrijven en zal derhalve een grote impact hebben op de capaciteit en de mogelijkheden van kmo’s en start-ups om hun op nieuwe technologieën gebaseerde onderzoeks- en ontwikkelingsprojecten te laten verzekeren en te financieren. Aansprakelijkheid heeft derhalve niet alleen tot doel om belangrijke wettelijk beschermde rechten van personen te beschermen, maar ook om te bepalen of bedrijven, in het bijzonder kmo’s en start-ups, in staat zijn om kapitaal aan te trekken, te innoveren, aan onderzoek te doen en uiteindelijk nieuwe producten en diensten aan te bieden, en of consumenten dergelijke producten en diensten vertrouwen en bereid zijn deze te gebruiken ondanks de potentiële risico’s en rechtsvorderingen met betrekking tot dergelijke producten en diensten.

(21) Verzekeringen kunnen helpen om te garanderen dat slachtoffers effectief worden vergoed en om de risico’s van alle verzekerde personen te bundelen. Een van de factoren waarop verzekeringsmaatschappijen hun aanbod van verzekeringsproducten en ‑diensten baseren, is een risicobeoordeling, die berust op toegang tot historische gegevens over vorderingen. Een gebrek aan toegang tot, of een onvoldoende hoeveelheid kwalitatief hoogwaardige gegevens, zou een reden kunnen zijn waarom het in het begin moeilijk is om verzekeringsproducten voor nieuwe en opkomende technologieën te ontwikkelen. Een betere toegang tot, en een optimalisering van het gebruik van, door nieuwe technologieën gegenereerde gegevens, gekoppeld aan een verplichting om goed gedocumenteerde informatie te verstrekken, zullen verzekeraars echter beter in staat stellen om nieuwe risico’s in modellen te vatten en de ontwikkeling van meer innovatieve dekkingen te bevorderen.

(22) Aangezien historische gegevens over vorderingen ontbreken, moet worden onderzocht hoe en onder welke voorwaarden de aansprakelijkheid verzekerbaar is, teneinde de verzekering te koppelen aan het product en niet aan de verantwoordelijke persoon. Er worden reeds verzekeringsproducten per gebied en per dekking ontwikkeld naarmate de technologie zich ontwikkelt. Veel verzekeraars zijn gespecialiseerd in bepaalde marktsegmenten (bijvoorbeeld kmo’s) of in het aanbieden van dekking voor bepaalde productsoorten (bijvoorbeeld elektrische goederen), wat betekent dat er voor de verzekerde doorgaans een verzekeringsproduct beschikbaar zal zijn. Een standaardoplossing voor alle gevallen is echter moeilijk voorstelbaar, en de verzekeringsmarkt heeft tijd nodig om zich aan te passen. De Commissie moet nauw met de verzekeringsmarkt samenwerken om innovatieve verzekeringsproducten te ontwikkelen die het tekort aan verzekeringen kunnen aanvullen. In uitzonderlijke gevallen, zoals een gebeurtenis waarbij sprake is van collectieve schade, waarbij de vergoeding de in deze verordening vastgestelde maximumbedragen aanzienlijk overschrijdt, moeten de lidstaten worden aangemoedigd om voor een beperkte periode een speciaal schadefonds op te zetten dat in de specifieke behoeften van die gevallen voorziet. Er zouden ook speciale vergoedingsfondsen kunnen worden opgezet voor de uitzonderlijke gevallen waarin een KI-systeem dat nog niet als KI-systeem met een hoog risico is ingedeeld en dus nog niet verzekerd is, schade veroorzaakt. Om de rechtszekerheid te waarborgen en te voldoen aan de verplichting om alle potentieel betrokken personen te informeren, moeten het bestaan van het speciale vergoedingsfonds en de voorwaarden om ervoor in aanmerking te komen, op duidelijke en volledige wijze bekend worden gemaakt.

(23) Het is van het grootste belang dat eventuele toekomstige wijzigingen van deze verordening gepaard gaan met de nodige herziening van de richtlijn productaansprakelijkheid, teneinde die op alomvattende en consistente wijze te herzien en de rechten en plichten van alle betrokken partijen in de gehele aansprakelijkheidsketen te garanderen. De invoering van een nieuwe aansprakelijkheidsregeling voor de operator van KI-systemen vereist een nauwe coördinatie tussen de bepalingen van deze verordening en de herziening van de richtlijn productaansprakelijkheid, zowel qua inhoud als qua aanpak, zodat zij samen een samenhangend aansprakelijkheidskader voor KI-systemen zullen vormen, waarbij de belangen van de producent, de operator, de consument en de betrokken persoon wat betreft het aansprakelijkheidsrisico en de betreffende vergoedingsregelingen in evenwicht worden gebracht. De aanpassing en stroomlijning van de definities van “KI-systeem”, “frontend operator”, “backend operator”, “producent”, “gebrek”, “product” en “dienst” in alle wetgevingsteksten is derhalve noodzakelijk en moet gelijktijdig worden overwogen.

(24) De doelstellingen van deze verordening, namelijk het creëren van een toekomstgerichte en uniforme aanpak op het niveau van de Unie, waarbij gemeenschappelijke Europese normen voor Europese burgers en bedrijven worden vastgesteld om in de hele Unie consistente rechten en rechtszekerheid te waarborgen en versnippering van de digitale eengemaakte markt te voorkomen, die het behoud van digitale soevereiniteit, de bevordering van digitale innovatie en de waarborging van een hoog beschermingsniveau voor burger- en consumentenrechten in Europa zou belemmeren, vereisen dat de aansprakelijkheidsregelingen voor KI-systemen volledig worden geharmoniseerd. Deze doelstellingen kunnen niet voldoende door de lidstaten worden verwezenlijkt als gevolg van de snelle technologische veranderingen, de grensoverschrijdende ontwikkeling en het grensoverschrijdende gebruik van KI-systemen en, ten slotte, de conflicterende wetgevingsbenaderingen in de Unie, maar kunnen vanwege de omvang of de gevolgen van het optreden beter door de Unie worden verwezenlijkt. De Unie kan daarom maatregelen vaststellen overeenkomstig het subsidiariteitsbeginsel dat in artikel 5 van het Verdrag betreffende de Europese Unie is neergelegd. Overeenkomstig het in hetzelfde artikel neergelegde evenredigheidsbeginsel gaat deze verordening niet verder dan nodig is om deze doelstellingen te verwezenlijken.


HEBBEN DE VOLGENDE VERORDENING VASTGESTELD:

Hoofdstuk I

Algemene bepalingen

Artikel 1

Onderwerp

Deze verordening bevat regels voor de vorderingen voor civielrechtelijke aansprakelijkheid van natuurlijke en rechtspersonen jegens operators van KI-systemen.

 

Artikel 2

Toepassingsgebied

 

1. Deze verordening is van toepassing op het grondgebied van de Unie wanneer door een KI-systeem aangestuurde fysieke of virtuele activiteiten, apparaten of processen schade hebben toegebracht aan het leven, de gezondheid of de lichamelijke integriteit van een natuurlijk persoon of aan het eigendom van een natuurlijke of rechtspersoon, of significante immateriële schade hebben veroorzaakt die tot een verifieerbaar economisch verlies heeft geleid.

2. Elke overeenkomst tussen een operator van een KI-systeem en een natuurlijke persoon of rechtspersoon die schade lijdt door het KI-systeem, waarin de in deze verordening vastgestelde rechten en plichten worden omzeild of beperkt, is nietig met betrekking tot de in deze verordening vastgestelde rechten en plichten, ongeacht of deze overeenkomst voor of na het intreden van de schade is gesloten.

3. Deze verordening doet geen afbreuk aan eventuele aanvullende aansprakelijkheidsvorderingen die uit contractuele verhoudingen tussen de operator en de natuurlijke persoon of rechtspersoon die door het KI-systeem schade heeft geleden, alsook uit regelgeving inzake productaansprakelijkheid, consumentenbescherming, non-discriminatie en arbeids- en milieubescherming voortvloeien en die krachtens het Unierecht of het nationale recht tegen de operator kunnen worden ingesteld.

 

Artikel 3

Definities

Voor de toepassing van deze verordening wordt verstaan onder:

a)  “KI-systeem”: een door software gestuurd of in hardware geïntegreerd systeem dat intelligent gedrag vertoont, onder meer door het verzamelen en verwerken van gegevens, het analyseren en interpreteren van zijn omgeving, en het – met een zekere mate van autonomie – ondernemen van actie om specifieke doelstellingen te verwezenlijken;

b) “autonoom”: een KI-systeem dat werkt door bepaalde input te interpreteren en door een reeks vooraf vastgestelde instructies te gebruiken, zonder tot deze instructies beperkt te zijn, hoewel het gedrag van het systeem wordt beperkt door en gericht is op het verwezenlijken van de opgedragen doelstelling en andere relevante door zijn ontwikkelaar gemaakte ontwerpkeuzen;

c)  “hoog risico”: een aanzienlijk potentieel van een autonoom werkend KI-systeem om een of meer personen schade te berokkenen op een wijze die willekeurig is en verder gaat dan wat redelijkerwijs kan worden verwacht; hoe aanzienlijk het potentieel is, hangt af van de wisselwerking tussen de ernst van de mogelijke schade, de mate van autonome besluitvorming, de waarschijnlijkheid dat het risico zich verwezenlijkt, en de wijze waarop en de context waarin het KI-systeem wordt gebruikt;

d)  “operator”: zowel de frontend operator als de backend operator, zolang de aansprakelijkheid van die laatste niet reeds onder Richtlijn 85/374/EEG valt;

e) “frontend operator”: elke natuurlijke persoon of rechtspersoon die een mate van controle over een risico in verband met de werking van het KI-systeem uitoefent en die baat heeft bij de werking van het KI-systeem;

f) “backend operator”: elke natuurlijke of rechtspersoon die doorlopend de kenmerken van de technologie definieert en gegevens en een essentiële backendondersteuning biedt, en daardoor ook een zekere mate van controle uitoefent over het risico dat aan de werking van het KI-systeem verbonden is;

g) “controle”: elke handeling van een operator die van invloed is op de werking van het KI-systeem en bijgevolg op de mate waarin de operator derden blootstelt aan de potentiële risico’s die aan de werking van het KI-systeem verbonden zijn; dergelijke handelingen kunnen de werking in om het even welke fase beïnvloeden door de input, de output of de resultaten te bepalen, of kunnen specifieke functies of processen binnen het KI-systeem wijzigen; de mate waarin deze aspecten van de werking van het KI-systeem door de handeling worden bepaald, hangt af van de mate waarin de operator invloed heeft op het risico dat aan de werking van het AI-systeem is verbonden;

h) “betrokken persoon”: elke persoon die schade lijdt die wordt veroorzaakt door fysieke of virtuele activiteiten, apparaten of processen die door een KI-systeem worden aangestuurd, en die niet de operator daarvan is;

i)  “schade”: een negatief effect op het leven, de gezondheid of de lichamelijke integriteit van een natuurlijke persoon of op het eigendom van een natuurlijke of rechtspersoon, of dat significante immateriële schade veroorzaakt die tot een verifieerbaar economisch verlies leidt;

j) “producent”: de producent zoals gedefinieerd in artikel 3 van Richtlijn 85/374/EEG van de Raad[22].

 

Hoofdstuk II

KI-systemen met een hoog risico

Artikel 4

Risicoaansprakelijkheid voor KI-systemen met een hoog risico

1. De operator van een KI-systeem met een hoog risico is aansprakelijk voor alle schade die wordt veroorzaakt door fysieke of virtuele activiteiten, apparaten of processen die door dat KI-systeem worden aangestuurd.

2. Alle KI-systemen met een hoog risico en alle de kritieke sectoren waarin zij worden gebruikt, worden opgenomen in de lijst in de bijlage bij deze verordening. De Commissie is bevoegd overeenkomstig artikel 13 gedelegeerde handelingen vast te stellen om die limitatieve lijst te wijzigen door:

a) het opnemen van nieuwe soorten KI-systemen met een hoog risico en kritieke sectoren waarin deze worden gebruikt;

b) het schrappen van soorten KI-systemen die niet langer kunnen worden geacht een hoog risico in te houden; en/of

c) het wijzigen van de kritieke sectoren voor bestaande KI-systemen met een hoog risico.

Elke gedelegeerde handeling tot wijziging van de bijlage treedt zes maanden na de vaststelling ervan in werking. Wanneer zij bepaalt welke nieuwe KI-systemen met een hoog risico en/of kritieke sectoren door middel van gedelegeerde handelingen in de bijlage moeten worden opgenomen, houdt de Commissie ten volle rekening met de in deze verordening vastgestelde criteria, met name die welke in artikel 3, onder c), zijn vermeld.

3. Operators van KI-systemen met een hoog risico kunnen zich niet aan aansprakelijkheid onttrekken door aan te voeren dat zij zorgvuldig hebben gehandeld of dat de schade is veroorzaakt door autonome activiteiten, apparaten of processen die door hun KI-systeem werden aangestuurd. Operators zijn niet aansprakelijk voor schade als gevolg van overmacht.

4. De frontend operator van een KI-systeem met een hoog risico zorgt ervoor dat de werking van dat KI-systeem wordt gedekt door een aansprakelijkheidsverzekering die adequaat is in verhouding tot de bedragen en de omvang van de vergoeding als bedoeld in de artikelen 5 en 6 van deze verordening. De backend operator zorgt ervoor dat zijn diensten worden gedekt door een bedrijfsaansprakelijkheids- of productaansprakelijkheidsverzekering die adequaat is in verhouding tot de bedragen en de omvang van de vergoeding als bedoeld in de artikelen 5 en 6 van deze verordening. Indien verplichte verzekeringsregelingen voor de frontend of backend operator die reeds op grond van andere Unie- of nationale wetgeving of bestaande vrijwillige bedrijfsverzekeringsfondsen van kracht zijn, worden geacht de werking van het KI-systeem of de verleende dienst te dekken, wordt de verplichting uit hoofde van deze verordening om een verzekering voor het KI-systeem of de verleende dienst af te sluiten, geacht te zijn vervuld mits de betreffende bestaande verplichte verzekering of het vrijwillige bedrijfsverzekeringsfonds dekking biedt voor de bedragen en de omvang van de vergoeding als bedoeld in de artikelen 5 en 6 van deze verordening.

5. In geval van strijdigheid tussen risicoaansprakelijkheidsclassificaties van KI-systemen heeft deze verordening voorrang op de nationale aansprakelijkheidsregelingen.

 

Artikel 5

Bedrag van de vergoeding

 

1.  De operator van een KI-systeem die op grond van deze verordening aansprakelijk is voor schade vergoedt deze:

a) tot een maximumbedrag van 2 miljoen EUR in geval van overlijden van of schade aan de gezondheid of lichamelijke integriteit van een betrokken persoon als gevolg van een werking van een KI-systeem met een hoog risico;

b) tot een maximumbedrag van 1 miljoen EUR in geval van significante immateriële schade die tot een verifieerbaar economisch verlies leidt of schade aan eigendom, met inbegrip van schade aan meerdere eigendommen van een betrokken persoon als gevolg van één werking van één KI-systeem met een hoog risico; indien de betrokken persoon jegens de operator ook een vordering heeft op grond van contractuele aansprakelijkheid en de totale schade aan eigendommen of de significante immateriële schade minder dan [500 EUR][23] bedraagt, wordt geen vergoeding op grond van deze verordening betaald.

2. Indien de gecombineerde vergoeding die moet worden betaald aan meerdere personen die door dezelfde werking van hetzelfde KI-systeem met hoog risico schade hebben geleden, groter is dan de in lid 1 bedoelde maximale totaalbedragen, worden de aan elke persoon te betalen bedragen pro rata verlaagd, zodat de gecombineerde vergoeding de in lid 1 vastgestelde maximumbedragen niet overschrijdt.

 

Artikel 6

Omvang van de vergoeding

 

1. In geval van overlijden van de betrokken persoon ten gevolge van lichamelijk letsel wordt binnen het in artikel 5, lid 1, onder a), vermelde bedrag de door de aansprakelijke operator te betalen vergoeding berekend op basis van de kosten van de medische behandeling van de betrokken persoon tot aan zijn overlijden, en op basis van de financiële schade die de betrokken persoon heeft geleden door het definitieve totale verlies of de vermindering van zijn verdiencapaciteit of door zijn toegenomen behoeften als gevolg van het letsel tot aan zijn overlijden. De aansprakelijke operator vergoedt voorts de begrafeniskosten van de overleden betrokken persoon aan de partij te wier laste deze kosten zijn gekomen.

Indien de betrokken persoon ten tijde van het letsel veroorzakende voorval dat tot zijn overlijden heeft geleid, in een relatie stond met een derde jegens wie hij een wettelijke onderhoudsverplichting had, stelt de aansprakelijke operator de derde schadeloos tot het door de overledene verschuldigde bedrag voor de periode die overeenkomt met de gemiddelde levensverwachting van een persoon van zijn leeftijd en algemene situatie. De operator stelt de derde eveneens schadeloos indien deze ten tijde van het voorval dat tot het overlijden heeft geleid, reeds verwekt maar nog niet geboren was.

2.  In geval van schade aan de gezondheid of de lichamelijke integriteit van de betrokken persoon omvat de door de aansprakelijke operator verschuldigde vergoeding, binnen het in artikel 5, lid 1, onder b), vermelde bedrag, de vergoeding van de kosten van de desbetreffende medische behandeling, alsmede de door de betrokken persoon geleden financiële schade ten gevolge van het tijdelijke verlies, de vermindering of het definitieve totale verlies van zijn verdiencapaciteit of de daaruit voortvloeiende, door een medisch attest gestaafde toename van zijn behoeften.

 

Artikel 7

Verjaringstermijn

1. De specifieke verjaringstermijn voor overeenkomstig artikel 4, lid 1, ingestelde vorderingen voor civielrechtelijke aansprakelijkheid in verband met schade aan het leven, de gezondheid of de lichamelijke integriteit bedraagt 30 jaar vanaf de datum waarop de schade zich heeft voorgedaan.

2. De specifieke verjaringstermijn voor overeenkomstig artikel 4, lid 1, ingestelde vorderingen voor civielrechtelijke aansprakelijkheid in verband met schade aan eigendommen of significante immateriële schade die tot een verifieerbaar economisch verlies leidt, bedraagt:

a) 10 jaar vanaf de datum waarop de schade aan eigendommen, respectievelijk het verifieerbare economische verlies als gevolg van de significante immateriële schade, zich heeft voorgedaan, of

b) 30 jaar vanaf de datum waarop de werking van het KI-systeem met hoog risico die de schade aan eigendommen of de immateriële schade heeft veroorzaakt, heeft plaatsgevonden.

De kortste van de in de eerste alinea bedoelde perioden is van toepassing.

3. Dit artikel laat nationale rechtsregels inzake de schorsing of onderbreking van verjaring onverlet.

 

Hoofdstuk III

Andere KI-systemen

Artikel 8

Schuldaansprakelijkheid voor andere KI-systemen

1.  De operator van een KI-systeem dat geen KI-systeem met een hoog risico als bedoeld in artikel 3, onder c), en artikel 4, lid 2, is en derhalve niet is vermeld in de lijst in de bijlage bij deze verordening, is aansprakelijk op grond van schuld voor elke schade die is veroorzaakt door fysieke of virtuele activiteiten, apparaten of processen die door het KI-systeem worden aangestuurd.

2. De operator is niet aansprakelijk indien hij kan bewijzen dat de schade buiten zijn schuld is veroorzaakt, met een beroep op een van de volgende gronden:

a) het KI-systeem is buiten zijn medeweten geactiveerd terwijl alle redelijke en noodzakelijke maatregelen waren genomen om dergelijke buiten de controle van de operator vallende activering te voorkomen, of

b) de nodige zorgvuldigheid is op alle onderstaande manieren betracht: door een geschikt KI-systeem voor de juiste taken en vaardigheden te selecteren, het KI-systeem naar behoren in werking te stellen, de activiteiten te monitoren en de operationele betrouwbaarheid te handhaven door regelmatig alle beschikbare updates te installeren.

De operator kan zich niet aan aansprakelijkheid onttrekken door aan te voeren dat de schade is veroorzaakt door autonome activiteiten, apparaten of processen die door zijn KI-systeem werden aangestuurd. De operator is niet aansprakelijk voor schade als gevolg van overmacht.

3. Indien de schade is veroorzaakt door een derde die met het KI-systeem heeft geknoeid door het functioneren of de effecten ervan te wijzigen, is de operator niettemin aansprakelijk voor de betaling van een vergoeding indien die derde partij onvindbaar of onbemiddeld is.

4. Op verzoek van de operator of de betrokken persoon is de producent van een KI-systeem verplicht met hen samen te werken en hun informatie te verstrekken in de mate die in verhouding staat tot de omvang van de vordering, teneinde de vaststelling van de aansprakelijkheid mogelijk te maken.

 

Artikel 9

Nationale bepalingen inzake vergoeding en verjaring

 

De verjaringstermijn, de bedragen en de omvang van de vergoeding van overeenkomstig artikel 8, lid 1, ingestelde vorderingen voor civielrechtelijke aansprakelijkheid worden beheerst door de wetten van de lidstaat waar de schade is ontstaan.

Hoofdstuk IV

Verdeling van de aansprakelijkheid

Artikel 10

Medeschuld

1. Indien de schade het gevolg is van zowel fysieke of virtuele activiteiten, apparaten of processen die door een KI-systeem worden aangestuurd als de handelingen van een betrokken persoon of een persoon voor wie de betrokken persoon verantwoordelijk is, wordt de mate van aansprakelijkheid van de operator op grond van deze verordening dienovereenkomstig verminderd. De operator is niet aansprakelijk indien alleen de betrokken persoon of de persoon voor wie hij verantwoordelijk is, schuld heeft aan de schade.

2. Een operator die aansprakelijk wordt gehouden, kan de door het KI-systeem gegenereerde gegevens gebruiken als bewijs van medeschuld van de betrokken persoon, in overeenstemming met Verordening (EU) 2016/679 en andere relevante wetgeving inzake gegevensbescherming. Ook de betrokken persoon kan deze gegevens gebruiken als bewijsmiddel of ter verduidelijking in de aansprakelijkheidsvordering.

 

Artikel 11

Hoofdelijke aansprakelijkheid

Indien er sprake is van meer dan één operator van een KI-systeem, zijn deze hoofdelijk aansprakelijk. Indien een frontend operator tevens de producent van het KI-systeem is, heeft deze verordening voorrang op de richtlijn productaansprakelijkheid. Indien de backend operator ook als producent in de zin van artikel 3 van de richtlijn productaansprakelijkheid kan worden beschouwd, is die richtlijn op hem van toepassing. Indien er slechts één operator is en die operator tevens de producent van het KI-systeem is, heeft deze verordening voorrang op de richtlijn productaansprakelijkheid.

 

Artikel 12

Regres in verband met schadevergoeding

1. De operator is niet gerechtigd een vordering tot regres in te stellen, tenzij de eventuele vergoeding waarop de betrokken persoon uit hoofde van deze verordening recht heeft, volledig is betaald.

2. Indien de operator samen met andere operators hoofdelijk aansprakelijk is jegens een betrokken persoon en deze persoon volledig heeft vergoed overeenkomstig artikel 4, lid 1, en artikel 8, lid 1, kan de operator een deel van de vergoeding op de andere operators verhalen in verhouding tot zijn aansprakelijkheid.

De verdeelsleutel voor de aansprakelijkheid is gebaseerd op de respectieve mate van controle die de operators hadden over het risico dat aan de werking het KI-systeem verbonden is. Indien de bijdrage van een hoofdelijk aansprakelijke operator niet van hem kan worden verkregen, wordt het tekort gedragen door de andere operators. Voor zover een hoofdelijk aansprakelijke operator de betrokken persoon vergoedt en de andere aansprakelijke operators om vereffening van voorschotten vraagt, gaat de vordering van de betrokken persoon op de andere operators over op de operator. Subrogatie van vorderingen wordt niet uitgeoefend ten koste van de oorspronkelijke vordering.

3. Indien de operator van een gebrekkig KI-systeem de betrokken persoon volledig voor schade vergoedt overeenkomstig artikel 4, lid 1, of artikel 8, lid 1, kan hij een herstelvordering instellen tegen de producent van het gebrekkige KI-systeem overeenkomstig Richtlijn 85/374/EEG en de nationale voorschriften inzake de aansprakelijkheid voor producten met gebreken.

 

4. Indien de verzekeraar van de operator de betrokken persoon voor schade vergoedt overeenkomstig artikel 4, lid 1, en artikel 8, lid 1, gaan eventuele vorderingen voor civielrechtelijke aansprakelijkheid van de betrokken persoon voor dezelfde schade over op de verzekeraar van de operator, voor het bedrag dat de verzekeraar van de operator de betrokken persoon als vergoeding heeft betaald.

 

Hoofdstuk V

Slotbepalingen

Artikel 13

Uitoefening van de bevoegdheidsdelegatie

1. De bevoegdheid om gedelegeerde handelingen vast te stellen, wordt aan de Commissie toegekend onder de in dit artikel neergelegde voorwaarden.

2. De in artikel 4, lid 2, bedoelde bevoegdheidsdelegatie wordt aan de Commissie toegekend voor een periode van vijf jaar met ingang van [datum van toepassing van deze verordening].

3. De in artikel 4, lid 2, bedoelde bevoegdheidsdelegatie kan te allen tijde door het Europees Parlement of de Raad worden ingetrokken. Het besluit tot intrekking beëindigt de delegatie van de in dat besluit genoemde bevoegdheid. Het wordt van kracht op de dag na die van de bekendmaking ervan in het Publicatieblad van de Europese Unie of op een daarin genoemde latere datum. Het laat de geldigheid van de reeds van kracht zijnde gedelegeerde handelingen onverlet.

4. Voordat de Commissie een gedelegeerde handeling vaststelt, raadpleegt zij het Technisch Comité voor KI-systemen met een hoog risico (TCRAI-comité) in overeenstemming met de beginselen die zijn neergelegd in het Interinstitutioneel Akkoord van 13 april 2016 over beter wetgeven.

5. Zodra de Commissie een gedelegeerde handeling heeft vastgesteld, doet zij daarvan gelijktijdig kennisgeving aan het Europees Parlement en de Raad.

6. Een overeenkomstig artikel 4, lid 2, vastgestelde gedelegeerde handeling treedt alleen in werking indien het Europees Parlement noch de Raad daartegen binnen een termijn van twee maanden na de kennisgeving van de handeling aan het Europees Parlement en de Raad bezwaar heeft gemaakt, of indien zowel het Europees Parlement als de Raad voor het verstrijken van die termijn de Commissie hebben medegedeeld dat zij daartegen geen bezwaar zullen maken. Die termijn wordt op initiatief van het Europees Parlement of de Raad met twee maanden verlengd.

 

Artikel 14

Herziening

 Uiterlijk op 1 januari 202X [3 jaar na de datum van toepassing van deze verordening], en vervolgens om de drie jaar, dient de Commissie bij het Europees Parlement, de Raad en het Europees Economisch en Sociaal Comité een uitvoerig verslag in over de herziening van deze verordening in het licht van de verdere ontwikkeling van kunstmatige intelligentie.

Bij de opstelling van het in de eerste alinea bedoelde verslag verzoekt de Commissie de lidstaten om relevante informatie met betrekking tot jurisprudentie, gerechtelijke schikkingen alsook ongevallenstatistieken, zoals het aantal ongevallen, de geleden schade, de betrokken KI-toepassingen en de door verzekeringsmaatschappijen betaalde vergoedingen, alsook een beoordeling van het aantal vorderingen dat door betrokken personen is ingesteld, zowel individueel als collectief, en de termijnen waarbinnen die vorderingen door de rechtbanken worden behandeld.

De Commissie laat haar verslag in voorkomend geval vergezeld gaan van wetgevingsvoorstellen om vastgestelde tekortkomingen te verhelpen.

Artikel 15

Inwerkingtreding

Deze verordening treedt in werking op de twintigste dag na die van de bekendmaking ervan in het Publicatieblad van de Europese Unie.

Zij is van toepassing met ingang van 1 januari 202X.

 

 

Deze verordening is verbindend in al haar onderdelen en is rechtstreeks toepasselijk in elke lidstaat.


 

BIJLAGE


TOELICHTING

Het begrip aansprakelijkheid speelt een belangrijke dubbele rol in ons dagelijks leven: enerzijds zorgt het ervoor dat een persoon die schade heeft geleden, aanspraak kan maken op schadevergoeding van de partij waarvan is bewezen dat deze aansprakelijk is voor die schade, en anderzijds voorziet het in de economische stimulansen voor personen om eerst en vooral schade te voorkomen. Elk toekomstgericht aansprakelijkheidskader moet derhalve streven naar een evenwicht tussen het efficiënt beschermen van potentiële slachtoffers van schade en het voldoende ruimte bieden om de ontwikkeling van nieuwe technologieën, producten of diensten mogelijk te maken.

 

Met name aan het begin van de levenscyclus van nieuwe producten en diensten bestaat een zeker risico voor de gebruiker en voor derden dat iets niet goed werkt. Dit proces van trial-and-error is echter ook onontbeerlijk voor de technische vooruitgang, zonder welke de meeste van onze technologieën niet zouden bestaan. Tot dusverre waren de strenge veiligheidsregels en aansprakelijkheidsregels van Europa zeer wel in staat het hoofd te bieden aan de potentieel hogere risico’s van nieuwe technologieën. Veel mensen zijn van mening dat deze zekerheid thans door de opkomst van kunstmatige intelligentie (KI) geen vanzelfsprekendheid meer is. Wat deze technologie uniek maakt, is het gebrek aan transparantie ervan, ofwel het zwarte-doos-effect. In combinatie met zijn connectiviteit, afhankelijkheid van externe gegevens, kwetsbaarheid voor inbreuken op de cyberbeveiliging en een zekere autonomie, kan de betrokkenheid van KI-systemen het uiterst kostbaar of zelfs onmogelijk kunnen maken om vast te stellen wie de controle had, of welke code of inbreng uiteindelijk de schadelijke werking heeft veroorzaakt. Als gevolg hiervan kan de persoon die schade heeft geleden problemen hebben om zijn schade vergoed te krijgen.

 

Hoewel KI-systemen nieuwe juridische uitdagingen met zich meebrengen voor onze bestaande aansprakelijkheidsregeling, zijn deze systemen in veel gevallen in essentie niet anders dan andere technologieën, die soms zijn gebaseerd op nog geavanceerdere software. De werking van moderne KI-systemen is dikwijls onbeduidend. Deze systemen zijn ver verwijderd van de robots met een eigen bewustzijn, die we kennen van sciencefictionfilms. Elke discussie over de toekenning van rechtspersoonlijkheid aan KI-systemen is dan ook achterhaald. Als bij de door de nieuwe KI-systemen veroorzaakte juridische problemen voor een verstandige aanpak wordt gekozen zullen er geen grote veranderingen in ons aansprakelijkheidskader nodig zijn. Indien een persoon schade heeft geleden als gevolg van een gebrekkig KI-systeem, moet de productaansprakelijkheidsrichtlijn het juridische instrument blijven voor het verkrijgen van schadevergoeding van de producent. Indien de schade werd veroorzaakt door een binnentredende derde biedt de bestaande op schuldaansprakelijkheid gebaseerde wetgeving van de lidstaten (in de meeste gevallen) voldoende bescherming. In overeenstemming met de beginselen van betere regelgeving van de Unie moeten de eventuele noodzakelijke juridische aanpassingen ten aanzien van producenten en binnentredende derden binnen deze rechtskaders aan de orde worden gesteld.

 

Dit verslag spreekt zijn vertrouwen in de bestaande aansprakelijkheidsregelingen uit, op een cruciale uitzondering na: het constateert een juridische leemte wat betreft de aansprakelijkheid van exploitanten van KI-systemen. Gezien het feit dat betrokken personen vaak niet in staat zijn de schuld van de exploitant aan te tonen zouden veel schadevorderingen tegen exploitanten falen, en dit terwijl deze personen over het gebruik van KI-systemen beslissen, de controle over de daaraan verbonden risico’s uitoefenen en van de werking van KI-systemen baat hebben. Met name in het geval dat de werking van een KI-systeem in een openbare ruimte schade veroorzaakt en het in potentie enorme aantal betrokken personen geen contractuele relatie met de exploitant hebben, zouden slachtoffers nauwelijks een mogelijkheid hebben hun schade vergoed te krijgen. De rapporteur stelt twee verschillende benaderingen voor om deze juridische leemte op te vullen, afhankelijk van het risico dat het KI-systeem oplevert:

 

(1) KI-systemen met een hoog risico De exploitant van een dergelijk systeem verkeert in een soortgelijke positie als de eigenaar van een auto of een huisdier. Hij oefent controle uit over een voorwerp dat op een willekeurige en onmogelijk vooraf te voorspellen wijze een aanzienlijk gevaar vormt voor het publiek. Bijgevolg dient voor de exploitant – zoals voor de eigenaar van een auto of een huisdier – een risicoaansprakelijkheidsregeling te gelden en dient hij elke schade als gevolg van een inbreuk op de belangrijke wettelijk beschermde rechten (leven, gezondheid, lichamelijke integriteit, eigendom) van het slachtoffer binnen bepaalde grenzen en tot een bepaalde hoogte te vergoeden. Dit verslag bevat duidelijke criteria aan de hand waarvan KI-systemen worden aangemerkt als systemen met een hoog risico die in een limitatieve lijst in een bijlage worden vermeld. Gezien de snelle technologische veranderingen en de technische deskundigheid die vereist is voor een adequate beoordeling van een KI-systeem, is de Commissie de aangewezen instantie om de bijlage door middel van gedelegeerde handelingen te wijzigen. Een nieuw op te richten permanent comité met nationale deskundigen en belanghebbenden moet de Commissie ondersteunen bij haar beoordeling van potentiële KI-systemen met een hoog risico.

 

(2) Alle andere KI-systemen: Iemand die schade heeft geleden door een niet in de lijst van de bijlage opgenomen KI-systeem moet op zijn minst het voordeel hebben van een vermoeden van schuld van de exploitant. In geval van door een KI-systeem veroorzaakte schade blijft de nationale wetgeving waarin de bedragen, de omvang van de vergoeding en de verjaringstermijn zijn geregeld, van toepassing.

 

Om overlapping en tegenstrijdige bepalingen te vermijden dient in elk nieuw wetgevingsvoorstel de bestaande wetgeving grondig te worden geanalyseerd. Op basis van dit beginsel behandelt het verslag alleen de schade aan het leven, gezondheid, lichamelijke integriteit en eigendom. Hoewel KI-systemen weliswaar aanzienlijke schade kunnen toebrengen aan persoonlijke rechten en andere belangrijke wettelijk beschermde belangen, worden zulke inbreuken veel beter aangepakt door reeds bestaande en op de behoeften toegesneden wettelijke bepalingen op die gebieden (zoals antidiscriminatiewetgeving en wetgeving inzake consumentenbescherming). Om dezelfde reden wordt het gebruik van biometrische gegevens of gezichtsherkenningstechnieken door KI-systemen in het verslag niet behandeld; ongeoorloofd gebruik op dit gebied valt onder specifieke wetgeving inzake gegevensbescherming zoals de AVG. Dit verslag stelt dat de hierin opgenomen bepalingen altijd voorrang hebben op daarmee strijdige nationale aansprakelijkheidsregelingen ten aanzien van de kwestie van risicoaansprakelijkheid van een KI-systeem of het beperkende effect van contractuele overeenkomsten. Het beoogt voorts een volledige schadevergoeding van de betrokken persoon door de exploitant, voordat door andere personen dan de betrokken persoon eventuele schadevorderingen tegen de producent worden ingesteld. Met het oog op de rechtszekerheid in de hele Unie, zou de “backend operator” – voor wie deze verordening geen regeling treft – onder dezelfde aansprakelijkheidsregels moeten vallen als de producent, fabrikant en ontwikkelaar.

 

Gezien het feit dat er geen radicale wijzigingen van de aansprakelijkheidsregelingen van de Europese Unie en de lidstaten nodig zijn, kunnen onze traditionele verzekeringsregelingen ook van toepassing zijn op KI-systemen. Met overheidsgelden gefinancierde compensatiemechanismen bieden geen adequate oplossing voor de opkomst van kunstmatige intelligentie. Dergelijke compensatieregelingen zouden alleen leiden tot onnodige financiële lasten voor de belastingbetaler. Ondanks een gebrek aan toegang tot kwalitatieve gegevens met betrekking tot claims in het verleden in verband met KI-systemen, ontwikkelen de Europese verzekeraars inmiddels nieuwe producten per gebied en per dekking, naargelang de ontwikkeling van de technologie. Als er behoefte is aan een nieuwe dekking, zal de verzekeringsmarkt een adequate oplossing vinden. Het zou verkeerd zijn om zich te laten overtuigen door hypothetische scenario’s die worden gebruikt door de lobby voor extra publieke systemen. Als op een dag een gebeurtenis plaatsvindt met een enorme schade, zoals een grote terroristische aanslag, kunnen de lidstaten voor een beperkte periode speciale schadefondsen instellen, zoals in het verleden reeds is gebeurd. Derhalve wordt in dit verslag aan exploitanten van KI-systemen met een hoog risico de eis gesteld een toereikende aansprakelijkheidsverzekering af te sluiten (vergelijkbaar met de in de richtlijn motorrijtuigenverzekering opgenomen verplichting), die een dekking biedt voor de bedragen en de omvang van de compensatie die in deze verordening worden vastgesteld. De rapporteur heeft groot vertrouwen in de verzekeringsmarkt om bestaande dekkingen aan te passen ofwel met nieuwe producten te komen die de verschillende soorten KI-systemen in verschillende sectoren bestrijken.

 

De rapporteur is ervan overtuigd met de beperkte maar heldere benadering van aansprakelijkheidsregels voor de exploitant van KI-systemen, het evenwicht te vinden tussen een doeltreffende bescherming van de samenleving en de ruimte voor een verdere ontwikkeling van deze opwindende technologie. Veel te vaak wordt alleen gewezen op de risico’s van kunstmatige intelligentie. Ja, KI-systemen kunnen met slechte bedoelingen worden gebruikt. Maar moeten wij accepteren dat negatieve aspecten van technologieën – die verbonden zijn aan alle technologieën, van mobiele telefoons tot kernenergie – het gebruik ervan beperken? Willen we voorbijgaan aan de bijdrage die KI-systemen kunnen leveren aan de bestrijding van klimaatverandering, de verbetering van onze gezondheidszorg of een verbeterde integratie van mensen met een beperking? In dit verslag wordt sterk aanbevolen zich te richten op het benutten van de positieve effecten van KI-systemen, en tegelijkertijd te zorgen voor solide waarborgen.

Daarom moet alle nieuwe wetgeving inzake kunstmatige intelligentie in de vorm van verordeningen worden gegoten. Aangezien de digitale omgeving wordt gekenmerkt door een snelle, niet aan grenzen gebonden dynamiek, moet onze Europese digitale eengemaakte markt volledig worden geharmoniseerd om de mondiale digitale concurrentie aan te kunnen gaan.

Het is van cruciaal belang te benadrukken dat de politieke discussie over deze verordening tegelijkertijd moet plaatsvinden met een herziening van de productaansprakelijkheidsrichtlijn. De invoering van een nieuwe aansprakelijkheidsregeling voor de exploitant van KI-systemen vereist een nauwe coördinatie van de onderhandelingen over dit verslag en de herziening van de productaansprakelijkheidsrichtlijn niet alleen wat betreft de inhoud maar ook wat betreft de aanpak, zodat zij samen een samenhangend aansprakelijkheidskader voor KI-systemen zullen vormen, waarbij de belangen van de producent, de exploitant en de betrokken persoon wat betreft het aansprakelijkheidsrisico in evenwicht worden gebracht. De aanpassing en stroomlijning van de definities van “KI-systeem”, “exploitant”, “ontwikkelaar”, “gebrek”, “product” en “dienst” in alle wetgevingsinitiatieven lijkt derhalve noodzakelijk.

Tot slot moeten de politieke spelers zich ervan bewust zijn dat de technologische vooruitgang tijdens hun wetgevingsonderhandelingen niet stopt. Als we ons streven serieus nemen om gelijke tred te houden met de digitalisering, onze digitale soevereiniteit te behouden en een belangrijke rol te spelen in het digitale tijdperk, moeten de Europese instellingen een duidelijk politiek signaal afgeven aan onze succesvolle bedrijfstak en onze slimme onderzoekers die aan nieuwe KI-systemen werken. Zolang het wetgevende antwoord op de opkomst van kunstmatige intelligentie nog niet tot een definitieve wet heeft geleid, moeten de sector en de onderzoekers kunnen innoveren overeenkomstig de huidige regels, en baat hebben van een overgangsperiode van vijf jaar. Als we hun die zekerheid om te plannen niet bieden, zal Europa tal van nieuwe fascinerende technologieën, producten of diensten mislopen.

 


 

 

<Date>{07/07/2020}7.7.2020</Date>


<CommissionResp>ADVIES VAN DE COMMISSIE INTERNE MARKT EN CONSUMENTENBESCHERMING</CommissionResp>


<CommissionInt>aan de Commissie juridische zaken</CommissionInt>


<Titre>civielrechtelijk aansprakelijkheidsstelsel voor artificiële intelligentie</Titre>

<DocRef>(2020/2014(INL))</DocRef>

Rapporteur voor advies: <Depute>Svenja Hahn</Depute>

(Initiatief – artikel 47 van het Reglement)

 

 

SUGGESTIES

De Commissie interne markt en consumentenbescherming verzoekt de bevoegde Commissie juridische zaken:

 onderstaande suggesties in haar ontwerpresolutie op te nemen:

A. overwegende dat het gebruik van opkomende digitale technologieën, zoals artificiële intelligentie (AI), het internet der dingen (IoT), het internet der diensten (IoS) of robotica, een steeds grotere rol zal blijven spelen in het dagelijks leven van ons allemaal;

B. overwegende dat deze opkomende digitale technologieën bij kunnen dragen aan de ontwikkeling van innovaties in talrijke sectoren en voordelen kunnen opleveren voor consumenten middels vernieuwende producten en diensten, voor bedrijven, met name startende en micro-ondernemingen en kleine en middelgrote ondernemingen (kmo’s), middels geoptimaliseerde prestaties en een groter concurrentievermogen, en voor overheidsdiensten middels een betere, inclusievere en gepersonaliseerde dienstverlening;

C. overwegende dat het gebruik, de uitrol en de ontwikkeling van AI en andere opkomende digitale technologieën ook risico’s en uitdagingen met zich mee kunnen brengen voor het bestaande kader voor productaansprakelijkheid dat nog niet per se op deze nieuwe toepassingen is ingesteld, hetgeen het vertrouwen en de bescherming van consumenten zou kunnen ondermijnen;

D. overwegende dat productveiligheid en productaansprakelijkheid twee complementaire mechanismen zijn die in dienst staan van dezelfde beleidsdoelstelling van een goed functionerende eengemaakte markt voor goederen en diensten en dat in dit advies mogelijke aanpassingen van het aansprakelijkheidskader van de Unie worden voorgesteld met het oog op het steeds grotere belang van opkomende digitale technologieën;

E. overwegende dat robuuste aansprakelijkheidsstelsels die voorzien in schadeherstel de bescherming van burgers en consumenten tegen schade verbeteren, voor vertrouwen zorgen in opkomende digitale technologieën en rechtszekerheid voor bedrijven opleveren, met name startende en micro-ondernemingen en kmo’s, en deze in staat stellen om te innoveren;

F. overwegende dat acceptatie alleen kan worden opgebouwd wanneer de theoretische voordelen van AI ook concreet bijdragen tot welvaart en ontwikkeling;

G. overwegende dat het verslag van de Commissie aan het Europees Parlement, de Raad en het Europees Economisch en Sociaal Comité over de gevolgen van kunstmatige intelligentie, het internet der dingen en robotica op het gebied van veiligheid en aansprakelijkheid[24] en het witboek over kunstmatige intelligentie - een Europese benadering op basis van excellentie en vertrouwen[25] beschouwd moeten worden als de grondslag voor toekomstige Europese wetgeving;

1. verwelkomt het voornemen van de Commissie om het wettelijk kader van de Unie klaar te stomen voor de nieuwe technologische ontwikkelingen, implementaties en toepassingen van AI en andere opkomende digitale technologieën, en zo een hoog niveau van consumentenbescherming tegen schade door nieuwe technologieën op basis van AI, robotica en verwante technologieën te waarborgen, een evenwicht in stand te houden met het oog op de digitalisering van industriële en consumentenproducten, en technologische innovatie te ondersteunen;

2. verzoekt de Commissie het bestaande kader voor aansprakelijkheid van de Unie te herzien, in het bijzonder Richtlijn 85/374/EEG van de Raad[26] (de richtlijn productaansprakelijkheid), teneinde het aan de digitale wereld aan te passen;

3. verzoekt de Commissie de richtlijn productaansprakelijkheid te herzien, door de uitdagingen aan de orde te stellen die opkomende digitale technologieën als AI, IoT of robotica opwerpen, en zodoende een hoog niveau van doeltreffende consumentenbescherming te waarborgen, alsook rechtszekerheid voor consumenten en bedrijven, onder vermijding van hoge kosten en risico’s voor kmo’s en startende ondernemingen;

4. benadrukt dat elke actualisering van het kader voor productaansprakelijkheid hand in hand moet gaan met een actualisering van Richtlijn 2001/95/EG van het Europees Parlement en de Raad[27] (de richtlijn productveiligheid) om te waarborgen dat de beginselen van veiligheid en beveiliging door ontwerp in AI-systemen worden geïntegreerd;

5. benadrukt dat elke herziening van het bestaande aansprakelijkheidskader gericht moet zijn op het verder harmoniseren van de regels voor aansprakelijkheid en consumentenbescherming, teneinde een gelijk speelveld te waarborgen en verschillen in de consumentenbescherming en versnippering van de interne markt te vermijden;

6. verzoekt de Commissie te onderzoeken of een verordening inzake algemene productaansprakelijkheid tot dit doel kan bijdragen; benadrukt tegelijkertijd dat het belangrijk is dat de regelgeving van de Unie beperkt blijft tot duidelijk afgebakende problemen waar haalbare oplossingen voor bestaan, én ruimte laat voor verdere technologische ontwikkelingen, waaronder de ontwikkelingen op basis van gratis en opensourcesoftware; onderstreept dat dit dient te gebeuren met volledige inachtneming van de toepasselijke wetgeving, met inbegrip van Richtlijn (EU) 2019/790 van het Europees Parlement en de Raad[28];

7. verzoekt de Commissie het kader voor productaansprakelijkheid te actualiseren om rekening te houden met de specifieke uitdagingen van digitalisering voor het aansprakelijkheidsrecht; merkt op dat er problemen kunnen ontstaan, bijvoorbeeld omdat producten onderling verbonden zijn, afhankelijk zijn van gegevens of kwetsbaar zijn voor risico’s op het gebied van cyberbeveiliging;

8. onderstreept, in het bijzonder, de noodzaak om rekening te houden met processen in AI-toepassingen die wellicht niet goed zijn gedocumenteerd, of die zich autonoom kunnen voordoen nadat het product op de markt is gebracht;

9. spoort de Commissie met klem aan de definitie van “producten” in de richtlijn productaansprakelijkheid te verduidelijken door aan te geven of digitale inhoud en digitale diensten daaronder vallen en te overwegen concepten als “producent”, “schade” en “gebrek” aan te passen; benadrukt dat het belangrijk is om hierbij het consumentenacquis in aanmerking te nemen, met name de huidige Richtlijn (EU) 2019/770 van het Europees Parlement en de Raad[29] (de richtlijn digitale inhoud) en Richtlijn (EU) 2019/771 van het Europees Parlement en de Raad[30] (de richtlijn verkoop van goederen);

10. pleit ervoor AI geen eigen rechtspersoonlijkheid te verlenen; verzoekt de Commissie tevens te onderzoeken of het kader voor productaansprakelijkheid moet worden herzien om benadeelde partijen te beschermen en schadeloos te stellen in het geval van producten die als “bundel” met verwante diensten worden gekocht en regels inzake privacy door ontwerp en beveiliging door ontwerp aan te merken als een redelijke verwachting van consumenten met betrekking tot hun digitale producten;

11. benadrukt dat onlinemarktplaatsen, die fungeren als importeurs of leveranciers van producten die online worden verkocht in de toeleveringsketen, onder de richtlijn productaansprakelijkheid vallen en dus aansprakelijk zijn voor schade die wordt veroorzaakt door een gebrek in het product dat door hen is verkocht, behalve wanneer zij fungeren als leverancier en de producent is geïdentificeerd, overeenkomstig de relevante bepalingen in de richtlijn productaansprakelijkheid;

12. verzoekt de Commissie om, in nauw verband met overeenkomstige mogelijke aanpassingen van het veiligheidskader van de Unie, te onderzoeken of “het tijdstip waarop het product in het verkeer is gebracht”, voor opkomende digitale technologieën nog wel beantwoordt aan het beoogde doel, en of de verantwoordelijkheid en aansprakelijkheid van producenten verder reikt dan dit concept, gezien het feit dat door AI aangestuurde producten door toedoen van de producent veranderd of aangepast kunnen worden nadat ze op de markt zijn gebracht, hetgeen tot een gebrek en daardoor tot schade zou kunnen leiden;

13. benadrukt dat gezorgd moet worden voor een billijke en efficiënte toewijzing van aansprakelijkheid in de commerciële transactieketen teneinde op de meest passende manier te bepalen waar de aansprakelijkheid berust; benadrukt dat het vanwege de complexiteit, connectiviteit en ondoorzichtigheid van producten die op AI en nieuwe technologieën gebaseerd zijn, lastig kan zijn voor consumenten om aan te tonen welk gebrek in een product schade heeft veroorzaakt, aangezien niet mag worden aangenomen dat consumenten over alle nodige informatie of specifieke technische kennis beschikken;

14. onderstreept daarom dat het relevant is om consumenten die personen- of zaakschade hebben geleden in staat te stellen aan te tonen dat een gebrek in een product schade heeft veroorzaakt, ook in gevallen waarin software van derde partijen is gebruikt of de oorzaak van de schade moeilijk te achterhalen is, bijvoorbeeld wanneer producten onderdeel uitmaken van een complexe, onderling verbonden IoT-omgeving;

15. verzoekt de Commissie te overwegen de regels inzake bewijslast voor schade die is veroorzaakt door opkomende digitale technologieën in welomschreven gevallen en na een grondige beoordeling om te keren, om zo consumenten die personen- of zaakschade hebben geleden beter in staat te stellen voor hun rechten op te komen, waarbij misbruik moet worden vermeden en voor rechtszekerheid voor bedrijven moet worden gezorgd, en om zo billijkheid te waarborgen en de informatieasymmetrieën die de situatie van benadeelde partijen geen goed doen te ondervangen;

16. verzoekt de Commissie te onderzoeken of het mogelijk is producenten van opkomende digitale technologieën te verplichten hun producten uit te rusten met een manier om informatie over de werking van de technologie vast te leggen, zulks in overeenstemming met de toepasselijke bepalingen inzake gegevensbescherming en de regels inzake de bescherming van handelsgeheimen, waarbij onder meer rekening moet worden gehouden met de kans dat een risico van de technologie zich daadwerkelijk voordoet, de vraag of een dergelijke verplichting passend en evenredig is, of het technisch haalbaar is en welke kosten ermee gemoeid zijn; stelt voor dat wanneer niet aan deze verplichting wordt voldaan of wanneer de consument in kwestie redelijke toegang tot deze informatie wordt ontzegd, dat leidt tot een weerlegbaar vermoeden van aansprakelijkheid van de producent;

17. benadrukt de noodzaak van een risicogebaseerde aanpak van AI binnen het bestaande aansprakelijkheidskader, waarbij rekening wordt gehouden met de verschillende risiconiveaus voor consumenten in specifieke sectoren en toepassingen van AI; onderstreept dat een dergelijke aanpak, die diverse risiconiveaus kan omvatten, op heldere criteria en een passende definitie van hoog risico moet stoelen en voor rechtszekerheid moet zorgen;

18. is verder van mening dat degenen die bij de verschillende ontwikkel-, uitrol- en gebruiksfases van op AI gebaseerde systemen betrokken zijn, naar rato van hun aansprakelijkheid in de onderlinge verhouding rekenschap moeten afleggen; benadrukt echter dat voor de partij die personen- of zaakschade heeft geleden de hoofdelijke aansprakelijkheid van deze verschillende actoren gewaarborgd moet worden; stelt voor de traceerbaarheid van producten te verbeteren, bijvoorbeeld door middel van het gebruik van gedeeldgrootboektechnologieën, zoals blokketen, teneinde beter te kunnen vaststellen wie bij de verschillende fases betrokken zijn;

19. onderstreept dat de verklaarbaarheid, interpreteerbaarheid en traceerbaarheid van AI-systemen van essentieel belang zijn om ervoor te zorgen dat aansprakelijkheidsstelsels een toereikende, efficiënte en billijke toewijzing van verantwoordelijkheden bieden;

20. verzoekt de Commissie zorgvuldig na te denken over de invoering van een afzonderlijk maar complementair streng aansprakelijkheidsstelsel voor AI-systemen waarvan het risico hoog is dat ze een of meer personen of hun eigendommen op een willekeurige en van tevoren niet te voorspellen manier schade zullen berokkenen, rekening houdend met onder meer de waarschijnlijke impact ervan op de bescherming van burgers en consumenten tegen schade, het innovatievermogen van bedrijven (met name kmo’s), de samenhang van het veiligheids- en aansprakelijkheidskader van de Unie en op het subsidiariteitsbeginsel en het evenredigheidsbeginsel; is van mening dat dit stelsel moet waarborgen dat slachtoffers daadwerkelijk schadeloosgesteld worden voor schade die door AI aangestuurde systemen is veroorzaakt;

21. verzoekt de Commissie concrete maatregelen voor te stellen, zoals een register met productaansprakelijkheidszaken, om de transparantie te vergroten en gebrekkige producten die in de Unie in omgang zijn te monitoren; merkt op dat het van essentieel belang is om een hoog niveau van consumentenbescherming te waarborgen met betrekking tot de producten die aangeschaft kunnen worden, evenals een hoge mate van informatie over deze producten.


INFORMATIE OVER DE GOEDKEURING IN DE ADVISERENDE COMMISSIE

Datum goedkeuring

7.7.2020

 

 

 

Uitslag eindstemming

+:

–:

0:

39

0

5

Bij de eindstemming aanwezige leden

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Bij de eindstemming aanwezige vaste plaatsvervangers

Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin

 


 

HOOFDELIJKE EINDSTEMMING IN DE ADVISERENDE COMMISSIE

39

+

EPP

S&D

RENEW

ID

GREENS/EFA

ECR

EUL/NGL

NI

Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

Andrus Ansip, Vlad-Marius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie Yon-Courtin

Alessandra Basso

David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kim Van Sparrentak

Adam Bielan, Carlo Fidanza, Beata Mazurek

Kateřina Konečná, Anne-Sophie Pelletier

Marco Zullo

 

0

-

 

 

 

5

0

ID

ECR

Hynek Blaško, Markus Buchheit, Virginie Joron, Jean-Lin Lacapelle

Eugen Jurzyca

 

Verklaring van de gebruikte tekens:

+ : voor

- : tegen

0 : onthouding

 

 


 

 

<Date>{15/07/2020}15.7.2020</Date>


<CommissionResp>ADVIES VAN DE COMMISSIE VERVOER EN TOERISME</CommissionResp>


<CommissionInt>aan de Commissie juridische zaken</CommissionInt>


<Titre>met aanbevelingen aan de Commissie inzake het civielrechtelijk aansprakelijkheidsstelsel voor artificiële intelligentie</Titre>

<DocRef>(2020/2014(INL))</DocRef>

Rapporteur voor advies: <Depute>Cláudia Monteiro de Aguiar</Depute>

(Initiatief – artikel 47 van het Reglement)

 

SUGGESTIES

De Commissie vervoer en toerisme verzoekt de bevoegde Commissie juridische zaken onderstaande suggesties in haar ontwerpresolutie op te nemen:

 gezien artikel 225 van het Verdrag betreffende de werking van de Europese Unie,

 gezien Richtlijn 85/374/EEG van de Raad[31],

 gezien artikel 56 van zijn Reglement,

A. overwegende dat artificiële intelligentie (“AI”) en andere opkomende digitale technologieën onze samenleving en onze economie ten goede kunnen transformeren; overwegende dat het evenwel onmogelijk is eventuele schade, letsel of verlies van mensenlevens als gevolg van de werking van dergelijke technologieën volledig uit te sluiten;

B. overwegende dat in diverse takken van de vervoersector inmiddels uiteenlopende niveaus van automatisering en AI worden toegepast; overwegende bovendien dat AI het gebruik van diverse soorten technologieën inhoudt, waaronder autonome voertuigen, onbemande luchtvaartuigsystemen en oplossingen voor intelligent verkeersbeheer;

C. overwegende dat het civielrechtelijk aansprakelijkheidskader in de Unie wordt aangevuld door nationale aansprakelijkheidsregelingen en dat beide de complexiteit van opkomende technologieën moeten weerspiegelen om het hoogste beschermingsniveau te waarborgen en tegelijkertijd technologische innovatie te ondersteunen; overwegende dat de Unie een geharmoniseerd civielrechtelijk aansprakelijkheidsstelsel voor AI-producten ontbeert; overwegende dat het aanmoedigen van de uitrol en de brede toepassing van AI in de EU de hoogste prioriteit moet krijgen binnen de Unie en een onderliggende doelstelling moet vormen voor het uitwerken van het aansprakelijkheidskader voor AI-producten; overwegende dat uit gegevens blijkt dat tot 90 % van de verkeersongevallen minstens ten dele te wijten is aan menselijke fouten; overwegende dat autonome voertuigen moeten worden onderworpen aan een ethisch kader; overwegende dat de invoering van een dergelijk kader weliswaar kan voorkomen dat er fouten sluipen in machinale besluitvorming en algoritmen, maar dat er daarnaast een geharmoniseerde aansprakelijkheidsregeling nodig is om te waarborgen dat alle door AI-systemen veroorzaakte schade volledig wordt vergoed;

D. overwegende dat de wetgeving van de Unie en de lidstaten moet zorgen voor een hoog niveau van productveiligheid en veiligheid van diensten en een degelijk systeembeheer, zowel vooraf als gedurende de hele levenscyclus van een product, en ook de schadeloosstelling van slachtoffers achteraf moet bevorderen; overwegende dat de technologische ontwikkeling op het gebied van AI mensgericht moet blijven en dat producten en toepassingen op basis van AI moeten bijdragen tot menselijke ontwikkeling en een goede levenskwaliteit;

1. benadrukt dat AI op verschillende niveaus kan worden toegepast in voertuigen, vervoersinfrastructuur en tussen vervoerwijzen, en een grote invloed heeft op de graad van autonomie van het systeem, gaande van volledige controle door de bestuurder tot volledige autonomie, en dat er bijgevolg sprake is van een geleidelijke verschuiving van civielrechtelijke aansprakelijkheid van de bestuurder naar andere partijen naargelang van de graad van autonomie van het geautomatiseerd rijsysteem; dringt er bij de Unie op aan duidelijke definities vast te stellen voor alle soorten vervoerwijzen en vervoersinfrastructuur waarin AI-software wordt gebruikt, en een overeenkomstige risico-indeling op te stellen die in het kader van een aansprakelijkheidsregeling kan worden gebruikt ter verduidelijking van kwesties in verband met verantwoordelijkheid om de hoogste normen inzake veiligheid en beveiliging te waarborgen, en benadrukt hierbij dat veiligheid van het allergrootste belang is in de vervoersector en kan worden omschreven als de ene zijde van de medaille, terwijl aansprakelijkheid als de andere zijde van diezelfde medaille wordt beschouwd;

2. wijst er nogmaals op dat de vervoersector al tientallen jaren bezig is met het integreren van AI-technologieën, in het bijzonder met de invoering van automatische treinbesturing (ATO), onder meer in stedelijke gebieden waar volledig geautomatiseerd vervoer zonder bestuurder heeft geleid tot vergroting van de systeembeschikbaarheid, netwerkcapaciteit en operationele efficiëntie;

3. benadrukt dat geautomatiseerde functies op de middellange en lange termijn aanzienlijke verbeteringen van de veiligheid kunnen opleveren, maar ook onbedoelde gevolgen kunnen hebben, onder meer in verband met cyberveiligheid en gegevensbescherming; merkt op dat het naast elkaar bestaan van diverse niveaus van automatisering weliswaar een uitdaging vormt, maar dat AI ook kan worden gebruikt voor de planning en aansturing van logistieke ketens en het vergroten van efficiëntie, veerkracht, betrouwbaarheid, duurzaamheid, interoperabiliteit en flexibiliteit, en een enorm potentieel inhoudt voor personen met een handicap en personen met beperkte mobiliteit; benadrukt dat een scherpere controle in het kader van een civielrechtelijk aansprakelijkheidsstelsel van de Unie voor AI-producten noodzakelijk is met het oog op het waarborgen van de veiligheid van personen met een handicap en personen met beperkte mobiliteit;

4. benadrukt het belang van een duidelijk gedefinieerde verdeling van verantwoordelijkheden tussen softwareontwikkelaars, fabrikanten van diverse onderdelen, dienstverleners, gegevensverstrekkers, exploitanten en eindgebruikers, teneinde de best mogelijke productveiligheid en eerbiediging van de consumentenrechten te waarborgen; wijst op de noodzaak om te zorgen voor een passende verdeling van de risico’s die voortvloeien uit nieuwe digitale interacties tussen infrastructuur en voertuigen, en om een eerlijke aansprakelijkheidsregeling toe te passen voor functionele softwarestoringen, netwerkstoringen en risico’s in verband met programmeringskeuzes die momenteel onvoldoende gedekt worden;

5. benadrukt dat voor in de vervoersector gebruikte AI-gerelateerde toepassingen met een specifiek hoog risicoprofiel behoefte is aan een op risico gebaseerde aanpak, afhankelijk van de mate van automatisering en het zelflerend vermogen van het systeem; wijst erop dat er wettelijke vereisten nodig zijn voor AI-toepassingen met een hoog risicoprofiel; merkt evenwel op dat deze aanpak niet mag inhouden dat bepaalde sectoren, zoals de vervoersector, van tevoren worden aangemerkt als sectoren waarin AI met een hoog risico wordt toegepast, maar gebaseerd moet zijn op gebiedsspecifieke en technologieneutrale beoordelingen; beklemtoont dat deze vereisten moeten worden geharmoniseerd voor de hele Unie om het hoogste niveau van productveiligheid te waarborgen en de risico’s voor gebruikers bij het besturen van AI-systemen tot een minimum te beperken, en wijst op het cruciale belang van het voorzorgsbeginsel, als verankerd in artikel 191 VWEU, voor risicoanalyses en risicobeheer; dringt erop aan passend te reageren op de behoefte aan een geschikte benadering voor gegevensbescherming en het omgaan met risico’s die verband houden met hacking en cybercriminaliteit;

6. merkt op dat volgens de huidige regelgeving inzake productveiligheid de producent aansprakelijk blijft totdat het tegendeel is bewezen en dat ook de bewijslast bij de producenten en/of ontwikkelaars ligt; beklemtoont dat dit beginsel moet worden uitgebreid tot AI-producten; beveelt aan dat in gevallen waarin bewijzen aantonen dat de producent en/of ontwikkelaar niet aansprakelijk zijn, een exploitant met een hogere mate van controle dan de eigenaar of gebruiker van gegeven producten of diensten die zijn uitgerust met AI, moet worden beschouwd als de partij die in de beste positie verkeert om de risico’s te beheren, en dat de bewijslast in dat geval moet verschuiven naar de exploitant; merkt op dat elke verplichting moet berusten bij de actor die in de beste positie verkeert om het risico aan te pakken; benadrukt dat instemming van de consument een fundamenteel beginsel is voor de ontwikkeling van vervoerdiensten op basis van AI; dringt er bij de Commissie op aan methoden voor het certificeren van dergelijke diensten te ontwikkelen; merkt op dat de bescherming van burgers en bedrijven in de Unie die gebruikmaken van AI-technologieën een duidelijke verdeling van de verantwoordelijkheid tussen de verschillende betrokken partijen vereist, ongeacht of deze partijen in de Unie gevestigd zijn of niet (extraterritoriale werking);

7. benadrukt dat ten minste hetzelfde niveau van productveiligheid moet worden gewaarborgd als het niveau dat momenteel geldt, waarbij ook rekening wordt gehouden met het streefdoel van de Unie in verband met “Vision Zero”, dat het voor slachtoffers van ongevallen gemakkelijker moet worden om verhaal te halen, dat een verhoging van de huidige proceskosten moet worden voorkomen en dat rechtsonzekerheid moet worden vermeden, met name voor bedrijven die hun producten in de Unie en wereldwijd in de handel brengen; beklemtoont in dit verband dat slachtoffers snel schadeloos moeten worden gesteld, ongeacht de aansprakelijkheidsketen;

8. is van mening dat, niettegenstaande het niveau van automatisering en van integratie van AI in vervoersystemen en voertuigen, de verantwoordelijkheid uiteindelijk altijd moet liggen bij een natuurlijke of rechtspersoon, teneinde rechtszekerheid te waarborgen en tegelijkertijd investeringen en de juiste toepassing van de technologie te stimuleren;

9. benadrukt dat het belangrijk is ervoor te zorgen dat bestuurders naar behoren zijn opgeleid en zich altijd ten volle bewust zijn van het niveau van automatisering van een voertuig en van hun aansprakelijkheid, en dat ze op de hoogte moeten zijn van de AI-systemen in hun voertuig en de ermee samenhangende beperkingen zoals activering, deactivering en falen; benadrukt bovendien dat ingebouwde systemen de bestuurder er periodiek op moeten wijzen dat hij of zij verantwoordelijk is om toe te zien op de voertuigstatus en dat de bestuurder duidelijke waarschuwingen moet krijgen over de limieten van het AI-systeem; benadrukt dat bestuurders niet aansprakelijk kunnen worden gesteld indien wordt vastgesteld dat zij volledig geautomatiseerde rijsystemen conform de wet hebben gebruikt;

10. merkt op dat er gebeurtenisregistratietechnologie moet worden ingezet, te gebruiken in het geval van zware ongevallen, met volledige inachtneming van de wetgeving inzake gegevensbescherming en bescherming van de persoonlijke levenssfeer, waarmee het mogelijk is de verantwoordelijkheid van een natuurlijke of rechtspersoon vast te stellen; beklemtoont dat het opslaan, delen en beheren van gegevens van cruciaal belang zullen zijn voor de uitrol van AI in de mobiliteitssector en benadrukt dat een registratiesysteem in geen geval mag worden gebruikt als permanent traceringssysteem; dringt aan op meer onderzoek en ontwikkeling, zowel met openbare als met particuliere middelen, en op bijkomende tests, niet alleen om de productveiligheid en daarmee de verkeersveiligheid te vergroten, maar ook om te zorgen voor concrete gegevens ter bevordering van verdere ontwikkeling; merkt op dat het om incidenten tot een minimum te beperken noodzakelijk is te beschikken over een geavanceerde onderliggende infrastructuur, een intelligent vervoerssysteem dat functioneert op basis van actuele, duidelijke en interpreteerbare gegevens;

11. dringt aan op verder onderzoek om na te gaan of het nodig is Richtlijn 2006/126/EG van het Europees Parlement en de Raad[32] en Richtlijn 2009/103/EG van het Europees Parlement en de Raad[33] aan te passen vanwege de geautomatiseerde functies van voertuigen; verzoekt de Commissie met klem een periodieke beoordeling uit te voeren van het Europese regelgevingskader voor de vervoersector om ervoor te zorgen dat dit geschikt is om in te spelen op de uitdagingen op het gebied van veiligheid en aansprakelijkheid die verband houden met de integratie van AI-technologieën; verzoekt de Commissie bovendien om na te gaan of het mogelijk is in de EU-regelgeving inzake productveiligheid voorschriften op te nemen in verband met de veiligheidsrisico’s van gebrekkige data;

12. benadrukt dat er voor elk niveau van automatisering en AI-integratie nauwkeurig uitgewerkte aansprakelijkheidsregelingen in geval van ongeval of overtreding van de verkeersregels moeten worden opgesteld, en dat deze op een duidelijke manier aan de gebruikers moeten worden meegedeeld om te zorgen voor een soepele overgang van volledige aansprakelijkheid van de bestuurder naar volledige aansprakelijkheid van de fabrikant en de exploitant;

13. wijst erop dat de mate waarin onbemande systemen in het vervoersnet, zoals geautomatiseerde voertuigen en onbemande luchtvaartuigsystemen, kunnen worden geïntegreerd in de landinfrastructuur en het luchtruim, afhankelijk is van vele variabele signalen en omstandigheden en van eventuele gevaren of obstakels die kunnen opduiken; merkt op dat een dergelijke toename van het gebruik, met name in stedelijke gebieden, het bestaande civielrechtelijk aansprakelijkheidsstelsel voortdurend op de proef zal stellen; dringt daarom aan op een regelmatige update van digitale kaarten, verkeersbeheersystemen en voorschriften inzake het delen van data met een verplicht minimaal en passend pakket van informatie en instructies in verband met het gebruik van met AI uitgeruste producten en het wegennet, en dringt tevens aan op een correcte ontwikkeling en uitrol van “U-space”; is van mening dat mensgerichtheid het centrale uitgangspunt moet zijn bij het actualiseren en uitwerken van het regelgevingskader inzake automatisering en integratie van AI in de vervoersector;

14. verzoekt de Commissie richtsnoeren op te stellen om versnipperde regelgevingsbenaderingen op nationaal niveau te voorkomen, en daarbij rekening te houden met Richtlijn 85/374/EEG van de Raad en bestaande nationale aansprakelijkheidsregelingen; benadrukt dat een Uniekader inzake civielrechtelijke aansprakelijkheid noodzakelijk is en beklemtoont dat versnippering uiterst nadelig zou zijn voor de ontwikkeling van deze technologieën en voor het concurrentievermogen van ondernemingen in de Unie, met name kmo’s, en dat versnippering de rechtszekerheid en veiligheid zou ondermijnen en een snelle schadeloosstelling van slachtoffers in de weg zou staan; merkt op dat de aansprakelijkheid moet berusten bij de actor die in de beste positie verkeert om het risico aan te pakken, te bepalen aan de hand van een passende gerechtelijke procedure.


INFORMATIE OVER DE GOEDKEURING IN DE ADVISERENDE COMMISSIE

Datum goedkeuring

14.7.2020

 

 

 

Uitslag eindstemming

+:

–:

0:

49

0

0

Bij de eindstemming aanwezige leden

Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, István Ujhelyi, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski

Bij de eindstemming aanwezige vaste plaatsvervangers

Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti

 


 

HOOFDELIJKE EINDSTEMMING IN DE ADVISERENDE COMMISSIE

49

+

ECR

Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski

GUE/NGL

Leila Chaibi, Kateřina Konečná, Elena Kountoura

ID

Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo

NI

Mario Furore, Dorien Rookmaker

PPE

Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian-Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Elżbieta Katarzyna Łukacijewska

Renew

José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan-Christoph Oetjen, Dominique Riquet

S&D

Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi

Verts/ALE

Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay-Grunenberg, Tilly Metz

 

0

-

 

 

 

0

0

 

 

 

Verklaring van de gebruikte tekens:

+ : voor

- : tegen

0 : onthouding

 

 

 

 


 

INFORMATIE OVER DE GOEDKEURING IN DE BEVOEGDE COMMISSIE

Datum goedkeuring

1.10.2020

 

 

 

Uitslag eindstemming

+:

–:

0:

23

0

1

Bij de eindstemming aanwezige leden

Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos

Bij de eindstemming aanwezige vaste plaatsvervangers

Patrick Breyer, Evelyne Gebhardt, Kosma Złotowski

 


 

HOOFDELIJKE EINDSTEMMING IN DE BEVOEGDE COMMISSIE

23

+

PPE

Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos

S&D

Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken

Renew

Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara

ID

Gunnar Beck, Jean‑Paul Garraud, Gilles Lebreton

Verts/ALE

Patrick Breyer, Marie Toussaint

ECR

Angel Dzhambazki, Kosma Złotowski

NI

Mislav Kolakušić

 

0

-

 

 

 

1

0

GUE/NGL

Manon Aubry

 

Verklaring van de gebruikte tekens:

+ : voor

- : tegen

0 : onthouding

 

 

 

 

 

 

[1] PB L 149 van 11.6.2005, blz. 22.

[2] PB L 304 van 22.11.2011, blz. 64.

[3] PB L 117 van 5.5.2017, blz. 1.

[4] PB L 252 van 8.10.2018, blz. 1.

[5] PB L 136 van 22.5.2019, blz. 1.

[6] PB L 123 van 12.5.2016, blz. 1.

[7] PB C 252 van 18.7.2018, blz. 239.

[8] PB C 307 van 30.8.2018, blz. 163.

[9] PB C 433 van 23.12.2019, blz. 86.

[10] Aangenomen teksten, P8_TA(2019)0081.

[11] Aangenomen teksten, P9_TA(2020)0032.

[12] PB L 011 van 15.1.2002, blz. 4.

[13] PB L 263 van 7.10.2009, blz. 11.

[14] PB ...

[15] PB ...

[16] Richtlijn 85/374/EEG van de Raad van 25 juli 1985 betreffende de onderlinge aanpassing van de wettelijke en bestuursrechtelijke bepalingen der lidstaten inzake de aansprakelijkheid voor producten met gebreken (PB L 210 van 7.8.1985, blz. 29).

[17] PB L 123 van 12.5.2016, blz. 1.

[18] Zie blz. 24 van het witboek van de Commissie van 19 februari 2020 over kunstmatige intelligentie – een Europese benadering op basis van excellentie en vertrouwen (COM(2020)0065),

[19] Verordening (EU) 2016/679 van het Europees Parlement en de Raad van 27 april 2016 betreffende de bescherming van natuurlijke personen in verband met de verwerking van persoonsgegevens en betreffende het vrije verkeer van die gegevens en tot intrekking van Richtlijn 95/46/EG (algemene verordening gegevensbescherming) (PB L 119 van 4.5.2016, blz. 1).

[20] Verordening (EU) 2018/858 van het Europees Parlement en de Raad van 30 mei 2018 betreffende de goedkeuring van en het markttoezicht op motorvoertuigen en aanhangwagens daarvan en systemen, onderdelen en technische eenheden die voor dergelijke voertuigen zijn bestemd, tot wijziging van Verordeningen (EG) nr. 715/2007 en (EG) nr. 595/2009 en tot intrekking van Richtlijn 2007/46/EG (PB L 151 van 14.6.2018, blz. 1).

[21] Verordening (EU) 2019/1020 van het Europees Parlement en de Raad van 20 juni 2019 betreffende markttoezicht en productconformiteit en tot wijziging van Richtlijn 2004/42/EG en de Verordeningen (EG) nr. 765/2008 en (EU) nr. 305/2011 (PB L 169 van 25.6.2019, blz. 1).

[22] Richtlijn 85/374/EEG van de Raad van 25 juli 1985 betreffende de onderlinge aanpassing van de wettelijke en bestuursrechtelijke bepalingen der lidstaten inzake de aansprakelijkheid voor producten met gebreken (PB L 210 van 7.8.1985, blz. 29).

[23] Te herzien door de Europese Commissie, als uiteengezet in paragraaf 16 van de ontwerpresolutie.

[26] Richtlijn 85/374/EEG van de Raad van 25 juli 1985 betreffende de onderlinge aanpassing van de wettelijke en bestuursrechtelijke bepalingen der lidstaten inzake de aansprakelijkheid voor producten met gebreken (PB L 210 van 7.8.1985, blz. 29).

[27] Richtlijn 2001/95/EG van het Europees Parlement en de Raad van 3 december 2001 inzake algemene productveiligheid (PB L 11 van 15.1.2002, blz. 4).

[28] Richtlijn (EU) 2019/790 van het Europees Parlement en de Raad van 17 april 2019 inzake auteursrechten en naburige rechten in de digitale eengemaakte markt (PB L 130 van 17.5.2019, blz. 92).

[29] Richtlijn (EU) 2019/770 van het Europees Parlement en de Raad van 20 mei 2019 betreffende bepaalde aspecten van overeenkomsten voor de levering van digitale inhoud en digitale diensten (PB L 136 van 22.5.2019, blz. 1).

[30] Richtlijn (EU) 2019/771 van het Europees Parlement en de Raad van 20 mei 2019 betreffende bepaalde aspecten van overeenkomsten voor de verkoop van goederen, tot wijziging van Verordening (EU) 2017/2394 en Richtlijn 2009/22/EG, en tot intrekking van Richtlijn 1999/44/EG (PB L 136 van 22.5.2019, blz. 28).

[31] Richtlijn 85/374/EEG van de Raad van 25 juli 1985 betreffende de onderlinge aanpassing van de wettelijke en bestuursrechtelijke bepalingen der lidstaten inzake de aansprakelijkheid voor producten met gebreken (PB L 210 van 7.8.1985, blz. 29).

[32]  Richtlijn 2006/126/EG van het Europees Parlement en de Raad van 20 december 2006 betreffende het rijbewijs (PB L 403 van 30.12.2006, blz. 18).

[33]  Richtlijn 2009/103/EG van het Europees Parlement en de Raad van 16 september 2009 betreffende de verzekering tegen de wettelijke aansprakelijkheid waartoe de deelneming aan het verkeer van motorrijtuigen aanleiding kan geven en de controle op de verzekering tegen deze aansprakelijkheid (PB L 263 van 7.10.2009, blz. 11).

Laatst bijgewerkt op: 19 oktober 2020Juridische mededeling - Privacybeleid