BETÆNKNING med henstillinger til Kommissionen om en civilretlig erstatningsansvarsordning for kunstig intelligens
5.10.2020 - (2020/2014(INL))
Retsudvalget
Ordfører: Axel Voss
(Initiativ – forretningsordenens artikel 47)
- FORSLAG TIL EUROPA-PARLAMENTETS BESLUTNING
- BILAG TIL FORSLAGET TIL BESLUTNING DETALJEREDE HENSTILLINGER MED HENBLIK PÅ UDARBEJDELSE AF EUROPA-PARLAMENTETS OG RÅDETS FORORDNING OM ERSTATNINGSANSVAR FOR DRIFT AF SYSTEMER MED KUNSTIG INTELLIGENS
- BEGRUNDELSE
- UDTALELSE FRA UDVALGET OM DET INDRE MARKED OG FORBRUGERBESKYTTELSE
- UDTALELSE FRA TRANSPORT- OG TURISMEUDVALGET
- OPLYSNINGER OM VEDTAGELSE I KORRESPONDERENDE UDVALG
- RESULTAT AF AFSTEMNING VED NAVNEOPRÅB I RÅDGIVENDE UDVALG
FORSLAG TIL EUROPA-PARLAMENTETS BESLUTNING
med henstillinger til Kommissionen om en civilretlig erstatningsansvarsordning for kunstig intelligens
Europa-Parlamentet,
– der henviser til artikel 225 i traktaten om Den Europæiske Unions funktionsmåde,
– der henviser til artikel 114 og 169 i traktaten om Den Europæiske Unions funktionsmåde,
– der henviser til Rådets direktiv 85/374/EØF af 25. juli 1985 om tilnærmelse af medlemsstaternes administrativt eller ved lov fastsatte bestemmelser om produktansvar,
– der henviser til Europa-Parlamentets og Rådets direktiv 2005/29/EF af 11. maj 2005 om virksomheders urimelige handelspraksis over for forbrugerne på det indre marked ("direktivet om urimelig handelspraksis")[1] og Europa-Parlamentets og Rådets direktiv 2011/83/EF af 25. oktober 2011 om forbrugerrettigheder[2] samt andre regler om forbrugerbeskyttelse,
– der henviser til Europa-Parlamentets og Rådets forordning (EU) 2017/745 af 5. april 2017 om medicinsk udstyr[3],
– der henviser til Rådets forordning (EU) 2018/1488 af 28. september 2018 om oprettelse af et europæisk fællesforetagende for højtydende databehandling[4],
– der henviser til Europa-Parlamentets og Rådets direktiv (EU) 2019/770 af 20. maj 2019 om visse aspekter af aftaler om levering af digitalt indhold og digitale tjenester[5],
– der henviser til den interinstitutionelle aftale af 13. april 2016 om bedre lovgivning og retningslinjerne for bedre regulering[6],
– der henviser til forslag til Europa-Parlamentets og Rådets forordning om programmet for et digitalt Europa for perioden 2021-2027 (COM(2018)0434),
– der henviser til Kommissionens meddelelse af 25. april 2018 om kunstig intelligens for Europa (COM(2018)0237),
– der henviser til Kommissionens meddelelse af 7. december 2018 om en koordineret plan for kunstig intelligens (COM(2018)0795),
– der henviser til Kommissionens meddelelse af 8. april 2019 om opbygning af tillid til menneskecentreret kunstig intelligens (COM(2019)0168),
– der henviser til Kommissionens rapport af 19. februar 2020 til Europa-Parlamentet, Rådet og Det Europæiske Økonomiske og Sociale Udvalg om de konsekvenser, som kunstig intelligens, tingenes internet og robotteknologi vil have for sikkerhed og erstatningsansvar (COM(2020)0064),
– der henviser til Kommissionens hvidbog af 19. februar 2020 om kunstig intelligens – en europæisk tilgang til ekspertise og tillid (COM(2020)0065),
– der henviser til sin beslutning af 16. februar 2017 med henstillinger til Kommissionen om civilretlige bestemmelser om robotteknologi[7],
– der henviser til sin beslutning af 1. juni 2017 om digitalisering af den europæiske industri[8],
– der henviser til sin beslutning af 12. september 2018 om autonome våbensystemer[9],
– der henviser til sin beslutning af 12. februar 2019 om en omfattende europæisk industripolitik om kunstig intelligens og robotteknologi[10],
– der henviser til sin beslutning af 12. februar 2020 om automatiserede beslutningsprocesser: sikring af forbrugerbeskyttelse og fri bevægelighed for varer og tjenesteydelser[11],
– der henviser til rapporten af 8. april 2019 fra Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens med titlen "Ethics Guidelines for Trustworthy AI" (Etiske retningslinjer for pålidelig kunstig intelligens),
– der henviser til rapport af 8. april 2019 fra Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens med titlen "A definition of AI: Main Capabilities and Disciplines" (En definition af kunstig intelligens: De vigtigste kapaciteter og discipliner),
– der henviser til rapport af 26. juni 2019 fra Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens med titlen "Policy and investment recommendations for trustworthy AI" (Politiske og investeringsmæssige anbefalinger vedrørende pålidelig kunstig intelligens),
– der henviser til rapport af 21. november 2019 fra ekspertgruppen vedrørende ansvar og nye teknologier – konstellationen for nye teknologier med titlen "Liability for Artificial Intelligence and other emerging digital technologies" (Ansvar for kunstig intelligens og andre nye digitale teknologier),
– der henviser til politikbriefing fra Europa-Parlamentets Forskningstjenestes Enhed for Videnskabeligt Fremsyn (STOA) fra juni 2016 om retlige og etiske overvejelser vedrørende robotteknologi,
– der henviser til Europa-Parlamentets Generaldirektorat for Interne Politikkers studie fra oktober 2016 på vegne af Retsudvalget med titlen "European Civil Law Rules in Robotics" (Europæiske civilretlige bestemmelser vedrørende robotteknologi),
– der henviser til forretningsordenens artikel 47 og 54,
– der henviser til udtalelser fra Udvalget om det Indre Marked og Forbrugerbeskyttelse og fra Transport- og Turismeudvalget,
– der henviser til betænkning fra Retsudvalget (A9-0178/2020),
A. der henviser til, at begrebet "erstatningsansvar" spiller en vigtig dobbeltrolle i vores dagligdag: på den ene side sikrer det, at en person, der har lidt skade, har ret til at søge og modtage erstatning fra den part, der bevisligt er erstatningsansvarlig for den pågældende skade, og på den anden side giver det fysiske og juridiske personer det økonomiske incitament til at undgå at forvolde skade i det hele taget eller tage højde for risikoen for at skulle yde erstatning i deres handlemåde;
B. der henviser til, at enhver fremtidsorienteret ramme for civilretligt erstatningsansvar skal indgyde tillid til produkters og tjenesteydelsers, herunder den digitale teknologis, sikkerhed, pålidelighed og overensstemmelse for at ramme den rette balance mellem effektivt og rimeligt at beskytte potentielle skadelidte og samtidig give tilpas meget spillerum til at gøre det muligt for virksomheder, og navnlig små og mellemstore virksomheder, at udvikle nye teknologier, produkter eller tjenester; der henviser til, at dette vil bidrage til at opbygge tillid og skabe stabilitet for investeringer; der henviser til, at det ultimative mål for enhver ramme for erstatningsansvar bør være at skabe retssikkerhed for alle parter, det være sig producenten, operatøren, den berørte person eller en hvilken som helst tredjepart;
C. der henviser til, at en medlemsstats retssystem kan tilpasse sine regler om erstatningsansvar for visse aktører eller skærpe dem for bestemte aktiviteter; der henviser til, at objektivt ansvar betyder, at en part kan gøres erstatningsansvarlig, selv om der ikke foreligger culpa; der henviser til, at den sagsøgte i mange nationale erstatningslove tillægges objektivt erstatningsansvar, hvis en risiko, som den pågældende sagsøgte har skabt for offentligheden, f.eks. i form af biler eller farlige aktiviteter, eller en risiko, som vedkommende ikke kan kontrollere, f.eks. dyr, fører til, at der sker skade;
D. der henviser til, at der forud for al fremtidig EU-lovgivning, der har en udtrykkelig fordeling af ansvar i forbindelse med systemer for kunstig intelligens (AI) som mål, bør foretages en analyse og høring af medlemsstaterne vedrørende den foreslåede retsakts forenelighed med de økonomiske, juridiske og sociale forhold;
E. der henviser til, at spørgsmålet om en civilretlig erstatningsansvarsordning for AI bør være genstand for en bred offentlig debat, der tager alle involverede interesser i betragtning, navnlig de etiske, juridiske, økonomiske og sociale aspekter, for at undgå misforståelser og uberettiget frygt, som denne slags teknologi kan give anledning til blandt borgerne; der henviser til, at en grundig undersøgelse af konsekvenserne af enhver ny lovgivningsramme for alle aktører i en konsekvensanalyse bør være en forudsætning for yderlige lovgivningsmæssige skridt;
F. der henviser til, at begrebet AI-systemer omfatter en stor gruppe af forskellige teknologier, herunder simpel statistik, maskinlæring og dyb læring;
G. der henviser til, at anvendelsen af udtrykket "automatiseret beslutningstagning" kan forhindre den eventuelle tvetydighed i termen kunstig intelligens; der henviser til, at "automatiseret beslutningstagning" betyder, at en bruger fra starten, helt eller delvist, delegerer en beslutning til en enhed ved brug af software eller en tjeneste; der henviser til, at denne enhed derefter anvender automatisk effektuerede beslutningsmodeller til at udføre en handling på vegne af en bruger eller til at informere brugerens beslutninger i forbindelse med udførelsen af handlingen;
H. der henviser til, at visse AI-systemer rummer betydelige juridiske udfordringer for den eksisterende ramme for erstatningsansvar og vil kunne føre til situationer, hvor deres uigennemsigtighed kan gøre det voldsomt dyrt eller endog umuligt at afgøre, hvem der havde kontrol over den risiko, som var forbundet med AI-systemet, eller hvilken kode, hvilket input eller hvilke data der i sidste ende har forårsaget den skadevoldende driftshændelse; der henviser til, at denne faktor kan gøre det vanskeligere at fastslå sammenhængen mellem skaden og den adfærd, der forvolder den, med den konsekvens, at ofre muligvis ikke modtager passende erstatning;
I. der henviser til, at de juridiske udfordringer også hidrører fra konnektiviteten mellem et AI-system og andre AI-systemer og ikke-AI-systemer, deres afhængighed af eksterne data, deres sårbarhed over for brud på cybersikkerheden samt fra udformningen af stadig mere autonome AI-systemer, som bl.a. anvender maskinindlæring og dyb læring;
J. der henviser til, at forsvarlige etiske standarder for AI-systemer kombineret med solide og rimelige erstatningsprocedurer kan bidrage til at håndtere disse juridiske udfordringer og fjerne risikoen for, at brugerne er mindre villige til at acceptere ny teknologi; der henviser til, at rimelige erstatningsprocedurer betyder, at alle, der lider skade som følge af AI-systemer, eller som påføres materiel skade af AI-systemer, bør nyde samme beskyttelsesniveau som i sager, hvor der ikke er et AI-system involveret; der henviser til, at brugerne har brug for sikkerhed for, at potentielle skader, der forårsages af systemer, der anvender AI, dækkes af tilstrækkelig forsikring, og at der er en defineret juridisk vej til erstatning;
K. der henviser til, at retssikkerhed også er en afgørende forudsætning for en dynamisk udvikling og innovation inden for AI-baseret teknologi, navnlig for nystartede virksomheder, mikrovirksomheder og små og mellemstore virksomheder, og den praktiske anvendelse heraf i dagligdagen; der henviser til, at nystartede virksomheders, mikrovirksomheders og små og mellemstore virksomheders meget vigtige rolle, navnlig i den europæiske økonomi, berettiger en strengt forholdsmæssig tilgang, som gør det muligt for dem at udvikle sig og innovere;
L. der henviser til, at mangfoldigheden af AI-systemer og de mange forskellige risici, som teknologien medfører, vanskeliggør bestræbelserne på at finde én enkelt løsning, der egner sig til hele risikospektret; der i denne forbindelse henviser til, at der skal vedtages en fremgangsmåde, hvor eksperimenter, pilotforsøg og reguleringsmæssige sandkasser anvendes til at finde frem til forholdsmæssige og evidensbaserede løsninger, der adresserer specifikke situationer og sektorer efter behov;
Indledning
1. mener, at udfordringen i forbindelse med indførelsen af AI-systemer i samfundet, på arbejdspladserne og i økonomien er et af de vigtigste emner på den aktuelle politiske dagsorden; der henviser til, at teknologier baseret på AI kan og bør tilstræbe at forbedre vores liv på næsten alle områder, lige fra den personlige sfære, f.eks. transportsektoren, individuelt tilpasset uddannelse, hjælp til sårbare personer, fitnessprogrammer og kreditgivning, til arbejdsmiljøet, f.eks. aflastning fra ensformige og repetitive opgaver, og til globale udfordringer som klimaforandringer, sundhed, ernæring og logistik;
2. er af den faste overbevisning, at ensartet, principbaseret og fremtidssikret lovgivning i hele Unionen om alle AI-systemer er af afgørende betydning for at kunne at udnytte fordelene effektivt og forhindre potentielt misbrug af AI-systemer og undgå uensartet lovgivning i Unionen; er af den opfattelse, at selv om sektorspecifikke bestemmelser for den brede vifte af mulige anvendelser er at foretrække, forekommer en horisontal og harmoniseret lovgivningsmæssig ramme baseret på fælles principper at være nødvendig for at sikre retssikkerhed, fastsætte ensartede standarder i hele Unionen og effektivt at beskytte vore europæiske værdier og borgerlige rettigheder;
3. anfører, at en fuldstændig harmonisering af det digitale indre marked er nødvendig, da den digitale sfære er kendetegnet ved hurtige grænseoverskridende dynamikker og internationale datastrømme; mener, at Unionen kun vil kunne nå målene om at fastholde sin digitale suverænitet og sætte gang i digital innovation i Europa med konsekvente og fælles regler, som er i overensstemmelse med en innovationskultur;
4. bemærker, at det globale AI-kapløb allerede er i gang, og at Unionen bør spille en ledende rolle i det ved at udnytte sit videnskabelige og teknologiske potentiale; understreger kraftigt, at teknologiudvikling ikke må ske på bekostning af beskyttelsen af brugerne mod skader, der kan forårsages af enheder og systemer, der anvender AI; tilskynder til, at Unionens standarder for civilretligt erstatningsansvar fremmes på internationalt plan;
5. er af den faste overbevisning, at de nye fælles regler for AI-systemer kun bør udformes som en forordning; mener, at spørgsmålet om erstatningsansvar i tilfælde, hvor skader forårsages af et AI-system, er et af de vigtigste aspekter, som der skal tages stilling til inden for denne ramme;
Erstatningsansvar og kunstig intelligens
6. mener, at der ikke er behov for en fuldstændig revision af de velfungerende erstatningsansvarsordninger, men at AI-systemers kompleksitet, konnektivitet, uigennemsigtighed, sårbarhed, evne til at blive ændret gennem opdateringer, evne til selvlæring og potentielle autonomi såvel som den mangfoldighed af aktører, der er involveret i dem, ikke desto mindre udgør en væsentlig udfordring for effektiviteten af Unionens og medlemsstaternes egne rammebestemmelser om erstatningsansvar; mener, at der er behov for specifikke og koordinerede tilpasninger af erstatningsansvarsordningerne for at undgå en situation, hvor personer, der lider skade, eller hvis ejendom beskadiges, ikke får nogen erstatning;
7. bemærker, at alle fysiske eller virtuelle aktiviteter, enheder eller processer, der drives af AI-systemer, teknisk set kan være den direkte eller indirekte årsag til skade, men alligevel næsten altid er resultatet af, at nogen bygger, udbreder eller foretager indgreb i systemerne; bemærker i denne forbindelse, at det ikke er nødvendigt at tildele AI-systemer status som juridisk person; er af den opfattelse, at AI-systemers uigennemsigtighed, konnektivitet og autonomi i praksis kan gøre det meget vanskeligt eller endog umuligt at spore AI-systemers specifikke skadelige handlinger tilbage til specifikke menneskelige input eller til designmæssige beslutninger; minder om, at det i overensstemmelse med almindeligt anerkendte begreber vedrørende erstatningsansvar ikke desto mindre er muligt at omgå denne hindring ved at holde de forskellige personer i hele værdikæden, der skaber, opretholder eller kontrollerer den risiko, der er forbundet med AI-systemet, erstatningsansvarlige;
8. mener, at produktansvarsdirektivet i over 30 år har vist sig at være et effektivt middel til at opnå erstatning for skader som følge af et defekt produkt, men at det ikke desto mindre bør revideres med henblik på at tilpasse det til den digitale verden og tackle de udfordringer, som de nye digitale teknologier medfører, og dermed sikre en høj grad af effektiv forbrugerbeskyttelse samt retssikkerhed for forbrugere og virksomheder, samtidig med at store omkostninger og risici for SMV'er og nystartede virksomheder undgås; opfordrer indtrængende Kommissionen til at foretage en vurdering af, om produktansvarsdirektivet bør laves om til en forordning, præcisere definitionen af "produkter" ved at afgøre, om digitalt indhold og digitale tjenester falder ind under dets anvendelsesområde, og overveje at tilpasse begreber som "skade", "defekt" og "producent"; er af den opfattelse, at begrebet "producent" af hensyn til retssikkerheden i hele Unionen efter gennemgangen af produktansvarsdirektivet bør omfatte producenter, udviklere, programmører, tjenesteydere samt "backend-operatører"; opfordrer Kommissionen til at overveje at vende om på reglerne om bevisbyrden for skader forvoldt af nye digitale teknologier i klart definerede tilfælde og efter en grundig vurdering; påpeger, at det er vigtigt at sikre, at den ajourføte EU-retsakt fortsat begrænses til klart identificerede problemer, som der allerede findes gennemførlige løsninger på, og at den samtidig gør det muligt at dække fremtidig teknologisk udvikling, herunder udvikling baseret på gratis og open source software; bemærker, at produktansvarsdirektivet fortsat bør anvendes i forbindelse med civilretlige erstatningskrav mod producenten af et defekt AI-system, når AI-systemet kan klassificeres som et produkt, der er omfattet heraf; understreger, at enhver ajourføring af produktansvarsrammen bør gå hånd i hånd med ajourføringen af Europa-Parlamentets og Rådets direktiv 2001/95/EF af 3. december 2001 om produktsikkerhed i almindelighed[12] for at sikre, at AI-systemer integrerer principperne om indbygget sikkerhed;
9. mener, at medlemsstaternes gældende lovgivning baseret på culpaansvar i de fleste tilfælde giver et tilstrækkeligt beskyttelsesniveau for personer, der lider skade som følge af indgreb fra en tredjepart såsom en hacker, eller for personer, på hvis ejendom en sådan tredjepart forvolder skade, idet indgrebet i reglen udgør en culpabaseret handling; bemærker, at det kun i særlige tilfælde, herunder når tredjeparten ikke kan findes eller er uden midler, synes nødvendigt at tilføje regler om erstatningsansvar som supplement til gældende national erstatningsret;
10. anser det derfor for hensigtsmæssigt, at denne betænkning fokuserer på civilretlige erstatningskrav mod operatøren af et AI-system; bekræfter, at operatørens erstatningsansvar retfærdiggøres af det forhold, at vedkommende kontrollerer en risiko, der er forbundet med AI-systemet, hvilket kan sammenlignes med ejeren af en bil; mener, at det på grund af AI-systemets kompleksitet og konnektivitet i mange tilfælde vil være operatøren, som er det første synlige kontaktpunkt for den berørte person;
Operatørens erstatningsansvar
11. mener, at bestemmelser om erstatningsansvar, der involverer operatøren, bør dække alle AI-systemdriftshandlinger, uanset hvor de finder sted, og om de er fysiske eller virtuelle; bemærker, at handlinger i offentlige rum, der udsætter mange personer for risiko, imidlertid udgør tilfælde, som kræver yderligere overvejelse; mener, at de potentielle ofre for skader ofte ikke er opmærksomme på handlingen og i reglen ikke kan gøre erstatningskrav gældende over for operatøren i henhold til en kontrakt; bemærker, at sådanne personer, når skader indtræffer, i så fald kun vil have et erstatningskrav baseret på culpaansvar og kan få vanskeligt ved at bevise culpa hos operatøren, og at sådanne ansvarskrav dermed slår fejl;
12. anser det for hensigtsmæssigt at forstå, at "operatøren" dækker både frontend- og backend-operatøren, så længe sidstnævnte ikke er omfattet af produktansvarsdirektivet; bemærker, at frontend-operatøren bør defineres som den fysiske eller juridiske person, der udøver en grad af kontrol over en risiko i forbindelse med AI-systemets drift og funktion og drager fordel af driften af det; anfører, at backend-operatøren bør defineres som den fysiske eller juridiske person, der løbende definerer de elementer, der indgår i teknologien, leverer data og væsentlige backend-støttetjenester og derfor også udøver en vis kontrol over den risiko, der er forbundet med AI-systemets drift og funktion; mener, at "at udøve kontrol" betyder enhver handling fra operatørens side, der påvirker driften af AI-systemet og dermed det omfang, hvori det udsætter tredjeparter for dets potentielle risici; mener, at sådanne handlinger kan påvirke driften af et AI-system fra start til slut ved at bestemme input, output eller resultater eller kan ændre specifikke funktioner eller processer i AI-systemet;
13. bemærker, at der kan være situationer, hvor der er mere end én operatør, f.eks. en backend- og en frontend-operatør; mener, at alle operatører i så tilfælde bør hæfte solidarisk og samtidig have ret til at gøre forholdsmæssig regres mod hinanden; er af den opfattelse, at andelene af ansvaret bør bestemmes af de respektive grader af kontrol, som operatørerne havde over den risiko, der er forbundet med AI-systemets drift og funktion; mener, at produktsporbarheden bør forbedres for at gøre det lettere at identificere dem, der er involveret i de forskellige faser;
Forskellige regler om erstatningsansvar for forskellige risici
14. anerkender, at det er en afgørende faktor med hensyn til erstatningsansvaret, hvilken type AI-system operatøren udøver kontrol over; bemærker, at et AI-system, der indebærer en høj iboende risiko og arbejder autonomt, potentielt i langt højere grad bringer offentligheden i fare; mener, at det i lyset af de juridiske udfordringer, som AI-systemer udgør i forhold til de gældende civilretlige erstatningsansvarsordninger, forekommer rimeligt at indføre en fælles ordning med objektivt erstatningsansvar for disse autonome højrisiko-AI-systemer; understreger, at en sådan risikobaseret tilgang, der kan omfatte flere risikoniveauer, bør være baseret på klare kriterier og en passende definition af høj risiko og skabe retssikkerhed;
15. er af den opfattelse, at et AI-system udgør en høj risiko, hvis dets autonome drift indebærer et betydeligt potentiale for at forvolde skade på én eller flere personer på en tilfældig måde, som går ud over det, man med rimelighed kan forvente; mener, at der ved afgørelsen af, om et AI-system er et højrisikosystem, også bør tages hensyn til den sektor, hvor der kan forventes at opstå høj risiko, og arten af de gennemførte aktiviteter; mener, at potentialets størrelse afhænger af forholdet mellem alvorsgraden af den skade, der kan forvoldes, sandsynligheden for, at der rent faktisk sker skade, og den måde, hvorpå AI-systemet anvendes;
16. anbefaler, at alle højrisiko-AI-systemer opføres udtømmende i et bilag til den foreslåede forordning; anerkender, at Kommissionen i betragtning af den hurtige teknologiske udvikling og den nødvendige tekniske ekspertise bør revidere dette bilag uden unødig forsinkelse, men som minimum hver sjette måned, og om nødvendigt ændre det ved en delegeret retsakt; mener, at Kommissionen bør arbejde tæt sammen med et nyoprettet stående udvalg svarende til det eksisterende Stående Udvalg vedrørende Udgangsstoffer eller Det Tekniske Udvalg for Motorkøretøjer, som omfatter nationale eksperter fra medlemsstaterne og interessenter; mener, at en afbalanceret sammensætning af medlemmerne af "Ekspertgruppen på Højt Niveau vedrørende Kunstig Intelligens" vil kunne tjene som eksempel for dannelsen af gruppen af interessenter med deltagelse af eksperter i etik og antropologer, sociologer og specialister i mental sundhed; er også af den opfattelse, at Europa-Parlamentet bør udpege rådgivende eksperter til at rådgive det nyoprettede stående udvalg;
17. bemærker, at udviklingen af teknologier, der er baseret på AI, er ekstremt dynamisk og konstant accelererer; understreger, at der for at sikre tilstrækkelig beskyttelse af brugerne er behov for en fast track-tilgang til analyse af nye enheder og systemer, der anvender AI-systemer, som lanceres på det europæiske marked, i forhold til potentielle risici; anbefaler, at alle procedurer i denne henseende forenkles mest muligt; foreslår endvidere, at Kommissionens vurdering af, om et AI-system indebærer en høj risiko, bør begynde samtidig med produktsikkerhedsvurderingen, således at man undgår en situation, hvor et højrisiko-AI-system allerede er godkendt til markedet, men endnu ikke er klassificeret som værende af høj risiko og dermed fungerer uden obligatorisk forsikringsdækning;
18. bemærker, at Kommissionen bør vurdere, hvordan de data, der indsamles, registreres eller lagres i højrisiko-AI-systemer med henblik på at samle bevismateriale i tilfælde af skader forvoldt af AI-systemet, kan tilgås og anvendes af den undersøgende myndighed, og hvordan sporbarheden og muligheden for revision af sådanne data kan forbedres, samtidig med at der tages hensyn til de grundlæggende rettigheder og retten til privatlivets fred;
19. anfører, at den foreslåede forordning i overensstemmelse med medlemsstaternes ordninger med objektivt erstatningsansvar bør dække krænkelser af de vigtige lovbeskyttede rettigheder til liv, sundhed, fysisk integritet og ejendom og fastlægge størrelsen og omfanget af erstatningen samt forældelsesfristen; er af den opfattelse, at den foreslåede forordning også bør omfatte betydelig immateriel skade, som medfører et kontrollerbart økonomisk tab, som overstiger en tærskel, der er harmoniseret i EU-lovgivningen om erstatningsansvar, og som skaber balance mellem adgangen til domstolene for de berørte personer og andre involverede personers interesser; opfordrer indtrængende Kommissionen til at revurdere og tilpasse tærsklerne for erstatning i EU-lovgivningen; er af den opfattelse, at Kommissionen bør foretage en grundig analyse af retstraditionerne i alle medlemsstaterne og deres gældende nationale retsregler om erstatning for immateriel skade, med henblik på at vurdere, om det er nødvendigt at medtage immateriel skade i AI-specifikke retsakter, og om det strider mod den eksisterende EU-lovgivning eller underminerer medlemsstaternes nationale regler;
20. fastslår, at alle aktiviteter, anordninger eller processer, der drives af AI-systemer, som forvolder skade, men som ikke er opført i bilaget til den foreslåede forordning, fortsat bør være omfattet af culpaansvar; mener, at den berørte person ikke desto mindre bør nyde godt af en formodning om culpa hos operatøren, der bør kunne undgå at ifalde ansvar ved at bevise at have udvist den fornødne omhu;
21. mener, at et AI-system, der endnu ikke er blevet vurderet af Kommissionen og det nydannede stående udvalg og dermed endnu ikke er klassificeret som værende af høj risiko og ikke er opført på listen i bilaget til den foreslåede forordning, ikke desto mindre som en undtagelse fra systemet i punkt 20 bør være underlagt objektivt ansvar, hvis det forårsager gentagne hændelser, der medfører alvorlig skade; bemærker, at Kommissionen, hvis dette er tilfældet, uden unødig forsinkelse også bør vurdere, om det er nødvendigt at revidere bilaget for at tilføje det pågældende AI-system til listen; er af den opfattelse, at hvis Kommissionen efter denne vurdering beslutter at opføre AI-systemet på listen, bør optagelsen have tilbagevirkende kraft fra tidspunktet for den første dokumenterede hændelse forårsaget af AI-systemet, der har medført alvorlig skade;
22. anmoder Kommissionen om at vurdere behovet for aftaleretlige regler på EU-plan for at undgå aftalemæssige ansvarsfraskrivelser, herunder i relationer mellem virksomheder og mellem virksomheder og myndigheder;
Forsikringer og AI-systemer
23. anser dækning af erstatningsansvar for at være en af de centrale faktorer, der afgør, om nye teknologier, produkter og tjenester får succes; bemærker, at en passende dækning af erstatningsansvar også er afgørende i forhold til at kunne forsikre offentligheden om, at den kan nære tillid til den nye teknologi på trods af potentialet for at lide skade eller for at risikere sagsanlæg fra berørte personer; bemærker samtidig, at dette regelsæt fokuserer på behovet for at udnytte og forbedre fordelene ved AI-systemer, samtidig med at der indføres robuste sikkerhedsforanstaltninger;
24. er af den opfattelse, at alle operatører af højrisiko-AI-systemer, som er opført i bilaget til den foreslåede forordning, bør have en ansvarsforsikring, på grundlag af det betydelige potentiale for at forvolde skade og under hensyntagen til Europa-Parlamentets og Rådets direktiv 2009/103/EF af 16. september 2009 om ansvarsforsikring for motorkøretøjer og kontrollen med forsikringspligtens overholdelse[13]; mener, at en sådan obligatorisk forsikringsordning for højrisiko-AI-systemer bør dække de beløb og det erstatningsomfang, som fastsættes i den foreslåede forordning; er bevidst om, at denne teknologi stadig er meget sjælden, idet den forudsætter et højt niveau af autonom beslutningstagning, og at de aktuelle diskussioner derfor primært orienterer sig mod fremtiden; mener ikke desto mindre, at uvished vedrørende risici ikke bør medføre prohibitivt høje forsikringspræmier og dermed være en hindring for forskning og innovation;
25. mener, at en erstatningsmekanisme på EU-plan, der finansieres med offentlige midler, ikke er den rette metode til at råde bod på eventuelle forsikringsmæssige huller; mener, at mangel på data om de risici, der er forbundet med AI-systemer, kombineret med usikkerhed angående udviklingen i fremtiden gør det svært for forsikringsbranchen at udvikle tilpassede eller nye forsikringsprodukter; mener, at det at overlade udviklingen af en obligatorisk forsikring helt til markedet sandsynligvis vil resultere i en universalløsning med uforholdsmæssigt høje præmier og de forkerte incitamenter, hvilket vil stimulere operatørerne til at vælge den billigste forsikring frem for den bedste dækning og kan blive en hindring for forskning og innovation; mener, at Kommissionen bør arbejde tæt sammen med forsikringsbranchen for at se, hvordan data og innovative modeller kan anvendes til at udvikle forsikringspolicer, der giver tilstrækkelig dækning til en pris, der er til at betale;
Afsluttende aspekter
26. anmoder Kommissionen om på grundlag af artikel 225 i traktaten om Den Europæiske Unions funktionsmåde at fremsætte et forslag til forordning om erstatningsansvar for drift af systemer med kunstig intelligens i overensstemmelse med henstillingerne i bilaget;
27. finder, at det forslag, der anmodes om, er uden finansielle følgevirkninger;
28. pålægger sin formand at sende denne beslutning og henstillingerne i bilaget til Kommissionen og Rådet.
BILAG TIL FORSLAGET TIL BESLUTNING DETALJEREDE HENSTILLINGER MED HENBLIK PÅ UDARBEJDELSE AF EUROPA-PARLAMENTETS OG RÅDETS FORORDNING OM ERSTATNINGSANSVAR FOR DRIFT AF SYSTEMER MED KUNSTIG INTELLIGENS
A. FORSLAGETS PRINCIPPER OG MÅL
Denne betænkning omhandler et vigtigt aspekt af digitaliseringen, som selv formes af grænseoverskridende aktiviteter, global konkurrence og grundlæggende samfundsmæssige overvejelser. Følgende principper bør tjene som vejledning:
Et ægte digitalt indre marked kræver fuld harmonisering ved en forordning. Der skal tages hånd om nye retlige udfordringer, som opstår i forbindelse med udviklingen af systemer med kunstig intelligens (AI), ved at skabe maksimal retssikkerhed i hele erstatningsansvarskæden, herunder for producenten, operatøren, den berørte person og enhver anden tredjepart. Der bør ikke ske overregulering, og bureaukrati skal forhindres, da europæisk innovation inden for kunstig intelligens ellers vil blive hæmmet, navnlig hvad angår teknologi, produkter eller tjenester udviklet af SMV'er eller nystartede virksomheder. Reglerne om civilretligt erstatningsansvar for AI bør forsøge at finde balancen mellem beskyttelsen af offentligheden på den ene side og erhvervslivets incitamenter til at investere i innovation, navnlig AI-systemer, på den anden side. I stedet for at erstatte de eksisterende velfungerende erstatningsansvarsordninger bør der foretages nogle få nødvendige tilpasninger ved at indføre nye og fremtidsorienterede ideer. Det kommende forslag til forordning og direktivet om produktansvar er to hjørnesten i en fælles ramme for erstatningsansvar i forbindelse med AI-systemer og kræver tæt koordinering og tilpasning mellem alle politiske aktører på EU-plan og på nationalt plan. Borgerne bør have ret til samme niveau af beskyttelse og rettigheder, uanset om skaden forvoldes af et AI-system eller ej, og om den indtræffer fysisk eller virtuelt, så deres tillid til den nye teknologi styrkes.
Der bør tages hensyn til både materiel og immateriel skade i det kommende forslag til forordning. Kommissionen opfordres bl.a. på grundlag af dens meddelelse af 19. februar 2020 om de konsekvenser, som AI vil have for sikkerhed og erstatningsansvar, til at foretage en grundig analyse af retstraditionerne i alle medlemsstaterne og de gældende lovbestemmelser om erstatning for immateriel skade med henblik på at vurdere, om det er juridisk holdbart og nødvendigt set ud fra den berørte persons synspunkt at medtage immateriel skade i det kommende forslag til forordning. På grundlag af de foreliggende oplysninger mener Parlamentet, at betydelig immateriel skade bør medtages, hvis den berørte person har lidt et mærkbart, dvs. et kontrollerbart, økonomisk tab.
B. ORDLYDEN AF DET FORSLAG, DER ANMODES OM
Forslag til
EUROPA-PARLAMENTETS OG RÅDETS FORORDNING
om erstatningsansvar for drift af systemer med kunstig intelligens
under henvisning til traktaten om Den Europæiske Unions funktionsmåde, særlig artikel 114,
under henvisning til forslag fra Europa-Kommissionen,
efter fremsendelse af udkast til lovgivningsmæssig retsakt til de nationale parlamenter,
under henvisning til udtalelse fra Det Europæiske Økonomiske og Sociale Udvalg[14],
efter den almindelige lovgivningsprocedure[15], og
ud fra følgende betragtninger:
(1) Begrebet "erstatningsansvar" spiller en vigtig dobbeltrolle i vores dagligdag: På den ene side sikrer det, at en person, der har lidt skade, har ret til at søge erstatning fra den part, der holdes ansvarlig for den pågældende skade, og på den anden side giver det personer det økonomiske incitament til at undgå at forvolde skade i det hele taget. Enhver ramme for erstatningsansvar bør søge skabe tillid til sikkerheden, pålideligheden og konsistensen af produkter og tjenester, herunder nye teknologier såsom kunstig intelligens ("AI"), tingenes internet (IoT) og robotteknologi, med henblik på at finde den rette balance mellem effektivt at beskytte potentielle ofre for skade og samtidig give tilpas meget spillerum til at muliggøre udviklingen af nye teknologier, produkter eller tjenester.
(2) Der er navnlig i begyndelsen af nye produkters og tjenesters livscyklus, efter de blev forundersøgt, en vis risiko for brugeren og for tredjeparter for, at noget ikke vil fungere ordentligt. Denne trial-and-error-proces er imidlertid også en vigtig katalysator for teknisk udvikling, uden hvilken de fleste af vores teknologier ikke ville eksistere i dag. Indtil videre er de risici, som ledsager nye produkter og tjenester, blevet afbødet behørigt af en stærk produktsikkerhedslovgivning og regler om erstatningsansvar.
(3) Fremkomsten af AI udgør imidlertid en betydelig udfordring for de gældende rammer for erstatningsansvar. Anvendelsen af AI-systemer i vores dagligdag vil medføre situationer, hvor deres uigennemsigtighed ("sorte boks"-element) og den mangfoldighed af aktører, der griber ind i systemernes livscyklus, gør det voldsomt dyrt eller endog umuligt at afgøre, hvem der havde kontrol over risikoen ved at anvende det pågældende AI-system, og hvilken kode eller hvilket input der forårsagede den skadevoldende driftshændelse. Denne vanskelighed øges gennem konnektiviteten mellem et AI-system og andre AI-systemer og ikke-AI-systemer, dets afhængighed af eksterne data, dets sårbarhed over for brud på cybersikkerheden og AI-systemers øgede autonomi som følge af kapacitet for maskinindlæring og dyb læring. Ud over disse komplekse elementer og potentielle sårbarheder kan AI-systemer også anvendes til at forvolde alvorlig skade, f.eks. ved at bringe den menneskelige værdighed og de europæiske værdier og frihedsrettigheder i fare, spore enkeltpersoner mod deres vilje, indføre ordninger for social fortjeneste, træffe beslutninger på et misvisende grundlag i forbindelse med sygeforsikring, långivning, retsafgørelser, ansættelse eller beskæftigelse eller opbygge dødbringende autonome våbensystemer.
(4) Det er vigtigt at understrege, at fordelene ved at anvende AI-systemer vil være langt større end ulemperne. De vil bidrage til at bekæmpe klimaændringer mere effektivt, til at forbedre lægeundersøgelser og arbejdsvilkår, til at forbedre integrationen af personer med handicap og af ældre i samfundet og til at tilbyde skræddersyede uddannelsestilbud til alle typer af studerende. For at udnytte de forskellige teknologiske muligheder og øge borgernes tillid til anvendelsen af AI-systemer, samtidig med at skadelige scenarier forebygges, er forsvarlige etiske standarder kombineret med en solid og rimelig erstatningsprocedure den bedste vej frem.
(5) Det er også nødvendigt med en passende erstatningsansvarsordning for at modvirke brud på sikkerhedsreglerne. Den erstatningsansvarsordning, der fastsættes i denne forordning, skal imidlertid tage alle involverede interesser i betragtning. En grundig undersøgelse af alle nye reglers konsekvenser for små og mellemstore virksomheder (SMV'er) og nystartede virksomheder er en forudsætning for yderligere lovgivningstiltag. Den afgørende rolle, som disse virksomheder spiller for den europæiske økonomi, berettiger en strengt forholdsmæssig tilgang, så de kan udvikle og innovere. På den anden side er det nødvendigt, at ofre for skade forårsaget af AI-systemer har ret til genoprettelse og til fuld erstatning for den skade, de har lidt.
(6) Alle nødvendige ændringer af de eksisterende retlige rammer bør begynde med en præcisering af, at AI-systemer hverken har status som juridisk person eller besidder en menneskelig samvittighed, og at de udelukkende har til opgave at tjene menneskeheden. Mange AI-systemer adskiller sig heller ikke så meget fra andre teknologier, som undertiden er baseret på endnu mere kompleks software. I sidste ende anvendes langt størstedelen af AI-systemerne til at udføre rutineopgaver uden eller med minimale risici for samfundet. Man kan undgå den eventuelle tvetydighed i udtrykket AI ved at anvende udtrykket "automatiseret beslutningstagning". Dette udtryk beskriver en situation, hvor en bruger fra starten, helt eller delvist, delegerer en beslutning til en enhed ved hjælp af software eller en tjeneste. Den pågældende enhed anvender igen automatisk effektuerede beslutningsmodeller til at udføre en handling på vegne af en bruger eller til at give input til brugerens beslutning i forbindelse med udførelsen af en handling.
(7) Der findes imidlertid også AI-systemer, som er udviklet og anvendes på en kritisk måde, og som er baseret på teknologier såsom neurale netværk og dyb læring-processer. Deres uigennemsigtighed og autonomi kan gøre det meget vanskeligt at spore specifikke handlinger tilbage til specifikke menneskelige beslutninger vedrørende deres design eller drift. En operatør af et sådant AI-system kunne eksempelvis gøre gældende, at den fysiske eller virtuelle aktivitet, anordning eller proces, der forvoldte skaden, var uden for hans eller hendes kontrol, fordi den skyldtes en autonom driftshændelse i hans eller hendes AI-system. Desuden bør driften af et autonomt AI-system ikke i sig selv være en tilstrækkelig grund til at anerkende erstatningskravet. Dette kan resultere i sager om erstatningsansvar, hvor ansvarsfordelingen kan være uretfærdig eller utilstrækkelig, eller hvor en person, der lider skade, som er forvoldt af et AI-system, ikke kan bevise culpa hos producenten, en indgribende tredjepart eller operatøren og derfor ikke får nogen erstatning.
(8) Ikke desto mindre bør det altid være klart, at den, der opretter, vedligeholder, kontrollerer eller foretager indgreb i AI-systemet, bør holdes ansvarlig for de skader, som aktiviteten, anordningen eller processen forvolder. Dette følger af almindelige og bredt anerkendte juridiske definitioner af erstatningsansvar, i henhold til hvilke den person, der skaber eller opretholder en risiko for offentligheden, er ansvarlig, hvis denne risiko forvolder skade, og derfor på forhånd bør minimere risikoen eller efterfølgende yde skadeserstatning. Heraf følger, at fremkomsten af AI-systemer ikke nødvendiggør en fuldstændig revision af reglerne om erstatningsansvar i hele Unionen. Specifikke tilpasninger af den gældende lovgivning og indførelse af nogle gennemarbejdede og målrettede nye bestemmelser vil være tilstrækkeligt til at imødekomme de AI-relaterede udfordringer med henblik på at undgå manglende ensartethed i reglerne og sikre harmonisering af lovgivningen om civilretligt erstatningsansvar i hele Unionen i forbindelse med AI.
(9) Rådets direktiv 85/374/EØF[16] (produktansvarsdirektivet) har i over 30 år vist sig at være et effektivt middel til at få erstatning for skader, som er forvoldt af et defekt produkt. Det bør derfor også anvendes i forbindelse med civilretlige erstatningskrav fra en skadelidt part mod producenten af et defekt AI-system. I overensstemmelse med Unionens principper om bedre regulering bør eventuelle nødvendige lovgivningsmæssige tilpasninger drøftes i forbindelse med den nødvendige revision af direktivet. Medlemsstaternes gældende lovgivning baseret på culpaansvar giver også i de fleste tilfælde et tilstrækkeligt beskyttelsesniveau for personer, der lider skade som følge af indgreb fra en tredjepart, idet indgrebet i reglen udgør en culpabaseret handling, når tredjeparten bruger AI-systemet til at forvolde skade. Denne forordning bør derfor fokusere på erstatningskrav mod operatøren af et AI-system.
(10) Operatørens ansvar i henhold til denne forordning bygger på det forhold, at vedkommende udøver en grad af kontrol over en risiko, der er forbundet med AI-systemets drift og funktion, på samme måde som ejeren af en bil. Jo mere sofistikeret og autonomt et system er, desto større virkning får det med hensyn til at definere og påvirke algoritmerne, f.eks. gennem vedvarende opdateringer. Da der ofte er mere end én person, som det giver mening at anse for "operere" AI-systemet, bør udtrykket "operatør" i henhold til denne forordning forstås således, at det omfatter både frontend- og backend-operatøren. Selv om det generelt er frontend-operatøren, der synes at være den person, som "primært" træffer beslutninger om anvendelsen af AI-systemet, kan backend-operatøren faktisk have en højere grad af kontrol over de til driften knyttede risici. Hvis backend-operatøren også kan betragtes som "producent" som defineret i artikel 3 i produktansvarsdirektivet, bør dette direktiv finde anvendelse på vedkommende. Hvis der kun er én operatør, og denne operatør også er producenten af AI-systemet, bør denne forordning have forrang for produktansvarsdirektivet.
(11) Hvis en bruger, dvs. den person, der anvender AI-systemet, er involveret i den hændelse, der forvoldte skaden, bør han eller hun kun være erstatningsansvarlig i medfør af denne forordning, hvis brugeren også kan anses for at være operatør. Hvis ikke, kan graden af brugerens groft uagtsomme eller forsætlige bidrag til risikoen indebære, at brugeren har culpabaseret erstatningsansvar over for sagsøgeren. Brugerens gældende forbrugerrettigheder bør ikke berøres.
(12) Denne forordning bør gøre det muligt for den berørte person at fremsætte erstatningskrav i hele ansvarskæden og i hele et AI-systems livscyklus. Den bør også i princippet omfatte alle AI-systemer, uanset hvor de anvendes, og om driften sker fysisk eller virtuelt. De fleste erstatningskrav i henhold til denne forordning bør dog vedrøre tilfælde af ansvar over for tredjemand, hvor et AI-system anvendes i et offentligt rum og udsætter mange personer for en risiko. I den situation vil de berørte personer ofte ikke være opmærksomme på AI-systemets drift eller have nogen kontraktlig eller retlig forbindelse til operatøren. AI-systemets drift sætter dem dermed i en situation, hvor de, hvis der forvoldes skade, kun kan gøre culpabaserede erstatningskrav gældende over for AI-systemets operatør og samtidig har alvorlige vanskeligheder med at bevise culpa hos operatøren.
(13) Det er en afgørende faktor, hvilken type AI-system operatøren udøver kontrol over. Et AI-system, som indebærer en høj risiko, udsætter potentielt brugeren eller offentligheden for en meget højere grad af fare og på en måde, der er tilfældig og rækker længere, end hvad der med rimelighed kan forventes. Dette betyder, at hovedparten af de potentielt berørte personer, når AI-systemets autonome drift begynder, er ukendte og ikke kan identificeres, f.eks. personer på en offentlig plads eller i et nabohus, sammenlignet med driften af et AI-system, der involverer specifikke personer, som i reglen har givet deres samtykke til dets anvendelse i forvejen, f.eks. i forbindelse med kirurgiske indgreb på et hospital eller en salgsdemonstration i en lille butik. Fastlæggelse af, hvor betydelig en risiko for at forvolde skade der er forbundet med et højrisiko-AI-system, afhænger af samspillet mellem det brugsformål, som AI-systemet er markedsført til, den måde, hvorpå AI-systemet anvendes, alvorligheden af den potentielle skade, graden af autonomi i den beslutningstagning, der kan medføre skade, og sandsynligheden for, at risikoen indtræder. Graden af alvorlighed bør fastlægges på grundlag af relevante faktorer såsom omfanget af den potentielle skade som følge af driften for de berørte personer, herunder navnlig for de grundlæggende rettigheder, antallet af berørte personer, den samlede værdi af den potentielle skade samt skaden for samfundet som helhed. Sandsynligheden for skadens indtræden bør fastlægges på grundlag af relevante faktorer såsom de algoritmiske beregningers rolle i beslutningsprocessen, beslutningens kompleksitet og virkningernes reversibilitet. I sidste ende bør anvendelsesmåden afhænge af relevante faktorer såsom den kontekst og sektor, hvor AI-systemet fungerer, om det kan have retlige eller faktiske virkninger for den berørte persons vigtige juridisk beskyttede rettigheder, og om virkningerne med rimelighed kan undgås.
(14) Alle højrisiko-AI-systemer bør opføres udtømmende i et bilag til denne forordning. I betragtning af den hurtige tekniske udvikling og markedsudvikling på verdensplan samt den tekniske ekspertise, der er påkrævet for at gennemføre en grundig revision af AI-systemer, bør beføjelsen til at vedtage delegerede retsakter i overensstemmelse med artikel 290 i traktaten om Den Europæiske Unions funktionsmåde delegeres til Kommissionen med henblik på at ændre denne forordning for så vidt angår de typer af AI-systemer, der indebærer en høj risiko, og de kritiske sektorer, hvor de anvendes. På grundlag af definitionerne og bestemmelserne i denne forordning bør Kommissionen revidere bilaget uden unødig forsinkelse, men som minimum hver sjette måned, og om nødvendigt ændre det ved hjælp af delegerede retsakter. Kommissionens vurdering af, om et AI-system indebærer en høj risiko, bør begynde samtidig med produktsikkerhedsvurderingen, således at man undgår en situation, hvor et højrisiko-AI-system allerede er godkendt til markedet, men endnu ikke er klassificeret som værende af høj risiko og dermed fungerer uden obligatorisk forsikringsdækning. For at give virksomhederne og forskningsorganisationerne tilstrækkelig planlægnings- og investeringssikkerhed bør ændringer i de kritiske sektorer kun foretages hver 12. måned. Operatører bør opfordres til at underrette Kommissionen, hvis de arbejder på nye teknologier, produkter eller tjenester, som henhører under en af de eksisterende kritiske sektorer, der er omhandlet i bilaget, og som senere vil kunne betragtes som et højrisiko-AI-system.
(15) Det er navnlig vigtigt, at Kommissionen gennemfører passende høringer af de relevante interessenter under sit forberedende arbejde, herunder på ekspertniveau, og at disse høringer gennemføres i overensstemmelse med principperne i den interinstitutionelle aftale af 13. april 2016 om bedre lovgivning[17]. Et stående udvalg benævnt "Teknisk Udvalg – AI-systemer med høj risiko" (TCRAI) bør støtte Kommissionen i dens regelmæssige revision i henhold til denne forordning. Dette stående udvalg bør omfatte repræsentanter for medlemsstaterne samt et afbalanceret udvalg af interessenter, herunder forbrugerorganisationer, foreninger, der repræsenterer berørte personer, repræsentanter for erhvervslivet fra forskellige sektorer og størrelser samt forskere og videnskabsmænd. For at sikre lige deltagelse i forberedelsen af delegerede retsakter bør Europa-Parlamentet og Rådet navnlig modtage alle dokumenter på samme tid som medlemsstaternes eksperter, og deres eksperter bør have systematisk adgang til møder i Kommissionens ekspertgrupper og det stående TCRAI-udvalg, når de beskæftiger sig med forberedelse af delegerede retsakter.
(16) Denne forordning bør omfatte skade på liv, sundhed, fysisk integritet, ejendom og betydelig immateriel skade, som medfører et kontrollerbart økonomisk tab, som overstiger en tærskel, der er harmoniseret i EU-lovgivningen om erstatningsansvar, og som skaber balance mellem adgangen til domstolene for de berørte personer og andre involverede personers interesser. Kommissionen bør revurdere og tilpasse tærsklerne for erstatning i EU-lovgivningen. Der bør ved betydelig immateriel skade forstås skade, som påfører den berørte person betragtelig skade, en objektiv og påviselig negativ påvirkning af vedkommendes personlige interesser og et økonomisk tab beregnet under hensyntagen til f.eks. årlige gennemsnit for tidligere indtægter og andre relevante omstændigheder. Denne forordning bør også den fastsætte erstatningens størrelse og omfang samt forældelsesfristen for fremsættelse af erstatningskrav. Denne forordning bør fastsætte et betydeligt lavere erstatningsloft end det, der er fastsat i produktansvarsdirektivet, idet der i denne forordning kun henvises til den skade, en enkeltperson har lidt som følge af en enkelt AI-systemdriftshændelse, mens der i direktivet henvises til en række produkter eller endog en produktgruppe med samme defekt.
(17) Alle fysiske eller virtuelle aktiviteter, anordninger eller processer, der drives af AI-systemer, som ikke er opført som højrisiko-AI-systemer i bilaget til denne forordning, bør fortsat være omfattet af culpaansvar, medmindre der gælder strengere nationale regler og forbrugerbeskyttelseslovgivning. Medlemsstaternes nationale regler, herunder eventuel relevant retspraksis, med hensyn til erstatningsbeløbet og -omfanget samt forældelsesfristen bør fortsat gælde. En person, der lider skade forvoldt af et AI-system, som ikke er opført som et højrisiko-AI-system, bør nyde godt af en formodning om culpa hos operatøren.
(18) Den omhu, der kan forventes af en operatør, bør stå i et rimeligt forhold til i) karakteren af AI-systemet, ii) den juridisk beskyttede rettighed, som potentielt påvirkes, iii) den potentielle skade, som AI-systemet kan forvolde, og iv) sandsynligheden for en sådan skade. Det bør i den forbindelse tages i betragtning, at operatøren kan have begrænset kendskab til de algoritmer og data, som anvendes i AI-systemet. Det bør formodes, at operatøren har udvist den fornødne omhu, der med rimelighed kan forventes af denne, ved valget af et passende AI-system, hvis operatøren har valgt et AI-system, som er certificeret i henhold til en ordning svarende til den frivillige certificeringsordning, som foreslås af Kommissionen[18]. Det bør formodes, at operatøren har udvist den fornødne omhu, der med rimelighed kan forventes af denne, i forbindelse med driften af AI-systemet, hvis operatøren kan bevise, at vedkommende faktisk og regelmæssigt har overvåget AI-systemet under driften og har underrettet fabrikanten om mulige uregelmæssigheder under driften. Der bør formodes, at operatøren har udvist den fornødne omhu, der med rimelighed kan forventes af denne, med hensyn til opretholdelse af den driftsmæssige pålidelighed, hvis operatøren har installeret alle tilgængelige opdateringer fra producenten af AI-systemet. Eftersom operatørerne kan være mere eller mindre sofistikerede afhængigt af, om de blot er forbrugere eller erhvervsdrivende, bør forpligtelserne til at udvise omhu tilpasses i overensstemmelse hermed.
(19) For at gøre det muligt for operatøren at bevise, at han eller hun ikke har handlet culpøst, eller for den berørte person at bevise, at der foreligger culpa, bør producenterne være forpligtede til at samarbejde med begge de berørte parter, herunder gennem tilvejebringelse af veldokumenteret information. Både producenter, der er etableret i og uden for Unionen, bør endvidere være forpligtede til at udpege en repræsentant i spørgsmål om AI-relateret erstatningsansvar inden for Unionen som kontaktpunkt for besvarelse af alle anmodninger fra operatører i stil med databeskyttelsesrådgiverne i artikel 37 i Europa-Parlamentets og Rådets forordning (EU) 2016/679[19], fabrikantens repræsentant i artikel 3, nr. 41, og artikel 13, stk. 4, i Europa-Parlamentets og Rådets forordning 2018/858[20] eller den bemyndigede repræsentant i artikel 4, stk. 2, og artikel 5 i Europa-Parlamentets og Rådets forordning (EF) 2019/1020[21].
(20) Lovgiveren skal tage hensyn til de erstatningsansvarsmæssige risici, der er forbundet med AI-systemerne gennem hele deres livscyklus fra udvikling over anvendelse til anvendelsesophør, herunder håndtering af affald og genanvendelse. Anvendelsen af AI-systemer i et produkt eller en tjeneste udgør en finansiel risiko for virksomhederne og vil derfor have stor indflydelse på SMV'ers og nystartede virksomheders kapacitet og muligheder med hensyn til at forsikre og finansiere deres forsknings- og udviklingsprojekter, som bygger på ny teknologi. Formålet med erstatningsansvar er derfor ikke blot at sikre enkeltpersoners vigtige juridisk beskyttede rettigheder, men også at afgøre, om virksomheder, navnlig SMV'er og nystartede virksomheder, er i stand til at rejse kapital, innovere, forske og i sidste ende tilbyde nye produkter og tjenester, og om forbrugerne har tillid til sådanne produkter og tjenester og er villige til at bruge dem på trods af de potentielle risici og søgsmål, der kan blive rejst i relation til sådanne produkter og tjenester.
(21) Forsikring kan bidrage til at garantere, at ofre modtager en effektiv erstatning, og samle alle forsikrede personers risici. En af de faktorer, som forsikringsselskaber baserer deres udbud af forsikringsprodukter og -tjenester på, er risikovurdering baseret på adgang til tilstrækkelige historiske data vedrørende erstatningskrav. Manglende adgang til eller en utilstrækkelig mængde data af høj kvalitet kan være en årsag til, at det i begyndelsen er vanskeligt at skabe forsikringsprodukter til nye og fremspirende teknologier. Øget adgang til og optimering af anvendelsen af data, som er genereret ved hjælp af nye teknologier, vil, sammen med en forpligtelse til at tilvejebringe veldokumenteret information, imidlertid forbedre forsikringsselskabernes evne til at skabe modeller for beregning af nye risici og fremme udviklingen af mere innovativ dækning.
(22) Eftersom der ikke foreligger historiske data vedrørende erstatningskrav, bør det undersøges, hvordan og på hvilke betingelser et erstatningsansvar vil kunne forsikres, med henblik på at knytte forsikringen til produktet og ikke til den ansvarlige person. Der udvikles allerede nu forsikringsprodukter for hvert enkelt område og hver enkel form for dækning i takt med, at teknologien udvikler sig. Mange forsikringsselskaber specialiserer sig i visse markedssegmenter (f.eks. SMV'er) eller yder dækning for visse produkttyper (f.eks. el-apparater), hvilket betyder, at der normalt vil være et forsikringsprodukt til rådighed for den forsikrede. Det er dog vanskeligt at få øje på en model, der passer alle, og forsikringsmarkedet får behov for tid til at tilpasse sig. Kommissionen bør arbejde tæt sammen med forsikringsmarkedet om at udvikle innovative forsikringsprodukter, der kan lukke forsikringshullet. I særlige tilfælde, f.eks. en begivenhed, som forvolder kollektiv skade, hvor erstatningen i væsentlig grad overstiger de maksimumsbeløb, der er fastsat i denne forordning, bør medlemsstaterne tilskyndes til at oprette en særlig erstatningsfond for en begrænset periode, som adresserer de særlige behov i disse tilfælde. Der kan også oprettes særlige erstatningsfonde til dækning af de særlige tilfælde, hvor et AI-system, der endnu ikke er klassificeret som et højrisiko-AI-system og dermed endnu ikke er forsikret, forvolder skade. Af hensyn til retssikkerheden og for at opfylde forpligtelsen til at informere alle potentielt berørte personer bør eksistensen af den særlige erstatningsfond og betingelserne for at kunne drage fordel heraf offentliggøres på en klar og forståelig måde.
(23) Det er af største betydning, at enhver fremtidig ændring af denne forordning går hånd i hånd med den nødvendige revision af produktansvarsdirektivet med henblik på at revidere den på en omfattende og sammenhængende måde og garantere alle berørte parters rettigheder og forpligtelser gennem hele ansvarskæden. Indførelsen af en ny erstatningsansvarsordning for operatører af AI-systemer kræver, at bestemmelserne i denne forordning og revisionen af produktansvarsdirektivet koordineres nøje både med hensyn til indhold og tilgang, således at de sammen udgør en sammenhængende ramme for erstatningsansvar for AI-systemer, der med hensyn til ansvarsrisikoen afvejer producentens, operatørens, forbrugerens og den berørte persons interesser og de relevante erstatningsordninger. Det er derfor nødvendigt at tilpasse og strømline definitionerne af AI-system, frontend- og backend-operatør, producent, defekt, produkt og tjeneste i alle retsakter, og det bør gøres sideløbende.
(24) Målene for denne forordning – nemlig at skabe en fremtidsorienteret og ensartet tilgang på EU-plan, som fastsætter fælles europæiske standarder for europæiske borgere og virksomheder og sikrer sammenhæng mellem rettigheder og retssikkerhed i hele Unionen, og at undgå en fragmentering af det digitale indre marked, hvilket ville hæmme målet om at bevare digital suverænitet og fremme digital innovation i Europa og sikre et højt niveau af beskyttelse for borgere og forbrugere – kræver, at erstatningsansvarsordningerne for AI-systemer harmoniseres fuldt ud. Dette kan ikke i tilstrækkelig grad opfyldes af medlemsstaterne på grund af den hurtige teknologiske udvikling, udviklingen på tværs af grænserne samt anvendelsen af AI-systemer og i sidste ende de uoverensstemmende lovgivningsmæssige tilgange i hele Unionen, men kan på grund af foranstaltningens omfang eller virkninger bedre nås på EU-plan. Unionen kan derfor vedtage foranstaltninger i overensstemmelse med nærhedsprincippet, jf. artikel 5 i traktaten om Den Europæiske Union. I overensstemmelse med proportionalitetsprincippet, jf. nævnte artikel, går denne forordning ikke videre, end hvad der er nødvendigt for at nå disse mål –
VEDTAGET DENNE FORORDNING:
Kapitel I
Almindelige bestemmelser
Artikel 1
Genstand
Denne forordning fastsætter regler for civilretlige erstatningskrav fra fysiske og juridiske personer mod operatører af AI-systemer.
Artikel 2
Anvendelsesområde
1. Denne forordning finder anvendelse på Unionens område i tilfælde, hvor en fysisk eller virtuel aktivitet, anordning eller proces drevet af et AI-system har forårsaget skade på en fysisk persons liv, helbred eller fysiske integritet eller en fysisk eller juridisk persons ejendom eller har forårsaget betydelig immateriel skade, som medfører et kontrollerbart økonomisk tab.
2. Enhver aftale mellem operatøren af et AI-system og en fysisk eller juridisk person, der lider skade som følge af AI-systemet, som omgår eller begrænser de rettigheder og forpligtelser, der er fastsat i denne forordning, hvad enten den er indgået før eller efter forvoldelsen af skaden, anses for ugyldig for så vidt angår rettighederne og forpligtelserne i henhold til denne forordning.
3. Denne forordning berører ikke eventuelle yderligere erstatningskrav som følge af kontraktforhold eller som følge af bestemmelser om produktansvar, forbrugerbeskyttelse, ikkeforskelsbehandling, arbejdstagernes beskyttelse eller miljøbeskyttelse mellem operatøren og den fysiske eller juridiske person, der har lidt skade på grund af AI-systemet, som kan rejses mod operatøren i henhold til EU-lovgivningen eller national lovgivning.
Artikel 3
Definitioner
I denne forordning forstås ved:
a) "AI-system": et system, som enten er baseret på funktionsprogrammer eller er integreret i materielenheder, og som udviser adfærd, der simulerer intelligens, bl.a. ved at indsamle og behandle data, analysere og fortolke sine omgivelser og handle med en vis grad af autonomi for at opnå specifikke mål
b) "autonom": et AI-system, som opererer ved at fortolke visse inddata og anvende en række foruddefinerede instruktioner uden at være begrænset til disse instruktioner, selv om systemets adfærd begrænses af og sigter mod at opfylde det tildelte mål og andre af designeren foretagne relevante designvalg
c) "højrisiko": et betydeligt potentiale for et autonomt fungerende AI-system til at forvolde skade på en eller flere personer på en måde, der er tilfældig og rækker længere, end hvad der med rimelighed kan forventes; potentialets størrelse afhænger af forholdet mellem alvorsgraden af den skade, der kan forvoldes, graden af autonomi i beslutningstagningen, sandsynligheden for, at risikoen indtræder, og den måde og den kontekst, AI-systemet anvendes på/i
d) "operatør": både frontend- og backend-operatøren, så længe sidstnævntes erstatningsansvar ikke allerede er omfattet af direktiv 85/374/EØF
e) "frontend-operatør": enhver fysisk eller juridisk person, der udøver en grad af kontrol over en risiko, der er forbundet med AI-systemets drift og funktion, og drager fordel af driften af det
f) "backend-operatør": enhver fysisk eller juridisk person, der løbende definerer de elementer, der indgår i teknologien, og leverer data og en væsentlig backend-støttetjeneste og derfor også udøver en grad af kontrol over den risiko, der er forbundet med AI-systemets drift og funktion
g) "kontrol": enhver handling fra operatørens side, der påvirker driften af et AI-system og dermed det omfang, hvori operatøren udsætter tredjeparter for de potentielle risici, der er forbundet med AI-systemets drift og funktion; sådanne handlinger kan påvirke driften på alle stadier ved at bestemme input, output eller resultater eller kan ændre specifikke funktioner eller processer i AI-systemet; den grad, hvori de pågældende aspekter af driften af AI-systemet bestemmes af handlingen, afhænger af, hvor stor indflydelse operatøren har på den risiko, der er forbundet med AI-systemets drift og funktion
h) "berørt person": enhver person, som lider skade forårsaget af en fysisk eller virtuel aktivitet, anordning eller proces drevet af et AI-system, og som ikke er operatøren af det
i) "skade": en skadelig effekt, der berører en fysisk persons liv, helbred eller fysiske integritet eller en fysisk eller juridisk persons ejendom eller forårsager betydelig immateriel skade, som medfører et kontrollerbart økonomisk tab
j) "producent": producenten som defineret i artikel 3 i Rådets direktiv 85/374/EØF[22].
Kapitel II
Højrisiko-AI-systemer
Artikel 4
Objektivt ansvar for højrisiko-AI-systemer
1. Operatøren af et højrisiko-AI-system er objektivt ansvarlig for enhver skade, der er forårsaget af en fysisk eller virtuel aktivitet, anordning eller proces drevet af det pågældende AI-system.
2. Alle højrisiko-AI-systemer og alle kritiske sektorer, hvor disse anvendes, opføres i bilaget til denne forordning. Kommissionen tillægges beføjelser til at vedtage delegerede retsakter i overensstemmelse med artikel 13 med henblik på at ændre den pågældende udtømmende liste ved at:
a) inkludere nye typer højrisiko-AI-systemer og kritiske sektorer, hvor disse anvendes
b) fjerne typer af AI-systemer, der ikke længere kan anses for at udgøre en høj risiko, og/eller
c) ændre de kritiske sektorer for eksisterende højrisiko-AI-systemer.
Enhver delegeret retsakt om ændring af bilaget træder i kraft seks måneder efter vedtagelsen. Ved fastlæggelsen af nye højrisiko-AI-systemer og/eller kritiske sektorer, der ved hjælp af delegerede retsakter skal medtages i bilaget, tager Kommissionen fuldt ud hensyn til de kriterier, der er fastsat i denne forordning, navnlig kriterierne i artikel 3, litra c).
3. Operatører af højrisiko-AI-systemer må ikke kunne fralægge sig ansvar ved at hævde, at de har handlet med den fornødne omhu, eller at skaden er forårsaget af en autonom aktivitet, anordning eller proces, der er drevet af deres AI-system. Operatører kan ikke drages til ansvar, hvis skaden er forårsaget af force majeure.
4. Frontend-operatøren af et højrisiko-AI-system skal sikre, at driften af det pågældende AI-system er dækket af en ansvarsforsikring, der er tilstrækkelig i forhold til størrelsen og omfanget af den erstatning, der er omhandlet i artikel 5 og 6 i denne forordning. Backend-operatøren skal sikre, at vedkommendes tjenester er dækket af en erhvervsansvars- eller produktansvarsforsikring, der er tilstrækkelig i forhold til størrelsen og omfanget af den erstatning, der er omhandlet i artikel 5 og 6 i denne forordning. Hvis frontend- eller backend-operatørens allerede eksisterende forsikringsordninger, der er lovpligtige i henhold til anden EU-ret eller national ret, eller frivillige virksomhedsforsikringsfonde anses for at dække driften af AI-systemet eller den leverede tjeneste, anses pligten til at tegne forsikring for AI-systemet eller den leverede tjeneste i henhold til denne forordning for at være opfyldt, så længe den relevante eksisterende lovpligtige forsikring eller de frivillige virksomhedsforsikringsfonde dækker størrelsen og omfanget af den erstatning, der er omhandlet i artikel 5 og 6 i denne forordning.
5. Denne forordning har forrang for nationale erstatningsansvarsordninger i tilfælde af modstridende klassificering af objektivt erstatningsansvar for så vidt angår AI-systemer.
Artikel 5
Erstatningens størrelse
1. En operatør af et højrisiko-AI-system, som er blevet holdt ansvarlig for en skade i henhold til denne forordning, skal erstatte:
(a) et beløb på højst to mio. EUR i tilfælde af en berørt persons død eller skade på en berørt persons helbred eller fysiske integritet som følge af en driftshændelse i et højrisiko-AI-system
(b) et beløb på højst en mio. EUR i tilfælde af betydelig immateriel skade, som medfører et kontrollerbart økonomisk tab, eller skade på ejendom, herunder når flere formuegoder tilhørende en berørt person er blevet beskadiget som følge af en enkelt driftshændelse i et enkelt højrisiko-AI-system; i tilfælde, hvor den berørte person derudover har et erstatningskrav i henhold til kontrakt mod operatøren, skal der ikke betales nogen erstatning i henhold til denne forordning, hvis den samlede skade på ejendom eller den betydelige immaterielle skade er af en værdi på under [500 EUR][23].
2. Hvis den samlede erstatning, der skal udbetales til flere personer, der lider skade som følge af samme driftshændelse i samme højrisiko-AI-system, overstiger de maksimale samlede beløb, der er fastsat i stk. 1, nedsættes de beløb, der skal udbetales til hver person, pro rata, således at den samlede erstatning ikke overstiger de maksimumsbeløb, der er fastsat i stk. 1.
Artikel 6
Erstatningens omfang
1. Inden for det beløb, der er fastsat i artikel 5, stk. 1, litra a), beregnes den erstatning, som skal betales af operatøren, som drages til ansvar i tilfælde af fysisk skade efterfulgt af den berørte persons død, på grundlag af udgifterne til lægebehandling, som den berørte person gennemgik før sin død, og den økonomiske skade, der er lidt inden dødsfaldet, forårsaget af ophøret eller nedsættelsen af erhvervsevnen eller hans eller hendes øgede behov i skadesperioden inden dødsfaldet. Den ansvarlige operatør skal desuden godtgøre begravelsesudgifterne for den afdøde berørte person til den part, der er ansvarlig for afholdelsen af disse udgifter.
Hvis den berørte person på tidspunktet for den hændelse, der forvoldte den skade, der førte til vedkommendes død, var i et forhold til en tredjepart og havde en retlig forpligtelse til at forsørge den pågældende tredjepart, skal den ansvarlige operatør betale underholdsbidrag til denne tredjepart i det omfang, den berørte person skulle have betalt, for en periode, der svarer til en gennemsnitlig forventet levetid for en person med vedkommendes alder og generelle beskrivelse. Operatøren skal desuden betale erstatning til tredjepart, hvis tredjeparten på tidspunktet for den hændelse, der forårsagede dødsfaldet, var blevet undfanget, men endnu ikke var født.
2. Inden for det beløb, der er fastsat i artikel 5, stk. 1, litra b), skal den erstatning, som skal betales af operatøren, som drages til ansvar i tilfælde af skade på den berørte persons helbred eller fysiske integritet, omfatte godtgørelse af udgifterne til den dermed forbundne lægebehandling samt betaling for enhver økonomisk skade, som den berørte person har lidt, som følge af den midlertidige suspension, nedsættelse eller endelige ophør af den pågældende persons erhvervsevne eller den deraf følgende af læger bekræftede forøgelse af vedkommendes behov.
Artikel 7
Forældelsesfrist
1. Civilretlige erstatningskrav, der rejses i overensstemmelse med artikel 4, stk. 1, vedrørende skade på liv, helbred eller fysisk integritet, er underlagt en særlig forældelsesfrist på 30 år fra den dato, hvor skaden er sket.
2. Civilretlige erstatningskrav, der rejses i overensstemmelse med artikel 4, stk. 1, vedrørende skade på ejendom eller betydelig immateriel skade, som medfører et kontrollerbart økonomisk tab, er underlagt en særlig forældelsesfrist på:
a) ti år fra den dato, hvor henholdsvis skaden på ejendom eller det kontrollerbare økonomiske tab som følge af den betydelige immaterielle skade er sket, eller
b) 30 år fra den dato, hvor den driftshændelse i højrisiko-AI-systemet, der efterfølgende forårsagede skaden på ejendom eller den immaterielle skade, fandt sted.
For så vidt angår de frister, der er nævnt i første afsnit, finder den frist, der afsluttes først, anvendelse.
3. Denne artikel berører ikke bestemmelser i national lovgivning om suspension eller afbrydelse af forældelsesfrister.
Kapitel III
Andre AI-systemer
Artikel 8
Culpaansvar for andre AI-systemer
1. Operatøren af et AI-system, der ikke udgør et højrisiko-AI-system som fastsat i artikel 3, litra c), og artikel 4, stk. 2, og som følge heraf ikke er opført i bilaget til denne forordning, er underlagt culpaansvar for skader, der skyldes en fysisk eller virtuel aktivitet, anordning eller proces drevet af det pågældende AI-system.
2. Operatøren kan ikke drages til ansvar, hvis vedkommende kan bevise, at han eller hun var uden skyld i den skade, der blev forvoldt, på grundlag af et af følgende forhold:
a) AI-systemet blev aktiveret uden hans eller hendes viden, på trods af at der var truffet alle rimelige og nødvendige foranstaltninger for at undgå en sådan aktivering uden for operatørens kontrol, eller
b) der var udvist den fornødne omhu i forbindelse med udøvelsen af alle følgende handlinger: udvælgelsen et passende AI-system til den rette funktion og de rette færdigheder, idrifttagningen af AI-systemet, tilsynet med aktiviteterne og opretholdelsen af driftssikkerheden ved regelmæssigt at installere alle tilgængelige opdateringer.
Operatøren må ikke kunne unddrage sig ansvar ved at hævde, at skaden blev forårsaget af en autonom aktivitet, anordning eller proces drevet af hans eller hendes AI-system. Operatøren kan ikke drages til ansvar, hvis skaden er forårsaget af force majeure.
3. Hvis skaden er forvoldt af en tredjepart, der har grebet ind i AI-systemet ved at ændre dets funktion eller dets virkninger, har operatøren ikke desto mindre pligt til at betale erstatning, hvis den pågældende tredjepart ikke kan spores eller er uden midler.
4. Efter anmodning fra operatøren eller den berørte person har producenten af et AI-system pligt til at samarbejde med og give informationer til dem, i det omfang det er begrundet i erstatningskravets omfang, for at gøre det muligt at fastlægge ansvaret.
Artikel 9
Nationale bestemmelser om erstatning og forældelsesfrist
Civilretlige erstatningskrav, der rejses i henhold til artikel 8, stk. 1, er for så vidt angår forældelsesfrister samt erstatningens størrelse og omfang underlagt lovgivningen i den medlemsstat, hvor skaden er indtrådt.
Kapitel IV
Ansvarsfordeling
Artikel 10
Egen skyld
1. Hvis skaden er forårsaget af både en fysisk eller virtuel aktivitet, anordning eller proces drevet af et AI-system og af handlinger begået af en berørt person eller enhver person, som den berørte person er ansvarlig for, reduceres omfanget af operatørens ansvar i henhold til denne forordning tilsvarende. Operatøren kan ikke drages til ansvar, hvis den berørte person eller den person, som vedkommende er ansvarlig for, alene er skyld i den forvoldte skade.
2. En operatør, som drages til ansvar, kan anvende data genereret af AI-systemet til at bevise egen skyld fra den berørte persons side, i overensstemmelse med forordning (EU) 2016/679 eller anden relevant databeskyttelseslovgivning. Den berørte person kan også anvende sådanne data til at bevise eller afklare forhold i forbindelse med erstatningskravet.
Artikel 11
Solidarisk ansvar
I tilfælde, hvor der er mere end en operatør af et AI-system, hæfter de solidarisk. Hvis en frontend-operatør også er producenten af AI-systemet, har denne forordning forrang for produktansvarsdirektivet. Hvis backend-operatøren også kan betragtes som producent som defineret i artikel 3 i produktansvarsdirektivet, bør dette direktiv finde anvendelse på vedkommende. Hvis der kun er én operatør, og denne operatør også er producenten af AI-systemet, bør denne forordning have forrang for produktansvarsdirektivet.
Artikel 12
Regresret
1. Operatøren har ikke ret til at rejse regreskrav, medmindre den berørte person, der har ret til erstatning i henhold til denne forordning, er blevet betalt fuldt ud.
2. I tilfælde af at operatøren er solidarisk ansvarlig med andre operatører over for en berørt person og har ydet fuld erstatning til den berørte person i overensstemmelse med artikel 4, stk. 1, eller artikel 8, stk. 1, kan denne operatør gøre regres mod de andre operatører for en del af beløbet i forhold til hans eller hendes andel af ansvaret.
Andelene af ansvaret bestemmes på grundlag af de respektive grader af kontrol, som operatørerne havde over den risiko, der er forbundet med AI-systemets drift og funktion. Hvis et bidrag, der kan henføres til en solidarisk ansvarlig operatør, ikke kan erhverves fra vedkommende, afholdes det manglende beløb af de andre operatører. I det omfang en solidarisk ansvarlig operatør yder erstatning til den berørte person og kræver, at der foretages en tilpasning af forskud fra de andre ansvarlige operatører, indtræder operatøren i den berørte persons krav mod de andre operatører. En sådan subrogation kan ikke gøres gældende til skade for det oprindelige krav.
3. I tilfælde af at operatøren af et defekt AI-system yder den berørte person fuld erstatning for skade i overensstemmelse med artikel 4, stk. 1, eller artikel 8, stk. 1, kan vedkommende anlægge sag om genoprettelse mod producenten af det defekte AI-system i overensstemmelse med direktiv 85/374/EØF og nationale bestemmelser om produktansvar.
4. I tilfælde af at operatørens forsikringsselskab yder erstatning til den berørte person for skade i overensstemmelse med artikel 4, stk. 1, eller artikel 8, stk. 1, indtræder operatørens forsikringsselskab i ethvert civilretligt erstatningskrav, som den berørte person har mod en anden person for den samme skade, for så vidt angår det beløb, operatørens forsikringsselskab har ydet den berørte person i erstatning.
Kapitel V
Afsluttende bestemmelser
Artikel 13
Udøvelse af de delegerede beføjelser
1. Beføjelsen til at vedtage delegerede retsakter tillægges Kommissionen på de i denne artikel fastlagte betingelser.
2. Beføjelsen til at vedtage delegerede retsakter, jf. artikel 4, stk. 2, tillægges Kommissionen for en periode på fem år fra [datoen for denne forordnings anvendelse].
3. Den i artikel 4, stk. 2, omhandlede delegation af beføjelser kan til enhver tid tilbagekaldes af Europa-Parlamentet eller Rådet. En afgørelse om tilbagekaldelse bringer delegationen af de beføjelser, der er angivet i den pågældende afgørelse, til ophør. Den får virkning dagen efter offentliggørelsen i Den Europæiske Unions Tidende eller på et senere tidspunkt, der angives i afgørelsen. Den berører ikke gyldigheden af delegerede retsakter, der allerede er i kraft.
4. Inden vedtagelsen af en delegeret retsakt hører Kommissionen det stående tekniske udvalg for højrisiko-AI-systemer (TCRAI-udvalget), i overensstemmelse med principperne i den interinstitutionelle aftale af 13. april 2016 om bedre lovgivning.
5. Så snart Kommissionen vedtager en delegeret retsakt, giver den samtidigt Europa-Parlamentet og Rådet meddelelse herom.
6. En delegeret retsakt vedtaget i henhold til artikel 4, stk. 2, træder kun i kraft, hvis hverken Europa-Parlamentet eller Rådet har gjort indsigelse inden for en frist på to måneder fra meddelelsen af den pågældende retsakt, eller hvis Europa-Parlamentet og Rådet inden udløbet af denne frist begge har informeret Kommissionen om, at de ikke agter at gøre indsigelse. Fristen forlænges med to måneder på Europa-Parlamentets eller Rådets initiativ.
Artikel 14
Revision
Senest den 1. januar 202X [3 år fra datoen for denne forordnings anvendelse] og derefter hvert tredje år forelægger Kommissionen Europa-Parlamentet, Rådet og Det Europæiske Økonomiske og Sociale Udvalg en detaljeret rapport med en gennemgang af denne forordning i lyset af den videre udvikling af kunstig intelligens.
I forbindelse med udarbejdelsen af den i første afsnit omhandlede rapport anmoder Kommissionen om relevante oplysninger fra medlemsstaterne vedrørende retspraksis, retsforlig og ulykkesstatistikker, som f.eks. antallet af uheld, skadestilfælde, involverede AI-ansøgninger og udbetalt erstatning fra forsikringsselskaber, samt en vurdering af antallet af erstatningskrav fra de berørte personer, enten individuelt eller kollektivt, og af sagsbehandlingstiden for disse krav ved domstolene.
Kommissionens rapport ledsages om nødvendigt af forslag til lovgivningsmæssige retsakter med det formål at udfylde eventuelle huller, der er påpeget i rapporten.
Artikel 15
Ikrafttræden
Denne forordning træder i kraft på tyvendedagen efter offentliggørelsen i Den Europæiske Unions Tidende.
Den anvendes fra den 1. januar 202X.
Denne forordning er bindende i alle enkeltheder og gælder umiddelbart i hver medlemsstat.
BILAG
BEGRUNDELSE
Begrebet "erstatningsansvar" spiller en vigtig dobbeltrolle i vores dagligdag: på den ene side sikrer det, at en person, der har lidt skade, har ret til at søge erstatning fra den person, der bevisligt er ansvarlig for den pågældende skade, og på den anden side giver det personer det økonomiske incitament til at undgå at forvolde skade i det hele taget. Enhver fremtidsorienteret ramme for ansvar bør derfor søge at finde den rette balance mellem effektivt at beskytte potentielle ofre for skade og samtidig give tilpas meget spillerum til at muliggøre udviklingen af nye teknologier, produkter eller tjenesteydelser.
Der er navnlig i begyndelsen af nye produkters og tjenesteydelser livscyklus en vis risiko for brugeren samt for tredjeparter for, at noget ikke fungerer ordentligt. Denne trial-and-error-proces er imidlertid også en vigtig katalysator for teknisk udvikling, uden hvilken de fleste af vores teknologier ikke ville eksistere i dag. Hidtil har Europas stærke regler for produktsikkerhed og produktansvar fuldt ud været i stand til at håndtere de potentielt større risici forbundet med nye teknologier. Mange mennesker mener, at denne forvisning nu er ved at blive udfordret af den stigende brug af kunstig intelligens (AI). Det, der gør denne teknologi enestående, er dens "uigennemsigtighed", eller med andre ord dens "sorte boks". Kombineret med denne teknologis konnektivitet, afhængighed af eksterne data, sårbarhed over for brud på cybersikkerheden og en særlig autonomi, kan AI-systemers indblanding gøre det ekstremt dyrt eller endog umuligt at identificere, hvem der havde kontrollen, eller hvilken kode eller input, der i sidste ende har forårsaget den skadelige handling. Som følge heraf kan det blive vanskeligt for den skadelidte person at opnå erstatning.
Selv om AI-systemer bestemt medfører nye juridiske udfordringer for vores eksisterende erstatningsansvarsordning, er de i alt væsentligt i mange tilfælde ikke så forskellige fra andre teknologier, som nogle gange er baseret på endnu mere avanceret software. Moderne AI-systemer fungerer normalt på en relativ banal måde og er langt fra de bevidste robotter, som vi kender fra science fiction-film. Enhver diskussion om at tildele AI-systemer status som juridisk person er derfor utidssvarende. At vælge en fornuftig tilgang til at tackle de juridiske udfordringer, der er forbundet med nye AI-systemer, betyder, at vi afholder os fra at foretage større ændringer i vores ramme for erstatningsansvar. Hvis en person har lidt skade som følge af et defekt AI-system, bør produktansvarsdirektivet fortsat være det retlige instrument til at søge erstatning fra producenten. Hvis skaden er forvoldt af en indblandet tredjepart, sikrer medlemsstaternes eksisterende culpabaserede ansvarsordning (i de fleste tilfælde) et tilstrækkeligt beskyttelsesniveau. I overensstemmelse med Unionens principper om bedre regulering bør eventuelle nødvendige lovgivningsmæssige tilpasninger for så vidt angår producenter og indblandede tredjeparter drøftes inden for disse respektive retlige rammer.
Denne betænkning indeholder ikke desto mindre en afgørende undtagelse fra tiltroen til de eksisterende ansvarsordninger: Den mener, at der er et hul i lovgivningen, når det gælder spørgsmålet om ansvaret for udbredere af AI-systemer. Selv om disse personer træffer afgørelse om anvendelsen af AI-systemer, er dem, der hovedsageligt udøver kontrol med de dermed forbundne risici, og som drager fordel af deres anvendelse, så ville mange erstatningskrav mod dem mislykkes på grund af de berørte personers manglende mulighed for at bevise udbrederens culpa. Navnlig i tilfælde, hvor skaden er forårsaget af en driftshændelse i et AI-system i det offentlige rum, vil den potentielt meget store gruppe af berørte personer som regel ikke stå i nogen form for kontraktforhold til udbrederen, hvilket betyder, at de stort set ingen chance har for at opnå erstatning for forvoldt skade. Ordføreren foreslår to forskellige løsninger for at lukke dette hul i lovgivningen, afhængigt af det risikoniveau, som AI-systemet indebærer:
1) Højrisiko-AI-systemer: Udbrederen af et sådant system befinder sig i en situation, der svarer en hel del til ejeren af en bil eller et kæledyr. Han eller hun udøver kontrol over en genstand, der i høj grad bringer offentligheden i fare på en måde, der er vilkårlig og umulig at forudsige på forhånd. Som følge heraf bør udbrederen – i lighed med ejeren af en bil eller et kæledyr – være underlagt en ordning med objektivt ansvar og skal i et vist omfang og inden for en vis beløbsgrænse yde erstatning til ofret for skade på dennes juridisk beskyttede rettigheder (liv, sundhed, fysisk integritet, ejendom). Nærværende betænkning fastlægger klare kriterier for, hvilke AI-systemer der kan klassificeres som "højrisiko", og de er opført på en udtømmende liste i et bilag. I betragtning af den hurtige tekniske udvikling og markedsudviklingen og i betragtning af den tekniske ekspertise, der er nødvendig for en passende gennemgang af et AI-system, bør det være op til Europa-Kommissionen at foretage ændringer i bilaget ved hjælp af delegerede retsakter. Et nyligt nedsat stående udvalg med deltagelse af nationale eksperter og interessenter bør støtte Kommissionen i dens gennemgang af potentielle højrisiko-AI-systemer.
2) Alle andre AI-systemer: Den person, der har lidt skade som følge af et AI-system, der ikke er opført i bilaget, bør ikke desto mindre nyde godt af en formodning om culpa over for udbrederen. Den nationale lovgivning om erstatningens størrelse og omfang samt forældelsesfristen i tilfælde af skade forårsaget af AI-systemet skal fortsat være gældende.
Ethvert forslag til ny lovgivning skal omfatte en dybdegående analyse af eksisterende lovgivning for at undgå overlapninger eller modstridende bestemmelser. Baseret på dette princip omfatter betænkningen kun skader på liv, sundhed, fysisk integritet og ejendom. Selv om AI-systemer ganske vist kan forårsage betydelig skade for personlige rettigheder og andre vigtige juridisk beskyttede interesser, behandles sådanne overtrædelser meget bedre af allerede eksisterende og skræddersyede lovbestemmelser på disse områder (f.eks. lovgivning om bekæmpelse af forskelsbehandling eller forbrugerbeskyttelseslovgivningen). Af samme grund har ordføreren ikke medtaget anvendelsen af biometriske data eller af teknikker til ansigtsgenkendelse ved hjælp af AI-systemer. Enhver uautoriseret anvendelse på dette område er allerede omfattet af specifikke databeskyttelsesbestemmelser i bl.a. den generelle forordning om databeskyttelse. Med hensyn til modstridende nationale erstatningsansvarsordninger for så vidt angår spørgsmålet om, hvorvidt et AI-system er underlagt objektivt ansvar, eller med hensyn til kontraktmæssige aftalers begrænsende virkning, fastholdes det i denne betænkning, at forordningens bestemmelser altid har forrang. Den søger endvidere at sikre fuld erstatning fra udbrederen til den berørte person, inden andre personer end den berørte person kan rejse erstatningskrav mod producenten. Af hensyn til retssikkerheden i hele Unionen bør backend-operatøren, der ikke er omfattet af nærværende forordning, være omfattet af de samme regler om erstatningsansvar som producenten, fabrikanten og udvikleren.
Da Den Europæiske Union og dens medlemsstater ikke har behov for at foretage radikale ændringer af deres rammer for erstatningsansvar, bør AI-systemer heller ikke skubbe os væk fra vores traditionelle forsikringssystemer. Offentligt finansierede erstatningsmekanismer er ikke et passende svar på den stigende brug af kunstig intelligens. Sådanne erstatningsordninger vil kun medføre en unødvendig finansiel byrde for skatteyderne. Trods den manglende adgang til historiske data af høj kvalitet om erstatningskrav i forbindelse med AI-systemer er de europæiske forsikringsselskaber allerede i gang med at udvikle nye produkter for hvert enkelt område og hver enkel dækning i takt med, at teknologien udvikler sig. Hvis der er behov for en ny form for dækning, vil forsikringsmarkedet finde en passende løsning. Det ville være forkert falde for de hypotetiske scenarier, der anvendes til at drive lobbyvirksomhed til fordel for yderligere offentlige ordninger. Hvis der en dag indtræffer en begivenhed, der medfører omfattende skade, i lighed med et stort terrorangreb, kan medlemsstaterne oprette særlige erstatningsfonde for en begrænset periode, ligesom det er sket tidligere. Denne betænkning kræver derfor blot, at udbredere af højrisiko-AI-systemer er i besiddelse af en passende ansvarsforsikring (som kan sammenlignes med den forpligtelse, der er fastsat i direktivet om motorkøretøjsforsikring), som dækker størrelsen og omfanget af den erstatning, der er omhandlet i denne forordning. Ordføreren er overbevist om, at forsikringsmarkedet enten vil tilpasse den eksisterende forsikringsdækning eller komme med forskellige nye produkter, som hver især dækker de forskellige typer af AI-systemer inden for forskellige sektorer.
Ordføreren er overbevist om, at han med sin snævre, men klare tilgang til reglerne om erstatningsansvar for udbredere af AI-systemer har fundet balancen mellem på den ene side at sikre en effektiv beskyttelse af samfundet og på den anden side at gøre det muligt yderligere at innovere denne spændende teknologi. Alt for ofte er det kun risiciene forbundet med kunstig intelligens, der fremhæves. Ja, AI-systemerne kan bruges til at gøre negative ting. Men ønsker vi at tillade negative hændelser – som kan skabes af alle teknologier, lige fra mobiltelefoner til atomkraft – at begrænse en generel anvendelse heraf? Ønsker vi at gå glip af hjælpen fra AI-systemer i vores kamp mod klimaændringer, til at forbedre vores sundhedssystem eller til bedre at integrere personer med handicap? Denne betænkning anbefaler på det kraftigste, at der fokuseres på at udnytte AI-systemers positive virkninger, samtidig med at der opbygges stærke sikkerhedsforanstaltninger.
Dermed bør al ny lovgivning om kunstig intelligens udarbejdes i form af forordninger. Da det digitale område er karakteriseret af hurtige grænseoverskridende dynamikker, er det nødvendigt, at vores europæiske digitale indre marked harmoniseres fuldt ud for at indhente den globale digitale konkurrence.
Det er af største betydning at understrege, at den politiske diskussion om denne forordning bør gå hånd i hånd med en nødvendig revision af produktansvarsdirektivet. Indførelsen af en ny erstatningsansvarsordning for udbredere af AI-systemer kræver, at forhandlingerne om denne forordning og revisionen af produktansvarsdirektivet koordineres nøje både med hensyn til indhold og tilgang, således at de sammen udgør en sammenhængende ramme for erstatningsansvar for AI-systemer, der med hensyn til ansvarsrisikoen afvejer producentens, udbrederens og den berørte persons interesser. Det synes nødvendigt at tilpasse og strømline definitionerne af AI-system, udbreder, producent, udvikler, defekt, produkt og tjenester i alle retsakter.
Sidst, men ikke mindst, bør de politiske aktører indse, at de teknologiske fremskridt ikke stopper under deres lovgivningsmæssige forhandlinger. Hvis vi for alvor ønsker at holde trit med digitaliseringen, at bevare vores digitale suverænitet og spille en vigtig rolle i den digitale tidsalder, så er EU-institutionerne nødt til at sende et klart politisk budskab til vores succesrige industri og til vores dygtige forskere, der arbejder med nye AI-systemer. Indtil den lovgivningsmæssige reaktion på stigningen i anvendelsen af kunstig intelligens bliver til lovgivning, bør industrien og forskerne være i stand til at innovere i overensstemmelse med de eksisterende regler og bør nyde godt af en overgangsperiode på fem år. Hvis vi ikke giver dem denne planlægningssikkerhed, vil Europa gå glip af mange nye fascinerende teknologier, produkter og tjenester.
UDTALELSE FRA UDVALGET OM DET INDRE MARKED OG FORBRUGERBESKYTTELSE (7.7.2020)
til Retsudvalget
om civilretlig erstatningsansvarsordning for kunstig intelligens
Ordfører for udtalelse: Svenja Hahn
(Initiativ – forretningsordenens artikel 47)
FORSLAG
Udvalget om det Indre Marked og Forbrugerbeskyttelse opfordrer Retsudvalget, som er korresponderende udvalg, til
– at optage følgende forslag i det beslutningsforslag, det vedtager:
A. der henviser til, at brugen af nye digitale teknologier såsom kunstig intelligens (AI), tingenes og tjenesternes internet (IoT/IoS) og robotteknologi vil fortsætte med at spille en stadig større rolle i vores hverdag;
B. der henviser til, at disse nye digitale teknologier har potentiale til at bidrage til udviklingen af innovation i mange sektorer og gavne forbrugerne ved hjælp af innovative produkter og tjenesteydelser, virksomhederne, navnlig nyetablerede, mikro- samt små og mellemstore virksomheder (SMV'er), gennem optimerede resultater og øget konkurrenceevne, og den offentlig forvaltning gennem forbedrede, mere inklusive og skræddersyede offentlige tjenester;
C. der henviser til, at anvendelsen, indførelsen og udviklingen af AI- og andre nye digitale teknologier også kan indebære risici og udfordringer for den eksisterende ramme for produktansvar, som ikke nødvendigvis er tilpasset disse nye applikationer, og dermed potentielt kan undergrave forbrugernes tillid og beskyttelsen af dem;
D. der henviser til, at produktsikkerhed og produktansvar er to komplementære mekanismer, der forfølger det samme politiske mål om et velfungerende indre marked for varer og tjenesteydelser, og at der i denne udtalelse foreslås mulige tilpasninger af EU's rammer for erstatningsansvar i lyset af den stigende betydning af nye digitale teknologier;
E. der henviser til, at robuste erstatningsansvarsmekanismer, der giver mulighed for erstatning for skader, bidrager til bedre beskyttelse af borgerne og forbrugerne mod skader og skaber større tillid til nye digitale teknologier, samtidig med at retssikkerheden sikres for virksomhederne, især nyetablerede, mikro- og små og mellemstore virksomheder, hvilket vil bidrage til at sætte dem i stand til at innovere;
F. der henviser til, at de teoretiske fordele ved kunstig intelligens også bør bidrage effektivt til velfærd og udvikling for at opnå accept;
G. der henviser til, at Kommissionens rapport til Europa-Parlamentet, Rådet og Det Europæiske Økonomiske og Sociale Udvalg om de konsekvenser, som kunstig intelligens, tingenes internet og robotteknologi vil have for sikkerhed og erstatningsansvar[24], og hvidbogen om kunstig intelligens - En europæisk tilgang til topkvalitet og tillid[25] bør betragtes som grundlaget for den fremtidige EU-lovgivning;
1. glæder sig over, at Kommissionen agter at arbejde hen imod at tilpasse Unionens retlige rammer til den nye teknologiske udvikling, indførelsen og anvendelsen af kunstig intelligens og andre nye digitale teknologier og derved vil sikre et højt beskyttelsesniveau for forbrugerne mod skader forårsaget af nye teknologier, der er baseret på kunstig intelligens, robotteknologi og beslægtede teknologier, samtidig med at der sikres balance i forhold til målsætningen om digitalisering af industrielle produkter og forbrugsprodukter og støtte til teknologisk innovation;
2. opfordrer Kommissionen til at ajourførte den eksisterende ramme for erstatningsansvar, navnlig Rådets direktiv 85/374/EØF[26] (direktivet om produktansvar), og tilpasse den til den digitale verden;
3. opfordrer Kommissionen til at revidere direktivet om produktansvar ved at tage stilling til de udfordringer, som nye digitale teknologier såsom kunstig intelligens, tingenes internet (IoT) og robotteknologi udgør, og derved sikre et højt niveau af effektiv forbrugerbeskyttelse samt retssikkerhed for forbrugerne og virksomhederne, samtidig med at store omkostninger og risici undgås for SMV'er og nystartede virksomheder;
4. understreger, at en eventuel ajourføring af produktansvarsrammen bør gå hånd i hånd med ajourføringen af Europa-Parlamentets og Rådets direktiv 2001/95/EF[27] (produktsikkerhedsdirektivet) for at sikre, at AI-systemer integrerer princippet om indbygget sikkerhed;
5. understreger, at enhver revision af den eksisterende ramme for erstatningsansvar bør sigte mod yderligere harmonisering af ansvarsreglerne og forbrugerbeskyttelsesreglerne for at sikre lige vilkår og undgå uligheder med hensyn til forbrugerbeskyttelse og opsplitning af det indre marked;
6. anmoder Kommissionen om at vurdere, om en forordning om generelt produktansvar vil kunne bidrage til dette mål; understreger imidlertid, at det er vigtigt at sikre, at EU-reguleringen begrænses til klart identificerede problemer, som der findes gennemførlige løsninger for, og at den levner plads for yderligere teknologisk udvikling, herunder udvikling baseret på gratis og open source software; understreger, at dette bør ske i fuld overensstemmelse med gældende lovgivning, herunder Europa-Parlamentets og Rådets direktiv (EU) 2019/790[28];
7. opfordrer Kommissionen til at ajourføre produktansvarsrammen under hensyntagen til de særlige udfordringer ved digitalisering for lovgivningen om erstatningsansvar; mener, at der kan opstå udfordringer, f.eks. på grund af produkter, der er indbyrdes forbundne, dataafhængige eller sårbare over for cybersikkerhedsrisici;
8. understreger navnlig behovet for at tage hensyn til processer i AI-applikationer, som måske ikke er veldokumenterede, eller som kan forekommer autonomt, efter at produktet er bragt i omsætning;
9. opfordrer Kommissionen til at præcisere definitionen af "produkter" i produktansvarsdirektivet ved at afgøre, om digitalt indhold og digitale tjenester falder ind under dets anvendelsesområde og overveje at tilpasse begreber som "producent", "skade" og "defekt"; understreger, at det er nødvendigt at tage hensyn til forbrugerlovgivningen i denne forbindelse, navnlig Europa-Parlamentets og Rådets direktiv (EU) 2019/770[29] (direktivet om digitalt indhold) og Europa-Parlamentets og Rådets direktiv (EU) 2019/771[30] (direktivet om salg af varer);
10. anbefaler, at kunstig intelligens ikke tildeles status som selvstændig juridisk person; anmoder Kommissionen om også at undersøge, om produktansvarsrammen bør ændres for effektivt at kunne beskytte skadelidte og sikre dem erstatning i forbindelse med produkter, der er er købt som en pakke med relaterede tjenesteydelser, og om at betragte regler om indbygget privatlivsbeskyttelse og indbygget sikkerhed som noget, forbrugerne med rimelighed bør kunne forvente i forbindelse med deres digitale produkter;
11. understreger, at onlinemarkedspladser, der fungerer som importører eller leverandører af varer, der sælges online i forsyningskæden, falder ind under produktansvarsdirektivet og derfor er ansvarlige for skader, der forårsages af en defekt i produkter, de har solgt, medmindre de optræder som leverandør og producenten er identificeret i overensstemmelse med de relevante bestemmelser i produktansvarsdirektivet;
12. opfordrer Kommissionen til i tæt samordning med tilsvarende eventuelle tilpasninger af Unionens rammer for sikkerhed at overveje, om begrebet "tidspunktet, hvor produktet er bragt i omsætning", er formålstjenligt i forbindelse med nye digitale teknologier, og om producentens ansvar og erstatningsansvar kunne række ud over dette begreb, i betragtning af at AI-støttede produkter kan ændres under producentens kontrol, efter at de er blevet bragt i omsætning, hvilket kan afstedkomme en defekt og deraf følgende skade;
13. understreger betydningen af at sikre en retfærdig og effektiv ansvarsfordeling i den kommercielle transaktionskæde med henblik på at placere erstatningsansvaret på den mest hensigtsmæssige måde; fremhæver, at det på grund af kompleksiteten, konnektiviteten og uigennemsigtigheden i forbindelse med produkter, der er baseret på kunstig intelligens og nye teknologier, kan være vanskeligt for forbrugerne at bevise, hvilken defekt i et produkt der har forvoldt skade, idet det ikke kan antages, at forbrugerne har al den nødvendige information eller specifikke tekniske viden;
14. understreger derfor relevansen af at gøre det muligt for forbrugere, der har lidt skade, eller hvis ejendom er blevet skadet, at bevise, at en defekt i et produkt har forvoldt skade, også når software fra en tredjepart er involveret, eller hvis det er vanskeligt at spore årsagen til en defekt, f.eks. når produkter indgår i et komplekst, sammenkoblet tingenes internet;
15. opfordrer Kommissionen til at overveje at ændre reglerne om bevisbyrde for skader forårsaget af nye digitale teknologier i klart definerede tilfælde og efter en korrekt vurdering med henblik på at give forbrugere, der har lidt skade, eller hvis ejendom er blevet skadet, mulighed for at forsvare deres rettigheder, samtidig med at misbrug forhindres og virksomhederne sikres retssikkerhed, samt til at sikre retfærdighed og afbøde de informationsasymmetrier, der vanskeliggør de skadelidtes situation;
16. anmoder Kommissionen om at overveje muligheden af at indføre et krav om, at producenter af nye digitale teknologier skal udstyre deres produkter med systemer til registrering af oplysninger om, hvordan teknologien fungerer, i overensstemmelse med de gældende bestemmelser om beskyttelse af personoplysninger og reglerne om beskyttelse af forretningshemmeligheder og under hensyntagen til bl.a. sandsynligheden for, at der kan opstå en risiko i forbindelse med den pågældende teknologi, om et sådant krav vil være passende og forholdsmæssigt, om det er teknisk gennemførligt, og hvad det vil koste; foreslår, at manglende efterlevelse af dette krav eller afvisning af at give den pågældende forbruger en rimelig adgang til disse oplysninger bør udløse en simpel retsformodning om, at der påhviler producenten et erstatningsansvar;
17. fremhæver behovet for en risikobaseret tilgang til kunstig intelligens inden for de eksisterende rammer for erstatningsansvar, som tager højde for forskellige risikoniveauer for forbrugerne inden for specifikke sektorer og anvendelser af kunstig intelligens; understreger, at en sådan tilgang, der kan omfatte flere risikoniveauer, bør være baseret på klare kriterier og en passende definition af høj risiko og skabe retssikkerhed;
18. mener endvidere, at de, der er involveret i de forskellige faser af udvikling, indførelse og anvendelse af AI-systemer, bør holdes ansvarlige i forhold til det ansvar, de har i deres interne forhold; understreger imidlertid, at disse forskellige aktørers solidariske ansvar bør sikres i forhold til den part, der har lidt skade, eller hvis ejendom er blevet beskadiget; foreslår, at produktsporbarheden forbedres, f.eks. gennem anvendelse af distributed ledger-teknologier såsom blockchain, for at gøre det lettere at identificere dem, der er involveret i de forskellige faser;
19. understreger, at AI-systemers forklarlighed, fortolkning og sporbarhed er afgørende for at sikre, at erstatningsansvarsmekanismer giver en passende, effektiv og retfærdig ansvarsfordeling;
20. opfordrer Kommissionen til nøje at overveje indførelsen af en særskilt, men supplerende ordning om objektivt ansvar for AI-systemer, der indebærer en høj risiko for at forvolde skade på en eller flere personer eller deres ejendom på en måde, der er tilfældig og umulig at forudsige på forhånd, under hensyntagen til bl.a. dens sandsynlige indvirkning på beskyttelsen af borgerne og forbrugerne mod skader, virksomhedernes, navnlig SMV'ers, innovationskapacitet og sammenhængen i Unionens rammer for sikkerhed og ansvar samt på principperne om nærhed og proportionalitet; mener, at denne ordning bør sikre, at ofre rent faktisk får kompensation for skader, der forvoldes af AI-styrede systemer.
21. opfordrer Kommissionen til at foreslå konkrete foranstaltninger, f.eks. et register over erstatningsansvarssager, for at øge gennemsigtigheden og overvåge fejlbehæftede produkter, der cirkulerer i Unionen; fremhæver, at det er vigtigt at sikre, at der er et højt forbrugerbeskyttelses- og informationsniveau i forbindelse med de produkter, der kan købes.
OPLYSNINGER OM VEDTAGELSE I RÅDGIVENDE UDVALG
Dato for vedtagelse |
7.7.2020 |
|
|
|
Resultat af den endelige afstemning |
+: –: 0: |
39 0 5 |
||
Til stede ved den endelige afstemning – medlemmer |
Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo |
|||
Til stede ved den endelige afstemning – stedfortrædere |
Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin |
ENDELIG AFSTEMNING VED NAVNEOPRÅB
I RÅDGIVENDE UDVALG
39 |
+ |
EPP S&D RENEW ID GREENS/EFA ECR EUL/NGL NI |
Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose Andrus Ansip, Vlad-Marius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie Yon-Courtin Alessandra Basso David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kim Van Sparrentak Adam Bielan, Carlo Fidanza, Beata Mazurek Kateřina Konečná, Anne-Sophie Pelletier Marco Zullo |
0 |
- |
|
|
5 |
0 |
ID ECR |
Hynek Blaško, Markus Buchheit, Virginie Joron, Jean-Lin Lacapelle Eugen Jurzyca |
Tegnforklaring:
+ : for
- : imod
0 : hverken/eller
UDTALELSE FRA TRANSPORT- OG TURISMEUDVALGET (15.7.2020)
til Retsudvalget
med henstillinger til Kommissionen om civilretlig erstatningsansvarsordning for kunstig intelligens
Ordfører for udtalelse: Cláudia Monteiro de Aguiar
(Initiativ – forretningsordenens artikel 47)
FORSLAG
Transport- og Turismeudvalget opfordrer Retsudvalget, som er korresponderende udvalg, til at optage følgende forslag i det beslutningsforslag, det vedtager:
– der henviser til artikel 225 i traktaten om Den Europæiske Unions funktionsmåde,
– der henviser til Rådets direktiv 85/374/EØF[31],
– der henviser til forretningsordenens artikel 56,
A. der henviser til, at kunstig intelligens (AI) og andre nye digitale teknologier har potentiale til at forandre vores samfund og økonomier til det bedre; der henviser til, at det ikke desto mindre er umuligt fuldstændigt at udelukke muligheden af skade på eller tab af liv som følge af anvendelsen af disse teknologier;
B. der henviser til, at der i forskellige transportsektorer er blevet anvendt varierende grader af automatisering og kunstig intelligens; der henviser til, at kunstig intelligens involverer brug af mange typer teknologier såsom selvkørende køretøjer, ubemandede luftfartøjssystemer og intelligente trafikstyringsløsninger;
C. der henviser til, at den civilretlige ansvarsramme i Unionen suppleres af nationale ansvarsordninger, og at begge bør afspejle de nye komplekse teknologier for at garantere det højeste beskyttelsesniveau og samtidig understøtte teknologisk innovation; der henviser til, at EU mangler en harmoniseret civilretlig erstatningsansvarsordning for AI-produkter. der henviser til, at incitamenter til udnyttelse og anvendelsen af AI i EU bør være højeste prioritet for Unionen og en gennemgående målsætning for udviklingen af de ansvarsretlige rammer vedrørende AI-produkter; der henviser til, at det af data fremgår, at op mod 90 % af alle trafikulykker i hvert fald delvist skyldes menneskelige fejl; der henviser til, at selvkørende køretøjer bør underlægges en etisk ramme; der henviser til, at indførelsen af en sådan ramme kan forhindre fejl i maskinernes beslutningstagning og algoritmer, men at det er nødvendigt med en harmoniseret ansvarsordning for at sikre, at der ydes fuld erstatning for alle skader forårsaget af AI-systemer;
D. der henviser til, at EU-lovgivning og national lovgivning bør sikre en høj sikkerhed af produkt- og tjenesteydelser både på forhånd og gennem hele et produkts livscyklus og samtidig muliggøre erstatning til ofre efterfølgende; der henviser til, at teknologisk udvikling inden for AI bør forblive menneskeorienteret, og at produkter og anvendelsesmuligheder, der benytter AI, bør bidrage til menneskelig trivsel og god livskvalitet;
1. understreger, at AI kan anvendes på forskellige niveauer i køretøjer, i transportinfrastruktur og for de forskellige transportformer, og at den har en væsentlig indvirkning på graden af selvstyring for automatiserede kørselssystemer, der spænder fra fuld førerkontrol til fuld autonomi, og at der følgelig sker en glidende forskydning af det civilretlige ansvar fra føreren over på andre parter, jo højere graden af autonomien i de automatiserede kørselssystemer; opfordrer til klare EU-definitioner for alle slags transportformer og infrastruktur, der kører på AI-software, og en tilsvarende risikoklassificering til at støtte en ansvarsordning i forbindelse med afklaring af spørgsmål om ansvar for at sikre de højeste sikkerheds- og sikringsstandarder, idet det understreges, at sikkerhed er af afgørende betydning i transportsektoren, og at det kan beskrives som det ene aspekt ved sagen, idet ansvaret er det andet aspekt;
2. minder om, at transportsektoren har inkorporeret AI-teknologi i årtier, navnlig med indførelsen af automatisk styring af togdriften (ATO), herunder i bymæssige områder, hvor automatiseret, førerløs drift har øget systemdisponibiliteten, netværkskapaciteten og driftseffektiviteten;
3. understreger, at automatiserede funktionaliteter kan føre til betydelige sikkerhedsmæssige forbedringer på mellemlang og lang sigt, men også til uforudsete følger, for så vidt angår eksempelvis cybersikkerhed og datafortrolighed; bemærker, at selv om sameksistensen af forskellige former for automatisering udgør en udfordring, kan AI også anvendes til planlægning og styring af logistikkæder og til at øge effektiviteten, modstandsdygtigheden, pålideligheden, bæredygtigheden, interoperabiliteten og fleksibiliteten, og at den har et enormt potentiale for personer med handicap og nedsat mobilitet; fremhæver behovet for et øget niveau af myndighedskontrol under en EU-ordning for civilretligt erstatningsansvar for AI-produkter for at kunne sikre sikkerheden for personer med handicap og nedsat mobilitet;
4. understreger vigtigheden af at definere en klar ansvarsfordeling mellem softwareudviklere, producenter af forskellige komponenter, tjeneste- og dataudbydere, operatører og slutbrugere for at sikre den bedst mulige produktsikkerhed og respekt for forbrugernes rettigheder; påpeger, at det er nødvendigt at sikre en passende fordeling af risici, der opstår som følge af det nye digitale samspil mellem infrastruktur og køretøjer, og at anvende en retfærdig ansvarsordning i forbindelse med operative softwarefejl, netværkssvigt og risici i forbindelse med programmeringsvalg, som i øjeblikket ikke er tilstrækkeligt dækket;
5. understreger, at der for AI-relaterede anvendelser inden for transportsektoren med en specifik højrisikoprofil er behov for en risikobaseret tilgang afhængigt af automatiseringsniveauet og systemets selvlæringsniveau; påpeger behovet for lovkrav om AI-applikationer med høj risikoprofil; bemærker dog, at denne tilgang ikke bør baseres på en forudgående udpegning af visse sektorer, som f.eks. transport, som værende sektorer, der opererer med højrisikobetonet AI, men derimod på områdespecifikke og teknologineutrale vurderinger; fremhæver behovet for, at sådanne krav harmoniseres i hele Unionen for at sikre det højeste produktsikkerhedsniveau og det minimale risikoniveau for brugerne, samtidig med at der anvendes AI-systemer, og den grundlæggende betydning, som forsigtighedsprincippet, jf. artikel 191 i TEUF, har for risikoanalyse og risikostyring; opfordrer til en passende reaktion på behovet for en passende tilgang til databeskyttelse og håndtering af de risici, der er forbundet med hacking og cyberkriminalitet;
6. bemærker, at producenten i henhold til de nugældende regler om produktsikkerhed er erstatningsansvarlig, medmindre andet er bevist, og at producenten og/eller udvikleren har bevisbyrden; fremhæver, at dette princip bør udstrækkes til AI-produkter; anbefaler, at en operatør, der har en højere grad af kontrol end ejeren eller brugeren af et faktisk produkt eller en faktisk tjeneste, der er udstyret med AI, i tilfælde, hvor producenten og/eller udvikleren har vist sig ikke at være ansvarlig, er den part, der anses for bedst at være i stand til at styre risiciene, og bevisbyrden bør derfor overgå til operatøren; bemærker, at enhver forpligtelse bør påhvile den aktør, der er bedst i stand til at håndtere risikoen; understreger, at forbrugerens samtykke er et grundlæggende princip for udviklingen af transporttjenester inden for kunstig intelligens; opfordrer indtrængende Kommissionen til at etablere midler til at certificere sådanne tjenester; noterer sig, at beskyttelsen af EU-borgerne og EU-baserede virksomheder, der anvender teknologier med kunstig intelligens, kræver en klar ansvarsdeling mellem de forskellige involverede parter, uanset hvorvidt disse parter er EU-baserede eller ej (ekstraterritorial virkning);
7. understreger behovet for at sikre mindst samme produktsikkerhedsniveau som det nuværende, idet der også tages hensyn til EU's mål om nul-emission, at gøre det lettere for ofre for ulykker at få adgang til retsmidler, undgå at øge de nuværende sagsomkostninger og undgå retsusikkerhed, navnlig for virksomheder, der markedsfører deres produkter i Unionen og globalt; fremhæver i denne forbindelse nødvendigheden af at yde hurtig erstatning til ofre, uanset erstatningsansvarskæden;
8. er af den opfattelse, at ansvaret i sidste instans til trods for niveauet af automatisering og integration af AI i transportsystemer og køretøjer altid skal påhvile fysiske og juridiske personer med henblik på at sikre juridisk sikkerhed og for samtidig at tilskynde til investeringer og korrekt anvendelse af teknologien;
9. understreger, at det er vigtigt at sikre, at førerne er ordentligt uddannet og altid fuldt ud er opmærksomme på et køretøjs automatiseringsniveau og deres ansvarsniveau, og at de bør oplyses om deres køretøjers AI-systemer og tilhørende begrænsninger i sådanne systemer, såsom aktivering, deaktivering, svigt; desuden bør indbyggede funktionaliteter i køretøjet med jævne mellemrum minde føreren om, at han eller hun har ansvaret for at føre kontrol med køretøjets status og give klare advarsler til føreren om AI-systemets begrænsninger; fremhæver, at førere ikke kan holdes ansvarlige, hvis det er fastslået, at de på lovlig vis har anvendt automatiske køresystemer;
10. bemærker, at der er behov for registreringsteknologi til registrering af hændelsesforløb i tilfælde af alvorlige ulykker under fuld overholdelse af lovgivningen om databeskyttelse og privatlivets fred, og som gør det muligt at finde frem til den ansvarlige fysiske eller juridiske person; fremhæver den centrale rolle, som datalagring, -deling og -forvaltning vil have for anvendelsen af kunstig intelligens i forbindelse med mobilitet og understreger, at registreringsanordninger under ingen omstændigheder bør anvendes som permanente sporingssystemer; opfordrer til mere forskning og udvikling gennem både offentlige og private midler og flere afprøvninger for at øge produktsikkerheden og dermed trafiksikkerheden, og i det mindste også at levere konkrete data, der kan bidrage til yderligere udvikling; bemærker, at der er brug for en topmoderne underliggende infrastruktur, et intelligent transportsystem, der opererer med opdaterede, klare og fortolkelige data for at begrænse hændelser til et minimum;
11. opfordrer til en yderligere analyse af behovet for at tilpasse Europa-Parlamentets og Rådets direktiv 2006/126/EF[32] og Europa-Parlamentets og Rådets direktiv 2009/103/EF[33] som følge af automatiserede funktioner i køretøjer; opfordrer indtrængende Kommissionen til at foretage periodiske vurderinger af EU's retlige rammer for transport for at sikre, at det er i stand til at håndtere de sikkerheds- og erstatningsansvarsmæssige problemstillinger, der knytter sig til integration af AI-teknologi; opfordrer desuden Kommissionen til at udforske muligheden for i EU's produktsikkerhedslovgivning at indføje krav, der tager hånd om de sikkerhedsrisici, som datafejl udgør;
12. understreger, at ansvarsordninger i tilfælde af en ulykke eller en overtrædelse af færdselsloven skal udformes omhyggeligt for hvert automatiseringsniveau og AI-integrationsniveau og skal formidles klart til brugerne for at sikre en gnidningsløs overgang fra fuldt føreransvar til fuldt producent- og operatøransvar;
13. bemærker, at hvorvidt førerløse systemer inden for transportnetværk, såsom automatiserede køretøjer og ubemandede luftfartøjssystemer, kan integreres i infrastrukturen for henholdsvis land- og lufttransport afhænger af mange forskellige signaler og betingelser og af eventuelle risici eller hindringer af enhver art, der måtte opstå; bemærker, at en sådan øget anvendelse, navnlig i byområder, løbende vil sætte den eksisterende ordning for civilretligt ansvar på prøve, og opfordrer derfor til en regelmæssig opdatering af de digitale kort, trafikstyringssystemer og datadelingsregler, således at der sikres et obligatorisk passende minimum af oplysninger om og instruktioner til brug af produkter, der er udstyret med AI, og om vejnettet samt for den korrekte udvikling og udbredelse af U-space; er af den opfattelse, at et antropocentrisk perspektiv skal være grundlag for enhver opdatering og udvikling af de retlige rammer for automatisering og AI-integration inden for transport;
14. anmoder Kommissionen om at forelægge retningslinjer for at undgå forskellige lovgivningsmæssige tilgange på nationalt plan under hensyntagen til direktiv 85/374/EØF og de nugældende nationale ansvarsordninger; understreger behovet for en EU-ramme for civilretligt ansvar og understreger, at fragmentering ville være yderst skadelig for udviklingen af sådanne teknologier, for EU-virksomhedernes, især SMV'ernes, konkurrenceevne, og at det ville undergrave retssikkerheden og sikkerheden og hindre hurtig erstatning til ofre; bemærker, at erstatningsansvaret bør påhvile den aktør, der er bedst i stand til at håndtere risikoen, på grundlag af en behørig retssag.
OPLYSNINGER OM VEDTAGELSE I RÅDGIVENDE UDVALG
Dato for vedtagelse |
14.7.2020 |
|
|
|
Resultat af den endelige afstemning |
+: –: 0: |
49 0 0 |
||
Til stede ved den endelige afstemning - medlemmer |
Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, István Ujhelyi, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski |
|||
Til stede ved den endelige afstemning - stedfortrædere |
Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti |
RESULTAT AF AFSTEMNING VED NAVNEOPRÅB I RÅDGIVENDE UDVALG
49 |
+ |
ECR |
Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski |
GUE/NGL |
Leila Chaibi, Kateřina Konečná, Elena Kountoura |
ID |
Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo |
NI |
Mario Furore, Dorien Rookmaker |
PPE |
Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian-Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Elżbieta Katarzyna Łukacijewska |
Renew |
José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan-Christoph Oetjen, Dominique Riquet |
S&D |
Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi |
Verts/ALE |
Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay-Grunenberg, Tilly Metz |
0 |
- |
|
|
0 |
0 |
|
|
Tegnforklaring:
+ : for
- : imod
0 : hverken/eller
OPLYSNINGER OM VEDTAGELSE I KORRESPONDERENDE UDVALG
Dato for vedtagelse |
1.10.2020 |
|
|
|
Resultat af den endelige afstemning |
+: –: 0: |
23 0 1 |
||
Til stede ved den endelige afstemning – medlemmer |
Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos |
|||
Til stede ved den endelige afstemning – stedfortrædere |
Patrick Breyer, Evelyne Gebhardt, Kosma Złotowski |
RESULTAT AF AFSTEMNING VED NAVNEOPRÅB I RÅDGIVENDE UDVALG
23 |
+ |
EPP |
Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos |
S&D |
Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken |
RENEW |
Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara |
ID |
Gunnar Beck, Jean-Paul Garraud, Gilles Lebreton |
VERTS/ALE |
Patrick Breyer, Marie Toussaint |
ECR |
Angel Dzhambazki, Kosma Złotowski |
NI |
Mislav Kolakušić |
0 |
- |
|
|
1 |
0 |
GUE/NGL |
Manon Aubry |
Tegnforklaring:
+ : for
- : imod
0 : hverken/eller
- [1] EUT L 149 af 11.6.2005, s. 22.
- [2] EUT L 304 af 22.11.2011, s. 64.
- [3] EUT L 117 af 5.5.2017, s. 1.
- [4] EUT L 252 af 8.10.2018, s. 1.
- [5] EUT L 136, 22.5.2019, s. 1.
- [6] EUT L 123 af 12.5.2016, s. 1.
- [7] EUT C 252 af 18.7.2018, s. 239.
- [8] EUT C 307, 30.8.2018, s. 163.
- [9] EUT C 433 af 23.12.2019, s. 86.
- [10] Vedtagne tekster, P8_TA(2019)0081.
- [11] Vedtagne tekster, P9_TA(2020)0032.
- [12] EUT L 011 af 15.1.2002, s.4.
- [13] EUT L 263 af 7.10.2009, s. 11.
- [14] EUT …
- [15] EUT …
- [16] Rådets direktiv 85/374/EØF af 25. juli 1985 om tilnærmelse af medlemsstaternes administrativt eller ved lov fastsatte bestemmelser om produktansvar, EFT L 210 af 7.8.1985, s. 29.
- [17] EUT L 123 af 12.5.2016, s. 1.
- [18] Se s. 24 i Kommissionens hvidbog af 19. februar 2020 om kunstig intelligens – en europæisk tilgang til ekspertise og tillid (COM(2020)0065).
- [19] Europa-Parlamentets og Rådets forordning (EU) 2016/679 af 27. april 2016 om beskyttelse af fysiske personer i forbindelse med behandling af personoplysninger og om fri udveksling af sådanne oplysninger og om ophævelse af direktiv 95/46/EF (generel forordning om databeskyttelse) (EUT L 119 af 4.5.2016, s. 1).
- [20] Europa-Parlamentets og Rådets forordning (EU) 2018/858 af 30. maj 2018 om godkendelse og markedsovervågning af motorkøretøjer og påhængskøretøjer dertil samt af systemer, komponenter og separate tekniske enheder til sådanne køretøjer, om ændring af forordning (EF) nr. 715/2007 og (EF) nr. 595/2009 og om ophævelse af direktiv 2007/46/EF (EUT L 151 af 14.6.2018, s. 1).
- [21] Europa-Parlamentets og Rådets forordning (EU) 2019/1020 af 20. juni 2019 om markedsovervågning og produktoverensstemmelse og om ændring af direktiv 2004/42/EF og forordning (EF) nr. 765/2008 og (EU) nr. 305/2011 (EUT L 169 af 25.6.2019, s. 1).
- [22] Rådets direktiv 85/374/EØF af 25. juli 1985 om tilnærmelse af medlemsstaternes administrativt eller ved lov fastsatte bestemmelser om produktansvar (EFT L 210 af 7.8.1985, s. 29).
- [23] Skal revideres af Europa-Kommissionen som beskrevet i punkt 16 i forslaget til beslutning.
- [25] COM(2020)0065.
- [26] Rådets direktiv 85/374/EØF af 25. juli 1985 om tilnærmelse af medlemsstaternes administrativt eller ved lov fastsatte bestemmelser om produktansvar (EFT L 210 af 7.8.1985, s. 29).
- [27] Europa-Parlamentets og Rådets direktiv 2001/95/EF af 3. december 2001 om produktsikkerhed i almindelighed (EFT L 11 af 15.1.2002, s. 4).
- [28] Europa-Parlamentets og Rådets direktiv (EU) 2019/790 af 17. april 2019 om ophavsret og beslægtede rettigheder på det digitale indre marked (EUT L 130 af 17.5.2019, s. 92).
- [29] Europa-Parlamentets og Rådets direktiv (EU) 2019/770 af 20. maj 2019 om visse aspekter af aftaler om levering af digitalt indhold og digitale tjenester (EUT L 136 af 22.5.2019, s. 1).
- [30] Europa-Parlamentets og Rådets direktiv (EU) 2019/771 af 20. maj 2019 om visse aspekter af aftaler om salg af varer, om ændring af forordning (EU) 2017/2394 og direktiv 2009/22/EF og om ophævelse af direktiv 1999/44/EF (EUT L 136 af 22.5.2019, s. 28).
- [31] Rådets direktiv 85/374/EØF af 25. juli 1985 om tilnærmelse af medlemsstaternes administrativt eller ved lov fastsatte bestemmelser om produktansvar (EFT L 210 af 7.8.1985, s. 29).
- [32] Europa-Parlamentets og Rådets direktiv 2006/126/EF af 20. december 2006 om kørekort (EUT L 403 af 30.12.2006, s. 18).
- [33] Europa-Parlamentets og Rådets direktiv 2009/103/EF af 16. september 2009 om ansvarsforsikring for motorkøretøjer og kontrollen med forsikringspligtens overholdelse (EUT L 263 af 7.10.2009, s. 11).