Betänkande - A9-0178/2020Betänkande
A9-0178/2020

    BETÄNKANDE med rekommendationer till kommissionen om en skadeståndsordning för artificiell intelligens

    5.10.2020 - (2020/2014(INL))

    Utskottet för rättsliga frågor
    Föredragande: Axel Voss
    (Initiativ – artikel 47 i arbetsordningen)

    Förfarande : 2020/2014(INL)
    Dokumentgång i plenum
    Dokumentgång :  
    A9-0178/2020

    FÖRSLAG TILL EUROPAPARLAMENTETS RESOLUTION

    med rekommendationer till kommissionen om en skadeståndsordning för artificiell intelligens

    (2020/2014(INL))

    Europaparlamentet utfärdar denna resolution

     med beaktande av artikel 225 i fördraget om Europeiska unionens funktionssätt,

     med beaktande av artiklarna 114 och 169 i fördraget om Europeiska unionens funktionssätt,

     med beaktande av rådets direktiv 85/374/EEG av den 25 juli 1985 om tillnärmning av medlemsstaternas lagar och andra författningar om skadeståndsansvar för produkter med säkerhetsbrister,

     med beaktande av Europaparlamentets och rådets direktiv 2005/29/EG av den 11 maj 2005 om otillbörliga affärsmetoder som tillämpas av näringsidkare gentemot konsumenter på den inre marknaden (direktivet om otillbörliga affärsmetoder)[1] och Europaparlamentets och rådets direktiv 2011/83/EG av den 25 oktober 2011 om konsumenträttigheter[2], liksom andra konsumentskyddsregler,

     med beaktande av Europaparlamentets och rådets förordning (EU) 2017/745 av den 5 april 2017 om veterinärmedicinska läkemedel[3],

     med beaktande av rådets förordning (EU) 2018/1488 av den 28 september 2018 om bildande av det gemensamma företaget för ett europeiskt högpresterande datorsystem[4],

     med beaktande av Europaparlamentets och rådets direktiv (EU) 2019/770 av den 20 maj 2019 om vissa aspekter på avtal om tillhandahållande av digitalt innehåll och digitala tjänster[5],

     med beaktande av det interinstitutionella avtalet av den 13 april 2016 om bättre lagstiftning och riktlinjerna för bättre lagstiftning[6],

     med beaktande av förslaget till Europaparlamentets och rådets förordning av den 6 juni 2018 om inrättande av programmet för ett digitalt Europa för perioden 2021–2027 (COM(2018)0434),

     med beaktande av kommissionens meddelande av den 25 april 2018 Artificiell intelligens för Europa (COM(2018)0237),

     med beaktande av kommissionens meddelande av den 7 december 2018 Samordnad plan om artificiell intelligens (COM(2018)0795),

     med beaktande av kommissionens meddelande av den 8 april 2019 Att skapa förtroende för människocentrerad artificiell intelligens (COM(2019)0168),

     med beaktande av kommissionens rapport av den 19 februari 2020 till Europaparlamentet, rådet och Europeiska ekonomiska och sociala kommittén Konsekvenser för säkerhet och ansvar när det gäller artificiell intelligens, sakernas internet och robotteknik (COM(2020)0064),

     med beaktande av kommissionens vitbok av den 19 februari 2020 om artificiell intelligens – en EU-strategi för spetskompetens och förtroende (COM(2020)0065),

     med beaktande av sin resolution av den 16 februari 2017 med rekommendationer till kommissionen om civilrättsliga bestämmelser om robotteknik[7],

     med beaktande av sin resolution av den 1 juni 2017 över digitalisering av den europeiska industrin[8],

     med beaktande av sin resolution av den 12 september 2018 om autonoma vapensystem[9],

     med beaktande av sin resolution av den 12 februari 2019 om en övergripande europeisk industripolitik för artificiell intelligens och robotteknik[10],

     med beaktande av sin resolution av den 12 februari 2020 angående automatiserat beslutsfattande: att säkerställa konsumentskydd och fri rörlighet för varor och tjänster[11],

     med beaktande av rapporten av den 8 april 2019 från kommissionens högnivåexpertgrupp för AI-frågor Ethics Guidelines for Trustworthy AI (etiska riktlinjer för tillförlitlig AI),

     med beaktande av rapporten av den 8 april 2019 från kommissionens högnivåexpertgrupp för AI-frågor A definition of AI: Main Capabilities and Disciplines (en definition av AI: främsta resurser och discipliner),

     med beaktande av rapporten av den 26 juni 2019 från kommissionens högnivåexpertgrupp för AI-frågor Policy and investment recommendations for trustworthy AI (rekommendationer om politik och investeringar med avseende på tillförlitlig AI),

     med beaktande av rapporten av den 21 november 2019 från kommissionens expertgrupp för ansvarsfrågor och ny teknik Liability for artificial intelligence and other emerging digital technologies (skadeståndsansvar för artificiell intelligens och annan ny digital teknik),

     med beaktande av Stoa-policydokumentet från juni 2016 om rättsliga och etiska överväganden kring robotteknik, offentliggjort av Europaparlamentets utredningstjänst,

     med beaktande av studien från Europaparlamentets generaldirektorat för EU-intern politik till utskottet för rättsliga frågor European Civil Law Rules in Robotics (europeiska civilrättsliga bestämmelser om robotteknik), offentliggjord i oktober 2016,

     med beaktande av artiklarna 47 och 54 i arbetsordningen,

     med beaktande av yttrandena från utskottet för den inre marknaden och konsumentskydd och utskottet för transport och turism,

     med beaktande av betänkandet från utskottet för rättsliga frågor (A9-0178/2020), och av följande skäl:

    A. Begreppet ”ansvar” spelar en viktig dubbel roll i vårt dagliga liv: dels säkerställer det att en person som lidit skada har rätt att begära och att motta ersättning från den part som bevisligen är ansvarig för skadan, dels ger det fysiska och juridiska personer ekonomiska incitament att undvika att över huvud taget orsaka skada, eller att genom sitt beteende räkna med risken att bli tvungen att betala ersättning.

    B. En framtidsinriktad rättslig ram för skadeståndsansvar måste skapa förtroende för produkters och tjänsters säkerhet, tillförlitlighet och enhetlighet, även inom digital teknik, för att uppnå balans mellan ett effektivt och rättvist skydd för eventuella skadelidande och samtidigt ge tillräckligt med utrymme för att göra det möjligt för företag, särskilt små och medelstora företag, att utveckla ny teknik, nya produkter eller nya tjänster. Detta kommer att bidra till att bygga upp förtroende och skapa stabilitet för investeringar. Det slutliga målet för varje ansvarsram bör vara att skapa rättslig säkerhet för alla parter, oavsett om det handlar om tillverkaren, operatören, den drabbade personen eller någon annan tredje part.

    C. En medlemsstats rättssystem kan justera sina regler om ansvarsskyldighet för vissa aktörer eller göra dem striktare för viss verksamhet. Strikt ansvar innebär att en part kan hållas ansvarig även om det inte har begåtts något fel. I många nationella skadeståndslagar hålls svaranden strikt ansvarig om en risk som svaranden har orsakat för allmänheten, till exempel genom bilar eller farlig verksamhet, eller som han eller hon inte kan kontrollera, exempelvis djur, medför skada.

    D. Varje framtida unionslagstiftning som har som mål att uttryckligen fördela ansvaret för system för artificiell intelligens (AI) bör föregås av analyser och samråd med medlemsstaterna om huruvida den föreslagna rättsakten är förenlig med ekonomiska, rättsliga och sociala villkor.

    E. Frågan om en skadeståndsordning för AI bör vara föremål för en bred offentlig debatt, med beaktande av alla berörda intressen, särskilt de etiska, rättsliga, ekonomiska och sociala aspekterna, för att undvika missförstånd och omotiverad rädsla som sådan teknik kan orsaka bland medborgarna. En noggrann undersökning av konsekvenserna av ett eventuellt nytt regelverk för alla aktörer via en konsekvensbedömning bör vara en förutsättning för ytterligare lagstiftningsåtgärder.

    F. Begreppet AI-system omfattar en stor grupp olika tekniker, bland annat enkel statistik, maskininlärning och djupinlärning.

    G. Med termen ”automatiserat beslutsfattande” skulle man kunna undvika eventuella tvetydigheter hos termen AI. ”Automatiserat beslutsfattande” innebär att en användare inledningsvis delegerar ett beslut, helt eller delvis, till en enhet genom att använda programvara eller en tjänst. Denna enhet använder sedan i sin tur automatiskt verkställda beslutsmodeller för att utföra en åtgärd för en användares räkning eller för att informera om användarens beslut vid utförandet av en åtgärd.

    H. Vissa AI-system utgör betydande rättsliga utmaningar för den befintliga ansvarsramen och kan leda till situationer där bristen på insyn i dem kan göra det ytterst kostsamt eller till och med omöjligt att fastställa vem som hade kontroll över risken med det berörda AI-systemet eller vilken kod eller vilka indata eller uppgifter som i slutändan orsakade den skadliga driften. Denna faktor kan göra det svårare att fastställa sambandet mellan skadan och det beteende som orsakar den, vilket kan leda till att offren inte får tillräcklig ersättning.

    I. De rättsliga utmaningarna orsakas också av konnektiviteten mellan ett AI-system och andra AI-system och icke-AI-system, deras beroende av externa data, deras sårbarhet för brott mot cybersäkerheten och utformningen av alltmer autonoma AI-system som bland annat utnyttjar maskininlärnings- och djupinlärningsförmåga.

    J. Sunda etiska normer för AI-system i kombination med solida och rättvisa ersättningsförfaranden kan bidra till att bemöta dessa rättsliga utmaningar och undanröja risken för att användarna blir mindre villiga att acceptera ny teknik. Rättvisa ersättningsförfaranden innebär att varje person som lidit skada på grund av AI-system eller vars egendomsskada orsakats av AI-system bör ha samma skyddsnivå som i fall där ett AI-system inte är involverat. Användaren måste vara säker på att eventuella skador som orsakas av system som använder AI täcks av en lämplig försäkring och att det finns en tydlig rättslig möjlighet till prövning.

    K. Rättssäkerhet är också en nödvändig förutsättning för en dynamisk utveckling och innovation av AI-baserad teknik, särskilt för nystartade företag, mikroföretag samt små och medelstora företag, och för dess praktiska tillämpning i det dagliga livet. Den avgörande roll som dessa nystartade företag, mikroföretag samt små och medelstora företag spelar, framför allt i den europeiska ekonomin, motiverar en strikt proportionerlig strategi för att göra det möjligt för dem att utvecklas och vara nyskapande.

    L. Den mångfald av AI-system och de många olika risker som tekniken innebär försvårar insatserna för att hitta en enda lösning som är lämplig för hela riskspektrumet. I detta avseende bör man anta en strategi där experiment, pilotprojekt och regulatoriska sandlådor används för att vid behov ta fram proportionerliga och evidensbaserade lösningar som tar itu med specifika situationer och sektorer.

    Inledning

    1. Europaparlamentet anser att utmaningen i samband med införandet av AI-system i samhället, på arbetsplatsen och i näringslivet är en av de viktigaste frågorna på den aktuella politiska dagordningen. AI-baserad teknik skulle kunna och bör sträva efter att förbättra våra liv inom nästan alla sektorer, från den personliga sfären – exempelvis transportsektorn, individanpassad utbildning, stöd till utsatta personer, träningsprogram och kreditbestämmelser – till arbetsmiljön, exempelvis avlastning från omständliga och enformiga uppgifter, och till globala utmaningar såsom klimatförändringar, hälso- och sjukvård, kost och logistik.

    2. Europaparlamentet är fast övertygat om att det är avgörande med enhetlig, principbaserad och framtidssäkrad lagstiftning i hela EU för samtliga AI-system, för att fördelarna med dessa system ska kunna utnyttjas effektivt, eventuellt missbruk av dem förhindras samt regleringsmässig fragmentering i unionen undvikas. Även om sektorsspecifika bestämmelser för det breda spektrumet av möjliga tillämpningar enligt parlamentet är att föredra, verkar det nödvändigt med en övergripande och harmoniserad rättslig ram som bygger på gemensamma principer för att säkerställa klarhet angående rättsläget, fastställa likvärdiga standarder i hela unionen och för att effektivt skydda våra europeiska värden och medborgarnas rättigheter.

    3. Europaparlamentet konstaterar att den digitala inre marknaden måste harmoniseras fullt ut, eftersom den digitala sfären kännetecknas av en snabb gränsöverskridande dynamik och internationella dataflöden. Parlamentet anser att konsekventa och gemensamma regler i linje med en kultur av nyskapande är det enda sättet för unionen att uppnå målen att upprätthålla unionens digitala suveränitet och främja digital innovation i Europa.

    4. Europaparlamentet konstaterar att den globala AI-kapplöpningen redan pågår och att unionen bör spela en ledande roll i den genom att utnyttja sin vetenskapliga och tekniska potential. Parlamentet betonar med eftertryck att den tekniska utvecklingen inte får ske på bekostnad av skyddet av användarna mot skador som kan orsakas av apparater och system som använder AI. Parlamentet uppmuntrar främjandet av unionens normer för skadeståndsansvar på internationell nivå.

    5. Europaparlamentet är fast övertygat om att de nya gemensamma reglerna för AI-system enbart bör fastställas genom en förordning. Frågan om ansvar i samband med skador som orsakats av ett AI-system är enligt parlamentet en av de viktigaste aspekterna som måste hanteras inom denna ram.

    Ansvarsskyldighet och artificiell intelligens

    6. Europaparlamentet anser att det inte behövs någon fullständig översyn av de välfungerande ansvarsordningarna, men att komplexiteten, konnektiviteten, ogenomskinligheten, sårbarheten, förmågan att modifieras genom uppdateringar, kapaciteten för självinlärning och AI-systemens potentiella autonomi, liksom de många aktörer som är involverade i dem, ändå utgör en avsevärd utmaning för effektiviteten i ansvarsramens bestämmelser på unionsnivå och nationell nivå. Parlamentet anser att särskilda och samordnade justeringar av ansvarsordningarna är nödvändiga för att undvika en situation där personer som lider skada eller vars egendom skadas blir utan ersättning.

    7. Europaparlamentet konstaterar att alla fysiska eller virtuella aktiviteter, anordningar eller processer som drivs av AI-system tekniskt kan vara en direkt eller indirekt orsak till skada, men att de ändå nästan alltid är resultatet av att någon utvecklar, sprider eller ingriper i systemen. Parlamentet konstaterar i detta sammanhang att det inte är nödvändigt att ge AI-system status som juridisk person. Parlamentet anser att AI‑systemens brist på insyn och deras konnektivitet och autonomi i praktiken kan göra det mycket svårt eller till och med omöjligt att spåra specifika skadliga åtgärder från AI‑systemens sida tillbaka till specifik mänsklig medverkan eller utformningsrelaterade beslut. Parlamentet påminner om att det i enlighet med allmänt accepterade ansvarsbegrepp dock är möjligt att kringgå detta hinder genom att göra de olika personer längs hela värdekedjan som orsakar, upprätthåller eller kontrollerar en risk förknippad med AI-systemet ansvarsskyldiga.

    8. Europaparlamentet anser att direktivet om produktansvar i över 30 år har visat sig vara ett effektivt sätt att få ersättning för skada som orsakats av en defekt produkt, men att det ändå bör ses över för att anpassa det till den digitala världen och konfrontera de utmaningar som ny digital teknik medför, och därigenom säkerställa en hög nivå av effektivt konsumentskydd samt rättssäkerhet för konsumenter och företag, samtidigt som höga kostnader och risker för små och medelstora företag och nystartade företag undviks. Parlamentet uppmanar med eftertryck kommissionen att bedöma huruvida direktivet om produktansvar borde omvandlas till en förordning, att förtydliga definitionen av ”produkter” genom att fastställa huruvida digitalt innehåll och digitala tjänster omfattas av direktivet, och att överväga att anpassa begrepp såsom ”skada”, ”defekt” och ”tillverkare”. För att det efter översynen av direktivet om produktansvar ska skapas rättslig säkerhet i hela unionen anser parlamentet att begreppet ”tillverkare” bör omfatta framställare, utvecklare, programmerare, tjänsteleverantörer och backend‑operatörer. Parlamentet uppmanar kommissionen att överväga omvända regler om bevisbördan för skada som orsakas av ny digital teknik i tydligt definierade fall och efter en vederbörlig bedömning. Parlamentet betonar vikten av att säkerställa att den uppdaterade EU-rättsakten fortsättningsvis begränsas till klart fastställda problem för vilka det redan finns genomförbara lösningar, och att den samtidigt gör det möjligt att täcka framtida teknisk utveckling, inbegripet utveckling baserad på fri programvara med öppen källkod. Parlamentet konstaterar att direktivet om produktansvar även bör tillämpas när det gäller skadeståndsanspråk gentemot en tillverkare av ett defekt AI‑system, om detta system klassificeras som en produkt enligt det direktivet. Parlamentet betonar att varje form av uppdatering av ramen för produktansvar bör gå hand i hand med uppdateringen av Europaparlamentets och rådets direktiv 2001/95/EG av den 3 december 2001 om allmän produktsäkerhet[12] för att säkerställa att AI-system integrerar principerna om inbyggd trygghet och inbyggd säkerhet som standard.

    9. Europaparlamentet anser att medlemsstaternas gällande skadeståndslagstiftning med culpabaserat ansvar i de flesta fall erbjuder en tillräcklig nivå av skydd för personer som lidit skada till följd av ett ingrepp av en tredje part, exempelvis en hackare, eller vars egendom skadas av en sådan tredje part, eftersom detta ingrepp som regel utgör en culpabaserad handling. Parlamentet konstaterar att det endast i särskilda fall, bland annat i fall där tredje part inte kan spåras eller saknar finansiella medel, verkar nödvändigt att införa ansvarsregler för att komplettera befintlig nationell skadeståndsrätt.

    10. Detta betänkande bör enligt Europaparlamentet därför inriktas på skadeståndskrav gentemot operatören av ett AI-system. Parlamentet bekräftar att operatörens ansvarsskyldighet motiveras av att han eller hon kontrollerar en risk som är förknippad med AI-systemet och kan jämföras med ägaren av en bil. Parlamentet anser att AI‑systemets komplexitet och konnektivitet innebär att operatören i många fall kommer att vara den första synliga kontaktpunkten för den drabbade personen.

    Operatörens ansvarsskyldighet

    11. Europaparlamentet anser att ansvarsregler som inbegriper operatören i princip bör omfatta all drift av AI-system, oavsett var driften sker och huruvida den är fysisk eller virtuell. Parlamentet påpekar att drift på offentliga platser som utsätter många personer för en risk dock kräver ytterligare överväganden. Parlamentet anser att eventuella offer för skador ofta inte är medvetna om driften och i regel inte skulle ha några avtalsrättsliga ersättningsanspråk gentemot operatören. När en skada uppstår skulle sådana personer därmed endast ha culpabaserade skadeståndsanspråk och eventuellt ha svårigheter att bevisa fel som begåtts av operatören av AI-systemet, så att skadeståndskrav eventuellt avslås.

    12. Europaparlamentet anser att ”operatör” bör omfatta både frontend- och backend‑operatörer, så länge som den senare inte omfattas av direktivet om produktansvar. Parlamentet konstaterar att ”frontend-operatör” bör definieras som den fysiska eller juridiska person som utövar en viss kontroll över en risk som är förknippad med AI-systemets drift och sätt att fungera och som drar nytta av driften. Parlamentet konstaterar att ”backend-operatör” bör definieras som den fysiska eller juridiska person som fortlöpande definierar teknikens egenskaper, tillhandahåller data och väsentligt backend-stöd och som därför även utövar en viss kontroll över den risk som är förknippad med AI-systemets drift och sätt att fungera. Enligt parlamentet innebär ”att utöva kontroll” varje åtgärd från operatörens sida som påverkar driften av AI-systemet och därmed den grad i vilken operatören utsätter tredje parter för systemets eventuella risker. Parlamentet anser att sådana åtgärder när som helst kan påverka driften av ett AI‑system genom att bestämma input, output eller resultat, eller kan ändra specifika funktioner eller processer inom AI-systemet.

    13. Europaparlamentet konstaterar att det kan förekomma situationer med flera operatörer än en, exempelvis en backend- och en frontend-operatör. I det fallet borde samtliga operatörer enligt parlamentet vara solidariskt ansvariga, samtidigt som de har proportionerlig tillgång till rättsmedel gentemot varandra. Ansvarsfördelningen bör enligt parlamentet baseras på operatörernas respektive grad av kontroll över den risk som är förknippad med AI-systemets drift och sätt att fungera. Parlamentet anser att produkternas spårbarhet bör förbättras så att man bättre kan identifiera dem som är involverade i de olika skedena.

    Olika ansvarsregler för olika risker

    14. Europaparlamentet inser att den typ av AI-system som operatören utövar kontroll över är en avgörande faktor för ansvar. Parlamentet konstaterar att ett AI-system som har en hög inneboende risk och som fungerar autonomt kan hota allmänheten i mycket högre grad. Parlamentet anser mot bakgrund av de rättsliga utmaningar som AI-system innebär för de befintliga ansvarsordningarna att det är rimligt att införa en strikt skadeståndsordning för sådana autonoma AI-system med hög risk. Parlamentet understryker att en sådan riskbaserad strategi – som kan omfatta flera risknivåer – bör bygga på tydliga kriterier och en ändamålsenlig definition av hög risk samt medföra rättslig förutsebarhet.

    15. Europaparlamentet anser att ett AI-system medför en hög risk när dess autonoma drift medför en betydande risk för att orsaka skada för en eller flera personer på ett sätt som är slumpmässigt och mer omfattande än vad som rimligtvis kan förväntas. Parlamentet anser att man vid bedömningen av om ett AI-system är högrisksystem också måste ta hänsyn till den sektor där betydande risker kan förväntas uppstå och arten av den verksamhet som bedrivs. Hur betydande denna risk är beror enligt parlamentet på samspelet mellan hur allvarlig den eventuella skadan är, sannolikheten för att risken medför skada och det sätt på vilket AI-systemet används.

    16. Europaparlamentet rekommenderar att alla AI-system med hög risk ska förtecknas uttömligt i en bilaga till den föreslagna förordningen. Parlamentet anser att kommissionen med tanke på den snabba tekniska utvecklingen och den tekniska expertis som krävs bör se över bilagan utan dröjsmål, men åtminstone var sjätte månad och vid behov ändra den genom en delegerad akt. Parlamentet anser att kommissionen bör samarbeta nära med en nyinrättad ständig kommitté som liknar den befintliga ständiga kommittén för prekursorer eller tekniska kommittén för motorfordon, där nationella experter från medlemsstaterna och intressenter ingår. Parlamentet anser att en balanserad sammansättning av högnivågruppen för artificiell intelligens skulle kunna tjäna som förebild för inrättandet av intressentgruppen, på så sätt att man inkluderar experter på etiska frågor samt antropologer, sociologer och specialister på psykisk hälsa. Parlamentet anser också att Europaparlamentet bör utse rådgivande experter för att bistå den nyligen inrättade ständiga kommittén med råd.

    17. Europaparlamentet noterar att utvecklingen av AI-baserad teknik är oerhört dynamisk och ständigt accelererande. Parlamentet betonar att det för att säkerställa ett tillräckligt skydd för användarna behövs ett påskyndat tillvägagångssätt för att analysera nya anordningar och system som använder AI-system vilka släpps ut på den europeiska marknaden, med avseende på eventuella risker. Parlamentet rekommenderar att alla förfaranden i detta avseende bör förenklas så mycket som möjligt. Parlamentet föreslår även att kommissionens bedömning av huruvida ett AI-system utgör en hög risk bör inledas samtidigt med produktsäkerhetsbedömningen för att förhindra en situation där ett AI-system med hög risk redan är godkänt för marknaden men ännu inte har klassificerats som högrisksystem och därmed drivs utan obligatoriskt försäkringsskydd.

    18. Europaparlamentet konstaterar att kommissionen bör bedöma hur den undersökande myndigheten kan få tillgång till och använda de uppgifter som samlas in, registreras eller lagras i AI-system med hög risk i syfte att samla in bevis i händelse av skada som orsakas av detta AI-system och hur spårbarheten för och granskningen av sådana uppgifter kan förbättras, samtidigt som hänsyn tas till grundläggande rättigheter och integritetsskydd.

    19. Europaparlamentet konstaterar att den föreslagna förordningen, i linje med medlemsstaternas strikta ansvarsordningar, bör omfatta brott mot de viktiga rättsligt skyddade rättigheterna till liv, hälsa, fysisk integritet och egendom, och bör ange beloppen och omfattningen av ersättningen samt preskriptionstiden. Parlamentet anser att den föreslagna förordningen även bör inbegripa betydande immateriell skada som leder till en påvisbar ekonomisk förlust över ett tröskelvärde, som harmoniserats i unionens lagstiftning om ansvarsskyldighet och som balanserar drabbade personers tillgång till rättslig prövning och andra berörda personers intressen. Parlamentet uppmanar med kraft kommissionen att omvärdera och anpassa tröskelvärdena för skador i unionsrätten. Parlamentet anser att kommissionen ingående bör analysera rättstraditionerna i alla medlemsstater och deras befintliga nationella lagstiftning om beviljande av ersättning för immateriell skada, för att bedöma om det är nödvändigt att inkludera immateriella skador i AI-specifika rättsakter och om detta strider mot unionens befintliga rättsliga ram eller undergräver medlemsstaternas nationella lagstiftning.

    20. Europaparlamentet slår fast att alla aktiviteter, anordningar eller processer som drivs av AI-system vilka orsakar skada men inte förtecknas i bilagan till den föreslagna förordningen bör fortsätta att omfattas av ett culpabaserat skadeståndsansvar. Parlamentet anser att den drabbade personen ändå bör kunna åberopa en presumtion om fel från operatörens sida, och operatören bör kunna avhända sig ansvar genom att bevisa att den uppfyllt sin aktsamhetsplikt.

    21. Europaparlamentet anser att ett AI-system som ännu inte har utvärderats av kommissionen och den nybildade ständiga kommittén och därför ännu inte har klassificerats som högrisksystem och inte ingår i förteckningen i bilagan till den föreslagna förordningen, ändå bör omfattas av strikt ansvar, som ett undantag från det system som föreskrivs i punkt 20, om det har orsakat upprepade incidenter som medfört allvarlig skada. Om så är fallet bör kommissionen enligt parlamentet också utan onödigt dröjsmål bedöma behovet av att se över den bilagan för att lägga till det berörda AI‑systemet på förteckningen. Parlamentet anser att om kommissionen efter denna bedömning beslutar att ta med det AI-systemet på förteckningen, bör inkluderandet ha retroaktiv verkan från och med tidpunkten för den första konstaterade incident som har orsakats av detta AI-system och som medfört allvarlig skada.

    22. Europaparlamentet uppmanar kommissionen att utvärdera behovet av rättsliga bestämmelser på unionsnivå för att förhindra ansvarsfriskrivningsklausuler i avtal, även när det gäller förbindelser mellan företag och mellan företag och myndigheter.

    Försäkringar och AI-system

    23. Europaparlamentet anser att skadeståndsansvaret är en av de centrala faktorer som avgör om ny teknik, nya produkter och nya tjänster ska röna framgång. Parlamentet konstaterar att det också krävs ett lämpligt skadeståndsansvar för att övertyga allmänheten om den nya teknikens tillförlitlighet, trots risken för att drabbas av skada eller konfronteras med rättsliga anspråk från drabbade personer. Parlamentet noterar samtidigt att denna regleringsordning är inriktad på behovet av att utnyttja och stärka fördelarna med AI-system samtidigt som man inför kraftfulla skyddsåtgärder.

    24. Europaparlamentet anser att alla operatörer av AI-system med hög risk som förtecknas i bilagan till den föreslagna förordningen bör ha ansvarsförsäkring, utgående från de betydande riskerna för att orsaka skada och med beaktande av Europaparlamentets och rådets direktiv 2009/103/EG av den 16 september 2009 om ansvarsförsäkring för motorfordon och kontroll av att försäkringsplikten fullgörs beträffande sådan ansvarighet[13]. Parlamentet anser att en sådan obligatorisk försäkringsordning för AI‑system med hög risk bör täcka de belopp och den ersättning som fastställs i den föreslagna förordningen. Parlamentet är medvetet om att sådan teknik fortfarande är mycket sällsynt, eftersom den förutsätter en hög grad av autonomt beslutsfattande och eftersom de pågående diskussionerna därför till största delen är framtidsinriktade. Parlamentet anser dock att osäkerhet om risker inte får göra försäkringspremierna oöverkomliga och därmed till ett hinder för forskning och innovation.

    25. Europaparlamentet anser att en kompensationsmekanism på unionsnivå som finansieras med offentliga medel inte är rätt sätt att täppa till eventuella försäkringsluckor. Parlamentet anser att bristen på uppgifter om riskerna med AI-system i kombination med osäkerhet om den framtida utvecklingen gör det svårt för försäkringssektorn att ta fram anpassade eller nya försäkringsprodukter. Parlamentet anser att om man helt och hållet överlåter utvecklingen av obligatoriska försäkringar till marknaden kommer detta sannolikt att leda till en universallösning med oproportionerligt höga premier och felaktiga incitament, vilket stimulerar operatörerna att välja den billigaste försäkringen snarare än den bästa täckningen, vilket kan bli ett hinder för forskning och innovation. Parlamentet anser att kommissionen bör samarbeta nära med försäkringssektorn för att se hur data och innovativa modeller kan utnyttjas för att skapa försäkringar som erbjuder tillräcklig täckning till ett överkomligt pris.

    Avslutande aspekter

    26. Europaparlamentet uppmanar kommissionen att på grundval av artikel 225 i fördraget om Europeiska unionens funktionssätt lägga fram ett förslag till förordning om ansvar för driften av AI-system i enlighet med de detaljerade rekommendationer som anges i bilagan till detta betänkande.

    27. Europaparlamentet bedömer att det begärda förslaget inte får några ekonomiska konsekvenser.

    28. Europaparlamentet uppdrar åt talmannen att översända denna resolution och bifogade rekommendationer till kommissionen och rådet.

     


     

    BILAGA TILL RESOLUTIONSFÖRSLAGET: DETALJERADE REKOMMENDATIONER FÖR UTARBETANDET AV EUROPAPARLAMENTETS OCH RÅDETS FÖRORDNING OM ANSVAR FÖR DRIFTEN AV AI-SYSTEM

    A. FÖRSLAGETS PRINCIPER OCH MÅL

    I detta betänkande behandlas en viktig aspekt av digitaliseringen, som själv formas av gränsöverskridande verksamhet, global konkurrens och centrala samhällsaspekter. Följande principer bör användas som vägledning:

    1. En verklig digital inre marknad kräver fullständig harmonisering genom en förordning.

    2. Nya rättsliga utmaningar till följd av utvecklingen av AI-system (system för artificiell intelligens) måste lösas genom att det skapas maximal rättslig säkerhet genom hela ansvarskedjan, inbegripet för tillverkaren, operatören, den drabbade personen och alla andra tredje parter.

    3. Det bör inte förekomma någon överreglering och byråkrati måste förebyggas, eftersom detta skulle hindra europeisk innovation inom AI-sektorn, särskilt när det gäller teknik, produkter eller tjänster som utvecklas av små och medelstora företag eller uppstartsföretag.

    4. Reglerna om skadeståndsansvar för AI bör sträva efter att uppnå balans mellan skyddet av allmänheten å ena sidan och företagens incitament att investera i innovation, särskilt AI-system, å andra sidan.

    5. I stället för att ersätta de välfungerande befintliga ansvarsordningarna bör ett antal nödvändiga justeringar göras på basis av nya och framtidsinriktade idéer.

    6. Det framtida förslaget till förordning och direktivet om produktansvar är två pelare i en gemensam ansvarsram för AI-system och kräver nära samordning och anpassning mellan alla politiska aktörer på unionsnivå och nationell nivå.

    7. Medborgarna bör ha rätt till samma nivå av skydd och rättigheter, oavsett om skadan orsakas av ett AI-system eller inte, eller om den uppstår fysiskt eller virtuellt, så att deras förtroende för den nya tekniken stärks.

    8. Både materiell och immateriell skada bör beaktas i det framtida förslaget till förordning. På grundval av bland annat kommissionens meddelande av den 19 februari 2020 om konsekvenserna för säkerhet och ansvar när det gäller AI och robotteknik, uppmanas kommissionen att ingående analysera de rättsliga traditionerna i alla medlemsstater samt de befintliga rättsliga bestämmelser som beviljar ersättning för immateriell skada för att bedöma om inkluderingen av immateriella skador i det kommande förslaget till förordning är rättsligt sund och nödvändig ur den drabbade personens perspektiv. På grundval av den information som för närvarande finns tillgänglig anser parlamentet att betydande immateriell skada bör inkluderas om den drabbade personen har lidit en märkbar, dvs. en verifierbar, ekonomisk förlust.


    B. FÖRESLAGEN LAGTEXT

    Förslag till

    EUROPAPARLAMENTETS OCH RÅDETS FÖRORDNING

    om ansvar för driften av AI-system

    med beaktande av fördraget om Europeiska unionens funktionssätt, särskilt artikel 114,

    med beaktande av Europeiska kommissionens förslag,

    efter översändande av utkastet till lagstiftningsakt till de nationella parlamenten,

    med beaktande av Europeiska ekonomiska och sociala kommitténs yttrande[14],

    i enlighet med det ordinarie lagstiftningsförfarandet[15], och

    av följande skäl:

    (1) Begreppet ”ansvar” spelar en viktig dubbel roll i vårt dagliga liv: å ena sidan säkerställer det att en person som drabbats av en skada har rätt att begära ersättning från den part som är ansvarig för skadan, och å andra sidan tillhandahåller det ekonomiska incitament för personer att undvika att alls orsaka skador. En ansvarsram bör sträva efter att skapa förtroende för produkters och tjänsters säkerhet, tillförlitlighet och enhetlighet, även inom ny digital teknik såsom artificiell intelligens (AI), sakernas internet eller robotteknik, för att skapa balans mellan ett effektivt skydd för eventuella skadelidande och samtidigt ge tillräckligt spelrum för att möjliggöra utveckling av ny teknik, nya produkter eller nya tjänster.

    (2) Särskilt i början av livscykeln för nya produkter och tjänster, efter förhandstestning, finns det en viss risk både för användaren och för tredje personer att något inte fungerar korrekt. Denna försöksprocess (trial-and-error) är samtidigt en viktig katalysator för den tekniska utvecklingen, utan vilken den största delen av vår teknik inte skulle existera. Hittills har de risker som hör samman med nya produkter och tjänster på vederbörligt sätt begränsats genom solida produktsäkerhetslagar och ansvarsregler.

    (3) Framväxten av AI innebär dock en stor utmaning för de befintliga ansvarsramarna. Användningen av AI-system i vårt dagliga liv kommer att leda till situationer där bristen på insyn (”svarta lådan-faktorn”) och den mångfald av aktörer som är involverade under deras livscykel gör det ytterst kostsamt eller till och med omöjligt att identifiera vem som kontrollerade risken med att använda det berörda AI-systemet eller vilken kod eller vilka indata som orsakade den skadliga processen. Denna svårighet förstärks av konnektiviteten mellan ett AI-system och andra AI-system och icke-AI-system och dess beroende av externa data och sårbarhet för brott mot cybersäkerheten, samt av AI‑systemens ökande autonomi till följd av maskininlärnings- och djupinlärningsförmågan. Utöver dessa komplexa särdrag och eventuella sårbarheter skulle AI-system också kunna användas för att orsaka allvarlig skada, såsom att undergräva människans värdighet och våra europeiska värderingar och friheter genom att spåra enskilda personer mot deras vilja, införa sociala kreditsystem, fatta partiska beslut i frågor som rör sjukförsäkring, rättsliga avgöranden och rekrytering eller anställning eller bygga upp dödliga autonoma vapensystem.

    (4) Det är viktigt att betona att fördelarna med att sprida AI-system med stor marginal kommer att överväga nackdelarna. AI-systemen kommer att bidra till att bekämpa klimatförändringarna på ett mer effektivt sätt, förbättra läkarundersökningar och arbetsvillkor, bättre integrera personer med funktionsvariationer och äldre i samhället och till att tillhandahålla skräddarsydda kurser för alla studentkategorier. För att utnyttja de olika tekniska möjligheterna och öka människors förtroende för användningen av AI‑system, samtidigt som man förhindrar skadliga scenarier, är sunda etiska normer i kombination med solida och rättvisa ersättningsförfaranden den bästa vägen framåt.

    (5) En lämplig ansvarsordning är också nödvändig för att motverka överträdelser av säkerhetsbestämmelserna. Den ansvarsordning som fastställs i denna förordning måste dock beakta alla berörda intressen. En noggrann undersökning av konsekvenserna av ett eventuellt nytt regelverk för små och medelstora företag och uppstartsföretag är en förutsättning för ytterligare lagstiftningsåtgärder. Den avgörande roll som dessa företag spelar i den europeiska ekonomin motiverar en strikt proportionerlig strategi för att göra det möjligt för dem att utvecklas och förnya sig. Å andra sidan måste offer för skador som orsakats av AI-system ha rätt till gottgörelse och full ersättning för den skada de har lidit.

    (6) Nödvändiga ändringar av den befintliga rättsliga ramen bör inledas med ett klargörande av att AI-system varken har juridisk personlighet eller mänskligt samvete och att deras enda uppgift är att tjäna mänskligheten. Många AI-system skiljer sig inte heller så mycket från annan teknik, som ibland bygger på ännu mer komplex programvara. De allra flesta AI-system används sist och slutligen för att hantera rutinuppgifter utan eller med minimala risker för samhället. Med termen ”automatiserat beslutsfattande” skulle eventuella tvetydigheter hos termen AI kunna undvikas. Termen beskriver en situation där en användare inledningsvis delegerar ett beslut, helt eller delvis, till en enhet genom programvara eller en tjänst. Denna enhet använder i sin tur automatiskt verkställda beslutsmodeller för att utföra en åtgärd för en användares räkning eller för att informera användarens beslut vid utförandet av en åtgärd.

    (7) Det finns dock även AI-system som utvecklas och sprids på ett kritiskt sätt och som baseras på teknik såsom neurala nätverk och djupinlärningsprocesser. AI-systemens brist på insyn och deras autonomi kan göra det mycket svårt att spåra specifika åtgärder tillbaka till specifika mänskliga beslut i deras utformning eller drift. En operatör av ett sådant AI-system skulle till exempel kunna hävda att den fysiska eller virtuella aktivitet, enhet eller process som orsakat skadan var utanför hans eller hennes kontroll eftersom den orsakades av en autonom process i hans eller hennes AI-system. Enbart driften av ett autonomt AI-system bör dessutom inte utgöra en tillräcklig grund för att godta skadeståndskravet. Det kan därför uppstå ansvarstvister där ansvarsfördelningen kan bli orättvis eller ineffektiv eller där en person som lidit skada som orsakats av ett AI-system inte kan bevisa tillverkarens, en ingripande tredje parts eller operatörens ansvar och därmed blir utan ersättning.

    (8) Det bör dock alltid stå klart att den som skapar, upprätthåller, kontrollerar eller ingriper i AI-systemet bör vara ansvarig för den skada som aktiviteten, enheten eller processen orsakar. Detta följer av allmänt vedertagna rättsbegrepp om ansvarsskyldighet, enligt vilka den person som skapar eller upprätthåller en risk för allmänheten är ansvarig om denna risk orsakar skada, och därmed i förväg bör minimera eller i efterhand kompensera denna risk Följaktligen medför framväxten av AI-system inte något behov av en fullständig översyn av ansvarsreglerna i unionen. Specifika justeringar av den befintliga lagstiftningen och införandet av ordentligt utvärderade och riktade nya bestämmelser skulle vara tillräckligt för att hantera AI-relaterade utmaningar, i syfte att förhindra fragmentering av lagstiftningen och säkerställa harmonisering av lagstiftningen om skadeståndsansvar i hela unionen i förbindelse med AI.

    (9) Rådets direktiv 85/374/EEG[16] (direktivet om produktansvar) har i över 30 år visat sig vara ett effektivt medel att få ersättning för skada som orsakats av en defekt produkt. Det bör därför också tillämpas när det gäller skadeståndsanspråk från en skadelidande part gentemot tillverkaren av ett defekt AI-system. I enlighet med unionens principer för bättre lagstiftning bör alla nödvändiga lagstiftningsjusteringar diskuteras vid den nödvändiga översynen av det direktivet. Medlemsstaternas gällande lagstiftning om culpabaserat ansvar erbjuder också i de flesta fall ett tillräckligt skydd för personer som drabbas av skador orsakade av en tredje persons ingripande, eftersom detta ingripande i allmänhet utgör en culpabaserad handling där den tredje parten använder AI-systemet för att orsaka skada. Denna förordning bör därför inriktas på anspråk gentemot operatören av ett AI-system.

    (10) Operatörens ansvar enligt denna förordning grundar sig på att han eller hon utövar en grad av kontroll över en risk i förbindelse med driften och funktionen av ett AI‑system som är jämförbar med den som en bilägare har. Ju mer sofistikerat och autonomt ett system är desto större blir effekterna av hur algoritmer definieras och påverkas, t.ex. genom kontinuerliga uppdateringar. Eftersom det ofta finns mer än en person som på ett meningsfullt sätt kan anses driva AI-systemet, bör ”operatör” med avseende på tillämpningen av denna förordning anses omfatta både frontend- och backend-operatören. Även om frontend-operatören i allmänhet framstår som den person som ”i första hand” beslutar om användningen av AI-systemet, kan backend-operatören i själva verket ha en högre grad av kontroll över de operativa riskerna. Om backend‑operatören också kan betraktas som tillverkare enligt definitionen i artikel 3 i produktansvarsdirektivet bör det direktivet tillämpas på honom eller henne. Om det endast finns en operatör och denna operatör också är tillverkaren av AI-systemet ska denna förordning ha företräde framför produktansvarsdirektivet.

    (11) Om en användare, dvs. den person som använder AI-systemet, är involverad i den incident som orsakade skadan, bör denne endast hållas ansvarig enligt denna förordning om han eller hon också betraktas som en operatör. Om så inte är fallet kan omfattningen av användarens grovt oaktsamma handlande eller avsiktliga bidrag till risken leda till användarens culpabaserade ansvar gentemot den rättssökande. Användarens gällande konsumenträttigheter bör inte påverkas.

    (12) Denna förordning bör göra det möjligt för den drabbade personen att väcka talan om skadeståndsanspråk genom hela ansvarskedjan och under ett AI-systems hela livscykel. Den bör också i princip omfatta alla AI-system, oavsett var driften sker och huruvida den är fysisk eller virtuell. De flesta skadeståndsanspråk enligt denna förordning bör dock gälla fall av tredjepartsansvar, där ett AI-system drivs på en offentlig plats och utsätter många personer för en risk. I denna situation känner de drabbade personerna ofta inte till det AI-system som är i drift och har inga avtalsmässiga eller rättsliga förbindelser med operatören. Följaktligen försätter driften av AI-systemet dem i en situation där de i händelse av skada endast har culpabaserade skadeståndsanspråk gentemot operatören av AI-systemet, samtidigt som de möter stora svårigheter med att bevisa fel från operatörens sida.

    (13) Den typ av AI-system som operatören utövar kontroll över är en avgörande faktor. Ett AI-system med hög risk kan hota användaren eller allmänheten i mycket högre grad och på ett sätt som är slumpmässigt och går utöver vad som rimligtvis kan förutses. Detta innebär att de flesta av de eventuellt drabbade personerna vid starten av den autonoma driften av AI-systemet är okända och inte identifierbara, till exempel personer som befinner sig på en offentlig plats eller i ett närliggande hus, jämfört med driften av ett AI-system som involverar specifika personer som i förväg och i enlighet med regler har samtyckt till användningen av det , till exempel medicinska ingrepp på ett sjukhus eller en försäljningsdemonstration i en liten affär. Fastställandet av hur stor risken är för att ett AI-system med hög risk orsakar skada beror på samspelet mellan syftet med den användning för vilken AI-systemet släppts ut på marknaden, det sätt på vilket AI‑systemet används, hur allvarlig den eventuella skadan är, graden av autonomi i beslutsfattandet som kan leda till skada och sannolikheten för att risken förverkligas. Allvarlighetsgraden bör fastställas på grundval av relevanta faktorer såsom omfattningen av den eventuella skada som uppstått genom driften för drabbade personer, vilket i synnerhet inbegriper konsekvenser för grundläggande rättigheter, antalet drabbade personer, det totala värdet för den eventuella skadan samt skadan för samhället som helhet. Sannolikheten för att skadan ska uppstå bör fastställas på grundval av relevanta faktorer såsom de algoritmiska beräkningarnas roll i beslutsprocessen, beslutets komplexitet och effekternas reversibilitet. Slutligen bör användningen bero på relevanta faktorer såsom den kontext och sektor där AI-systemet drivs, om det kan få rättsliga eller faktiska konsekvenser för viktiga rättsligt skyddade rättigheter för den drabbade personen och om effekterna rimligen kan undvikas.

    (14) Alla AI-system med hög risk bör på ett uttömmande sätt förtecknas i en bilaga till denna förordning. Med hänsyn till den snabba tekniska och marknadsrelaterade utvecklingen över hela världen, liksom den tekniska expertis som krävs för en adekvat översyn av AI‑system, bör befogenheten att anta delegerade akter i enlighet med artikel 290 i fördraget om Europeiska unionens funktionssätt delegeras till kommissionen med avseende på att ändra denna förordning när det gäller de typer av AI-system som utgör en hög risk och de kritiska sektorer där de används. Kommissionen bör på grundval av definitionerna och bestämmelserna i denna förordning utan onödigt dröjsmål, men åtminstone var sjätte månad, se över bilagan och vid behov ändra den genom delegerade akter. Kommissionens bedömning av huruvida ett AI-system utgör en hög risk bör inledas samtidigt med produktsäkerhetsbedömningen för att förhindra en situation där ett AI-system med hög risk redan är godkänt för marknaden men ännu inte klassificerats som högrisksystem och därmed drivs utan obligatoriskt försäkringsskydd. För att ge företagen och forskningsorganisationerna tillräckligt med planerings- och investeringssäkerhet bör ändringar av de kritiska sektorerna endast göras var tolfte månad. Operatörer bör uppmanas att meddela kommissionen om de arbetar med ny teknik, produkter eller tjänster som omfattas av någon av de befintliga kritiska sektorer som anges i bilagan och som senare kan komma att betraktas som ett AI‑system med hög risk.

    (15) Det är särskilt viktigt att kommissionen genomför lämpliga samråd med berörda aktörer under sitt förberedande arbete, inklusive på expertnivå, och att dessa samråd genomförs i enlighet med principerna i det interinstitutionella avtalet av den 13 april 2016 om bättre lagstiftning[17]. En ständig kommitté kallad ”Tekniska kommittén – AI-system med hög risk” (TCRAI) bör stödja kommissionen i dess regelbundna översyn i enlighet med denna förordning. Den ständiga kommittén bör bestå av företrädare för medlemsstaterna och ett balanserat urval av berörda parter, inbegripet konsumentorganisationer, sammanslutningar som företräder drabbade personer, företrädare för företag från olika sektorer och storlekar samt forskare och vetenskapsmän. För att säkerställa lika stor delaktighet i förberedelsen av delegerade akter erhåller Europaparlamentet och rådet alla handlingar samtidigt som medlemsstaternas experter, och deras experter ges systematiskt tillträde till möten i kommissionens expertgrupper och i den ständiga TCRAI-kommittén i samband med förberedelserna av delegerade akter.

    (16) Denna förordning bör täcka skador på liv, hälsa, fysisk integritet, egendom och betydande immateriell skada som leder till en verifierbar ekonomisk förlust över ett tröskelvärde, som harmoniserats i unionens lagstiftning om ansvarsskyldighet och som balanserar drabbade personers tillgång till rättslig prövning mot andra berörda personers intressen. Kommissionen bör omvärdera och anpassa tröskelvärdena för skador i unionsrätten. Betydande immateriell skada bör avse en skada som för den drabbade personen medför betydande skada, en objektiv och påvisbar kränkning av hans eller hennes personliga intressen och en ekonomisk förlust beräknad med beaktande av till exempel det årliga genomsnittet för tidigare inkomster och andra relevanta omständigheter. Denna förordning bör också fastställa ersättningens storlek och omfattning samt preskriptionstiden för att väcka talan om skadeståndsanspråk. I denna förordning bör det fastställas ett avsevärt lägre ersättningstak än vad som föreskrivs i direktivet om produktansvar, eftersom denna förordning endast avser en enskild persons skada till följd av en enda drift av ett AI-system, medan direktivet hänvisar till ett antal produkter eller en hel produktlinje med samma defekt.

    (17) Alla fysiska eller virtuella aktiviteter, enheter eller processer som drivs av AI-system som inte förtecknas som AI-system med hög risk i bilagan till denna förordning bör omfattas av ett culpabaserat skadeståndsansvar, om inte striktare nationell lagstiftning och konsumentskyddslagstiftning är i kraft. Medlemsstaternas nationella lagar, inbegripet all relevant rättspraxis, bör fortsätta att gälla när det gäller ersättningens storlek och omfattning samt preskriptionstiden. En person som lidit skada som orsakats av ett AI-system som inte klassificerats som ett högrisksystem bör kunna dra fördel av presumtionen om fel från operatörens sida.

    (18) Den aktsamhet som kan förväntas av en operatör bör stå i proportion till i) AI‑systemets särdrag, ii) den rättsligt skyddade rättighet som kan påverkas, iii) den eventuella skada som AI-systemet skulle kunna orsaka och iv) sannolikheten för sådan skada. Man bör därvid beakta att operatören kan ha begränsade kunskaper om de algoritmer och data som används i AI-systemet. Det bör antas att operatören har iakttagit den tillbörliga aktsamhet som rimligtvis kan förväntas av honom eller henne vid valet av ett lämpligt AI-system om operatören har valt ett AI-system som har certifierats enligt ett certifieringssystem som motsvarar det frivilliga certifieringssystem som föreslås av kommissionen[18]. Det bör antas att operatören har iakttagit den tillbörliga aktsamhet som rimligtvis kan förväntas av honom eller henne under driften av AI‑systemet om operatören kan bevisa att han eller hon faktiskt och regelbundet har övervakat AI‑systemet under driften och att han eller hon underrättat framställaren om eventuella brister under driften. Det bör antas att operatören har iakttagit den tillbörliga aktsamhet som rimligtvis kan förväntas av honom eller henne när det gäller att upprätthålla drifttillförlitligheten om operatören har installerat alla tillgängliga uppdateringar som tillhandahållits av tillverkaren av AI-systemet. Eftersom operatörernas sofistikeringsgrad kan variera beroende på om de enbart är konsumenter eller yrkesutövare, bör aktsamhetskraven anpassas i enlighet med detta.

    (19) För att göra det möjligt för operatören att bevisa att han eller hon inte har begått något fel, eller för att göra det möjligt för den drabbade personen att bevisa att det föreligger ett fel, bör tillverkarna vara skyldiga att samarbeta med båda berörda parter, bland annat genom att tillhandahålla väldokumenterad information. Både tillverkare som är etablerade inom och utanför unionen bör dessutom vara skyldiga att utse ett AI‑ansvarsombud i unionen som kontaktpunkt för att besvara alla förfrågningar från operatörer, på samma sätt som dataskyddsombud i enlighet med artikel 37 i Europaparlamentets och rådets förordning (EU) 2016/679[19], tillverkarombud i enlighet med artiklarna 3.41 och 13.4 i Europaparlamentets och rådets förordning 2018/858[20] eller tillverkarens representant i enlighet med artiklarna 4.2 och 5 i Europaparlamentets och rådets förordning 2019/1020[21].

    (20) Lagstiftaren måste ta hänsyn till de ansvarsrisker som är kopplade till AI-system under hela deras livscykel, från utvecklingen till användningen och slutet av livscykeln, inbegripet avfalls- och återvinningshantering. Införandet av AI-system i en produkt eller tjänst utgör en finansiell risk för företagen och kommer därför att ha stor inverkan på små och medelstora företags samt uppstartsföretags kapacitet och möjligheter att försäkra och finansiera sina forsknings- och utvecklingsprojekt som bygger på ny teknik. Ansvar syftar därför inte bara till att bevara viktiga rättsligt skyddade rättigheter för enskilda personer, utan också till att fastställa om företagen, särskilt små och medelstora företag och uppstartsföretag, kan anskaffa kapital, vara innovativa och bedriva forskning och i slutändan erbjuda nya produkter och tjänster, samt till att avgöra om kunderna har förtroende för dessa produkter och tjänster och är villiga att använda dem trots de eventuella riskerna och de rättsliga anspråk som kan riktas mot dem när det gäller sådana produkter och tjänster.

    (21) Försäkring kan bidra till att garantera att offren får faktisk ersättning och till att sammanföra riskerna för alla försäkrade personer. En av de faktorer på vilka försäkringsbolagen grundar de försäkringsprodukter och försäkringstjänster de erbjuder är riskbedömningar baserade på tillgången till tillräckliga uppgifter om skadehistorik. Bristande tillgång till eller otillräcklig mängd av högkvalitativa data skulle kunna vara ett skäl till att det är svårt att i ett första skede skapa försäkringsprodukter för ny och framväxande teknik. Bättre tillgång till och optimering av användningen av data som genereras av ny teknik, tillsammans med en skyldighet att tillhandahålla väldokumenterad information, skulle emellertid öka försäkringsbolagens förmåga att modellera nya risker och främja utvecklingen av ett mer innovativt skydd.

    (22) Trots avsaknaden av skadehistorik bör man undersöka hur och på vilka villkor ansvar kan försäkras, i syfte att koppla försäkringen till produkten och inte till den ansvariga personen. Det utvecklas redan försäkringsprodukter som täcker varje enskilt område och varje enskilt fall i takt med att tekniken utvecklas. Många försäkringsbolag specialiserar sig på vissa marknadssegment (t.ex. små och medelstora företag) eller på att tillhandahålla täckning för vissa typer av produkter (t.ex. elektriska varor), vilket innebär att det vanligtvis finns en försäkringsprodukt tillgänglig för den försäkrade. Det är dock svårt att tänka sig en universallösning, och försäkringsmarknaden kommer att behöva tid för att anpassa sig. Kommissionen bör ha ett nära samarbete med försäkringsmarknaden för att utveckla innovativa försäkringsprodukter som kan överbrygga försäkringsgapet. I undantagsfall, såsom en händelse som ger rätt till kollektivt skadestånd, där ersättningen avsevärt överstiger de högsta totalbelopp som fastställs i denna förordning, bör medlemsstaterna uppmuntras att inrätta en särskild ersättningsfond under en begränsad tidsperiod för att hantera de särskilda behoven i dessa fall. Särskilda ersättningsfonder kan också inrättas för att täcka de undantagsfall då ett AI-system, som ännu inte klassificerats som ett AI-system med hög risk och därmed ännu inte är försäkrat, orsakar skada. För att garantera rättslig säkerhet och fullgöra skyldigheten att informera alla potentiellt drabbade personer bör förekomsten av den särskilda ersättningsfonden och villkoren för att omfattas av den offentliggöras på ett tydligt och heltäckande sätt.

    (23) Det är av yttersta vikt att alla framtida ändringar av denna förordning går hand i hand med den nödvändiga översynen av direktivet om produktansvar, i syfte att säkra en övergripande och konsekvent översyn och garantera alla berörda parters rättigheter och skyldigheter genom hela ansvarskedjan. Införandet av en ny ansvarsordning för operatörer av AI-system kräver att bestämmelserna i denna förordning och översynen av direktivet om produktansvar är nära samordnade i fråga om innehåll och tillvägagångssätt, så att de tillsammans utgör en konsekvent ansvarsram för AI-system, som balanserar tillverkares, operatörers, konsumenters och drabbade personers intressen vad gäller ansvarsrisken och relevanta ersättningssystem. Det är därför nödvändigt att anpassa och strama upp definitionerna av AI-system, frontend- och backend-operatör, tillverkare, defekt, produkt och tjänst i alla rättsakter och detta bör göras parallellt.

    (24) Eftersom målen för denna förordning, nämligen att skapa en framtidsorienterad och enhetlig strategi på unionsnivå, fastställa gemensamma europeiska standarder för de europeiska medborgarna och företagen, säkerställa konsekvens i fråga om rättigheter och rättssäkerhet i hela unionen och undvika en fragmentering av den digitala inre marknaden som skulle hämma målet att upprätthålla digital suveränitet, främja digital innovation i Europa och säkerställa ett högt skydd för medborgares och konsumenters rättigheter, krävs det att skadeståndsordningarna för AI-system harmoniseras fullt ut. Detta kan inte i tillräcklig utsträckning uppnås av medlemsstaterna på grund av den snabba tekniska utvecklingen, den gränsöverskridande utvecklingen, användningen av AI-system och även de motstridiga lagstiftningsstrategierna i unionen, utan kan bättre, på grund av åtgärdens omfattning eller verkningar, uppnås på unionsnivå. Unionen får därmed anta åtgärder i enlighet med subsidiaritetsprincipen i artikel 5 i fördraget om Europeiska unionen. I enlighet med proportionalitetsprincipen i samma artikel går denna förordning inte utöver vad som är nödvändigt för att uppnå dessa mål.

    HÄRIGENOM FÖRESKRIVS FÖLJANDE.

    Kapitel I

    Allmänna bestämmelser

    Artikel 1

    Syfte

    I denna förordning fastställs regler för fysiska och juridiska personers skadeståndskrav gentemot operatörer av AI-system.

    Artikel 2

    Tillämpningsområde

    1. Denna förordning ska tillämpas på unionens territorium när en fysisk eller virtuell aktivitet, anordning eller process som drivs av ett AI-system har orsakat skada på en fysisk persons liv, hälsa eller fysiska integritet eller på en fysisk eller juridisk persons egendom, eller har orsakat betydande immateriell skada som lett till en verifierbar ekonomisk förlust.

    2. Sådana avtal mellan en operatör av ett AI-system och en fysisk eller juridisk person som lider skada på grund av AI-systemet som kringgår eller begränsar de rättigheter och skyldigheter som fastställs i denna förordning och som ingåtts före eller efter det att skadan inträffat, ska anses ogiltiga när det gäller de rättigheter och skyldigheter som fastställs i denna förordning.

    3. Denna förordning påverkar inte eventuella ytterligare skadeståndskrav till följd av ett avtalsförhållande mellan operatören och den fysiska eller juridiska person som lidit skada på grund av AI-systemet, eller till följd av bestämmelser om produktansvar, konsumentskydd, icke-diskriminering, arbetarskydd och miljöskydd, som kan göras gällande mot operatören enligt unionsrätten eller nationell lagstiftning.

    Artikel 3

    Definitioner

    I denna förordning gäller följande definitioner:

    a) AI-system: ett system som antingen är programvarubaserat eller inbäddat i maskinvaruenheter och som visar beteende som simulerar intelligens, bland annat genom att samla in och behandla data, analysera och tolka sin miljö och genom att vidta åtgärder, med en viss grad av självständighet, för att uppnå specifika mål,

    b) autonom: ett AI-system som fungerar genom att tolka vissa indata genom att använda en uppsättning på förhand fastställda instruktioner, utan att vara begränsat till dessa instruktioner, trots att dess beteende begränsas av, och är inriktat på, det mål som det tilldelats och andra relevanta utformningsval som gjorts av utvecklaren,

    c) hög risk: en betydande risk för att ett autonomt fungerande AI-system kan orsaka skada för en eller flera personer på ett sätt som är slumpmässigt och som går utöver det som rimligen kan förväntas; hur betydande denna risk är beror på samspelet mellan hur allvarlig den eventuella skadan är, graden av självständigt beslutsfattande, sannolikheten för att risken förverkligas samt hur och i vilken miljö AI-systemet används,

    d) operatör: både frontend- och backend-operatören, så länge som den sistnämndes ansvar inte redan omfattas av bestämmelserna i direktiv 85/374/EEG,

    e) frontend-operatör: varje fysisk eller juridisk person som utövar en viss kontroll över en risk som är förknippad med AI-systemets drift och sätt att fungera och som drar nytta av dess drift,

    f) backend-operatör: varje fysisk eller juridisk person som fortlöpande definierar teknikens egenskaper och tillhandahåller data och ett väsentligt backend-stöd och därför även utövar en viss kontroll över den risk som är förknippad med AI-systemets drift och sätt att fungera,

    g) kontroll: varje åtgärd som vidtas av en operatör och som påverkar driften av ett AI‑system och därmed i vilken utsträckning operatören utsätter tredje part för de potentiella risker som är förknippade med AI-systemets drift och sätt att fungera; sådana åtgärder kan påverka driften när som helst genom att bestämma input, output eller resultat, eller ändra specifika funktioner eller processer inom AI-systemet; i vilken utsträckning dessa aspekter av driften av AI-systemet bestäms av åtgärden beror på operatörens inflytande över den risk som är förknippad med AI-systemets drift och sätt att fungera,

    h) drabbad person: en person som lider skada orsakad av en fysisk eller virtuell aktivitet, anordning eller process som drivs av ett AI-system, men som inte är dess operatör,

    i) skada: en negativ inverkan på en fysisk persons liv, hälsa eller fysiska integritet, på en fysisk eller juridisk persons egendom eller en inverkan som orsakat betydande immateriell skada som lett till en verifierbar ekonomisk förlust,

    j) tillverkare: tillverkaren enligt definitionen i rådets direktiv 85/374/EEG[22].

    Kapitel II

    AI-system med hög risk

    Artikel 4

    Strikt ansvar för AI-system med hög risk

    1. Operatören av ett AI-system med hög risk ska vara strikt ansvarig för eventuella skador som orsakas av en fysisk eller virtuell aktivitet, anordning eller process som drivs av det AI-systemet.

    2. Alla AI-system med hög risk och alla kritiska sektorer där de används ska förtecknas i bilagan till denna förordning. Kommissionen ska ges befogenhet att anta delegerade akter i enlighet med artikel 13 för att ändra denna uttömmande förteckning genom att

    a) införa nya typer av AI-system med hög risk och kritiska sektorer där de används,

    b) stryka typer av AI-system som inte längre kan anses utgöra en hög risk, och/eller

    c) ändra de kritiska sektorerna för befintliga AI-system med hög risk.

    Delegerade akter som ändrar bilagan ska träda i kraft sex månader efter att de antagits. Vid fastställandet av nya AI-system med hög risk och/eller kritiska sektorer som ska införas i bilagan genom delegerade akter ska kommissionen ta full hänsyn till de kriterier som fastställs i denna förordning, särskilt de kriterier som avses i artikel 3 c.

    3. Operatörer av AI-system med hög risk ska inte kunna friskriva sig från ansvar genom att hävda att de handlat med tillbörlig aktsamhet eller att skadan orsakats av en autonom aktivitet, anordning eller process som drivs av deras AI-system. Operatörerna ska inte hållas ansvariga om skadan orsakats av force majeure.

    4. Frontend-operatören av ett AI-system med hög risk ska säkerställa att driften av detta AI-system omfattas av en ansvarsförsäkring med tillräcklig täckning i förhållande till de belopp och den omfattning av ersättningen som föreskrivs i artiklarna 5 och 6 i denna förordning. Backend-operatören ska säkerställa att dennes tjänster omfattas av en företags- eller produktansvarsförsäkring med tillräcklig täckning i förhållande till de belopp och den omfattning av ersättningen som föreskrivs i artiklarna 5 och 6 i denna förordning. Om frontend- eller backend-operatörens obligatoriska försäkringssystem som redan är i kraft enligt annan unionsrätt eller nationell rätt eller befintliga frivilliga försäkringsfonder anses täcka driften av AI-systemet eller den tillhandahållna tjänsten ska skyldigheten att teckna en försäkring för AI-systemet eller den tillhandahållna tjänsten enligt denna förordning anses vara uppfylld, förutsatt att den relevanta befintliga obligatoriska försäkringen eller de frivilliga försäkringsfonderna täcker de belopp och den omfattning av ersättningen som föreskrivs i artiklarna 5 och 6 i denna förordning.

    5. Denna förordning ska ha företräde framför nationella ansvarsordningar i händelse av motstridig klassificering av strikt ansvar i fråga om AI-system.

    Artikel 5

    Ersättningsbelopp

    1. En operatör av ett AI-system med hög risk som har hållits ansvarig för skada enligt denna förordning ska vara ersättningsskyldig enligt följande:

    a) Upp till ett belopp på högst två miljoner EUR om en drabbad person avlider, eller i händelse av skada som orsakats en drabbad persons hälsa eller fysiska integritet, som ett resultat av en process som utförts av ett AI-system med hög risk.

    b) Upp till ett belopp på högst en miljon EUR i händelse av betydande immateriell skada som orsakat en verifierbar ekonomisk förlust eller skada som orsakats egendom, inbegripet när flera tillgångar i en drabbad persons egendom skadats som ett resultat av en enda process som utförts av ett enda AI-system med hög risk. Om den drabbade personen också har ett avtalsrättsligt ersättningsanspråk på operatören ska ingen ersättning betalas ut enligt denna förordning om den totala skadan på egendomen eller den betydande immateriella skadan är av ett värde som understiger [500 EUR][23].

    2. Om den sammanlagda ersättning som ska betalas ut till flera personer som lidit skada som orsakats genom en och samma process som utförts av ett och samma AI-system med hög risk överstiger de högsta totalbelopp som anges i punkt 1, ska de belopp som ska betalas ut till varje person minskas proportionellt så att den kombinerade ersättningen inte överskrider de högsta belopp som anges i punkt 1.

    Artikel 6

    Ersättningens omfattning

    1. Inom ramen för det belopp som anges i artikel 5.1 a ska den ersättning som ska betalas av den operatör som hålls ansvarig i händelse av fysisk skada som ledde till den drabbade personens död beräknas på grundval av kostnaderna för den läkarvård som den drabbade personen genomgick före sin död och den ekonomiska skada som personen åsamkades till följd av förlorad eller minskad förvärvsförmåga eller ökade behov under skadans varaktighet fram till dödsfallet. Den ansvariga operatören ska dessutom ersätta den part som ansvarar för att täcka den drabbade personens begravningskostnader för dessa utgifter.

    Om den drabbade personen vid tidpunkten för den händelse som orsakade den skada som ledde till dennes död hade ett förhållande med en tredje part och en rättslig skyldighet att försörja denna tredje part, ska den ansvariga operatören ersätta den tredje parten genom att betala underhåll i den omfattning som den drabbade personen skulle ha varit skyldig att betala, för en period som motsvarar den förväntade genomsnittliga livslängden för en person i samma ålder och generellt jämförbar med den drabbade personen. Operatören ska även ersätta den tredje parten om denne vid tidpunkten för den händelse som orsakade dödsfallet hade avlats men ännu inte fötts.

    2. Inom ramen för det belopp som anges i artikel 5.1 b ska den ersättning som ska betalas av den operatör som hålls ansvarig i händelse av skada som orsakats den drabbade personens hälsa eller fysiska integritet inbegripa ersättning av kostnaderna för den därmed sammanhängande läkarvården samt betalning för all ekonomisk skada som den drabbade personen lidit till följd av tillfälligt förlorad, minskad eller permanent förlorad förvärvsförmåga eller den påföljande, med läkarintyg styrkta, ökningen av personens behov.

    Artikel 7

    Preskriptionstid

    1. Skadeståndsanspråk i enlighet med artikel 4.1 avseende skador på liv, hälsa eller fysisk integritet ska omfattas av en särskild preskriptionstid på 30 år från den dag då skadan uppstod.

    2. Skadeståndsanspråk i enlighet med artikel 4.1 avseende skador på egendom eller betydande immateriell skada som orsakat en verifierbar ekonomisk förlust ska omfattas av en särskild preskriptionstid på

    a) 10 år från den dag då egendomsskadan eller den verifierbara ekonomiska förlusten till följd av den betydande immateriella skadan uppstod, eller

    b) 30 år från den dag då driften av det AI-system med hög risk som senare orsakade egendomsskadan eller den immateriella skadan ägde rum.

    Av de perioder som avses i första stycket ska den period som löper ut först gälla.

    3. Denna artikel ska inte påverka tillämpningen av nationell rätt som reglerar avbrott eller upphörande av preskriptionstider.

    Kapitel III

    Andra AI-system

    Artikel 8

    Culpabaserat ansvar för andra AI-system

    1. Operatören av ett AI-system som inte utgör ett AI-system med hög risk i enlighet med artiklarna 3 c och 4.2, och därför inte förtecknas i bilagan till denna förordning ska omfattas av culpabaserat ansvar för eventuella skador som orsakats av en fysisk eller virtuell aktivitet, anordning eller process som drivs av AI-systemet.

    2. Operatören ska inte vara ansvarig om denne kan bevisa att skadan har orsakats utan egen förskyllan med hänvisning till någon av följande grunder:

    a) AI-systemet aktiverades utan operatörens vetskap samtidigt som alla rimliga och nödvändiga åtgärder för att undvika en sådan aktivering utanför operatörens kontroll hade vidtagits.

    b) Tillbörlig aktsamhet hade iakttagits vid utförande av följande åtgärder: rätt AI‑system hade valts för berörd uppgift och kompetens, AI-systemet hade tagits i drift i vederbörlig ordning, verksamheten hade övervakats och driftstillförlitligheten hade upprätthållits med hjälp av regelbunden installation av alla tillgängliga uppdateringar.

    Operatören ska inte kunna friskriva sig från ansvar genom att hävda att skadan orsakats av en autonom aktivitet, anordning eller process som drivs av hans eller hennes AI‑system. Operatören ska inte vara ansvarig om skadan orsakats av force majeure.

    3. Om skadan orsakats av en tredje part som stört AI-systemet genom att ändra dess sätt att fungera eller dess effekter ska operatören ändå vara ansvarig för betalning av ersättning om denna tredje part inte kan spåras eller saknar finansiella medel.

    4. Tillverkaren av ett AI-system ska på begäran av operatören eller den drabbade personen vara skyldig att samarbeta med dem och tillhandahålla dem information, i den utsträckning som detta är motiverat med tanke på skadeståndsanspråkets storlek, för att göra det möjligt att fastställa skadeståndsansvaret.

    Artikel 9

    Nationella bestämmelser om ersättning och preskriptionstid

    Skadeståndsanspråk som väcks i enlighet med artikel 8.1 ska, när det gäller preskriptionstider liksom ersättningens belopp och omfattning, omfattas av lagstiftningen i den medlemsstat där skadan uppstod.

    Kapitel IV

    Fördelning av ansvar

    Artikel 10

    Medvållande

    1. Om skadan orsakats både av en fysisk eller virtuell aktivitet, anordning eller process som drivs av ett AI-system och av handlingar av en drabbad person eller av en person som den drabbade personen är ansvarig för, ska omfattningen av operatörens ansvar enligt denna förordning minskas i motsvarande grad. Operatören ska inte vara ansvarig om den drabbade personen eller den person för vilken han eller hon är ansvarig helt och hållet bär skulden för den skada som orsakats.

    2. En operatör som hålls ansvarig får använda de uppgifter som genereras av AI-systemet för att bevisa att den drabbade personen varit medvållande till skadan, i enlighet med förordning (EG) nr 2016/679 och annan relevant dataskyddslagstiftning. Den berörda personen får också använda sådana uppgifter som ett bevismedel eller förtydligande i skadeståndsanspråket.

    Artikel 11

    Solidariskt ansvar

    Om det finns fler än en operatör av ett AI-system ska dessa vara solidariskt ansvariga. Om en frontend-operatör också är tillverkaren av AI-systemet ska denna förordning ha företräde framför produktansvarsdirektivet. Om backend-operatören också kan betraktas som tillverkare enligt definitionen i artikel 3 i produktansvarsdirektivet bör det direktivet tillämpas på denna backend-operatör. Om det endast finns en operatör och denna operatör också är tillverkaren av AI-systemet ska denna förordning ha företräde framför produktansvarsdirektivet.

    Artikel 12

    Återkrav av ersättning

    1. Operatören ska inte ha rätt att återkräva ersättning, såvida inte den drabbade person som har rätt till ersättning enligt denna förordning har erhållit full ersättning.

    2. Om operatören tillsammans med andra operatörer hålls solidariskt ansvarig med avseende på en drabbad person och fullt ut har ersatt den drabbade personen, i enlighet med artikel 4.1 eller 8.1, får denna operatör, i proportion till sitt ansvar, återkräva en del av ersättningen av de andra operatörerna.

    Ansvarsfördelningen ska baseras på operatörernas respektive grad av kontroll över den risk som är förknippad med AI-systemets drift och sätt att fungera. Om det bidrag som kan hänföras till en solidariskt ansvarig operatör inte kan utkrävas av denne, ska detta underskott bäras av de andra operatörerna. Om en solidariskt ansvarig operatör ersätter den drabbade personen och begär en reglering av förskotten från de andra ansvariga operatörerna, ska den drabbade personens anspråk mot de andra operatörerna övertas av denna operatör. Övertagandet av skadeståndsanspråket ska inte göras gällande till nackdel för det ursprungliga anspråket.

    3. Om operatören av ett defekt AI-system till fullo ersätter den drabbade personen för skada i enlighet med artikel 4.1 eller 8.1, har denna operatör regressrätt gentemot tillverkaren av det defekta AI-systemet i enlighet med direktiv 85/374/EEG och nationella bestämmelser om skadeståndsansvar för produkter med säkerhetsbrister.

    4. Om operatörens försäkringsgivare ersätter den drabbade personen för skada i enlighet med artikel 4.1 eller 8.1, ska den drabbade personens skadeståndskrav gentemot en annan person för samma skada övertas av operatörens försäkringsgivare upp till det belopp till vilket operatörens försäkringsgivare har ersatt den drabbade personen.

    Kapitel V

    Slutbestämmelser

    Artikel 13

    Utövande av delegering

    1. Befogenheten att anta delegerade akter ges till kommissionen med förbehåll för de villkor som anges i denna artikel.

    2. Den befogenhet att anta delegerade akter som avses i artikel 4.2 ska ges till kommissionen för en period av fem år från och med [tillämpningsdagen för denna förordning].

    3. Den delegering av befogenhet som avses i artikel 4.2 får när som helst återkallas av Europaparlamentet eller rådet. Ett beslut om återkallelse innebär att delegeringen av den befogenhet som anges i beslutet upphör att gälla. Beslutet får verkan dagen efter det att det offentliggörs i Europeiska unionens officiella tidning, eller vid ett senare i beslutet angivet datum. Det påverkar inte giltigheten av delegerade akter som redan har trätt i kraft.

    4. Innan kommissionen antar en delegerad akt, ska den samråda med den ständiga tekniska kommittén för AI-system med hög risk (TCRAI-kommittén) i enlighet med principerna i det interinstitutionella avtalet av den 13 april 2016 om bättre lagstiftning.

    5. Så snart kommissionen antar en delegerad akt ska den samtidigt delge Europaparlamentet och rådet denna.

    6. En delegerad akt som antas i enlighet med artikel 4.2 ska endast träda i kraft om varken Europaparlamentet eller rådet inom en period på två månader från delgivningsdagen har invänt mot akten eller om både Europaparlamentet och rådet före utgången av denna period har underrättat kommissionen om att de inte kommer att göra invändningar. Denna period ska förlängas med två månader på Europaparlamentets eller rådets initiativ.

    Artikel 14

    Översyn

    Senast den 1 januari 202X [3 år efter tillämpningsdagen för denna förordning ], och därefter vart tredje år, ska kommissionen för Europaparlamentet, rådet och Europeiska ekonomiska och sociala kommittén lägga fram en detaljerad rapport med en översyn av denna förordning mot bakgrund av den fortsatta utvecklingen av artificiell intelligens.

    Vid utarbetandet av den rapport som avses i första stycket ska kommissionen begära relevant information från medlemsstaterna om rättspraxis, förlikningar inför domstol och olycksfallsstatistik, såsom antalet olyckor, skador som lidits, involverade AI-applikationer och ersättning som betalats av försäkringsbolag, liksom en bedömning av antalet anspråk som väckts av drabbade personer, antingen enskilt eller kollektivt, och av de tidsfrister inom vilka dessa anspråk behandlas i domstol.

    Kommissionens rapport ska vid behov åtföljas av lagstiftningsförslag, i syfte att åtgärda eventuella brister som konstaterats i rapporten.

    Artikel 15

    Ikraftträdande

    Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.

    Den ska tillämpas från och med den 1 januari 202X.

    Denna förordning är till alla delar bindande och direkt tillämplig i alla medlemsstater.


    BILAGA

     


    MOTIVERING

    Begreppet ”ansvar” spelar en viktig dubbel roll i vårt dagliga liv: å ena sidan säkerställer det att en person som drabbats av en skada har rätt att begära ersättning från den person som bevisligen är ansvarig för skadan och å andra sidan tillhandahåller det ekonomiska incitament för personer att undvika att alls orsaka skador. En framtidsinriktad ansvarsram bör därför sträva efter att skapa en balans mellan att effektivt skydda eventuella offer från skada och samtidigt ge tillräckligt spelrum för att göra det möjligt att utveckla ny teknik, nya produkter eller nya tjänster.

    Särskilt i början av livscykeln för nya produkter och tjänster finns det en viss risk både för användaren och för tredje personer att något inte fungerar ordentligt. Denna försöksprocess (trial-and-error) är emellertid också en viktig katalysator för den tekniska utvecklingen, utan vilken den största delen av vår teknik inte skulle existera i dag. Europas gedigna bestämmelser om produktsäkerhet och ansvar har hittills varit mer än tillräckliga för att hantera de potentiellt större risker som ny teknik medför. Många människor anser att denna trygghet nu utmanas av den artificiella intelligensens (AI) framfart. Det som gör denna teknik unik är bristen på insyn i den eller, med andra ord, att den är som en ”svart låda”. Deltagandet av AI-system, i kombination med konnektiviteten, beroendet av externa data, sårbarheten för brott mot cybersäkerheten och en tydlig autonomi, skulle dessutom kunna göra det ytterst kostsamt eller till och med omöjligt att identifiera vem som hade kontrollen eller vilken kod eller vilka indata som i slutändan orsakade den skadliga driften. Till följd av detta kan det vara svårt för den skadelidande personen att få ersättning.

    Även om AI-systemen faktiskt innebär nya rättsliga utmaningar för vår befintliga ansvarsordning, skiljer de sig i praktiken ofta inte så mycket åt från annan teknik, som ibland bygger på ännu mer avancerad programvara. Moderna AI-system fungerar ofta i ganska triviala sammanhang och är ljusår från de tänkande robotar som vi sett i science fiction‑filmer. Diskussioner om att ge AI-system ställning som juridiska personer är därför inte längre aktuella. En klok strategi för att ta itu med de rättsliga utmaningar som de nya AI‑systemen medför innebär att avstå från större ändringar i vår ansvarsram. Om en person har lidit skada till följd av ett defekt AI-system, bör direktivet om produktansvar förbli det rättsliga medel genom vilket personen kan begära ersättning från tillverkaren. Om skadan orsakades av ingrepp av en tredje person, erbjuder det culpabaserade ansvarssystemet i medlemsstaterna (i de flesta fall) ett tillräckligt skydd. I enlighet med unionens principer för bättre lagstiftning bör alla nödvändiga lagstiftningsjusteringar när det gäller tillverkare och ingrepp av tredje person diskuteras inom respektive rättsliga ramar.

    Detta betänkande gör dock ett väsentligt undantag i fråga om sin tilltro till de befintliga ansvarsordningarna: enligt betänkandet finns det en lucka i lagstiftningen när det gäller ansvaret för spridare av AI-system. Även om det är de som beslutar om AI-systemens användning som främst utövar kontroll över de därmed förknippade riskerna och drar nytta av driften, skulle många skadeståndskrav gentemot dem avslås på grund av att de drabbade personerna inte skulle kunna bevisa spridarens fel eller försummelse. Särskilt i fall där skadan orsakades av ett AI-systems drift på en offentlig plats skulle den potentiellt enormt stora gruppen av drabbade personer i regel inte ha något avtalsförhållande med spridaren, vilket innebär att de nästan inte skulle ha någon möjlighet att få ersättning för sina skador. Föredraganden lägger fram två olika strategier för att täppa till denna lucka i lagstiftningen, beroende på vilken risknivå AI-systemet medför:

    1. AI-system med hög risk: Spridaren av ett sådant system befinner sig i en liknande situation som ägaren till en bil eller ett sällskapsdjur. Han eller hon utövar kontroll över ett föremål som utsätter allmänheten för stor fara på ett sätt som är slumpmässigt och omöjligt att förutse. Följaktligen bör spridaren – i likhet med ägaren till en bil eller ett sällskapsdjur – omfattas av en strikt ansvarsordning och i viss mån ersätta den skadelidande med ett visst penningbelopp för eventuella skador på dennes viktiga rättsligt skyddade rättigheter (liv, hälsa, fysisk integritet, egendom). I detta betänkande fastställs tydliga kriterier för vilka AI-system som kan klassificeras som AI-system med hög risk och de förtecknas på ett uttömmande sätt i en bilaga. Med tanke på den snabba tekniska och marknadsrelaterade utvecklingen, och med tanke på den tekniska expertis som krävs för en adekvat översyn av ett AI-system, bör det vara kommissionens uppgift att ändra bilagan genom delegerade akter. En nybildad ständig kommitté, bestående av nationella experter och intressenter, bör stödja kommissionen i översynen av AI-system med potentiellt hög risk.

    2. Alla andra AI-system: Den person som lidit skada som orsakats av ett AI-system som inte förtecknas i bilagan bör icke desto mindre kunna dra fördel av en presumtion om fel från spridarens sida. Den nationella lagstiftning som reglerar ersättningens belopp och omfattning samt preskriptionstiden för skador orsakade av AI-systemet är fortsatt tillämplig.

    Inför alla förslag till ny lagstiftning måste man grundligt analysera befintliga lagar för att undvika dubbelarbete eller motstridiga bestämmelser. Betänkandet bygger på denna princip och omfattar därför bara skador på liv, hälsa, fysisk integritet och egendom. Även om AI‑system visserligen kan orsaka betydande skador på personliga rättigheter och andra viktiga rättsligt skyddade intressen, behandlas sådana överträdelser mycket bättre i redan befintliga och skräddarsydda rättsliga bestämmelser på dessa områden (t.ex. lagstiftning mot diskriminering eller konsumentskyddslagstiftning). Föredraganden har av samma skäl inte tagit upp användningen av biometriska uppgifter eller ansiktsigenkänningsteknik med hjälp av AI-system. Otillåten användning på detta område omfattas redan av särskilda dataskyddslagar som t.ex. den allmänna dataskyddsförordningen. I detta betänkande anses dess bestämmelser alltid ha företräde när det gäller motstridiga nationella ansvarsordningar i fråga om huruvida ett AI-system omfattas av strikt ansvar eller när det gäller avtals begränsande verkan. Det syftar också till att ge den drabbade personen full ersättning från spridaren, innan eventuella skadeståndskrav gentemot tillverkaren kan framföras av andra personer än den drabbade personen. För att skapa ett tydligt rättsläge i hela unionen bör backend-operatören – som inte omfattas av denna förordning – omfattas av samma ansvarsregler som tillverkaren, framställaren och utvecklaren.

    Eftersom Europeiska unionen och dess medlemsstater inte behöver göra några radikala ändringar i sina ansvarsramar, bör AI-systemen inte heller driva bort oss från våra traditionella försäkringssystem. Åtgärder i form av offentligt finansierade ersättningsmekanismer är inte tillräckliga för att hantera framväxten av artificiell intelligens. Sådana ersättningssystem skulle endast innebära en onödig ekonomisk börda för skattebetalarna. Trots att man inte har tillgång till kvalitativ skadehistorik som rör AI-system, håller europeiska försäkringsgivare redan på att utveckla nya produkter som täcker varje enskilt område och varje enskilt fall i takt med att tekniken vidareutvecklas. Om ett nytt försäkringsskydd behövs kommer försäkringsmarknaden att komma med en lämplig lösning. Det skulle vara ett misstag att falla för hypotetiska scenarier som används för lobbying för att inrätta ännu fler offentliga system. Om det en dag skulle inträffa en masskadehändelse, t.ex. en stor terroristattack, skulle medlemsstaterna kunna inrätta särskilda ersättningsfonder under en begränsad tid, eftersom de redan gjort så tidigare. Detta betänkande kräver därför endast att spridare av AI-system med hög risk ska ha en lämplig ansvarsförsäkring (något som kan jämföras med den skyldighet som fastställs i direktivet om motorfordonsförsäkring), som täcker beloppen och omfattningen på den ersättning som fastställs i denna förordning. Föredraganden är övertygad om att försäkringsmarknaden antingen anpassar de befintliga försäkringarna eller tar fram en rad nya produkter som var och en täcker de olika typerna av AI-system i olika sektorer.

    Med sin snäva men tydliga strategi i fråga om ansvarsregler för spridare av AI-system är föredraganden övertygad om att man kan skapa en balans mellan att effektivt skydda samhället och samtidigt tillåta en innovation av denna spännande teknik. Alltför ofta pekar man bara på de risker som finns med artificiell intelligens. Och ja, AI-system skulle kunna användas för illasinnade ändamål. Men vill vi tillåta att de negativa konsekvenser som uppstår med all teknik, oavsett om det rör sig om mobiltelefoner eller kärnkraft, begränsar vår allmänna användning av den? Vill vi inte få hjälp av AI-systemen i vår kamp mot klimatförändringarna, för att förbättra vårt hälso- och sjukvårdssystem eller integrera personer med funktionsnedsättning på ett bättre sätt? I detta betänkande förespråkas med eftertryck att fokus måste ligga på hur AI-systemens positiva effekter kan utnyttjas, samtidigt som man bygger upp ett starkt skydd.

    Därför bör alla nya rättsakter om artificiell intelligens utformas som förordningar. Eftersom den digitala sfären kännetecknas av en snabb gränsöverskridande dynamik, måste EU:s digitala inre marknad harmoniseras fullt ut för att komma i kapp den globala digitala konkurrensen.

    Det är oerhört viktigt att betona att den politiska diskussionen om denna förordning bör gå hand i hand med en nödvändig översyn av direktivet om produktansvar. Införandet av en ny ansvarsordning för spridare av AI-system kräver att förhandlingarna om detta betänkande och översynen av direktivet om produktansvar är nära samordnade i fråga om innehåll och tillvägagångssätt, så att de tillsammans utgör en konsekvent ansvarsram för AI-system, som balanserar tillverkares, spridares och drabbade personers intressen vad gäller ansvarsrisken. Det verkar därför vara nödvändigt att anpassa och strama upp definitionerna av AI-system, spridare, tillverkare, utvecklare, defekter, produkter och tjänster i alla lagstiftningsinitiativ.

    Sist men inte minst bör de politiska aktörerna inse att den tekniska utvecklingen inte bara stannar upp under lagstiftningsförhandlingarna. Om vi verkligen vill nå vårt mål att hålla jämna steg med digitaliseringen, upprätthålla vår digitala suveränitet och spela en viktig roll i den digitala tidsåldern, måste EU-institutionerna sända ett tydligt politiskt budskap till vår framgångsrika industri och till våra begåvade forskare som arbetar med nya AI-system. Fram till dess att lagstiftningsåtgärderna för att hantera framväxten av den artificiella intelligensen blir lag, bör industrin och forskarna kunna vara innovativa enligt befintliga regler och dra fördel av en övergångsperiod på fem år. Om vi inte ger dem denna planeringssäkerhet kommer Europa att gå miste om mycket ny fascinerande teknik och många nya fascinerande produkter och tjänster.


    YTTRANDE FRÅN UTSKOTTET FÖR DEN INRE MARKNADEN OCH KONSUMENTSKYDD (7.7.2020)

    till utskottet för rättsliga frågor

    över en skadeståndsordning för artificiell intelligens

    (2020/2014(INL))

    Föredragande av yttrande: Svenja Hahn

    (Initiativ – artikel 47 i arbetsordningen)

     

     

    FÖRSLAG

    Utskottet för den inre marknaden och konsumentskydd uppmanar utskottet för rättsliga frågor att som ansvarigt utskott göra följande:

     Infoga följande förslag i det förslag till resolution som antas:

    A. Användning av ny digital teknik, såsom artificiell intelligens (AI), sakernas och tjänsternas internet samt robotteknik, kommer fortsatt att spela en allt större roll i vår vardag.

    B. Sådan ny digital teknik har potential att bidra till utvecklingen av innovationer inom många sektorer och erbjuda fördelar för konsumenterna genom innovativa produkter och tjänster, för företag, i synnerhet för nystartade företag, mikroföretag och små och medelstora företag, genom optimerade resultat och ökad konkurrenskraft, samt för offentliga förvaltningar genom förbättrade, mer inkluderande och skräddarsydda allmänna tjänster.

    C. Användning, införande och utveckling av AI och annan ny digital teknik kan också innebära risker och utmaningar för den befintliga ansvarsramen för produkter, vilken inte nödvändigtvis är anpassad till sådana nya applikationer. Detta skulle således kunna undergräva såväl konsumenternas förtroende som konsumentskyddet.

    D. Produktsäkerhet och produktansvar är två kompletterande mekanismer som eftersträvar samma politiska mål, dvs. en fungerande inre marknad för varor och tjänster, och i detta yttrande föreslås möjliga justeringar av unionens ansvarsramar mot bakgrund av den nya digitala teknikens ökade betydelse.

    E. Stabila ansvarsmekanismer för att avhjälpa skada bidrar till ett bättre skydd mot skada för såväl medborgarna som konsumenterna och ökat förtroende för ny digital teknik, samtidigt som rättslig förutsebarhet säkerställs för företagen, i synnerhet för nystartade företag, mikroföretag och små och medelstora företag, varigenom deras möjligheter till innovation ökar.

    F. För att skapa acceptans bör de teoretiska fördelarna med AI också i praktiken bidra till välstånd och utveckling.

    G. Rapporten från kommissionen till Europaparlamentet, rådet och Europeiska ekonomiska och sociala kommittén Konsekvenser för säkerhet och ansvar när det gäller artificiell intelligens, sakernas internet och robotteknik[24] och vitboken Om artificiell intelligens – en EU-strategi för spetskompetens och förtroende[25] bör betraktas som utgångspunkten för den kommande EU-lagstiftningen.

    1. Europaparlamentet välkomnar kommissionens mål, närmare bestämt att anpassa unionens rättsliga ram till den senaste tidens utveckling, införande och användning av AI och annan ny digital teknik och i det sammanhanget säkerställa en hög nivå på konsumenternas skydd mot skada som orsakats av ny teknik baserad på artificiell intelligens, robotteknik och tillhörande teknik, samtidigt som man upprätthåller en balans i förhållande till målet att digitalisera industri- och konsumentprodukter och stödja teknisk innovation.

    2. Europaparlamentet uppmanar kommissionen att uppdatera unionens befintliga ansvarsram, särskilt rådets direktiv 85/374/EEG[26] (direktivet om produktansvar), för att anpassa den till den digitala världen.

    3. Parlamentet uppmanar kommissionen att se över direktivet om produktansvar genom att ta itu med de utmaningar som uppstår genom ny digital teknik, såsom artificiell intelligens, sakernas internet och robotteknik, och på så sätt säkerställa en hög nivå på konsumentskyddet i praktiken samt rättslig förutsebarhet för konsumenterna och företagen, samtidigt som man undviker stora kostnader och risker för små och medelstora företag och nystartade företag

    4. Europaparlamentet betonar att varje form av uppdatering av ramen för produktansvar bör gå hand i hand med uppdateringen av Europaparlamentets och rådets direktiv 2001/95/EG[27] (direktivet om produktsäkerhet) för att säkerställa att alla AI-system integrerar principerna om safety by design och inbyggd säkerhet.

    5. Europaparlamentet betonar att varje översyn av den befintliga ansvarsramen bör ha som mål att ytterligare harmonisera ansvars- och konsumentskyddsreglerna för att säkerställa lika villkor och undvika ojämlikhet i konsumentskyddet och en fragmentering av den inre marknaden.

    6. Parlamentet uppmanar kommissionen att göra en bedömning av huruvida en förordning om allmänt produktansvar skulle kunna bidra till detta mål. Parlamentet betonar dock vikten av att säkerställa att unionslagstiftningen begränsas till klart identifierade problem för vilka genomförbara lösningar finns samt lämnar utrymme för ytterligare teknisk utveckling, inbegripet utveckling på grundval av fri programvara som har öppen källkod. Parlamentet betonar att detta bör ske helt i överensstämmelse med tillämplig lagstiftning, till exempel Europaparlamentets och rådets direktiv (EU) 2019/790[28].

    7. Europaparlamentet uppmanar kommissionen att uppdatera produktansvarsramen genom att ta hänsyn till de särskilda utmaningar som digitaliseringen medför för ansvarsrätten. Parlamentet anser att utmaningar kan uppstå till exempel på grund av att produkter är sammankopplade, beroende av data eller sårbara för it-risker.

    8. Europaparlamentet understryker särskilt behovet av att beakta processer i AI‑applikationer som eventuellt inte är väldokumenterade, eller som kan äga rum på autonom väg efter det att produkten har släppts ut på marknaden.

    9. Europaparlamentet uppmanar med eftertryck kommissionen att förtydliga definitionen av ”produkter” i direktivet om produktansvar, genom att fastställa huruvida digitalt innehåll och digitala tjänster omfattas av direktivet, och att överväga att anpassa begrepp såsom ”tillverkare”, ”skada” och ”defekt”. Parlamentet understryker vikten av att beakta det nu gällande konsumentregelverket därvid, i synnerhet Europaparlamentets och rådets direktiv (EU) 2019/770[29] (direktivet om digitalt innehåll) och Europaparlamentets och rådets direktiv (EU) 2019/771[30] (direktivet om försäljning av varor).

    10. Europaparlamentet anser att AI inte bör beviljas status som självständig juridisk person. Parlamentet uppmanar kommissionen att även undersöka huruvida produktansvarsramen behöver revideras för att skydda och ersätta skadelidande parter på ett effektivt sätt när det gäller produkter som förvärvas som ett paket med närstående tjänster, samt att betrakta reglerna om inbyggt integritetsskydd och inbyggd säkerhet som förväntningar som konsumenterna rimligen kan ställa på sina digitala produkter.

    11. Parlamentet betonar att e-marknadsplatser – när de agerar som importörer eller leverantörer av de produkter som säljs på nätet i leveranskedjan – omfattas av direktivet om produktansvar och därför är ansvariga för skador som orsakas av en defekt i de produkter som de sålt, utom när de agerar som leverantör och tillverkaren identifierats, i enlighet med de relevanta bestämmelserna i direktivet om produktansvar.

    12. Europaparlamentet uppmanar kommissionen att, under nära samordning med motsvarande eventuella justeringar av unionens säkerhetsram, bedöma om begreppet ”tidpunkten då produkten satts i omlopp” är ändamålsenligt för ny digital teknik, och huruvida tillverkarens ansvar och skadeståndsansvar skulle kunna gå utöver detta begrepp, med beaktande av att AI-baserade produkter kan ändras inom ramen för tillverkarens kontroll efter det att de har släppts ut på marknaden, vilket skulle kunna orsaka en defekt samt skada till följd av detta.

    13. Europaparlamentet betonar vikten av att säkerställa en rättvis och effektiv ansvarsfördelning i kedjan av kommersiella transaktioner så att ansvaret fördelas på lämpligast möjliga sätt. Parlamentet betonar att det, på grund av komplexiteten, konnektiviteten och ogenomskinligheten i produkter som bygger på AI och annan ny teknik, skulle kunna vara svårt för konsumenterna att bevisa vilken defekt i en produkt som orsakat skada, eftersom det inte kan antas att konsumenterna har tillgång till all nödvändig information eller särskilda tekniska kunskaper.

    14. Europaparlamentet understryker därför betydelsen av att göra det möjligt för konsumenter som lidit skada eller vars egendom skadats att bevisa att en defekt i en produkt orsakat skada, även om programvara från tredje part använts eller om orsaken till en defekt är svår att spåra, till exempel när produkter ingår i ett komplext, sammankopplat sakernas internet.

    15. Europaparlamentet uppmanar kommissionen att överväga omvända regler om bevisbördan för skada som orsakats av ny digital teknik i klart definierade fall och efter vederbörlig bedömning, för att stärka ställningen för konsumenter som lidit skada eller vars egendom skadats och försvara deras rättigheter och samtidigt förhindra missbruk och skapa rättslig förutsebarhet för företagen, samt för att säkerställa rättvisa och minska den informationsasymmetri som inverkar negativt på situationen för skadelidande parter.

    16. Europaparlamentet uppmanar kommissionen att göra en bedömning av möjligheten att införa en skyldighet för tillverkare av ny digital teknik att förse sina produkter med medel för registrering av information om hur tekniken fungerar, i enlighet med tillämpliga dataskyddsbestämmelser och bestämmelserna om skydd av företagshemligheter, med beaktande av bland annat sannolikheten för att risker med anknytning till den berörda tekniken förverkligas samt frågorna huruvida en sådan skyldighet är lämplig och proportionell liksom huruvida den är tekniskt genomförbar och vilka kostnader den skulle medföra. Parlamentet föreslår att underlåtenhet att fullgöra denna skyldighet eller vägran att ge konsumenten i fråga skälig tillgång till denna information skulle utlösa en motbevisbar presumtion om tillverkarens ansvar.

    17. Europaparlamentet betonar behovet av en riskbaserad AI-strategi inom den befintliga ansvarsramen som tar hänsyn till olika risknivåer för konsumenter inom specifika sektorer och användningsområden för AI. Parlamentet understryker att en sådan strategi – som kan omfatta flera risknivåer – bör bygga på tydliga kriterier och en ändamålsenlig definition av hög risk samt medföra rättslig förutsebarhet.

    18. Europaparlamentet anser vidare att de som är involverade i de olika faserna av utveckling, införande och användning av AI-baserade system bör ställas till svars i förhållande till sitt ansvar inom ramen för det interna förhållandet dem emellan. Parlamentet betonar dock att dessa olika aktörers solidariska ansvar bör garanteras i förhållande till den part som lidit skada eller vars egendom skadats. Parlamentet föreslår att produkternas spårbarhet förbättras, till exempel genom användning av teknik för distribuerade liggare, såsom blockkedjor, så att de som är involverade i de olika faserna kan identifieras bättre.

    19. Europaparlamentet understryker att AI-systems förklarbarhet, tolkningsbarhet och spårbarhet är avgörande för att säkerställa att ansvarsmekanismerna erbjuder en adekvat, effektiv och rättvis ansvarsfördelning.

    20. Europaparlamentet uppmanar kommissionen att noggrant överväga införande av en separat, men samtidigt kompletterande, strikt ansvarsordning för AI-system som i hög grad riskerar att orsaka skador på en eller flera personer eller deras egendom på ett slumpmässigt och oförutsägbart sätt, med beaktande av bland annat dess sannolika inverkan på skyddet av medborgare och konsumenter mot skada, företagens – särskilt de små och medelstora företagens – kapacitet till innovation, konsekvensen i unionens säkerhets- och ansvarsramar samt subsidiaritets- och proportionalitetsprinciperna. Parlamentet anser att denna ordning bör säkerställa att offren kompenseras på ändamålsenligt sätt för skada som orsakats av AI-baserade system.

    21. Europaparlamentet uppmanar kommissionen att föreslå konkreta åtgärder, såsom ett register över produktansvarsärenden, för att öka transparensen och övervaka produkter som har defekter och som satts i omlopp inom unionen. Parlamentet framhåller att det är mycket viktigt att säkerställa ett det föreligger ett starkt konsumentskydd med avseende på – och omfattande information om – de produkter som skulle kunna förvärvas.


    INFORMATION OM ANTAGANDET I DET RÅDGIVANDE UTSKOTTET

    Antagande

    7.7.2020

     

     

     

    Slutomröstning: resultat

    +:

    –:

    0:

    39

    0

    5

    Slutomröstning: närvarande ledamöter

    Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

    Slutomröstning: närvarande suppleanter

    Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin

     


     

    SLUTOMRÖSTNING MED NAMNUPPROP
    I DET RÅDGIVANDE UTSKOTTET

    39

    +

    EPP

    S&D

    RENEW

    ID

    GREENS/EFA

    ECR

    EUL/NGL

    NI

    Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann

    Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

    Andrus Ansip, Vlad-Marius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie Yon-Courtin

    Alessandra Basso

    David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kim Van Sparrentak

    Adam Bielan, Carlo Fidanza, Beata Mazurek

    Kateřina Konečná, Anne-Sophie Pelletier

    Marco Zullo

     

    0

    -

     

     

     

    5

    0

    ID

    ECR

    Hynek Blaško, Markus Buchheit, Virginie Joron, Jean-Lin Lacapelle

    Eugen Jurzyca

     

    Teckenförklaring:

    + : Ja-röster

    - : Nej-röster

    0 : Nedlagda röster

     

     


    YTTRANDE FRÅN UTSKOTTET FÖR TRANSPORT OCH TURISM (15.7.2020)

    till utskottet för rättsliga frågor

    med rekommendationer till kommissionen om en skadeståndsordning för artificiell intelligens

    (2020/2014(INL))

    Föredragande av yttrande: Cláudia Monteiro de Aguiar

    (Initiativ – artikel 47 i arbetsordningen)

     

     

    FÖRSLAG

    Utskottet för transport och turism uppmanar utskottet för rättsliga frågor att som ansvarigt utskott infoga följande förslag i det förslag till resolution som antas:

     med beaktande av artikel 225 i fördraget om Europeiska unionens funktionssätt,

     med beaktande av direktiv 85/374/EEG[31],

     med beaktande av artikel 56 i arbetsordningen, och av följande skäl:

    A. Artificiell intelligens (AI) och annan framväxande digital teknik har potential att förändra våra samhällen och ekonomier till det bättre. Det är dock omöjligt att helt och hållet utesluta risken för materiella skador, personskador eller förlust av liv till följd av att sådan teknik används.

    B. Inom olika transportindustrier har automatisering och AI på flera olika nivåer tillämpats. Därutöver inbegriper AI användning av många typer av teknik, såsom självkörande fordon, obemannade luftfartygssystem och smarta trafikledningslösningar.

    C. Unionens ram för skadeståndsansvar kompletteras av nationella ansvarsordningar, och båda bör återspegla den framväxande teknikens komplexitet för att garantera högsta möjliga skyddsnivå samtidigt som man stöder teknisk innovation. Unionen saknar en harmoniserad skadeståndsordning för AI-produkter. Att främja införande och användning av AI i EU bör vara en topprioritering för unionen och ett underliggande mål för utvecklingen av ramen för skadeståndsansvar för AI-produkter. Uppgifter visar att upp till nittio procent av alla trafikolyckor åtminstone delvis inträffar till följd av mänskliga misstag. Självkörande fordon bör omfattas av ett etiskt ramverk. Ett sådant ramverk skulle visserligen kunna förhindra fel inom maskinbaserat beslutsfattande och algoritmer, men en harmoniserad skadeståndsordning är nödvändig för att säkerställa att alla skador som orsakas av AI-system ersätts fullt ut.

    D. Unionens lagstiftning och den nationella lagstiftningen bör säkerställa en hög säkerhetsnivå för produkter och tjänster och en sund systemförvaltning både på förhand och under en produkts livscykel, och samtidigt underlätta ersättning till offren i efterhand. Den tekniska utvecklingen inom AI bör även i fortsättningen vara människocentrerad, och produkter och tillämpningar som använder AI bör bidra till mänsklig utveckling och en hög livskvalitet.

    1. Europaparlamentet understryker att AI kan användas på olika nivåer i fordon, i transportinfrastruktur och bland de olika transportsätten och att AI har en betydande inverkan på graden av autonomi hos systemet, från fullständig förarkontroll till full autonomi, samt att förarens skadeståndsansvar följaktligen överförs gradvis till andra parter ju högre grad av autonomi de automatiserade körsystemen har. Parlamentet efterlyser tydliga unionsomfattande definitioner för alla typer av transportsätt och infrastruktur som utnyttjar AI-baserad programvara och en motsvarande riskklassificering för att stödja en ansvarsmekanism när det gäller att klargöra ansvarsfrågor för att säkerställa högsta möjliga skydds- och säkerhetsstandarder, samt betonar att säkerhet är av avgörande betydelse inom transportsektorn och att säkerhet och ansvar kan beskrivas som två sidor av samma mynt.

    2. Europaparlamentet påminner om att transportsektorn sedan årtionden tillbaka integrerar AI-teknik, i synnerhet genom införandet av automatisk tågmanövrering, även i tätorter där helt automatiserad, förarlös drift har ökat systemtillgängligheten, nätkapaciteten och driftseffektiviteten.

    3. Europaparlamentet understryker att automatiska funktioner kan medföra betydande säkerhetsförbättringar på medellång och lång sikt, men även oavsedda effekter, t.ex. i fråga om cybersäkerhet och dataskydd. Samtidigt som samexistensen av flera automatiseringsnivåer utgör en utmaning skulle AI även kunna användas för planering och styrning av logistikkedjor samt för ökad effektivitet, motståndskraft, tillförlitlighet, hållbarhet, driftskompatibilitet och flexibilitet. Parlamentet noterar även den enorma potential som AI har för personer med funktionsnedsättning och nedsatt rörlighet. Parlamentet betonar behovet av ökad kontroll inom ramen för en skadeståndsordning på unionsnivå för AI-produkter för att garantera säkerheten för personer med funktionsnedsättning och nedsatt rörlighet.

    4. Europaparlamentet betonar vikten av att fastställa en tydlig ansvarsfördelning mellan programvaruutvecklare, tillverkare av olika komponenter, tjänste- och dataleverantörer samt operatörer och slutanvändare för att säkerställa bästa möjliga produktsäkerhet och respekt för konsumenternas rättigheter. Parlamentet framhåller behovet av att fastställa en lämplig fördelning av risker som uppstår i samband med ny digital interaktion mellan infrastruktur och fordon, och av att tillämpa en rättvis skadeståndsordning i samband med fel i systemprogramvaran och nätproblem, liksom risker relaterade till programmeringsval som för närvarande inte omfattas i tillräckligt hög grad.

    5. Europaparlamentet understryker att det för AI-relaterade tillämpningar inom transportsektorn med en särskild högriskprofil behövs en riskbaserad metod som bygger på automatiseringsgraden och systemets självinlärningskapacitet. Parlamentet påminner om behovet av rättsliga krav för AI-tillämpningar med en högriskprofil. Parlamentet noterar emellertid att denna metod inte bör baseras på en förhandsidentifiering av vissa sektorer, såsom transport, som sektorer där högrisk-AI tillämpas utan snarare på områdesspecifika och teknikneutrala bedömningar. Parlamentet framhåller behovet av att harmonisera sådana krav i hela unionen för att säkerställa högsta möjliga nivå av produktsäkerhet och lägsta möjliga risk för användarna när de använder AI-system, samt betonar den grundläggande roll som försiktighetsprincipen enligt artikel 191 i EUF-fördraget spelar i samband med riskanalys och riskhantering. Parlamentet efterlyser adekvata åtgärder som svar på behovet av en ändamålsenlig strategi för dataskydd och hantering av risker med anknytning till hackning och cyberbrottslighet.

    6. Europaparlamentet noterar att ansvaret enligt gällande bestämmelser om produktsäkerhet ligger hos tillverkaren, om detta inte motbevisas, och att det är tillverkaren och/eller utvecklaren som har bevisbördan. Parlamentet betonar att denna princip bör utvidgas till att omfatta AI-produkter. I fall där tillverkaren och/eller utvecklaren bevisats inte vara ansvariga anser parlamentet att en operatör som har en högre grad av kontroll än ägaren eller användaren av en faktisk produkt eller tjänst som är utrustad med AI är bäst lämpad att hantera riskerna, och att bevisbördan därför bör överföras till operatören i fråga. Parlamentet konstaterar att varje skyldighet bör åvila den aktör som är bäst lämpad att hantera risken. Parlamentet betonar att konsumentens samtycke är en grundläggande princip för utveckling av AI-baserade transporttjänster. Parlamentet uppmanar med eftertryck kommissionen att införa metoder för att certifiera sådana tjänster. Parlamentet noterar att skyddet av unionsmedborgare och unionsbaserade företag som använder AI-teknik förutsätter en tydlig ansvarsfördelning mellan de olika involverade parterna, oavsett om parterna är unionsbaserade eller inte (extraterritoriell tillämplighet).

    7. Europaparlamentet betonar vikten av att garantera åtminstone samma produktsäkerhetsnivå som för närvarande, också med hänsyn till unionens mål om en ”nollvision”, för att underlätta tillgången till rättsmedel för olycksoffren, förhindra att de nuvarande rättegångskostnaderna ökar samt undvika rättslig oförutsebarhet, särskilt för företag som saluför sina produkter inom unionen och globalt. Parlamentet framhäver i detta sammanhang behovet av att snabbt tillhandahålla ersättning till offren, oavsett ansvarskedjan.

    8. Europaparlamentet anser att ansvaret, trots graden av automatisering och integrering av AI i transportsystem och fordon, alltid i slutändan måste ligga hos en fysisk eller juridisk person, i syfte att säkerställa rättslig förutsebarhet och samtidigt främja investeringar och en korrekt användning av tekniken.

    9. Europaparlamentet betonar vikten av att se till att förarna har fått adekvat utbildning och alltid är fullt medvetna om ett fordons automatiseringsgrad och sin egen ansvarsnivå och att de bör informeras om sina fordons AI-system och relaterade begränsningar av sådana system såsom aktivering, avaktivering och fel. Dessutom bör funktionerna i fordonet regelbundet påminna föraren om att han eller hon är ansvarig för att övervaka fordonets status samt ge tydliga varningar till föraren om AI-systemets begränsningar. Parlamentet betonar att förare inte kan hållas ansvariga om det kan påvisas att de har använt fullständigt automatiserade körsystem på lagligt sätt.

    10. Europaparlamentet konstaterar att det finns ett behov av att använda teknik för händelseskrivare vid allvarliga olyckor vilken möjliggör spårning av en ansvarig fysisk eller juridisk person, med full respekt för dataskydds- och integritetslagstiftningen. Parlamentet betonar den centrala roll som lagring, delning och förvaltning av data kommer att få för spridningen av AI på området för mobilitet, och betonar att händelseskrivare under inga omständigheter får användas som permanenta spårningssystem. Parlamentet efterlyser mer forskning och utveckling, med både offentliga och privata medel, och mer tester, för att förbättra produktsäkerheten och därmed trafiksäkerheten, och åtminstone också tillhandahålla konkreta uppgifter som kan bidra till en vidareutveckling. Parlamentet noterar att det för att begränsa incidenterna till ett minimum behövs en underliggande toppmodern infrastruktur och ett intelligent transportsystem som fungerar med uppdaterade, klara och tolkningsbara data.

    11. Europaparlamentet efterlyser ytterligare analys av behovet att anpassa Europaparlamentets och rådets direktiv 2006/126/EG[32] och Europaparlamentets och rådets direktiv 2009/103/EG[33] på grund av fordons automatiska funktioner. Parlamentet uppmanar eftertryckligen kommissionen att göra regelbundna utvärderingar av EU:s rättsliga ramar för transport för att säkerställa att unionen kan hantera de säkerhets- och ansvarsmässiga utmaningar som är kopplade till integreringen av AI‑teknik. Vidare uppmanar parlamentet kommissionen att undersöka möjligheten att i unionens produktsäkerhetslagstiftning inkludera krav som svar på de säkerhetsrisker som felaktiga data utgör.

    12. Europaparlamentet understryker att ansvarsordningar i händelse av en olycka eller överträdelse av trafiklagstiftningen måste utformas noggrant för varje automatiseringsgrad och AI-integrering och förmedlas på ett tydligt sätt till användarna för att säkerställa en smidig övergång från fullt ansvar för föraren till fullt ansvar för tillverkaren och operatören.

    13. Europaparlamentet konstaterar att den grad i vilken obemannade system inom transportnätet, såsom automatiserade fordon och obemannade luftfartygssystem, kan integreras i markinfrastruktur respektive luftrummet bygger på många variabla signaler och förhållanden samt eventuella faror eller hinder som man kan stöta på. Parlamentet konstaterar att en sådan ökning av användningen, särskilt i tätorter, fortlöpande kommer att sätta den gällande skadeståndsordningen på prov, och efterlyser därför regelbundna uppdateringar av digitala kartor, trafikledningssystem och regler för gemensamt utnyttjande av data med en obligatorisk, adekvat minimiuppsättning information om och instruktioner för användning av produkter utrustade med AI samt med avseende på vägnätet, och en korrekt utveckling och spridning av U-space. Parlamentet anser att ett människocentrerat perspektiv bör ligga till grund för uppdateringar och utveckling av rättsliga ramar för automatisering och AI-integrering inom transport.

    14. Europaparlamentet uppmanar kommissionen att lägga fram riktlinjer för att undvika splittrade regleringsmetoder på nationell nivå, med beaktande av direktiv 85/374/EEG och befintliga nationella ansvarsordningar. Parlamentet betonar behovet av en ram för skadeståndsansvar på unionsnivå och framhåller att splittringen skulle att ha mycket skadliga effekter på utvecklingen av sådan teknik och på konkurrenskraften för unionens företag, särskilt små och medelstora företag, samt skulle undergräva den rättsliga förutsebarheten och säkerheten och göra det svårare att snabbt ersätta offren. Parlamentet konstaterar att den aktör som är bäst lämpad att hantera risken bör hållas ansvarig, på grundval av en vederbörlig rättslig process.


    INFORMATION OM ANTAGANDET I DET RÅDGIVANDE UTSKOTTET

    Antagande

    14.7.2020

     

     

     

    Slutomröstning: resultat

    +:

    –:

    0:

    49

    0

    0

    Slutomröstning: närvarande ledamöter

    Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, István Ujhelyi, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski

    Slutomröstning: närvarande suppleanter

    Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti

     


    SLUTOMRÖSTNING MED NAMNUPPROP
    I DET RÅDGIVANDE UTSKOTTET

    49

    +

    ECR

    Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski

    GUE/NGL

    Leila Chaibi, Kateřina Konečná, Elena Kountoura

    ID

    Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo

    NI

    Mario Furore, Dorien Rookmaker

    PPE

    Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian-Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg-Vrionidi, Elżbieta Katarzyna Łukacijewska

    Renew

    José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan-Christoph Oetjen, Dominique Riquet

    S&D

    Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi

    Verts/ALE

    Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay-Grunenberg, Tilly Metz

     

    0

    -

     

     

     

    0

    0

     

     

     

    Teckenförklaring:

    + : Ja-röster

    - : Nej-röster

    0 : Nedlagda röster

     

     


     

    INFORMATION OM ANTAGANDET I DET ANSVARIGA UTSKOTTET

    Antagande

    1.10.2020

     

     

     

    Slutomröstning: resultat

    +:

    –:

    0:

    23

    0

    1

    Slutomröstning: närvarande ledamöter

    Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos

    Slutomröstning: närvarande suppleanter

    Patrick Breyer, Evelyne Gebhardt, Kosma Złotowski

     


    SLUTOMRÖSTNING MED NAMNUPPROP I DET ANSVARIGA UTSKOTTET

    23

    +

    EPP

    Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos

    S&D

    Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken

    RENEW

    Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara

    ID

    Gunnar Beck, Jean-Paul Garraud, Gilles Lebreton

    VERTS/ALE

    Patrick Breyer, Marie Toussaint

    ECR

    Angel Dzhambazki, Kosma Złotowski

    NI

    Mislav Kolakušić

     

    0

    -

     

     

     

    1

    0

    GUE/NGL

    Manon Aubry

     

    Teckenförklaring:

    + : Ja-röster

    - : Nej-röster

    0 : Nedlagda röster

    Senaste uppdatering: 19 oktober 2020
    Rättsligt meddelande - Integritetspolicy