Hakemisto 
 Edellinen 
 Seuraava 
 Koko teksti 
Menettely : 2020/2014(INL)
Elinkaari istunnossa
Asiakirjan elinkaari : A9-0178/2020

Käsiteltäväksi jätetyt tekstit :

A9-0178/2020

Keskustelut :

PV 19/10/2020 - 18
CRE 19/10/2020 - 15
CRE 19/10/2020 - 18

Äänestykset :

Hyväksytyt tekstit :

P9_TA(2020)0276

Hyväksytyt tekstit
PDF 248kWORD 86k
Tiistai 20. lokakuuta 2020 - Bryssel Väliaikainen painos
Tekoälyä koskeva siviilioikeudellisen vastuun järjestelmä
P9_TA-PROV(2020)0276A9-0178/2020
Päätöslauselma
 Liite
 Liite

Euroopan parlamentin päätöslauselma 20. lokakuuta 2020 suosituksista komissiolle tekoälyä koskevasta siviilioikeudellisen vastuun järjestelmästä (2020/2014(INL))

Euroopan parlamentti, joka

–  ottaa huomioon Euroopan unionin toiminnasta tehdyn sopimuksen 225 artiklan,

–  ottaa huomioon Euroopan unionin toiminnasta tehdyn sopimuksen 114 ja 169 artiklan,

–  ottaa huomioon tuotevastuuta koskevien jäsenvaltioiden lakien, asetusten ja hallinnollisten määräysten lähentämisestä 25. heinäkuuta 1985 annetun neuvoston direktiivin 85/374/ETY(1) (tuotevastuudirektiivi),

–  ottaa huomioon sopimattomista elinkeinonharjoittajien ja kuluttajien välisistä kaupallisista menettelyistä sisämarkkinoilla 11. toukokuuta 2005 annetun Euroopan parlamentin ja neuvoston direktiivin 2005/29/EY (sopimattomia kaupallisia menettelyjä koskeva direktiivi)(2) ja kuluttajan oikeuksista 25. lokakuuta 2011 annetun Euroopan parlamentin ja neuvoston direktiivin 2011/83/EY(3) sekä muut kuluttajansuojaa koskevat säännöt,

–  ottaa huomioon lääkinnällisistä laitteista 5. huhtikuuta 2017 annetun Euroopan parlamentin ja neuvoston asetuksen (EU) 2017/745(4),

–  ottaa huomioon Euroopan suurteholaskennan yhteisyrityksen perustamisesta 28. syyskuuta 2018 annetun neuvoston asetuksen (EU) 2018/1488(5),

–  ottaa huomioon tietyistä digitaalisen sisällön ja digitaalisten palvelujen toimittamista koskeviin sopimuksiin liittyvistä seikoista 20. toukokuuta 2019 annetun Euroopan parlamentin ja neuvoston direktiivin (EU) 2019/770(6),

–  ottaa huomioon paremmasta lainsäädännöstä 13. huhtikuuta 2016 tehdyn toimielinten välisen sopimuksen ja paremmasta sääntelystä annetut suuntaviivat(7),

–  ottaa huomioon 6. kesäkuuta 2018 annetun ehdotuksen Euroopan parlamentin ja neuvoston asetukseksi Digitaalinen Eurooppa -ohjelman perustamisesta vuosiksi 2021–2027 (COM(2018)0434),

–  ottaa huomioon 25. huhtikuuta 2018 annetun komission tiedonannon tekoälystä Euroopassa (COM(2018)0237),

–  ottaa huomioon 7. joulukuuta 2018 annetun komission tiedonannon koordinoidusta tekoälysuunnitelmasta (COM(2018)0795),

–  ottaa huomioon 8. huhtikuuta 2019 annetun komission tiedonannon luottamuksen rakentamisesta ihmiskeskeiseen tekoälyyn (COM(2019)0168),

–  ottaa huomioon 19. helmikuuta 2020 annetun komission kertomuksen Euroopan parlamentille, neuvostolle ja Euroopan talous- ja sosiaalikomitealle tekoälyn, esineiden internetin ja robotiikan vaikutuksista turvallisuuteen ja vastuuvelvollisuuteen (COM(2020)0064),

–  ottaa huomioon 19. helmikuuta 2020 annetun komission valkoisen kirjan tekoälystä – eurooppalainen lähestymistapa huippuosaamiseen ja luottamukseen (COM(2020)0065),

–  ottaa huomioon 16. helmikuuta 2017 antamansa päätöslauselman suosituksista komissiolle robotiikkaa koskevista yksityisoikeudellisista säännöistä(8),

–  ottaa huomioon 1. kesäkuuta 2017 antamansa päätöslauselman Euroopan teollisuuden digitalisoinnista(9),

–  ottaa huomioon 12. syyskuuta 2018 antamansa päätöslauselman autonomisista asejärjestelmistä(10),

–  ottaa huomioon 12. helmikuuta 2019 antamansa päätöslauselman tekoälyä ja robotiikkaa koskevasta kokonaisvaltaisesta Euroopan unionin teollisuuspolitiikasta(11),

–  ottaa huomioon 12. helmikuuta 2020 antamansa päätöslauselman automatisoiduista päätöksentekoprosesseista: kuluttajansuojan sekä tavaroiden ja palvelujen vapaan liikkuvuuden varmistaminen(12),

–  ottaa huomioon 8. huhtikuuta 2019 julkaistun tekoälyä käsittelevän korkean tason asiantuntijaryhmän raportin luotettavaa tekoälyä koskevista eettisistä ohjeista,

–  ottaa huomioon 8. huhtikuuta 2019 julkaistun tekoälyä käsittelevän korkean tason asiantuntijaryhmän raportin tekoälyn määritelmästä ”A definition of AI: Main Capabilities and Disciplines”,

–  ottaa huomioon 26. kesäkuuta 2019 julkaistun tekoälyä käsittelevän korkean tason asiantuntijaryhmän raportin luotettavaa tekoälyä koskevista suosituksista ”Policy and investment recommendations for trustworthy AI”,

–  ottaa huomioon 21. marraskuuta 2019 julkaistun vastuuta ja uusia teknologioita käsittelevän asiantuntijaryhmän raportin tekoälyä ja muita uusia digitaaliteknologioita koskevasta vastuusta ”Liability for Artificial Intelligence and other emerging digital technologies”,

–  ottaa huomioon Euroopan parlamentin tutkimuspalvelun toteuttaman Euroopan tason lisäarvon arvioinnin ”Civil liability regime for artificial intelligence: European added value assessment”(13):

–  ottaa huomioon kesäkuussa 2016 annetun Euroopan parlamentin tutkimuspalvelun tieteen ja tekniikan tulevaisuuspaneelin (STOA) katsauksen laillisiin ja eettisiin kysymyksiin robotiikassa ”Legal and ethical reflections concerning robotics”(14),

–  ottaa huomioon Euroopan parlamentin sisäasioiden pääosaston oikeudellisten asioiden valiokunnalle tekemän, lokakuussa 2016 julkaistun tutkimuksen robotiikkaa koskevista eurooppalaisista siviilioikeudellisista säännöistä ”European Civil Law Rules in Robotics”(15),

–  ottaa huomioon työjärjestyksen 47 ja 54 artiklan,

–  ottaa huomioon sisämarkkina- ja kuluttajansuojavaliokunnan sekä liikenne- ja matkailuvaliokunnan lausunnot,

–  ottaa huomioon oikeudellisten asioiden valiokunnan mietinnön (A9-0178/2020),

A.  ottaa huomioon, että ”vastuun” käsitteellä on tärkeä kaksitahoinen rooli arjessamme: yhtäältä sillä varmistetaan, että haittaa tai vahinkoa kärsineellä henkilöllä on oikeus vaatia ja saada korvausta osapuolelta, jonka on osoitettu olevan vastuussa kyseisestä haitasta tai vahingosta, ja toisaalta se tarjoaa luonnollisille henkilöille ja oikeushenkilöille taloudellisia kannustimia olla alun perinkään aiheuttamatta haittaa tai vahinkoa tai hinnoitella käyttäytymisessään riski korvauksen maksamisesta;

B.  katsoo, että kaikilla tulevaisuuteen suuntautuvilla siviilioikeudellista vastuuta koskevilla oikeudellisilla kehyksillä on pyrittävä lisäämään luottamusta tuotteiden ja palvelujen, myös digitaaliteknologian, turvallisuuteen, luotettavuuteen ja johdonmukaisuuteen, jotta voidaan saattaa tasapainoon haitan tai vahingon mahdollisten uhrien tehokas ja oikeudenmukainen suojelu ja riittävän liikkumavaran tarjoaminen, jotta yritykset, erityisesti pienet ja keskisuuret yritykset, pystyvät kehittämään uusia teknologioita, tuotteita tai palveluja; katsoo, että tämä auttaa rakentamaan luottamusta ja luomaan vakautta investointeihin; katsoo, että kaikkien vastuukehysten tavoitteena olisi viime kädessä oltava oikeusvarmuuden takaaminen kaikille osapuolille, olipa kyse sitten valmistajasta, operaattorista, vaikutusten kohteena olevasta henkilöstä tai jostakin muusta kolmannesta osapuolesta;

C.  ottaa huomioon, että jäsenvaltion oikeusjärjestelmässä voidaan mukauttaa vastuuta koskevia sääntöjä tiettyjen toimijoiden osalta tai tiukentaa niitä tiettyjen toimintojen osalta; ottaa huomioon, että ankara vastuu tarkoittaa, että osapuoli voi olla vastuussa vaikka ei olisi toiminut tuottamuksellisesti; ottaa huomioon, että kansallisessa vahingonkorvausoikeudessa katsotaan usein vastaajalla olevan ankara vastuu, jos riski, jonka vastaaja on aiheuttanut yleisölle esimerkiksi autojen tai vaarallisen toiminnan muodossa, tai riski, jota hän ei voi valvoa, kuten eläimet, aiheuttaa haittaa tai vahinkoa;

D.  katsoo, että ennen mahdollista unionin tulevaa lainsäädäntöä, jolla pyritään tekoälyjärjestelmiä koskevaan selkeään vastuun määrittelyyn, olisi tehtävä analyyseja ja kuultava jäsenvaltioita siitä, otetaanko ehdotetuissa säädöksissä huomioon taloudelliset, oikeudelliset ja yhteiskunnalliset olosuhteet;

E.  katsoo, että tekoälyä koskevasta siviilioikeudellisen vastuun järjestelmästä olisi käytävä laajaa julkista keskustelua, jossa otetaan huomioon kaikki asiaan liittyvät seikat, erityisesti eettiset, oikeudelliset, taloudelliset ja yhteiskunnalliset näkökohdat, jotta torjutaan väärinkäsityksiä ja aiheetonta pelkoa, joita tällainen teknologia voi synnyttää kansalaisten keskuudessa; katsoo, että ennen uusia lainsäädäntötoimia olisi tutkittava huolellisesti vaikutustenarvioinnissa, mitä seurauksia mahdollisilla uusilla sääntelykehyksillä on kaikkiin toimijoihin;

F.  ottaa huomioon, että tekoälyjärjestelmien käsite kattaa hyvin suuren määrän erilaisia teknologioita, kuten yksinkertaiset tilastot, koneoppiminen ja syväoppiminen;

G.  katsoo, että käyttämällä ilmaisua ”automatisoitu päätöksenteko” voitaisiin välttää termin ”tekoäly” mahdollinen monitulkintaisuus; ottaa huomioon, että automatisoitu päätöksenteko alkaa siitä, että käyttäjä siirtää päätöksen tekemisen osittain tai kokonaan jollekin entiteetille ohjelmistoa tai palvelua käyttäen; ottaa huomioon, että tämä entiteetti puolestaan käyttää sen jälkeen automaattisesti toimeenpantavia päätöksentekomalleja toimen suorittamiseen käyttäjän puolesta tai antamaan käyttäjälle tietoa tämän toimea suorittaessaan tekemien päätösten pohjaksi;

H.  ottaa huomioon, että tietyt tekoälyjärjestelmät luovat merkittäviä oikeudellisia haasteita nykyiselle vastuukehykselle ja voivat johtaa tilanteisiin, joissa niiden läpinäkymättömyyden takia voi olla erittäin kallista tai jopa mahdotonta tunnistaa, kuka tekoälyjärjestelmään liittyvää riskiä valvoi tai mikä koodi, syöte tai data viime kädessä aiheutti haitallisen toiminnon; katsoo, että tämä tekijä voi tehdä vaikeammaksi tunnistaa yhteys haitan tai vahingon ja sen aiheuttaneen käyttäytymisen välillä, minkä seurauksena uhrit eivät välttämättä saa asianmukaista korvausta;

I.  ottaa huomioon, että oikeudellisia haasteita syntyy myös tekoälyjärjestelmän yhteenliitettävyydestä muihin tekoälyjärjestelmiin sekä muihin kuin tekoälyjärjestelmiin, niiden riippuvuudesta ulkoisesta datasta, niiden haavoittuvuudesta kyberturvallisuusrikkomuksille sekä muun muassa koneoppimista ja syväoppimista käyttävistä yhä autonomisemmiksi suunnitelluista tekoälyjärjestelmistä;

J.  toteaa, että tekoälyjärjestelmien vahvat eettiset normit yhdistettyinä vakaisiin ja oikeudenmukaisiin korvausmenettelyihin voivat auttaa vastaamaan näihin oikeudellisiin haasteisiin ja poistamaan sen riskin, että käyttäjät eivät ole halukkaita omaksumaan uutta teknologiaa; katsoo, että oikeudenmukaisilla korvausmenettelyillä tarkoitetaan sitä, että jokaisella, joka kärsii tekoälyjärjestelmien aiheuttamasta haitasta tai jonka omaisuusvahinko johtuu tekoälyjärjestelmistä, olisi oltava sama suojelun taso kuin tapauksissa, joissa ei ole osallisena tekoälyjärjestelmää; ottaa huomioon, että käyttäjän on voitava olla varma siitä, että tekoälyä käyttävien järjestelmien mahdollisesti aiheuttama vahinko katetaan asianmukaisilla vakuutuksilla ja että korvausten hakemista varten on määritetty laillinen menettely;

K.  ottaa huomioon, että oikeusvarmuus on myös keskeinen edellytys tekoälyyn perustuvan teknologian dynaamiselle kehitykselle ja innovoinnille, erityisesti kun kyseessä ovat uusyritykset, mikroyritykset ja pienet ja keskisuuret yritykset, sekä sen käytännön sovelluksille jokapäiväisessä elämässä; ottaa huomioon, että koska uusyrityksillä, mikroyrityksillä ja pk-yrityksillä on keskeinen asema erityisesti eurooppalaisessa taloudessa, on perusteltua noudattaa ehdottoman oikeasuhteista lähestymistapaa, jotta niille annetaan mahdollisuus kehittyä ja innovoida;

L.  ottaa huomioon, että tekoälyjärjestelmien monimuotoisuuden ja teknologiaan liittyvien erilaisten riskien vuoksi on vaikea löytää yhtä ainoaa ratkaisua, joka sopisi koko riskien kirjolle; toteaa tältä osin, että olisi otettava käyttöön lähestymistapa, jossa kokeilujen, pilottihankkeiden ja virtuaalisten sääntelyn testauspaikkojen avulla pyritään oikeasuhteisiin ja näyttöön perustuviin ratkaisuihin, joilla puututaan tarvittaessa ongelmiin tietyissä tilanteissa ja tietyillä aloilla;

Johdanto

1.  katsoo, että haasteet tekoälyjärjestelmien käyttöönotossa yhteiskunnassa, työpaikoilla ja taloudessa on yksi tärkeimpiä kysymyksiä tämänhetkisellä poliittisella asialistalla; katsoo, että tekoälyyn perustuvat teknologiat voisivat parantaa ja niillä olisi pyrittävä parantamaan elämäämme lähes kaikilla aloilla yksilötasolta (esimerkiksi liikenne, yksilöllinen koulutus, haavoittuvassa asemassa olevien henkilöiden avustaminen, kuntoiluohjelmat ja luotot) työympäristöön (esimerkiksi pitkäveteisten ja yksitoikkoisten työtehtävien vähentäminen) ja globaaleihin haasteisiin (esimerkiksi ilmastonmuutos, terveydenhuolto, ravitsemus ja logistiikka);

2.  on vakaasti sitä mieltä, että tekoälyjärjestelmien tuomien etujen tehokkaan hyödyntämisen ja mahdollisten väärinkäytösten estämisen sekä sääntelyn hajanaisuuden torjumiseksi unionissa on ratkaisevan tärkeää, että kaikkiin tekoälyjärjestelmiin sovelletaan yhdenmukaista, periaatteellista ja tulevaisuuden vaatimukset huomioon ottavaa lainsäädäntöä kaikkialla unionissa; katsoo, että vaikka alakohtainen sääntely on suositeltavampaa mahdollisille hyvin erilaisille käyttökohteille, yhteisiin periaatteisiin perustuva horisontaalinen ja yhdenmukainen oikeudellinen kehys vaikuttaa tarpeelliselta, jotta voidaan varmistaa oikeusvarmuus, asettaa yhtäläiset normit kaikkialla unionissa ja suojella tehokkaasti eurooppalaisia arvojamme ja kansalaisten oikeuksia;

3.  toteaa, että digitaaliset sisämarkkinat on yhdenmukaistettava täysin, koska digitaalialalle on tunnusomaista nopea rajatylittävä dynamiikka ja kansainväliset datavirrat; katsoo, että unioni voi saavuttaa tavoitteet digitaalisen suvereniteettinsa säilyttämisestä ja digitaalisen innovoinnin vauhdittamisesta Euroopassa ainoastaan johdonmukaisilla ja yhteisillä säännöillä innovointikulttuurin mukaisesti;

4.  toteaa, että tekoälyalan globaali kilpailu on jo alkanut ja että unionin olisi noustava siinä johtoasemaan hyödyntämällä tieteellistä ja teknologista potentiaaliaan; painottaa voimakkaasti, että teknologiaa kehitettäessä ei saa tinkiä käyttäjien suojelemisesta vahingoilta, joita tekoälyä käyttävät laitteet ja järjestelmät voivat aiheuttaa; kannustaa tuomaan kansainvälisesti esille siviilioikeudellista vastuuta koskevat unionin normit;

5.  on vakaasti sitä mieltä, että tekoälyjärjestelmiä koskevat uudet yhteiset säännöt olisi annettava ainoastaan asetuksen muodossa; katsoo, että tekoälyjärjestelmästä aiheutuviin haittoihin tai vahinkoihin liittyvä vastuukysymys on yksi keskeisistä näkökohdista, joita on käsiteltävä tässä kehyksessä;

Vastuu ja tekoäly

6.  katsoo, että hyvin toimivia vastuujärjestelmiä ei ole tarpeen muuttaa kokonaan, mutta tekoälyjärjestelmien monimutkaisuus, yhteenliitettävyys, läpinäkymättömyys, haavoittuvuus, kyky muuttua päivitysten avulla, kyky itseoppimiseen ja mahdollinen autonomia sekä mukana olevien toimijoiden suuri määrä ovat kuitenkin merkittävä haaste unionin ja kansallisten vastuukehysten säännösten tehokkuudelle; katsoo, että tarvitaan vastuujärjestelmien erityisiä ja koordinoituja mukautuksia, jotta vältetään tilanne, jossa haittaa kärsineet henkilöt tai henkilöt, joiden omaisuus on vahingoittunut, jäävät ilman korvausta;

7.  panee merkille, että kaikki tekoälyjärjestelmien ohjaamat fyysiset tai virtuaaliset toiminnot, laitteet tai prosessit voivat muodollisesti olla haitan tai vahingon suora tai välillinen syy, mutta ne ovat kuitenkin lähestulkoon aina tulosta siitä, että joku rakentaa järjestelmiä, ottaa niitä käyttöön tai puuttuu niihin; toteaa tältä osin, että tekoälyjärjestelmille ei ole tarpeen antaa oikeushenkilöllisyyttä; katsoo, että tekoälyjärjestelmien läpinäkymättömyys, yhteenliitettävyys ja autonomia voivat tehdä käytännössä erittäin vaikeaksi tai jopa mahdottomaksi jäljittää tiettyjä tekoälyjärjestelmien haitallisia toimia tiettyihin ihmisen panoksiin tai suunnittelussa tehtyihin päätöksiin; muistuttaa, että laajalti hyväksyttyjen vastuukäsitteiden mukaisesti on kuitenkin mahdollista kiertää tämä este siten, että tekoälyjärjestelmään liittyvän riskin luovat tai riskiä ylläpitävät tai valvovat eri henkilöt koko arvoketjussa ovat vastuuvelvollisia;

8.  katsoo, että tuotevastuudirektiivi on jo yli 30 vuoden ajan osoittautunut tehokkaaksi keinoksi saada korvausta turvallisuudeltaan puutteellisen tuotteen aiheuttamasta haitasta, mutta sitä olisi kuitenkin tarkistettava sen mukauttamiseksi digitaaliseen maailmaan ja uusien digitaaliteknologioiden asettamiin haasteisiin vastaamiseksi; katsoo, että näin voitaisiin taata tehokkaan kuluttajansuojan korkea taso sekä kuluttajien ja yritysten oikeusvarmuus ja välttää aiheuttamasta pk-yrityksille ja uusyrityksille korkeita kustannuksia ja riskejä; kehottaa komissiota arvioimaan, olisiko tuotevastuudirektiivi muutettava asetukseksi, selventämään siinä annettua ’tuotteen’ määritelmää määrittämällä, kattaako se digitaalisen sisällön ja digitaaliset palvelut, sekä harkitsemaan ’vahingon’, ’puutteellisen turvallisuuden’ ja ’valmistajan’ kaltaisten käsitteiden mukauttamista; katsoo, että oikeusvarmuuden takaamiseksi kaikkialla unionissa ’valmistajan’ käsitteen olisi tuotevastuudirektiivin tarkistamisen jälkeen katettava valmistajat, kehittäjät, ohjelmoijat, palveluntarjoajat sekä backend-operaattorit; kehottaa komissiota harkitsemaan käänteisen todistustaakan käyttöönottoa selkeästi määritellyissä tapauksissa ja asianmukaisen arvioinnin jälkeen, kun on kyse uusien digitaaliteknologioiden aiheuttamista haitoista; huomauttaa, että on tärkeää varmistaa, että ajan tasalle saatettu unionin säädös rajoittuu jatkossakin selkeästi yksilöityihin ongelmiin, joihin on jo olemassa toteuttamiskelpoisia ratkaisuja, ja jättää samalla tilaa teknologian tulevalle kehitykselle, mukaan lukien vapaisiin ja avoimen lähdekoodin ohjelmistoihin perustuva kehitys; toteaa, että tuotevastuudirektiiviä olisi käytettävä jatkossakin turvallisuudeltaan puutteellisen tekoälyjärjestelmän valmistajaa kohtaan esitettyjen siviilioikeudellisten vahingonkorvausvaatimusten yhteydessä, kun tekoälyjärjestelmää voidaan pitää kyseisessä direktiivinä tarkoitettuna tuotteena; korostaa, että tuotevastuukehyksen päivittämisen yhteydessä olisi päivitettävä myös yleisestä tuoteturvallisuudesta 3. joulukuuta 2001 annettua Euroopan parlamentin ja neuvoston direktiiviä 2001/95/EY(16), jotta voidaan varmistaa, että tekoälyjärjestelmissä otetaan huomioon sisäänrakennetun turvallisuuden periaatteet;

9.  katsoo, että jäsenvaltioiden voimassa oleva tuottamusperusteinen vahingonkorvausoikeus tarjoaa useimmissa tapauksissa riittävän suojan tason henkilöille, jotka kärsivät järjestelmään puuttuvan kolmannen osapuolen, esimerkiksi hakkerin, aiheuttamasta haitasta, tai henkilöille, joiden omaisuutta tällainen kolmas osapuoli vahingoittaa, sillä tällainen puuttuminen on yleensä tuottamuksellista toimintaa; toteaa, että olemassa olevan kansallisen vahingonkorvausoikeuden täydentäminen uusilla vastuuvelvollisuussäännöillä vaikuttaa tarpeelliselta ainoastaan tietyissä tapauksissa, kuten silloin kun kolmatta osapuolta ei saada jäljitettyä tai tämä on varaton;

10.  pitää siksi asianmukaisena, että tässä mietinnössä keskitytään tekoälyjärjestelmän operaattorille esitettyihin siviilioikeudellisiin vahingonkorvausvaatimuksiin; vahvistaa, että operaattorin vastuuvelvollisuus on perusteltua, sillä hän valvoo tekoälyjärjestelmään liittyvää riskiä auton omistajaan verrattavissa olevalla tavalla; katsoo, että tekoälyjärjestelmän monimutkaisuuden ja yhteenliitettävyyden vuoksi operaattori on monesti ensimmäinen näkyvä yhteyspiste vaikutusten kohteena olevalle henkilölle;

Operaattorin vastuu

11.  katsoo, että operaattoria koskevien vastuusääntöjen olisi katettava kaikki tekoälyjärjestelmien toiminnot riippumatta siitä, missä toiminto tapahtuu ja tapahtuuko se fyysisesti vai virtuaalisesti; huomauttaa, että julkisissa tiloissa tapahtuvat toiminnot, jotka altistavat monia henkilöitä riskille, ovat kuitenkin tapauksia, jotka edellyttävät lisätarkastelua; katsoo, että haitan tai vahingon mahdolliset uhrit eivät useinkaan ole tietoisia toiminnosta eikä heillä yleensä ole operaattoria kohtaan sopimukseen perustuvaa oikeutta saada vahingonkorvauksia; toteaa, että jos haitta tai vahinko toteutuu, näillä henkilöillä on tällöin vain tuottamukselliseen vastuuseen perustuva oikeus saada vahingonkorvauksia ja heidän voi olla vaikea todistaa tekoälyjärjestelmän operaattorin virhe ja sitä koskevat vahingonkorvausvaatimukset saattavat siten jäädä tuloksettomiksi;

12.  pitää asianmukaisena, että ’operaattorin’ katsotaan kattavan sekä frontend- ja backend-operaattori, jos jälkimmäiseen ei sovelleta tuotevastuudirektiiviä; katsoo, että frontend-operaattori olisi määriteltävä luonnolliseksi henkilöksi tai oikeushenkilöksi, joka harjoittaa tietynasteista valvontaa tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden ja hyötyy sen toiminnasta; toteaa, että backend-operaattori olisi määriteltävä luonnolliseksi henkilöksi tai oikeushenkilöksi, joka jatkuvasti määrittää teknologian ominaisuuksia sekä asettaa saataville dataa ja olennaisia backend-tukipalveluja ja joka näin ollen myös harjoittaa tietynasteista valvontaa tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden; katsoo, että valvonnan harjoittamisella tarkoitetaan kaikkia operaattorin toimia, jotka vaikuttavat tekoälyjärjestelmän toimintaan ja siten siihen, missä määrin kolmannet osapuolet altistuvat sen mahdollisille riskeille; katsoo, että nämä toimet voivat vaikuttaa tekoälyjärjestelmän toimintaan alusta alkaen sen päättymiseen saakka määrittämällä syötteet, tuotokset tai tulokset, tai muuttaa tekoälyjärjestelmän tiettyjä toimintoja tai prosesseja;

13.  panee merkille, että voi olla tilanteita, joissa operaattoreita on enemmän kuin yksi, esimerkiksi backend-operaattori ja frontend-operaattori; katsoo, että tässä tapauksessa kaikkien operaattoreiden olisi oltava yhteisvastuussa ja heillä olisi oltava oikeasuhteinen regressioikeus toisiaan kohtaan; katsoo, että kunkin suhteellinen vastuu olisi määritettävä sen mukaan, minkä asteista valvontaa operaattorit harjoittivat tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden; katsoo, että tuotteiden jäljitettävyyttä olisi parannettava, jotta eri vaiheisiin osallistuvat voidaan tunnistaa paremmin;

Erilaiset vastuusäännöt erilaisille riskeille

14.  toteaa, että ratkaiseva tekijä vastuun kannalta on se, minkä tyyppistä tekoälyjärjestelmää operaattori valvoo; toteaa, että tekoälyjärjestelmä, johon liittyy luontaisesti suuri riski ja joka toimii autonomisesti, saattaa aiheuttaa huomattavasti suuremman vaaran väestölle; katsoo, että tekoälyjärjestelmien nykyisille siviilioikeuden vastuun järjestelmille aiheuttamien oikeudellisten haasteiden perusteella vaikuttaa järkevältä ottaa kyseisiä suuririskisiä autonomisia tekoälyjärjestelmiä varten käyttöön yhteinen ankara vastuun järjestelmä; korostaa, että tällaisen riskiperusteisen lähestymistavan, joka voi kattaa useita riskitasoja, olisi perustuttava selkeisiin kriteereihin ja asianmukaiseen korkean riskitason määritelmään sekä tarjottava oikeusvarmuutta;

15.  katsoo, että tekoälyjärjestelmä aiheuttaa suuren riskin, jos sen autonomiseen toimintaan liittyy merkittävä potentiaali aiheuttaa haittaa yhdelle tai useammalle henkilölle tavalla, joka on sattumanvarainen ja joka ylittää sen, mitä voidaan kohtuudella odottaa; katsoo, että tekoälyjärjestelmän suuririskisyyttä määritettäessä on otettava huomioon myös ala, jolla voidaan odottaa esiintyvän merkittäviä riskejä, ja tehtyjen toimien luonne; katsoo, että potentiaalin merkittävyys riippuu mahdollisen haitan vakavuuden, sen todennäköisyyden, että riski aiheuttaa haittaa tai vahinkoa, ja tekoälyjärjestelmän käyttötavan vuorovaikutuksesta;

16.  suosittaa, että kaikki suuririskiset tekoälyjärjestelmät luetellaan tyhjentävästi ehdotetun asetuksen liitteessä; toteaa, että kun otetaan huomioon teknologian nopea kehitys ja tarvittava tekninen asiantuntemus, komission olisi tarkasteltava uudelleen kyseistä liitettä viipymättä ja vähintään kuuden kuukauden välein ja tarvittaessa muutettava sitä delegoidulla säädöksellä; katsoo, että komission olisi tehtävä tiivistä yhteistyötä perustettavan uuden pysyvän komitean kanssa, joka on samankaltainen kuin lähtöaineita käsittelevä pysyvä komitea tai moottoriajoneuvoja käsittelevä tekninen komitea, joissa on mukana jäsenvaltioiden kansallisia asiantuntijoita ja sidosryhmiä; katsoo, että tekoälyä käsittelevän korkean tason asiantuntijaryhmän tasapainoinen kokoonpano voisi toimia esimerkkinä sidosryhmien ryhmän muodostamiselle, niin että siihen lisätään eettisten kysymysten asiantuntijoita sekä antropologeja, sosiologeja ja mielenterveyteen erikoistuneita asiantuntijoita; katsoo myös, että Euroopan parlamentin tulisi nimittää neuvoa-antavia asiantuntijoita, joita tämä perustettava uusi pysyvä komitea voi kuulla;

17.  panee merkille, että tekoälyyn perustuvien teknologioiden kehitys on erittäin dynaamista ja kiihtyy jatkuvasti; painottaa, että käyttäjien asianmukaisen suojelun varmistamiseksi on noudatettava nopeutettua lähestymistapaa Euroopan markkinoille tuotavien tekoälyjärjestelmiä käyttävien uusien laitteiden ja järjestelmien analysointiin mahdollisten riskien varalta; suosittaa, että kaikkia tähän liittyviä menettelyjä olisi yksinkertaistettava mahdollisimman paljon; ehdottaa lisäksi, että komission arviointi siitä, aiheuttaako tekoälyjärjestelmä suuren riskin, olisi aloitettava samaan aikaan kuin tuoteturvallisuuden arviointi, jotta estetään tilanne, jossa suuririskinen tekoälyjärjestelmä on jo hyväksytty markkinoille mutta sitä ei ole vielä luokiteltu suuririskiseksi ja se toimii siten ilman pakollista vakuutusturvaa;

18.  toteaa, että komission olisi arvioitava, kuinka tiedot, jotka on kerätty ja tallennettu suuririskisiin tekoälyjärjestelmiin tai joita säilytetään niissä näytön keräämistä varten siltä varalta, että järjestelmästä aiheutuu haittaa tai vahinkoa, ovat saatavilla ja kuinka tutkintaviranomainen voi niitä käyttää sekä kuinka näiden tietojen jäljitettävyyttä ja tarkastettavuutta voitaisiin parantaa ja samalla ottaa huomioon perusoikeudet ja oikeus yksityisyyteen;

19.  toteaa, että ehdotetun asetuksen olisi jäsenvaltioiden ankaran vastuun järjestelmien tapaan katettava rikkomukset, jotka kohdistuvat tärkeisiin lailla suojattuihin oikeuksiin henkeen, terveyteen, fyysiseen koskemattomuuteen ja omaisuuteen, ja siinä olisi vahvistettava korvausten määrät ja laajuus sekä vanhentumisaika; katsoo, että ehdotettuun asetukseen olisi sisällytettävä myös merkittävä aineeton vahinko, jonka tuloksena syntyy todennettavissa olevaa taloudellista tappiota, joka ylittää unionin vastuuoikeudessa yhdenmukaistetun kynnysarvon, jossa vaikutusten kohteena olevien henkilöiden oikeussuojan saatavuus ja muiden asiaan kuuluvien henkilöiden edut ovat tasapainossa; kehottaa komissiota arvioimaan uudelleen ja mukauttamaan vahingonkorvausten kynnysarvoja unionin oikeudessa; katsoo, että komission olisi analysoitava perusteellisesti kaikkien jäsenvaltioiden oikeusperinteet ja olemassa olevia kansalliset lait, joissa myönnetään korvausta aineettomasta vahingosta, jotta voidaan arvioida, onko aineettoman vahingon sisällyttäminen tekoälyä koskeviin säädöksiin tarpeen ja onko se ristiriidassa unionin nykyisen oikeudellisen kehyksen kanssa tai heikentääkö se jäsenvaltioiden kansallista lainsäädäntöä;

20.  katsoo, että kaikki tekoälyjärjestelmillä ohjatut toiminnot, laitteet tai prosessit, jotka aiheuttavat haittaa tai vahinkoa mutta joita ei ole lueteltu ehdotetun asetuksen liitteessä, olisi säilytettävä tuottamusperusteisen vastuun piirissä; katsoo, että vaikutusten kohteena olevan henkilön olisi kuitenkin voitava hyötyä olettamasta, että vastuu on operaattorilla, jonka puolestaan olisi voitava todistaa syyttömyytensä osoittamalla noudattaneensa huolellisuusvelvollisuuttaan;

21.  katsoo, että sellaiseen tekoälyjärjestelmään, jota komissio ja perustettava pysyvä komitea eivät ole vielä arvioineet ja jota ei siten ole vielä luokiteltu suuririskiseksi ja sisällytetty ehdotetun asetuksen liitteessä olevaan luetteloon, olisi kuitenkin 20 kohdassa tarkoitetusta järjestelmästä poiketen sovellettava ankaraa vastuuta, jos se on aiheuttanut toistuvia vaaratilanteita, jotka ovat johtaneet vakavaan haittaan tai vahinkoon; panee merkille, että jos näin on, komission olisi myös viipymättä arvioitava tarvetta tarkistaa kyseistä liitettä ja lisätä kyseinen tekoälyjärjestelmä luetteloon; katsoo, että jos komissio päättää tämän arvioinnin perusteella sisällyttää kyseisen tekoälyjärjestelmän luetteloon, sillä olisi oltava taannehtiva vaikutus alkaen ensimmäisestä todistetusta kyseisen tekoälyjärjestelmän aiheuttamasta vaaratilanteesta, joka johti vakavaan haittaan tai vahinkoon;

22.  pyytää komissiota arvioimaan tarvetta sopimuksia koskeviin unionin tason säännöksiin, joilla estetään sopimusperusteiset vastuuvapauslausekkeet, mukaan lukien yritysten välisissä ja yritysten ja hallinnon välisissä suhteissa;

Vakuutukset ja tekoälyjärjestelmät

23.  katsoo, että vastuuvakuutukset ovat yksi keskeisistä tekijöistä, jotka määrittävät uusien teknologioiden, tuotteiden ja palvelujen menestyksen; toteaa, että asianmukaiset vastuuvakuutukset ovat myös olennaisen tärkeitä, jotta kansalaiset saadaan vakuuttuneiksi siitä, että he voivat luottaa uuteen teknologiaan huolimatta haittojen aiheutumisen riskistä tai vaikutusten kohteena olevien henkilöiden mahdollisista oikeusvaateista; huomauttaa samalla, että tämä sääntelyjärjestelmä keskittyy tarpeeseen käyttää ja kehittää tekoälyjärjestelmien hyötyjä samalla, kun otetaan käyttöön vahvoja suojatoimenpiteitä;

24.  katsoo, että ehdotetun asetuksen liitteessä lueteltujen suuririskisten tekoälyjärjestelmien kaikilla operaattoreilla olisi oltava vastuuvakuutus, koska haitan tai vahingon aiheutumisen mahdollisuus on huomattava ja jotta otettaisiin huomioon 16. syyskuuta 2009 annettu Euroopan parlamentin ja neuvoston direktiivi 2009/103/EY moottoriajoneuvojen käyttöön liittyvän vastuun varalta otettavasta vakuutuksesta ja vakuuttamisvelvollisuuden voimaansaattamisesta(17); katsoo, että tällaisten suuririskisten tekoälyjärjestelmien pakollisen vakuutuksen olisi katettava ehdotetussa asetuksessa säädetyt määrät ja korvausten laajuus; ottaa huomioon, että tällainen teknologia on edelleen hyvin harvinaista, koska siinä edellytetään korkeaa autonomisen päätöksenteon tasoa, minkä vuoksi asiasta tällä hetkellä käytävä keskustelu on enimmäkseen tulevaisuuteen suuntautunutta; katsoo kuitenkin, että riskeihin liittyvien epävarmuustekijöiden ei pitäisi johtaa kohtuuttoman korkeisiin vakuutusmaksuihin ja siten olla esteenä tutkimukselle ja innovoinnille;

25.  katsoo, että julkisin varoin rahoitettava unionin tason korvausmekanismi ei ole oikea tapa korjata mahdollisia puutteita vakuutusturvassa; katsoo, että tekoälyjärjestelmien riskejä koskevan tiedon puutteen ja tulevaa kehitystä koskevan epävarmuuden vuoksi vakuutusalalla on vaikeaa kehittää mukautettuja tai uusia vakuutustuotteita; katsoo, että jos pakollisen vakuutuksen kehittäminen jätetään täysin markkinoiden tehtäväksi, seurauksena on todennäköisesti ”kaikille sopiva” toimintamalli, jossa vakuutusmaksut ovat kohtuuttoman korkeita ja kannustimet vääränlaisia, jolloin operaattorit valitsevat edullisimman vakuutuksen parhaan kattavuuden sijaan, ja josta saattaa tulla este tutkimukselle ja innovoinnille; katsoo, että komission olisi tehtävä tiivistä yhteistyötä vakuutusalan kanssa sen selvittämiseksi, miten dataa ja innovatiivisia malleja voidaan hyödyntää sellaisten vakuutusten kehittämiseksi, joissa tarjotaan riittävää kattavuutta kohtuulliseen hintaan;

Loppupäätelmät

26.  pyytää komissiota tekemään parlamentille Euroopan unionin toiminnasta tehdyn sopimuksen 225 artiklan nojalla ehdotuksen asetukseksi tekoälyjärjestelmien toimintaa koskevasta vastuusta liitteenä olevien suositusten mukaisesti;

27.  katsoo, että pyydetyllä ehdotuksella ei ole rahoitusvaikutuksia;

o
o   o

28.  kehottaa puhemiestä välittämään tämän päätöslauselman sekä liitteenä olevat suositukset komissiolle ja neuvostolle.

(1) EUVL L 210, 7.8.1985, s. 29.
(2) EUVL L 149, 11.6.2005, s. 22.
(3) EUVL L 304, 22.11.2011, s. 64.
(4) EUVL L 117, 5.5.2017, s. 1.
(5) EUVL L 252, 8.10.2018, s. 1.
(6) EUVL L 136, 22.5.2019, s. 1.
(7) EUVL L 123, 12.5.2016, s. 1.
(8) EUVL C 252, 18.7.2018, s. 239.
(9) EUVL C 307, 30.8.2018, s. 163.
(10) EUVL C 433, 23.12.2019, s. 86.
(11) Hyväksytyt tekstit, P8_TA(2019)0081.
(12) Hyväksytyt tekstit, P9_TA(2020)0032.
(13) https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_STU(2020)654178'
(14) https://www.europarl.europa.eu/RegData/etudes/STUD/2016/563501/EPRS_STU(2016)563501(ANN)_EN.pdf
(15) https://www.europarl.europa.eu/RegData/etudes/STUD/2016/571379/IPOL_STU(2016)571379_EN.pdf
(16) EUVL L 11, 15.1.2002, s. 4.
(17) EUVL L 263, 7.10.2009, s. 11.


PÄÄTÖSLAUSELMAN LIITE:

YKSITYISKOHTAISET SUOSITUKSET EUROOPAN PARLAMENTIN JA NEUVOSTON ASETUKSEN LAATIMISEKSI TEKOÄLYJÄRJESTELMIEN TOIMINTAA KOSKEVASTA VASTUUSTA

A.  EHDOTUKSEN PERIAATTEET JA TAVOITTEET

Tässä mietinnössä käsitellään digitalisoinnin yhtä tärkeää näkökohtaa, jota puolestaan muovaavat rajatylittävä toiminta, maailmanlaajuinen kilpailu ja keskeiset yhteiskunnalliset näkökohdat. Ohjenuorana olisi käytettävä seuraavia periaatteita:

1.  Todelliset digitaaliset sisämarkkinat edellyttävät täydellistä yhdenmukaistamista, joka tapahtuu asetuksella.

2.  Tekoälyjärjestelmien kehittämisen mukanaan tuomiin uusiin oikeudellisiin haasteisiin on vastattava varmistamalla mahdollisimman suuri oikeusvarmuus koko vastuuketjussa, mukaan lukien valmistajat, operaattorit, vaikutusten kohteena olevat henkilöt ja muut kolmannet osapuolet.

3.  Ylisääntelyä olisi vältettävä ja byrokratiaa ehkäistävä, sillä niistä aiheutuisi haittaa eurooppalaiselle innovoinnille tekoälyn alalla, erityisesti jos teknologian, tuotteen tai palvelun kehittäjä on pk-yritys tai uusyritys.

4.  Tekoälyyn liittyvää siviilioikeudellista vastuuta koskevissa säännöissä olisi saavutettava tasapaino yhtäältä kansalaisten suojelun ja toisaalta sen välillä, että kannustetaan yrityksiä sijoittamaan innovointiin, erityisesti tekoälyjärjestelmiin.

5.  Sen sijaan, että korvattaisiin hyvin toimivat nykyiset vastuujärjestelmät, olisi tehtävä muutamia tarpeellisia mukautuksia esittämällä uusia ja tulevaisuuteen suuntautuvia ideoita.

6.  Tuleva ehdotus asetukseksi ja tuotevastuudirektiivi ovat tekoälyjärjestelmien yhteisen vastuukehyksen kaksi pilaria, ja ne edellyttävät tiivistä koordinointia ja yhdenmukaistamista kaikkien poliittisten toimijoiden välillä unionin tasolla ja jäsenvaltioiden tasolla.

7.  Kansalaisilla olisi oltava oikeus samantasoiseen suojeluun ja samantasoisiin oikeuksiin riippumatta siitä, onko haitta aiheutunut tekoälyjärjestelmästä vai ei tai onko se tapahtunut fyysisesti tai virtuaalisesti. Näin voidaan vahvistaa heidän luottamustaan uuteen teknologiaan.

8.  Tulevassa ehdotuksessa asetukseksi olisi otettava huomioon sekä aineelliset että aineettomat vahingot. Komissiota pyydetään muun muassa 19. helmikuuta 2020 antamansa tekoälyn ja robotiikan vaikutuksia turvallisuuteen ja vastuuvelvollisuuteen käsittelevän tiedonannon perusteella analysoimaan perusteellisesti kaikkien jäsenvaltioiden oikeusperinteet sekä olemassa olevat säännökset, joissa myönnetään korvausta aineettomasta vahingosta, jotta voidaan arvioida, onko aineettoman vahingon sisällyttäminen tulevaan ehdotukseen asetukseksi oikeudellisesti pitävää ja tarpeellista vaikutusten kohteena olevan henkilön näkökulmasta. Tällä hetkellä saatavilla olevien tietojen perusteella parlamentti katsoo, että merkittävä aineeton vahinko olisi sisällytettävä siihen, jos vaikutusten kohteena olevalle henkilölle koituu huomattavaa, mikä tarkoittaa todennettavissa olevaa, taloudellista vahinkoa.

B.  PYYDETYN EHDOTUKSEN TEKSTI

Ehdotus

EUROOPAN PARLAMENTIN JA NEUVOSTON ASETUS

tekoälyjärjestelmien toimintaa koskevasta vastuusta

EUROOPAN PARLAMENTTI JA EUROOPAN UNIONIN NEUVOSTO, jotka

ottavat huomioon Euroopan unionin toiminnasta tehdyn sopimuksen ja erityisesti sen 114 artiklan,

ottavat huomioon Euroopan komission ehdotuksen,

sen jälkeen kun esitys lainsäätämisjärjestyksessä hyväksyttäväksi säädökseksi on toimitettu kansallisille parlamenteille,

ottavat huomioon Euroopan talous- ja sosiaalikomitean lausunnon(1),

noudattavat tavallista lainsäätämisjärjestystä(2),

sekä katsovat seuraavaa:

(1)  ”Vastuun” käsitteellä on tärkeä kaksitahoinen rooli arjessamme: toisaalta sillä varmistetaan, että haittaa tai vahinkoa kärsineellä henkilöllä on oikeus vaatia korvausta osapuolelta, jonka katsotaan olevan vastuussa kyseisestä haitasta tai vahingosta, ja toisaalta se tarjoaa henkilöille taloudellisia kannustimia olla alun perinkään aiheuttamatta haittaa tai vahinkoa. Kaikissa vastuukehyksissä olisi pyrittävä lisäämään luottamusta tuotteiden ja palvelujen, mukaan lukien uusien digitaaliteknologioiden, kuten tekoälyn, esineiden internetin tai robotiikan, turvallisuuteen, luotettavuuteen ja johdonmukaisuuteen, jotta voidaan saattaa tasapainoon haitan tai vahingon mahdollisten uhrien tehokas suojelu ja riittävän liikkumavaran tarjoaminen, jotta uusien teknologioiden, tuotteiden tai palvelujen kehittäminen on mahdollista.

(2)  Erityisesti uusien tuotteiden ja palvelujen elinkaaren alussa ja niiden esitestauksen jälkeen käyttäjällä ja kolmansilla henkilöillä on tietty riski siitä, että jokin ei toimi asianmukaisesti. Tämä yrityksen ja erehdyksen prosessi on samalla keskeinen teknisen edistyksen mahdollistaja, jota ilman useimpia teknologioitamme ei olisi olemassa. Tähän asti uusiin tuotteisiin ja palveluihin liittyviä riskejä on lievennetty asianmukaisesti vahvalla tuoteturvallisuuslainsäädännöllä ja vastuusäännöillä.

(3)  Tekoälyn yleistyminen on kuitenkin merkittävä haaste nykyisille vastuukehyksille. Tekoälyjärjestelmien käyttö arjessamme voi johtaa tilanteisiin, joissa järjestelmien läpinäkymättömyyden (”mustan laatikon” ongelma) ja niitä niiden elinkaaren aikana käsittelevien toimijoiden runsaslukuisuuden takia voi olla erittäin kallista tai jopa mahdotonta tunnistaa, kuka kyseisen tekoälyjärjestelmän käyttöön liittyvää riskiä valvoi tai mikä koodi tai syöte aiheutti haitallisen operaation. Tilannetta vaikeuttavat entisestään tekoälyjärjestelmän ja muiden tekoälyjärjestelmien sekä muiden kuin tekoälyjärjestelmien yhteenliitettävyys, sen riippuvuus ulkoisista tiedoista, sen haavoittuvuus kyberturvallisuusrikkomuksille sekä koneoppimisen ja syväoppimisen mukanaan tuoma tekoälyjärjestelmien lisääntyvä autonomia. Näiden monimutkaisten ominaisuuksien ja mahdollisten haavoittuvuuksien lisäksi tekoälyjärjestelmiä voitaisiin käyttää myös vakavan haitan aiheuttamiseen, kuten ihmisarvon ja eurooppalaisten arvojen ja vapauksien vaarantamiseen seuraamalla ihmisiä vastoin näiden tahtoa, ottamalla käyttöön sosiaalisen pisteytyksen ohjelmia, tekemällä vääristyneitä ratkaisuja sairausvakuutusten, luoton myöntämisen, oikeuden päätösten tai rekrytointi- tai työllistämispäätösten yhteydessä tai rakentamalla tappavia autonomisia asejärjestelmiä.

(4)  On tärkeää korostaa, että tekoälyjärjestelmien käyttöönoton edut ylittävät selvästi haitat. Tekoälyjärjestelmät auttavat torjumaan ilmastonmuutosta tehokkaammin, parantamaan lääkärintarkastuksia sekä työoloja, ottamaan vammaiset ja ikääntyvät henkilöt paremmin osaksi yhteiskuntaa ja tarjoamaan räätälöityjä koulutuskursseja kaikentyyppisille opiskelijoille. Paras etenemistapa on hyödyntää erilaisia teknologisia mahdollisuuksia ja lisätä ihmisten luottamusta tekoälyjärjestelmien käyttöön, samalla kun estetään haitalliset skenaariot, ja yhdistää vahvat eettiset normit vakaaseen ja oikeudenmukaiseen korvausmenettelyihin.

(5)  Asianmukaista vastuujärjestelmää tarvitaan myös vastapainona turvallisuussääntöjen rikkomiselle. Tässä asetuksessa säädetyssä vastuujärjestelmässä täytyy kuitenkin ottaa huomioon kaikki asiaan liittyvät eri etunäkökohdat. Ennen uusia sääntelytoimia olisi tutkittava huolellisesti, mitä seurauksia mahdollisilla uusilla sääntelykehyksillä on pieniin ja keskisuuriin yrityksiin, jäljempänä ’pk-yritykset’, ja uusyrityksiin. Kun otetaan huomioon tällaisten yritysten ratkaiseva merkitys unionin talouden kannalta, on perusteltua noudattaa ehdottoman oikeasuhteista lähestymistapaa, jotta niille annetaan mahdollisuus kehittyä ja innovoida. Toisaalta tekoälyjärjestelmien aiheuttamien haittojen ja vahinkojen uhreilla olisi oltava oikeus hyvitykseen ja saada täysi korvaus kärsimistään haitoista ja vahingoista.

(6)  Valmisteltaessa nykyiseen oikeudelliseen kehykseen mahdollisesti tarvittavia muutoksia olisi ensin tehtävä selväksi, että tekoälyjärjestelmillä ei ole sen enempää oikeushenkilöllisyyttä kuin omaatuntoakaan ja että niiden ainoana tehtävänä on palvella ihmiskuntaa. Monet tekoälyjärjestelmät eivät ole kovin erilaisia verrattuna muihin teknologioihin, jotka joskus perustuvat jopa monimutkaisempiin ohjelmistoihin. Viime kädessä valtaosaa tekoälyjärjestelmistä käytetään vähäpätöisten tehtävien hoitamiseen, jolloin ne eivät aiheuta lainkaan tai aiheuttavat hyvin vähän riskejä yhteiskunnalle. Käyttämällä ilmaisua ”automatisoitu päätöksenteko” voitaisiin välttää termin ”tekoäly” mahdollinen monitulkintaisuus. Tämä ilmaisu kuvaa tilannetta, joka alkaa siitä, että käyttäjä siirtää päätöksen tekemisen osittain tai kokonaan jollekin entiteetille ohjelmistoa tai palvelua käyttäen. Kyseinen entiteetti puolestaan käyttää automaattisesti toimeenpantavia päätöksentekomalleja toimen suorittamiseen käyttäjän puolesta tai antamaan käyttäjälle tietoa tämän toimea suorittaessaan tekemien päätösten pohjaksi.

(7)  On kuitenkin olemassa myös tekoälyjärjestelmiä, joita kehitetään ja jotka otetaan käyttöön kriittisesti ja jotka perustuvat neuroniverkostojen ja syväoppimisprosessien kaltaisiin teknologioihin. Niiden läpinäkymättömyys ja autonomia voivat vaikeuttaa suuresti tiettyjen toimien jäljittämistä tiettyihin niiden suunnittelussa tai toiminnassa tehtyihin ihmisen päätöksiin. Tällaisen tekoälyjärjestelmän operaattori voisi esimerkiksi väittää, että haitan tai vahingon aiheuttanut fyysinen tai virtuaalinen toiminto, laite tai prosessi ei ollut hänen valvonnassaan, koska se johtui hänen tekoälyjärjestelmänsä autonomisesta toiminnasta. Pelkän autonomisen tekoälyjärjestelmän toiminnan ei myöskään pitäisi olla riittävä peruste vahingonkorvausvaatimuksen hyväksymiselle. Näin ollen saattaa olla olemassa korvausvastuutapauksia, joissa vastuu saattaa jakautua epäoikeudenmukaisesti tai toimimattomasti tai joissa tekoälyjärjestelmän aiheuttamaa haittaa tai vahinkoa kärsinyt henkilö ei pysty näyttämään toteen valmistajan, järjestelmään puuttuneen kolmannen osapuolen tai operaattorin tuottamusta ja jää ilman korvausta.

(8)  Olisi kuitenkin aina oltava selvää, että kuka tahansa tekoälyjärjestelmän luokin tai ylläpitää tai valvoo sitä taikka puuttuu siihen, hänen olisi oltava vastuussa toiminnon, laitteen tai prosessin aiheuttamasta haitasta tai vahingosta. Tämä on seurausta yleisistä ja laajalti hyväksytyistä vastuuta koskevista oikeuden periaatteista, joiden mukaan henkilö, joka saa aikaan ihmiselle koituvan riskin tai pitää sitä yllä, on vastuussa, jos riskistä aiheutuu haittaa tai vahinkoa, jolloin henkilön olisi joko ennakolta minimoitava riski tai korvattava se jälkikäteen. Näin ollen tekoälyjärjestelmien yleistyminen ei merkitse sitä, että vastuuvelvollisuutta koskeville säännöille olisi tehtävä täydellinen tarkistus kaikkialla unionissa. Tietyt nykyiseen lainsäädäntöön tehtävät mukautukset ja hyvin arvioidut ja kohdennetut uudet säännökset riittäisivät ottamaan huomioon tekoälyyn liittyvät haasteet, niin että estettäisiin sääntelyn hajanaisuus ja taattaisiin tekoälyyn liittyvää siviilioikeudellista vastuuta koskevan lainsäädännön yhdenmukaistaminen kaikkialla unionissa.

(9)  Neuvoston direktiivi 85/374/ETY(3) (tuotevastuudirektiivi) on jo yli 30 vuoden ajan osoittautunut tehokkaaksi keinoksi saada korvausta turvallisuudeltaan puutteellisen tuotteen aiheuttamasta vahingosta. Näin ollen direktiiviä olisi sovellettava myös haittaa tai vahinkoa kärsineen osapuolen turvallisuudeltaan puutteellisen tekoälyjärjestelmän valmistajaa kohtaan esittämiin siviilioikeudellisiin vahingonkorvausvaatimuksiin. Parempaa sääntelyä koskevien unionin periaatteiden mukaisesti kaikista tarvittavista lainsäädännöllisistä muutoksista olisi keskusteltava kyseisen direktiivin tarvittavan uudelleentarkastelun aikana. Jäsenvaltioiden voimassa oleva lainsäädäntö tuottamusperusteisesta vastuusta tarjoaa useimmissa tapauksissa riittävän suojan tason henkilöille, jotka kärsivät järjestelmään puuttuneen kolmannen henkilön aiheuttamasta haitasta tai vahingosta, sillä tämä puuttuminen on yleensä tuottamukseen perustuvaa toimintaa, jossa kolmas osapuoli käyttää tekoälyjärjestelmää haitan aiheuttamiseen. Tämän vuoksi tässä asetuksessa olisi keskityttävä tekoälyjärjestelmän operaattorille esitettyihin vahingonkorvausvaatimuksiin.

(10)  Tämän asetuksen mukainen operaattorin vastuu perustuu siihen, että hän harjoittaa tietynasteista valvontaa tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden auton omistajaan verrattavissa olevalla tavalla. Mitä kehittyneempi ja autonomisempi järjestelmä on, sitä suurempi merkitys algoritmien määrittelyllä ja niihin vaikuttamisella, esimerkiksi jatkuvilla päivityksillä, on. Koska usein useamman kuin yhden henkilön voidaan merkityksellisesti katsoa toimivan tekoälyjärjestelmän operaattorina, tässä asetuksessa operaattorin olisi katsottava kattavan sekä backend-operaattorin että frontend-operaattorin. Vaikka frontend-operaattori katsotaan yleensä henkilöksi, joka päättää ensisijaisesti tekoälyjärjestelmän käytöstä, backend-operaattori saattaa itse asiassa pystyä enemmän valvomaan toimintaan liittyviä riskejä. Jos backend-operaattoria pidetään myös tuotevastuudirektiivin 3 artiklassa määriteltynä valmistajana, häneen olisi sovellettava kyseistä direktiiviä. Jos operaattoreita on vain yksi ja tämä on myös tekoälyjärjestelmän valmistaja, tämän asetuksen olisi oltava etusijalla tuotevastuudirektiiviin nähden.

(11)  Jos käyttäjä eli henkilö, joka käyttää tekoälyjärjestelmää, on osallisena vahinkotapahtumassa, hänen olisi oltava vastuuvelvollinen tämän asetuksen mukaisesti vain, jos käyttäjää voidaan pitää myös operaattorina. Jos näin ei ole, se, missä laajuudessa käyttäjä myötävaikuttaa riskiin törkeällä huolimattomuudella tai tahallisuudella, saattaa johtaa siihen, että käyttäjä on tuottamusperusteisessa vastuussa kantajalle. Tämän ei pitäisi vaikuttaa asiassa sovellettaviin käyttäjän oikeuksiin kuluttajana.

(12)  Asetuksen olisi mahdollistettava se, että vaikutusten kohteena olevat henkilöt voivat esittää vahingonkorvausvaatimuksia koko vastuuketjussa ja tekoälyjärjestelmän koko elinkaaren ajan. Sen olisi myös periaatteessa katettava kaikki tekoälyjärjestelmät riippumatta siitä, missä ne toimivat ja tapahtuvatko toiminnot fyysisesti vai virtuaalisesti. Suurimmassa osassa tämän asetuksen mukaisista vahingonkorvausvaatimuksista olisi kuitenkin käsiteltävä siviilioikeudellista vastuuta tapauksissa, joissa tekoälyjärjestelmä toimii julkisessa tilassa ja altistaa lukuisia henkilöitä riskille. Tällaisessa tilanteessa vaikutusten kohteena olevat henkilöt eivät useinkaan ole tietoisia käytössä olevasta tekoälyjärjestelmästä eikä heillä ole sopimussuhdetta tai oikeudellista suhdetta operaattoriin. Näin ollen tekoälyjärjestelmän toiminta asettaa heidät tilanteeseen, jossa he voisivat esittää tekoälyjärjestelmän operaattorille haitan tai vahingon tapahtuessa vain tuottamusperusteiseen vastuuseen perustuvan vahingonkorvausvaatimuksen ja heidän olisi erittäin vaikea todistaa tekoälyjärjestelmän operaattorin virhe.

(13)  Ratkaiseva tekijä on se, minkä tyyppistä tekoälyjärjestelmää operaattori valvoo. Tekoälyjärjestelmä, johon liittyy suuri riski, saattaa aiheuttaa käyttäjälle tai väestölle huomattavasti suuremman vaaran tavalla, joka on sattumanvarainen ja ylittää sen, mitä voidaan kohtuudella odottaa. Tämä tarkoittaa sitä, että tekoälyjärjestelmän autonomisen toiminnan alkaessa suurin osa vaikutusten kohteena olevista henkilöistä ei ole tiedossa eikä tunnistettavissa (esimerkiksi julkisella aukiolla tai naapuritalossa olevat henkilöt) toisin kuin silloin, kun on kyseessä tekoälyjärjestelmän toiminta, jossa on mukana tiettyjä henkilöitä, jotka ovat säännönmukaisesti antaneet suostumuksensa sen käyttöön ennen sitä (esimerkiksi leikkaus sairaalassa tai myyntiesittely pienessä liikkeessä). Sen määrittelyn, kuinka merkittävä suuririskisen tekoälyjärjestelmän haitta- tai vahinkopotentiaali on, olisi perustuttava käyttötarkoituksen, jota varten tekoälyjärjestelmä saatetaan markkinoille, tekoälyjärjestelmän käyttötavan, potentiaalisen haitan tai vahingon vakavuuden, mahdollisen haitan aiheuttavan päätöksenteon autonomian asteen ja riskin aineellistumisen todennäköisyyden vuorovaikutukseen. Vakavuusaste olisi määritettävä asiaan liittyvien tekijöiden – kuten haitasta tai vahingosta kärsiville henkilöille toiminnosta aiheutuvan mahdollisen haitan laajuuden, mukaan lukien erityiset vaikutukset perusoikeuksiin, vaikutusten kohteena olevien henkilöiden lukumäärän, mahdollisen vahingon kokonaisarvon ja koko yhteiskunnalle aiheutuvan haitan – perusteella. Haitan tai vahingon todennäköisyys olisi määritettävä asiaan liittyvien tekijöiden – kuten sen, mikä on algoritmisten laskelmien merkitys päätöksentekoprosessissa, päätöksen monimutkaisuuden ja vaikutusten kumoutuvuuden – perusteella. Viime kädessä käyttötavan olisi oltava riippuvainen asiaan liittyvistä tekijöistä, muun muassa siitä, missä ympäristössä ja millä alalla tekoälyjärjestelmä toimii, voiko sillä olla oikeudellisia tai tosiasiallisia vaikutuksia vaikutusten kohteena olevan henkilön tärkeisiin lailla suojattuihin oikeuksiin ja ovatko vaikutukset kohtuudella vältettävissä.

(14)  Kaikki suuririskiset tekoälyjärjestelmät olisi lueteltava tyhjentävästi tämän asetuksen liitteessä. Kun otetaan huomioon tekniikan ja markkinoiden nopea kehitys maailmanlaajuisesti sekä tekoälyjärjestelmien asianmukaiseen tarkasteluun tarvittava tekninen asiantuntemus, komissiolle olisi siirrettävä valta hyväksyä Euroopan unionin toiminnasta tehdyn sopimuksen 290 artiklan mukaisesti säädösvallan siirron nojalla annettavia delegoituja säädöksiä, joilla muutetaan tätä asetusta suuririskisten tekoälyjärjestelmien tyyppien ja niiden kriittisten alojen osalta, joilla niitä käytetään. Tässä asetuksessa säädettyjen määritelmien ja säännösten perusteella komission olisi tarkasteltava liitettä uudelleen viipymättä ja vähintään kuuden kuukauden välein ja tarvittaessa muutettava sitä delegoiduilla säädöksillä. Komission arviointi siitä, onko tekoälyjärjestelmä suuririskinen, olisi aloitettava samaan aikaan kuin tuoteturvallisuuden arviointi, jotta estetään tilanne, jossa suuririskinen tekoälyjärjestelmä on jo hyväksytty markkinoille mutta sitä ei ole vielä luokiteltu suuririskiseksi ja se toimii siten ilman pakollista vakuutusturvaa. Jotta yrityksillä ja tutkimusorganisaatioilla olisi riittävästi suunnittelu- ja investointivarmuutta, kriittisiin aloihin olisi tehtävä muutoksia vain kahdentoista kuukauden välein. Operaattoreiden olisi ilmoitettava komissiolle, jos ne kehittävät uutta teknologiaa, tuotetta tai palvelua, joka kuuluu johonkin liitteessä mainituista kriittisistä aloista ja joka voitaisiin myöhemmin luokitella suuririskiseksi tekoälyjärjestelmäksi.

(15)  On erityisen tärkeää, että komissio asiaa valmistellessaan toteuttaa asianomaisten sidosryhmien asianmukaiset kuulemiset, myös asiantuntijatasolla, ja että nämä kuulemiset toteutetaan paremmasta lainsäädännöstä 13 päivänä huhtikuuta 2016 tehdyssä toimielinten välisessä sopimuksessa(4) vahvistettujen periaatteiden mukaisesti. Pysyvän komitean nimeltä ”Tekninen komitea – suuririskiset tekoälyjärjestelmät” (suuririskisiä tekoälyjärjestelmiä käsittelevä pysyvä komitea) olisi tuettava komissiota tämän asetuksen mukaisessa säännöllisessä uudelleentarkastelussa. Tämän pysyvän komitean olisi koostuttava jäsenvaltioiden edustajista sekä tasapainoisesta joukosta sidosryhmiä, mukaan lukien kuluttajajärjestöt, vaikutusten kohteena olevia henkilöitä edustavat järjestöt, eri alojen ja erikokoisten yritysten edustajat sekä tutkijat ja tiedeyhteisön edustajat. Jotta voitaisiin erityisesti varmistaa tasavertainen osallistuminen delegoitujen säädösten valmisteluun, Euroopan parlamentille ja neuvostolle toimitetaan kaikki asiakirjat samaan aikaan kuin jäsenvaltioiden asiantuntijoille, ja Euroopan parlamentin ja neuvoston asiantuntijoilla on järjestelmällisesti oikeus osallistua komission asiantuntijaryhmien sekä suuririskisiä tekoälyjärjestelmiä käsittelevän pysyvän komitean kokouksiin, joissa valmistellaan delegoituja säädöksiä.

(16)  Tämän asetuksen olisi katettava henkeen, terveyteen, fyysiseen koskemattomuuteen ja omaisuuteen kohdistuvat haitat tai vahingot ja merkittävät aineettomat vahingot, joiden tuloksena syntyy todennettavissa olevaa taloudellista tappiota, joka ylittää unionin vastuuoikeudessa yhdenmukaistetun kynnysarvon, jossa vaikutusten kohteena olevien henkilöiden oikeussuojan saatavuus ja muiden asiaan kuuluvien henkilöiden edut ovat tasapainossa Komission olisi arvioitava uudelleen ja mukautettava vahingonkorvausten kynnysarvoja unionin oikeudessa. Merkittävän aineettoman vahingon olisi katsottava tarkoittavan vahinkoa, jonka seurauksena vaikutusten kohteena oleva henkilö kärsii huomattavasta haitasta, hänen henkilökohtaiset etunsa ovat objektiivisesti ja todistettavasti kärsineet ja hänelle on aiheutunut taloudellista tappiota, joka lasketaan ottaen huomioon esimerkiksi aikaisempien tulojen vuotuiset keskiarvot ja muut asiaan liittyvät olosuhteet. Tässä asetuksessa olisi myös määritettävä korvauksen määrä ja laajuus sekä korvausvaatimusten esittämisen vanhentumisajat. Tässä asetuksessa olisi asetettava korvauksille huomattavasti alemmat ylärajat kuin tuotevastuudirektiivissä, koska tämä asetus koskee ainoastaan tekoälyjärjestelmän yksittäisestä toiminnosta yksittäiselle henkilölle aiheutunutta taittaa tai vahinkoa, kun taas ensin mainittu koskee tiettyä määrää tuotteita tai jopa kokonaisia tuoteryhmiä, joissa on sama vika.

(17)  Kaikki tekoälyjärjestelmillä ohjatut fyysiset tai virtuaaliset toiminnot, laitteet tai prosessit, joita ei ole lueteltu suuririskisinä tekoälyjärjestelminä tämän asetuksen liitteessä, olisi säilytettävä tuottamusperusteisen vastuun piirissä, ellei voimassa ole tiukempaa kansallista lainsäädäntöä ja kuluttajansuojalainsäädäntöä. Jäsenvaltioiden kansallista lainsäädäntöä, myös asiaa koskevaa oikeuskäytäntöä, joka liittyy korvauksen määrään ja laajuuteen sekä vanhentumisaikaan, olisi edelleen sovellettava. Sellaisen tekoälyjärjestelmän, jota ei ole lueteltu suuririskisenä tekoälyjärjestelmänä, aiheuttamasta haitasta tai vahingosta kärsineen henkilön olisi voitava hyötyä olettamasta, että vastuu on operaattorilla.

(18)  Operaattorilta odotettavan huolellisuuden olisi vastattava i) tekoälyjärjestelmän luonnetta, ii) mahdollisen vaikutuksen kohteena olevaa lailla suojattua oikeutta, iii) tekoälyjärjestelmän mahdollisesti aiheuttamaa haittaa tai vahinkoa ja iv) tällaisen vahingon todennäköisyyttä. Tässä yhteydessä olisi otettava huomioon, että operaattorilla saattaa olla rajalliset tiedot tekoälyjärjestelmässä käytetyistä algoritmeista ja datasta. Olisi oletettava, että operaattori on noudattanut häneltä kohtuudella odotettavaa asianmukaista huolellisuutta valitessaan sopivan tekoälyjärjestelmän, jos operaattori on valinnut tekoälyjärjestelmän, joka on sertifioitu komission suunnitteleman vapaaehtoisen sertifiointijärjestelmän(5) kaltaisen järjestelmän mukaisesti. Olisi oletettava, että operaattori on noudattanut häneltä kohtuudella odotettavaa asianmukaista huolellisuutta tekoälyjärjestelmän toiminnan aikana, jos operaattori voi todistaa, että hän on tosiasiallisesti ja säännöllisesti seurannut tekoälyjärjestelmää sen toiminnan aikana sekä ilmoittanut valmistajalle mahdollisista epäsäännöllisyyksistä toiminnan aikana. Olisi oletettava, että operaattori on noudattanut häneltä kohtuudella odotettavaa asianmukaista huolellisuutta toiminnan luotettavuuden ylläpidossa, jos operaattori on asentanut kaikki tekoälyjärjestelmän valmistajan tarjoamat saatavilla olevat päivitykset. Koska operaattoreiden tiedon taso voi vaihdella sen mukaan, ovatko nämä pelkkiä kuluttajia vai ammattilaisia, huolellisuusvelvoitteita olisi mukautettava vastaavasti.

(19)  Jotta operaattori voi todistaa, että virhe ei ollut hänen, tai vaikutusten kohteena oleva henkilö voi todistaa virheen olemassaolon, valmistajilla olisi oltava velvollisuus tehdä yhteistyötä molempien asianomaisten osapuolten kanssa muun muassa antamalla hyvin dokumentoitua tietoa. Sekä unioniin että sen ulkopuolelle sijoittautuneiden valmistajien olisi lisäksi oltava velvollisia nimeämään tekoälyyn liittyviä vastuuasioita käsittelevä edustaja unionissa yhteyspisteeksi, joka vastaa kaikkiin operaattoreiden tiedusteluihin, samaan tapaan kuin Euroopan parlamentin ja neuvoston asetuksen (EU) 2016/679(6) 37 artiklassa tarkoitetut tietosuojavastaavat, Euroopan parlamentin ja neuvoston asetuksen 2018/858(7) 3 artiklan 41 kohdassa ja 13 artiklan 4 kohdassa tarkoitetut valmistajan edustajat tai Euroopan parlamentin ja neuvoston asetuksen (EU) 2019/1020(8) 4 artiklan 2 kohdassa ja 5 artiklassa tarkoitetut valtuutetut edustajat.

(20)  Lainsäätäjän olisi otettava huomioon tekoälyjärjestelmiin liittyvät vastuuriskit koko niiden elinkaaren ajan kehityksestä käyttöön ja käyttöiän loppuun, mukaan lukien jätehuolto ja kierrätyksen hallinta. Tekoälyjärjestelmien sisällyttäminen tuotteeseen tai palveluun edustaa yrityksille taloudellista riskiä ja vaikuttaa siten voimakkaasti pk-yritysten sekä uusyritysten kykyyn ja vaihtoehtoihin vakuuttaa ja rahoittaa uusiin teknologioihin perustuvia hankkeita koskevaa tutkimus- ja kehitystyötään. Korvausvastuun tarkoituksena ei siten ole pelkästään turvata henkilöiden tärkeitä lailla suojeltuja oikeuksia, vaan se myös määrittää, voivatko yritykset ja erityisesti pk- ja uusyritykset hankkia pääomaa, innovoida, harjoittaa tutkimusta ja viime kädessä tarjota uusia tuotteita ja palveluja sekä luottavatko kuluttajat tällaisiin tuotteisiin ja palveluihin ja ovatko he halukkaita käyttämään niitä huolimatta näihin tuotteisiin tai palveluihin mahdollisesti liittyvistä riskeistä ja niihin kohdistetuista oikeusvaateista.

(21)  Vakuutukset voivat auttaa varmistamaan, että uhrit voivat saada riittävän korvauksen, sekä mahdollistamaan kaikkien vakuutettujen henkilöiden riskien jakautuminen. Yksi tekijöistä, joiden pohjalta vakuutusyhtiöt tarjoavat vakuutustuotteita ja -palveluja, on riskinarviointi, joka perustuu riittävien aiempien korvausvaatimustietojen saatavuuteen. Laadukkaiden tietojen saatavuuden puute tai riittämätön määrä voi olla yksi syy siihen, miksi vakuutustuotteiden kehittäminen uusille ja kehitteillä oleville teknologioille on aluksi vaikeaa. Uusien teknologioiden luoman datan parempi saatavuus ja sen käytön optimointi yhdessä hyvin dokumentoidun tiedon antamista koskevan velvoitteen kanssa kuitenkin parantaisi vakuuttajien valmiuksia uusien riskien mallintamiseen ja innovatiivisemman vakuutusturvan kehittämiseen.

(22)  Koska aiempia korvausvaatimuksia koskevat tiedot puuttuvat, olisi tutkittava, kuinka ja millä ehdoilla vastuu on vakuutettavissa niin, että vakuutus liitetään tuotteeseen eikä vastuussa olevaan henkilöön. On jo olemassa vakuutustuotteita, joita kehitetään ala- ja vakuutusturvakohtaisesti teknologian kehittyessä. Monet vakuuttajat erikoistuvat tiettyihin markkinasegmentteihin (esimerkiksi pk-yritykset) tai tarjoamaan vakuutusturvaa tietyille tuotetyypeille (esimerkiksi sähkölaitteet), mikä merkitsee, että vakuutetulle on yleensä saatavilla vakuutustuote. Kaikille sopivaa ratkaisua on kuitenkin vaikea kuvitella, ja vakuutusmarkkinat tarvitsevat aikaa sopeutuakseen. Komission olisi tiiviissä yhteistyössä vakuutusmarkkinoiden kanssa kehitettävä innovoivia vakuutustuotteita, joilla voitaisiin korjata vakuutuksissa olevat aukot. Poikkeustapauksissa, kuten kollektiivisia vahinkoja aiheuttavassa tilanteessa, joissa korvaus ylittää merkittävästi tässä asetuksessa säädetyt enimmäismäärät, jäsenvaltioita olisi kannustettava perustamaan rajoitetuksi ajaksi erityinen korvausrahasto, josta täytetään noiden tapausten erityistarpeet. Erityisiä korvausrahastoja voitaisiin perustaa myös sellaisia poikkeustapauksia varten, joissa tekoälyjärjestelmä, jota ei ole vielä luokiteltu suuririskiseksi tekoälyjärjestelmäksi ja jota ei siten ole vielä vakuutettu, aiheuttaa haittaa tai vahinkoa. Oikeusvarmuuden takaamiseksi ja sen velvoitteen täyttämiseksi, jonka mukaan on annettava tietoa kaikille vaikutusten kohteena mahdollisesti oleville henkilöille, erityisen korvausrahaston olemassaolosta ja ehdoista, joilla sitä voidaan hyödyntää, olisi annettava julkisesti tietoa selkeällä ja kattavalla tavalla.

(23)  On äärimmäisen tärkeää, että kaikki tämän säädöksen myöhemmät muutokset tehdään yhdessä tuotevastuudirektiivin tarvittavan uudelleentarkastelun kanssa, jotta sitä voidaan tarkistaa kattavalla ja johdonmukaisella tavalla ja jotta kaikkien asianomaisten osapuolten oikeudet ja velvoitteet voidaan taata koko vastuuketjussa. Tekoälyjärjestelmien operaattoreita koskevan uuden vastuujärjestelmän käyttöönotto edellyttää, että tämän asetuksen säännökset ja tuotevastuudirektiivin uudelleentarkastelu sovitetaan tiiviisti yhteen sekä asiasisällön että lähestymistavan osalta, jotta ne muodostavat yhdessä tekoälyjärjestelmille johdonmukaisen vastuukehyksen, jossa ovat tasapainossa valmistajan, operaattorin, kuluttajan ja vaikutusten kohteena olevan henkilön edut vastuuriskin ja sovellettavien korvausjärjestelyjen osalta. Tekoälyjärjestelmän, frontend- ja backend-operaattorin, valmistajan, puutteellisen turvallisuuden, tuotteen ja palvelun määritelmien mukauttaminen ja yhdenmukaistaminen kaikessa lainsäädännössä on siten tarpeen, ja ne olisi suunniteltava tehtäväksi samanaikaisesti.

(24)  Kun otetaan huomioon tämän asetuksen tavoitteet luoda tulevaisuuteen suuntautunut ja yhtenäinen unionin tason lähestymistapa, jossa asetetaan yhteiset unionin normit unionin kansalaisille ja yrityksille, sekä varmistaa oikeuksien yhdenmukaisuus ja oikeusvarmuus kaikkialla unionissa, jotta vältetään digitaalisilla sisämarkkinoilla hajanaisuus, joka haittaisi digitaalisen suvereniteetin ylläpitämisen, eurooppalaisen digitaalisen innovoinnin edistämisen sekä kansalaisten ja kuluttajien oikeuksien korkeatasoisen suojelun tavoitetta, tekoälyjärjestelmiin liittyvien vastuujärjestelmien olisi oltava täysin yhdenmukaisia. Jäsenvaltiot eivät nopean teknologisen muutoksen, rajatylittävän kehityksen sekä tekoälyjärjestelmien käytön ja unionissa mahdollisesti sovellettavien ristiriitaisten lainsäädännöllisten lähestymistapojen vuoksi voi riittävällä tavalla saavuttaa tätä, vaan se voidaan sen laajuuden ja vaikutusten vuoksi saavuttaa paremmin unionin tasolla. Sen vuoksi unioni voi toteuttaa toimenpiteitä Euroopan unionista tehdyn sopimuksen 5 artiklassa vahvistetun toissijaisuusperiaatteen mukaisesti. Mainitussa artiklassa vahvistetun suhteellisuusperiaatteen mukaisesti tässä asetuksessa ei ylitetä sitä, mikä on tarpeen näiden tavoitteiden saavuttamiseksi,

OVAT HYVÄKSYNEET TÄMÄN ASETUKSEN:

I luku

Yleiset säännökset

1 artikla

Kohde

Tässä asetuksessa vahvistetaan luonnollisten henkilöiden ja oikeushenkilöiden tekoälyjärjestelmien operaattoreille esittämiä siviilioikeudellisia vahingonkorvausvaatimuksia koskevat säännöt.

2 artikla

Soveltamisala

1.  Tätä asetusta sovelletaan unionin alueella, jos tekoälyjärjestelmän ohjaama fyysinen tai virtuaalinen toiminto, laite tai prosessi aiheuttaa luonnolliselle henkilölle henkeen, terveyteen ja fyysiseen koskemattomuuteen kohdistuvaa haittaa tai vahinkoa tai luonnolliselle henkilölle tai oikeushenkilölle omaisuuteen kohdistuvaa haittaa tai vahinkoa taikka on aiheuttanut merkittävää aineetonta vahinkoa, jonka tuloksena on syntynyt todennettavissa olevaa taloudellista tappiota.

2.  Tekoälyjärjestelmän operaattorin ja tekoälyjärjestelmän johdosta haittaa tai vahinkoa kärsineen luonnollisen henkilön tai oikeushenkilön väliset sopimukset, joilla kierretään tai rajoitetaan tässä asetuksessa vahvistettuja oikeuksia tai velvoitteita ja jotka on tehty ennen haitan tai vahingon tapahtumista tai sen jälkeen, katsotaan tässä asetuksessa esitettyjen oikeuksien ja velvoitteiden kannalta pätemättömiksi.

3.  Tätä asetusta sovelletaan rajoittamatta muita täydentäviä vahingonkorvausvaatimuksia, jotka perustuvat sopimussuhteeseen tai tuotevastuuta, kuluttajansuojaa, syrjinnän torjuntaa, työntekijöiden suojelua ja ympäristönsuojelua koskeviin säännöksiin operaattorin ja tekoälyjärjestelmän vuoksi haittaa tai vahinkoa kärsineen luonnollisen henkilön tai oikeushenkilön välillä ja joita voidaan esittää operaattorille unionin tai kansallisen lainsäädännön mukaisesti.

3 artikla

Määritelmät

Tässä asetuksessa tarkoitetaan

a)  ’tekoälyjärjestelmällä’ joko ohjelmistopohjaista tai laitteisiin upotettua järjestelmää, joka simuloi älykästä käyttäytymistä muun muassa keräämällä ja käsittelemällä tietoa, analysoiden ja tulkiten ympäristöään sekä toimien osittain autonomisesti tiettyjen tavoitteiden saavuttamiseksi;

b)  ’autonomisella’ tekoälyjärjestelmällä järjestelmää, joka toimii tulkiten tiettyjä syötteitä ja soveltaen muun muassa muttei yksinomaan ennalta määrättyjä ohjeita samalla kun sen käyttäytymistä säätelevät sille asetettu tavoite, jonka saavuttamiseen kyseinen käyttäytyminen tähtää, ja muut sen kehittäjän tekemät suunnitteluun liittyvät valinnat;

c)  ’suurella riskillä’ autonomisesti toimivan tekoälyjärjestelmän merkittävää potentiaalia aiheuttaa haittaa tai vahinkoa yhdelle tai useammalle henkilölle tavalla, joka on sattumanvarainen ja joka ylittää sen, mitä voidaan kohtuudella odottaa; potentiaalin merkittävyys riippuu mahdollisen haitan tai vahingon vakavuuden, päätöksenteon autonomian asteen, riskin aineellistumisen todennäköisyyden ja tekoälyjärjestelmän käyttötavan ja ympäristön vuorovaikutuksesta;

d)  ’operaattorilla’ sekä frontend- että backend-operaattoria, jos direktiivi 85/374/ETY ei jo kata jälkimmäisen vastuuta;

e)  ’frontend-operaattorilla’ luonnollista henkilöä tai oikeushenkilöä, joka harjoittaa tietynasteista valvontaa tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden ja hyötyy sen toiminnasta;

f)  ’backend-operaattorilla’ luonnollista henkilöä tai oikeushenkilöä, joka jatkuvasti määrittää teknologian ominaisuuksia sekä asettaa saataville dataa ja olennaisia backend-tukipalveluja ja joka näin ollen myös harjoittaa tietynasteista valvontaa tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden;

g)  ’valvonnalla’ kaikkia operaattorin toimia, jotka vaikuttavat tekoälyjärjestelmän toimintaan ja siten siihen, missä määrin operaattori altistaa kolmannet osapuolet tekoälyjärjestelmän toimintoihin ja toimintaan liittyville mahdollisille riskeille; tällaiset toimet voivat vaikuttaa toimintaan missä tahansa vaiheessa määrittämällä syötteet, tuotokset tai tulokset taikka muuttaa tekoälyjärjestelmän tiettyjä toimintoja tai prosesseja; se, missä määrin toimi määrittää nämä tekoälyjärjestelmän toiminnan näkökohdat, riippuu siitä, kuinka paljon operaattori voi vaikuttaa tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin;

h)  ’vaikutusten kohteena olevalla henkilöllä’ henkilöä, jolle aiheutuu tekoälyjärjestelmän ohjaamasta fyysisestä tai virtuaalisesta toiminnosta, laitteesta tai prosessista haittaa tai vahinkoa ja joka ei ole sen operaattori;

i)  ’haitalla tai vahingolla’ kielteistä vaikutusta, joka kohdistuu luonnollisen henkilön henkeen, terveyteen ja fyysiseen koskemattomuuteen tai luonnollisen henkilön tai oikeushenkilön omaisuuteen taikka aiheuttaa merkittävän aineettoman vahingon, jonka tuloksena syntyy todennettavissa olevaa taloudellista tappiota;

j)  ’valmistajalla’ valmistajaa siten kuin se on määritetty direktiivin 85/374/ETY 3 artiklassa.

II luku

Suuririskiset tekoälyjärjestelmät

4 artikla

Ankara vastuu suuririskisistä tekoälyjärjestelmistä

1.  Suuririskisen tekoälyjärjestelmän operaattorilla on ankara vastuu, jos kyseisen tekoälyjärjestelmän ohjaama fyysinen tai virtuaalinen toiminto, laite tai prosessi aiheuttaa haittaa tai vahinkoa.

2.  Kaikki suuririskiset tekoälyjärjestelmät ja kaikki kriittiset alat, joilla niitä käytetään, luetellaan tämän asetuksen liitteessä. Siirretään komissiolle valta antaa delegoituja säädöksiä 13 artiklan mukaisesti kyseisen kattavan luettelon muuttamiseksi seuraavasti:

a)  sisällyttämällä uusia suuririskisten tekoälyjärjestelmien tyyppejä ja kriittisiä aloja, joilla niitä otetaan käyttöön;

b)  poistamalla tekoälyjärjestelmiä, joiden ei enää katsota olevan suuririskisiä; ja/tai

c)  muuttamalla olemassa olevien suuririskisten tekoälyjärjestelmien kriittisiä aloja.

Delegoidut säädökset, joilla liitettä muutetaan, tulevat voimaan kuuden kuukauden kuluttua niiden hyväksymisestä. Määrittäessään uusia suuririskisiä tekoälyjärjestelmiä ja/tai kriittisiä aloja, jotka sisällytetään delegoidulla säädöksellä liitteeseen, komissio ottaa täysimääräisesti huomioon tässä asetuksessa ja erityisesti 3 artiklan c alakohdassa vahvistetut arviointiperusteet.

3.  Suuririskisten tekoälyjärjestelmien operaattorit eivät voi vapauttaa itseään vastuusta väittämällä, että he ovat toimineet asianmukaista huolellisuutta noudattaen tai että haitan tai vahingon aiheutti operaattoreiden tekoälyjärjestelmän ohjaama autonominen toiminto, laite tai prosessi. Operaattorit eivät ole vastuuvelvollisia, jos haitta tai vahinko aiheutui ylivoimaisesta esteestä.

4.  Suuririskisen tekoälyjärjestelmän frontend-operaattorin on varmistettava, että tekoälyjärjestelmän toiminnoilla on vastuuvakuutussuoja, joka on riittävä suhteessa tämän asetuksen 5 ja 6 artiklassa säädettyjen korvausten määriin ja laajuuteen. Backend-operaattorin on varmistettava, että sen palveluilla on toiminnan vastuuvakuutus- tai tuotevastuuvakuutussuoja, joka on riittävä suhteessa tämän asetuksen 5 ja 6 artiklassa säädettyjen korvausten määriin ja laajuuteen. Jos muiden unionin tai kansallisen lainsäädännön mukaisesti jo voimassa olevien frontend- tai backend-operaattoreiden pakollisten vakuutusjärjestelyjen tai olemassa olevien vapaaehtoisten yritysvakuutusrahastojen katsotaan kattavan tekoälyjärjestelmän toiminta tai tarjottu palvelu, tämän asetuksen mukainen velvoite ottaa tekoälyjärjestelmää tai tarjottua palvelua koskeva vakuutus katsotaan täytetyksi, kun kyseinen olemassa oleva pakollinen vakuutus tai vapaaehtoinen yritysvakuutusrahasto kattaa tämän asetuksen 5 ja 6 artiklassa säädettyjen korvausten määrät ja laajuuden.

5.  Jos tämän asetuksen ja kansallisten vastuujärjestelmien välillä on ristiriitaisuuksia tekoälyjärjestelmien ankaran vastuun luokittelussa, sovelletaan tätä asetusta.

5 artikla

Korvauksen määrä

1.  Suuririskisen tekoälyjärjestelmän operaattorin, jonka katsotaan olevan vastuussa haitasta tai vahingosta tämän asetuksen mukaisesti, on korvattava:

a)  enintään kaksi miljoonaa euroa vaikutusten kohteena olevan henkilön kuolemantapauksessa tai terveydelle tai fyysiselle koskemattomuudelle aiheutuneesta haitasta, kun ne johtuvat suuririskisen tekoälyjärjestelmän toiminnasta;

b)  enintään miljoona euroa merkittävän aineettoman vahingon tapauksessa, jonka tuloksena syntyy todennettavissa olevaa taloudellista tappiota, tai omaisuudelle aiheutuneen vahingon tapauksessa, myös silloin kun useampi vaikutusten kohteena olevalle henkilölle kuuluva esine vahingoittuu yhden suuririskisen tekoälyjärjestelmän yhden toiminnon tuloksena; jos vaikutusten kohteena oleva henkilö on esittänyt myös sopimukseen perustuvan vahingonkorvausvaatimuksen operaattorille, korvausta ei makseta tämän asetuksen mukaisesti, jos omaisuusvahingon tai merkittävän aineettoman vahingon määrä on arvoltaan alle [500 euroa](9).

2.  Jos saman suuririskisen tekoälyjärjestelmän saman toiminnon aiheuttamasta haitasta tai vahingosta usealle henkilölle maksettavan korvauksen yhteismäärä ylittää 1 kohdassa säädetyt enimmäismäärät, kullekin henkilölle maksettavia määriä vähennetään suhteellisesti siten, että yhdistetty korvaus ei ylitä 1 kohdassa säädettyjä enimmäismääriä.

6 artikla

Korvauksen laajuus

1.  Edellä 5 artiklan 1 kohdan a alakohdassa säädetyn määrän puitteissa vaikutusten kohteena olevan henkilön kuolemaan johtaneen fyysisen haitan tapauksessa vastuullisena pidetyn operaattorin maksettavaksi tulevan määrän laskentaperustana käytetään vaikutusten kohteena olevan henkilön ennen kuolemaansa saaman lääketieteellisen hoidon kustannuksia sekä ennen kuolemaa kärsittyä ansionmenetystä, joka aiheutuu työkyvyn menetyksestä tai heikkenemisestä tai henkilön tarpeiden lisääntymisestä haitan vaikutusajalta ennen kuolemaa. Operaattorin on lisäksi korvattava edesmenneen vaikutusten kohteena olevan henkilön hautauskustannukset osapuolelle, joka on vastuussa näiden kustannusten suorittamisesta.

Jos vaikutusten kohteena oleva henkilö oli kuolemaan johtaneen haitan aiheuttaneen tapauksen ajankohtana suhteessa kolmanteen osapuoleen ja hänellä oli laillinen velvoite elättää kyseistä kolmatta osapuolta, vastuullisena pidetyn operaattorin on korvattava kolmannen osapuolen menetykset maksamalla elatusta siinä laajuudessa, missä vaikutusten kohteena ollut henkilö olisi ollut velvoitettu sitä maksamaan, sen pituisen ajan, joka vastaa vaikutusten kohteena olevan henkilön ikäisen ja tätä yleisesti vastaavan henkilön keskimääräistä elinajanodotetta. Operaattorin on maksettava korvausta kolmannelle osapuolelle myös, jos kolmas osapuoli oli kuoleman aiheuttaneen tapahtuman ajankohtana siitetty mutta syntymätön lapsi.

2.  Edellä 5 artiklan 1 kohdan b alakohdassa säädetyn määrän puitteissa vaikutusten kohteena olevan henkilön terveydelle tai fyysiselle koskemattomuudelle aiheutuneen haitan tapauksessa vastuullisena pidetyn operaattorin maksaman korvauksen on sisällettävä haittaan liittyvän lääketieteellisen hoidon kustannukset sekä vaikutusten kohteena olevan henkilön ansionmenetys, joka aiheutuu työkyvyn väliaikaisesta menetyksestä tai heikkenemisestä tai pysyvästä menetyksestä tai tästä johtuvasta lääkärintodistuksella osoitetusta henkilön tarpeiden lisääntymisestä.

7 artikla

Vanhentumisaika

1.  Edellä 4 artiklan 1 kohdan mukaisesti esitettyihin siviilioikeudellisiin vahingonkorvausvaatimuksiin, jotka koskevat henkeen, terveyteen tai fyysiseen koskemattomuuteen liittyvää haittaa, sovelletaan erityistä vanhentumisaikaa, joka on 30 vuotta haitan aiheutumispäivästä.

2.  Edellä 4 artiklan 1 kohdan mukaisesti esitettyihin siviilioikeudellisiin vahingonkorvausvaatimuksiin, jotka koskevat omaisuusvahinkoa tai merkittävää aineetonta vahinkoa, jonka tuloksena syntyy todennettavissa olevaa taloudellista tappiota, sovelletaan erityistä vanhentumisaikaa, joka on:

a)  10 vuotta omaisuusvahingon tai merkittävän aineettoman vahingon tuloksena syntyneen todennettavissa olevan taloudellisen tappion aiheutumispäivästä tai

b)  30 vuotta päivästä, jolloin omaisuusvahingon tai aineettoman vahingon myöhemmin aiheuttanut suuririskisen tekoälyjärjestelmän toiminta tapahtui.

Ensimmäisessä alakohdassa tarkoitetuista jaksoista sovelletaan ensin päättyvää.

3.  Tämä artikla ei vaikuta vanhentumisaikojen lykkääntymistä tai keskeytymistä sääntelevän kansallisen lainsäädännön soveltamiseen.

III luku

Muut tekoälyjärjestelmät

8 artikla

Tuottamusperusteinen vastuu muista tekoälyjärjestelmistä

1.  Jos tekoälyjärjestelmä ei ole suuririskinen 3 artiklan c alakohdassa ja 4 artiklan 2 kohdassa säädetyn mukaisesti eikä sitä näin ollen ole lueteltu tämän asetuksen liitteessä, sen operaattoriin sovelletaan tuottamusperusteista vastuuta haitasta tai vahingosta, jonka tekoälyjärjestelmän ohjaama fyysinen tai virtuaalinen toiminto, laite tai prosessi on aiheuttanut.

2.  Operaattoria ei pidetä vastuullisena, jos hän voi osoittaa, että haitta tai vahinko ei johtunut hänen virheestään jommastakummasta seuraavasta syystä:

a)  tekoälyjärjestelmä aktivoitiin hänen tietämättään, kun kaikki kohtuulliset ja tarvittavat toimenpiteet tällaisen aktivoinnin estämiseksi operaattorin valvontavallan ulottumattomissa oli toteutettu, tai

b)  noudatettiin asianmukaista huolellisuutta toteuttamalla kaikki seuraavat toimet: valittiin sopiva tekoälyjärjestelmä oikeaan tehtävään ja oikealle osaamistasolle, otettiin tekoälyjärjestelmä asianmukaisesti käyttöön, valvottiin toimintoja ja ylläpidettiin toiminnallista luotettavuutta asentamalla säännöllisesti kaikki saatavilla olevat päivitykset.

Operaattori ei voi välttää vastuutaan väittämällä, että haitan tai vahingon aiheutti hänen tekoälyjärjestelmänsä ohjaama autonominen toiminto, laite tai prosessi. Operaattori ei ole vastuuvelvollinen, jos haitta tai vahinko aiheutui ylivoimaisesta esteestä.

3.  Jos haitan tai vahingon aiheutti kolmas osapuoli, joka oli puuttunut tekoälyjärjestelmään muuttamalla sen toimintaa tai sen vaikutuksia, operaattori on kuitenkin vastuussa korvauksen maksamisesta, jos kyseistä kolmatta osapuolta ei saada jäljitettyä tai tämä on varaton.

4.  Operaattorin tai vaikutusten kohteena olevan henkilön pyynnöstä tekoälyjärjestelmän valmistajalla on velvollisuus tehdä yhteistyötä näiden kanssa ja antaa näille tietoa korvausvaatimuksen merkittävyyden edellyttämässä laajuudessa, jotta vastuu voidaan määrittää.

9 artikla

Korvauksia ja vanhentumisaikaa koskevat kansalliset säännökset

Edellä olevan 8 artiklan 1 kohdan mukaisesti esitettyihin siviilioikeudellisiin vahingonkorvausvaatimuksiin sovelletaan vanhentumisaikojen sekä korvauksen määrän ja laajuuden osalta sen jäsenvaltion lainsäädäntöä, jossa haitta tai vahinko on aiheutunut.

IV luku

Vastuun jakaminen

10 artikla

Myötävaikutus

1.  Jos haitan tai vahingon on aiheuttanut sekä tekoälyjärjestelmän ohjaama fyysinen tai virtuaalinen toiminto, laite tai prosessi että vaikutusten kohteena olevan henkilön tai muun henkilön, josta vaikutusten kohteena oleva henkilö on vastuussa, toiminta, operaattorilla tämän asetuksen mukaisesti olevan vastuun laajuutta vähennetään vastaavasti. Operaattori ei ole vastuuvelvollinen, jos vaikutusten kohteena oleva henkilö tai muu henkilö, josta vaikutusten kohteena oleva henkilö on vastuussa, on yksinään syyllinen aiheutuneeseen haittaan tai vahinkoon.

2.  Vastuuvelvolliseksi katsottu operaattori voi käyttää tekoälyjärjestelmän tuottamaa dataa osoittamaan vaikutusten kohteena olevan henkilön myötävaikutuksen asetuksen (EU) 2016/679 ja muun sovellettavan tietosuojalainsäädännön mukaisesti. Vaikutusten kohteena oleva henkilö voi myös käyttää tätä dataa todisteena tai selvennyksenä vahingonkorvausvaatimuksessa.

11 artikla

Yhteisvastuu

Jos tekoälyjärjestelmällä on useampia kuin yksi operaattori, nämä ovat yhteisvastuussa. Jos frontend-operaattori on myös tekoälyjärjestelmän valmistaja, tämä asetus on etusijalla tuotevastuudirektiiviin nähden. Jos backend-operaattorin katsotaan olevan myös tuotevastuudirektiivin 3 artiklassa määritelty valmistaja, häneen olisi sovellettava kyseistä direktiiviä. Jos operaattoreita on vain yksi ja tämä on myös tekoälyjärjestelmän valmistaja, tämän asetuksen olisi oltava etusijalla tuotevastuudirektiiviin nähden.

12 artikla

Korvausten periminen

1.  Operaattorilla ei ole oikeutta periä muilta korvauksia, jos vaikutusten kohteena oleva henkilö, jolla on oikeus tämän asetuksen mukaiseen korvaukseen, ei ole saanut täyttä korvausta.

2.  Jos operaattori on yhteisvastuussa muiden operaattorien kanssa vaikutusten kohteena olevalle henkilölle ja on maksanut täyden korvauksen kyseiselle vaikutusten kohteena olevalle henkilölle 4 artiklan 1 kohdan tai 8 artiklan 1 kohdan mukaisesti, kyseinen operaattori voi periä osan korvauksista takaisin muilta operaattoreilta suhteessa näiden vastuuseen.

Kunkin suhteellinen vastuu määritetään sen perusteella, minkä asteista valvontaa operaattorit harjoittivat tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden. Jos yhteisvastuussa olevan operaattorin osuutta ei saada perittyä tältä, muiden operaattoreiden on vastattava tästä puuttuvasta osuudesta. Jos yhteisvastuussa oleva operaattori maksaa korvauksia vaikutusten kohteena olevalle henkilölle ja vaatii ennakkomaksujen tasausta muilta vastuuvelvollisilta operaattoreilta, vaikutusten kohteena olevan henkilön korvausvaatimus muille operaattoreille siirtyy tälle operaattorille. Korvausvaatimusten siirtoa ei lasketa alkuperäisen korvausvaatimuksen vahingoksi.

3.  Jos turvallisuudeltaan puutteellisen tekoälyjärjestelmän operaattori maksaa täyden korvauksen vaikutusten kohteena olevalle henkilölle haitasta tai vahingosta tämän asetuksen 4 artiklan 1 kohdan tai 8 artiklan 1 kohdan mukaisesti, hän voi hakea korvausta turvallisuudeltaan puutteellisen tekoälyjärjestelmän valmistajalta direktiivin 85/374/ETY sekä turvallisuudeltaan puutteellisia tuotteita koskevaan vastuuseen liittyvien kansallisten säännösten mukaisesti.

4.  Jos operaattorin vakuutusyhtiö korvaa vaikutusten kohteena olevalle henkilölle aiheutuneet haitat tai vahingot 4 artiklan 1 kohdan tai 8 artiklan 1 kohdan mukaisesti, kaikki vaikutusten kohteena olevan henkilön siviilioikeudelliset vahingonkorvausvaatimukset muuta henkilöä kohtaan samasta vahingosta siirretään operaattorin vakuutusyhtiölle siihen määrään asti, johon operaattorin vakuutusyhtiö on maksanut korvausta vaikutusten kohteena olevalle henkilölle.

V luku

Loppusäännökset

13 artikla

Siirretyn säädösvallan käyttäminen

1.  Komissiolle siirrettyä valtaa antaa delegoituja säädöksiä koskevat tässä artiklassa säädetyt edellytykset.

2.  Siirretään komissiolle ... päivästä ...kuuta ... [tämän asetuksen soveltamispäivä] viideksi vuodeksi 4 artiklan 2 kohdassa tarkoitettu valta antaa delegoituja säädöksiä.

3.  Euroopan parlamentti tai neuvosto voi milloin tahansa peruuttaa 4 artiklan 2 kohdassa tarkoitetun säädösvallan siirron. Peruuttamispäätöksellä lopetetaan tuossa päätöksessä mainittu säädösvallan siirto. Peruuttaminen tulee voimaan sitä päivää seuraavana päivänä, jona sitä koskeva päätös julkaistaan Euroopan unionin virallisessa lehdessä, tai jonakin myöhempänä, kyseisessä päätöksessä mainittuna päivänä. Peruuttamispäätös ei vaikuta jo voimassa olevien delegoitujen säädösten pätevyyteen.

4.  Ennen kuin komissio hyväksyy delegoidun säädöksen, se kuulee suuririskisiä tekoälyjärjestelmiä käsittelevää teknistä komiteaa paremmasta lainsäädännöstä 13 päivänä huhtikuuta 2016 tehdyssä toimielinten välisessä sopimuksessa vahvistettujen periaatteiden mukaisesti.

5.  Heti kun komissio on antanut delegoidun säädöksen, komissio antaa sen tiedoksi yhtäaikaisesti Euroopan parlamentille ja neuvostolle.

6.  Edellä olevan 4 artiklan 2 kohdan nojalla annettu delegoitu säädös tulee voimaan ainoastaan, jos Euroopan parlamentti tai neuvosto ei ole kahden kuukauden kuluessa siitä, kun asianomainen säädös on annettu tiedoksi Euroopan parlamentille ja neuvostolle, ilmaissut vastustavansa sitä tai jos sekä Euroopan parlamentti että neuvosto ovat ennen mainitun määräajan päättymistä ilmoittaneet komissiolle, että ne eivät vastusta säädöstä. Euroopan parlamentin tai neuvoston aloitteesta tätä määräaikaa jatketaan kahdella kuukaudella.

14 artikla

Uudelleentarkastelu

Komissio esittää 1 päivään tammikuuta 202X [3 vuotta tämän asetuksen soveltamispäivästä] ja sen jälkeen kolmen vuoden välein Euroopan parlamentille, neuvostolle ja Euroopan talous- ja sosiaalikomitealle yksityiskohtaisen kertomuksen, jossa tarkastellaan tätä asetusta uudelleen tekoälyn jatkokehityksen valossa.

Valmistellessaan ensimmäisessä alakohdassa tarkoitettua kertomusta komissio pyytää jäsenvaltioilta asiaankuuluvia tietoja, jotka liittyvät oikeuskäytäntöön, tuomioistuinten päätöksiin sekä onnettomuustilastoihin, kuten onnettomuuksien määrä, aiheutuneet vahingot, osallisena olleet tekoälysovellukset, vakuutusyhtiöiden maksamat korvaukset, sekä arvion vaikutusten kohteena olevien henkilöiden yksilöllisesti tai kollektiivisesti esittämien vahingonkorvausvaatimusten määrästä sekä näiden vaatimusten tuomioistuinkäsittelyiden kestosta.

Komission kertomukseen liitetään tarvittaessa lainsäädäntöehdotuksia, joilla on tarkoitus korjata kertomuksessa yksilöityjä puutteita.

15 artikla

Voimaantulo

Tämä asetus tulee voimaan kahdentenakymmenentenä päivänä sen jälkeen, kun se on julkaistu Euroopan unionin virallisessa lehdessä.

Sitä sovelletaan 1 päivästä tammikuuta 202X.

Tämä asetus on kaikilta osiltaan velvoittava, ja sitä sovelletaan sellaisenaan kaikissa jäsenvaltioissa.

Tehty …,

Euroopan parlamentin puolesta Neuvoston puolesta

Puhemies Puheenjohtaja

(1) EUVL ...
(2) EUVL ...
(3) Neuvoston direktiivi 85/374/ETY, annettu 25 päivänä heinäkuuta 1985, tuotevastuuta koskevien jäsenvaltioiden lakien, asetusten ja hallinnollisten määräysten lähentämisestä (EYVL L 210, 7.8.1985, s. 29).
(4) EUVL L 123, 12.5.2016, s. 1.
(5) Ks. 19 päivänä helmikuuta 2020 annettu komission valkoisen kirjan tekoälystä – eurooppalainen lähestymistapa huippuosaamiseen ja luottamukseen (COM(2020)0065), s. 24.
(6) Euroopan parlamentin ja neuvoston asetus (EU) 2016/679, annettu 27 päivänä huhtikuuta 2016, luonnollisten henkilöiden suojelusta henkilötietojen käsittelyssä sekä näiden tietojen vapaasta liikkuvuudesta ja direktiivin 95/46/EY kumoamisesta (yleinen tietosuoja-asetus) (EUVL L 119, 4.5.2016, s. 1).
(7) Euroopan parlamentin ja neuvoston asetus (EU) 2018/858, annettu 30 päivänä toukokuuta 2018, moottoriajoneuvojen ja niiden perävaunujen sekä tällaisiin ajoneuvoihin tarkoitettujen järjestelmien, komponenttien ja erillisten teknisten yksiköiden hyväksynnästä ja markkinavalvonnasta, asetusten (EY) N:o 715/2007 ja (EY) N:o 595/2009 muuttamisesta sekä direktiivin 2007/46/EY kumoamisesta (EUVL L 151, 14.6.2018, s. 1).
(8) Euroopan parlamentin ja neuvoston asetus (EU) 2019/1020, annettu 20 päivänä kesäkuuta 2019, markkinavalvonnasta ja tuotteiden vaatimustenmukaisuudesta sekä direktiivin 2004/42/EY ja asetusten (EY) N:o 765/2008 ja (EU) N:o 305/2011 muuttamisesta (EUVL L 169, 25.6.2019, s. 1).
(9) Komissio tarkistaa tätä päätöslauselman 19 kohdan mukaisesti.


LIITE

[...]

Päivitetty viimeksi: 22. lokakuuta 2020Oikeudellinen huomautus - Tietosuojakäytäntö