MIETINTÖ suosituksista komissiolle tekoälyä koskevasta siviilioikeudellisen vastuun järjestelmästä

5.10.2020 - (2020/2014(INL)

Oikeudellisten asioiden valiokunta
Esittelijä: Axel Voss
(Aloite – työjärjestyksen 47 artikla)

Menettely : 2020/2014(INL)
Elinkaari istunnossa
Asiakirjan elinkaari :  
A9-0178/2020
Käsiteltäväksi jätetyt tekstit :
A9-0178/2020
Äänestykset :
Hyväksytyt tekstit :

EUROOPAN PARLAMENTIN PÄÄTÖSLAUSELMAESITYS

suosituksista komissiolle tekoälyä koskevasta siviilioikeudellisen vastuun järjestelmästä
(2020/2014(INL))

Euroopan parlamentti, joka

 ottaa huomioon Euroopan unionin toiminnasta tehdyn sopimuksen 225 artiklan,

 ottaa huomioon Euroopan unionin toiminnasta tehdyn sopimuksen 114 ja 169 artiklan,

 ottaa huomioon tuotevastuuta koskevien jäsenvaltioiden lakien, asetusten ja hallinnollisten määräysten lähentämisestä 25. heinäkuuta 1985 annetun neuvoston direktiivin 85/374/ETY,

 ottaa huomioon sopimattomista elinkeinonharjoittajien ja kuluttajien välisistä kaupallisista menettelyistä sisämarkkinoilla 11. toukokuuta 2005 annetun Euroopan parlamentin ja neuvoston direktiivin 2005/29/EY (sopimattomia kaupallisia menettelyjä koskeva direktiivi)[1] ja kuluttajan oikeuksista 25. lokakuuta 2011 annetun Euroopan parlamentin ja neuvoston direktiivin 2011/83/EY[2] sekä muut kuluttajansuojaa koskevat säännöt,

 ottaa huomioon lääkinnällisistä laitteista 5. huhtikuuta 2017 annetun Euroopan parlamentin ja neuvoston asetuksen (EU) 2017/745[3],

 ottaa huomioon Euroopan suurteholaskennan yhteisyrityksen perustamisesta 28. syyskuuta 2018 annetun neuvoston asetuksen (EU) 2018/1488[4],

 ottaa huomioon tietyistä digitaalisen sisällön ja digitaalisten palvelujen toimittamista koskeviin sopimuksiin liittyvistä seikoista 20. toukokuuta 2019 annetun Euroopan parlamentin ja neuvoston direktiivin (EU) 2019/770[5],

 ottaa huomioon paremmasta lainsäädännöstä 13. huhtikuuta 2016 tehdyn toimielinten välisen sopimuksen ja paremmasta sääntelystä annetut suuntaviivat[6],

 ottaa huomioon 6. kesäkuuta 2018 annetun ehdotuksen Euroopan parlamentin ja neuvoston asetukseksi Digitaalinen Eurooppa -ohjelman perustamisesta vuosiksi 2021–2027 (COM(2018)0434),

 ottaa huomioon 25. huhtikuuta 2018 annetun komission tiedonannon tekoälystä Euroopassa (COM(2018)0237),

 ottaa huomioon 7. joulukuuta 2018 annetun komission tiedonannon koordinoidusta tekoälysuunnitelmasta (COM(2018)0795),

 ottaa huomioon 8. huhtikuuta 2019 annetun komission tiedonannon luottamuksen rakentamisesta ihmiskeskeiseen tekoälyyn (COM(2019)0168),

 ottaa huomioon 19. helmikuuta 2020 annetun komission kertomuksen Euroopan parlamentille, neuvostolle ja Euroopan talous- ja sosiaalikomitealle tekoälyn, esineiden internetin ja robotiikan vaikutuksista turvallisuuteen ja vastuuvelvollisuuteen (COM(2020)0064),

 ottaa huomioon 19. helmikuuta 2020 annetun komission valkoisen kirjan tekoälystä – eurooppalainen lähestymistapa huippuosaamiseen ja luottamukseen (COM(2020)0065),

 ottaa huomioon 16. helmikuuta 2017 antamansa päätöslauselman suosituksista komissiolle robotiikkaa koskevista yksityisoikeudellisista säännöistä[7],

 ottaa huomioon 1. kesäkuuta 2017 antamansa päätöslauselman Euroopan teollisuuden digitalisoinnista[8],

 ottaa huomioon 12. syyskuuta 2018 antamansa päätöslauselman autonomisista asejärjestelmistä[9],

 ottaa huomioon 12. helmikuuta 2019 antamansa päätöslauselman tekoälyä ja robotiikkaa koskevasta kokonaisvaltaisesta Euroopan unionin teollisuuspolitiikasta[10],

 ottaa huomioon 12. helmikuuta 2020 antamansa päätöslauselman automatisoiduista päätöksentekoprosesseista: kuluttajansuojan sekä tavaroiden ja palvelujen vapaan liikkuvuuden varmistaminen[11],

 ottaa huomioon 8. huhtikuuta 2019 julkaistun tekoälyä käsittelevän korkean tason asiantuntijaryhmän raportin luotettavaa tekoälyä koskevista eettisistä ohjeista,

 ottaa huomioon 8. huhtikuuta 2019 julkaistun tekoälyä käsittelevän korkean tason asiantuntijaryhmän raportin tekoälyn määritelmästä ”A definition of AI: Main Capabilities and Disciplines”,

 ottaa huomioon 26. kesäkuuta 2019 julkaistun tekoälyä käsittelevän korkean tason asiantuntijaryhmän raportin luotettavaa tekoälyä koskevista suosituksista ”Policy and investment recommendations for trustworthy AI”,

 ottaa huomioon 21. marraskuuta 2019 julkaistun vastuuta ja uusia teknologioita käsittelevän asiantuntijaryhmän raportin tekoälyä ja muita uusia digitaaliteknologioita koskevasta vastuusta ”Liability for Artificial Intelligence and other emerging digital technologies”,

 ottaa huomioon kesäkuussa 2016 annetun Euroopan parlamentin tutkimuspalvelun tieteen ja tekniikan tulevaisuuspaneelin (STOA) katsauksen laillisiin ja eettisiin kysymyksiin robotiikassa ”Legal and ethical reflections concerning robotics”,

 ottaa huomioon Euroopan parlamentin sisäasioiden pääosaston oikeudellisten asioiden valiokunnalle tekemän, lokakuussa 2016 julkaistun tutkimuksen robotiikkaa koskevista eurooppalaisista siviilioikeudellisista säännöistä ”European Civil Law Rules in Robotics”,

 ottaa huomioon työjärjestyksen 47 ja 54 artiklan,

 ottaa huomioon sisämarkkina- ja kuluttajansuojavaliokunnan sekä liikenne- ja matkailuvaliokunnan lausunnot,

 ottaa huomioon oikeudellisten asioiden valiokunnan mietinnön (A9-0178/2020),

A. ottaa huomioon, että ”vastuun” käsitteellä on tärkeä kaksitahoinen rooli arjessamme: yhtäältä sillä varmistetaan, että haittaa tai vahinkoa kärsineellä henkilöllä on oikeus vaatia ja saada korvausta osapuolelta, jonka on osoitettu olevan vastuussa kyseisestä haitasta tai vahingosta, ja toisaalta se tarjoaa luonnollisille henkilöille ja oikeushenkilöille taloudellisia kannustimia olla alun perinkään aiheuttamatta haittaa tai vahinkoa tai hinnoitella käyttäytymisessään riski korvauksen maksamisesta;

B. katsoo, että kaikilla tulevaisuuteen suuntautuvilla siviilioikeudellista vastuuta koskevilla oikeudellisilla kehyksillä on pyrittävä lisäämään luottamusta tuotteiden ja palvelujen, myös digitaalteknologian, turvallisuuteen, luotettavuuteen ja johdonmukaisuuteen, jotta voidaan saattaa tasapainoon haitan tai vahingon mahdollisten uhrien tehokas ja oikeudenmukainen suojelu ja riittävän liikkumavaran tarjoaminen, jotta yritykset, erityisesti pienet ja keskisuuret yritykset, pystyvät kehittämään uusia teknologioita, tuotteita tai palveluja; katsoo, että tämä auttaa rakentamaan luottamusta ja luomaan vakautta investointeihin; katsoo, että kaikkien vastuukehysten tavoitteena olisi viime kädessä oltava oikeusvarmuuden takaaminen kaikille osapuolille, olipa kyse sitten valmistajasta, operaattorista, vaikutusten kohteena olevasta henkilöstä tai jostakin muusta kolmannesta osapuolesta;

 C. ottaa huomioon, että jäsenvaltion oikeusjärjestelmässä voidaan mukauttaa vastuuta koskevia sääntöjä tiettyjen toimijoiden osalta tai tiukentaa niitä tiettyjen toimintojen osalta; ottaa huomioon, että ankara vastuu tarkoittaa, että osapuoli voi olla vastuussa vaikka ei olisi toiminut tuottamuksellisesti; ottaa huomioon, että kansallisessa vahingonkorvausoikeudessa katsotaan usein vastaajalla olevan ankara vastuu, jos riski, jonka vastaaja on aiheuttanut yleisölle esimerkiksi autojen tai vaarallisen toiminnan muodossa, tai riski, jota hän ei voi valvoa, kuten eläimet, aiheuttaa haittaa tai vahinkoa;

D. katsoo, että ennen mahdollista unionin tulevaa lainsäädäntöä, jolla pyritään tekoälyjärjestelmiä koskevaan selkeään vastuun määrittelyyn, olisi tehtävä analyyseja ja kuultava jäsenvaltioita siitä, otetaanko ehdotetuissa säädöksissä huomioon taloudelliset, oikeudelliset ja yhteiskunnalliset olosuhteet;

E. katsoo, että tekoälyä koskevasta siviilioikeudellisen vastuun järjestelmästä olisi käytävä laajaa julkista keskustelua, jossa otetaan huomioon kaikki asiaan liittyvät seikat, erityisesti eettiset, oikeudelliset, taloudelliset ja yhteiskunnalliset näkökohdat, jotta torjutaan väärinkäsityksiä ja aiheetonta pelkoa, joita tällainen teknologia voi synnyttää kansalaisten keskuudessa; katsoo, että ennen uusia lainsäädäntötoimia olisi tutkittava huolellisesti vaikutustenarvioinnissa, mitä seurauksia mahdollisilla uusilla sääntelykehyksillä on kaikkiin toimijoihin;

F. ottaa huomioon, että tekoälyjärjestelmien käsite kattaa hyvin suuren määrän erilaisia teknologioita, kuten yksinkertaiset tilastot, koneoppiminen ja syväoppiminen;

G. katsoo, että käyttämällä ilmaisua ”automatisoitu päätöksenteko” voitaisiin välttää termin ”tekoäly” mahdollinen monitulkintaisuus; ottaa huomioon, että automatisoitu päätöksenteko alkaa siitä, että käyttäjä siirtää päätöksen tekemisen osittain tai kokonaan jollekin entiteetille ohjelmistoa tai palvelua käyttäen; ottaa huomioon, että tämä entiteetti puolestaan käyttää sen jälkeen automaattisesti toimeenpantavia päätöksentekomalleja toimen suorittamiseen käyttäjän puolesta tai antamaan käyttäjälle tietoa tämän toimea suorittaessaan tekemien päätösten pohjaksi;

H. ottaa huomioon, että tietyt tekoälyjärjestelmät luovat merkittäviä oikeudellisia haasteita nykyiselle vastuukehykselle ja voivat johtaa tilanteisiin, joissa niiden läpinäkymättömyyden takia voi olla erittäin kallista tai jopa mahdotonta tunnistaa, kuka tekoälyjärjestelmään liittyvää riskiä valvoi tai mikä koodi, syöte tai data viime kädessä aiheutti haitallisen toiminnon; katsoo, että tämä tekijä voi tehdä vaikeammaksi tunnistaa yhteys haitan tai vahingon ja sen aiheuttaneen käyttäytymisen välillä, minkä seurauksena uhrit eivät välttämättä saa asianmukaista korvausta;

I. ottaa huomioon, että oikeudellisia haasteita syntyy myös tekoälyjärjestelmän yhteenliitettävyydestä muihin tekoälyjärjestelmiin sekä muihin kuin tekoälyjärjestelmiin, niiden riippuvuudesta ulkoisesta datasta, niiden haavoittuvuudesta kyberturvallisuusrikkomuksille sekä muun muassa koneoppimista ja syväoppimista käyttävistä yhä autonomisemmiksi suunnitelluista tekoälyjärjestelmistä;

J. toteaa, että tekoälyjärjestelmien vahvat eettiset normit yhdistettyinä vakaisiin ja oikeudenmukaisiin korvausmenettelyihin voivat auttaa vastaamaan näihin oikeudellisiin haasteisiin ja poistamaan sen riskin, että käyttäjät eivät ole halukkaita omaksumaan uutta teknologiaa; katsoo, että oikeudenmukaisilla korvausmenettelyillä tarkoitetaan sitä, että jokaisella, joka kärsii tekoälyjärjestelmien aiheuttamasta haitasta tai jonka omaisuusvahinko johtuu tekoälyjärjestelmistä, olisi oltava sama suojelun taso kuin tapauksissa, joissa ei ole osallisena tekoälyjärjestelmää; ottaa huomioon, että käyttäjän on voitava olla varma siitä, että tekoälyä käyttävien järjestelmien mahdollisesti aiheuttama vahinko katetaan asianmukaisilla vakuutuksilla ja että korvausten hakemista varten on määritetty laillinen menettely;

K. ottaa huomioon, että oikeusvarmuus on myös keskeinen edellytys tekoälyyn perustuvan teknologian dynaamiselle kehitykselle ja innovoinnille, erityisesti kun kyseessä ovat uusyritykset, mikroyritykset ja pienet ja keskisuuret yritykset, sekä sen käytännön sovelluksille jokapäiväisessä elämässä; ottaa huomioon, että koska uusyrityksillä, mikroyrityksillä ja pk-yrityksillä on keskeinen asema erityisesti eurooppalaisessa taloudessa, on perusteltua noudattaa ehdottoman oikeasuhteista lähestymistapaa, jotta niille annetaan mahdollisuus kehittyä ja innovoida;

L. ottaa huomioon, että tekoälyjärjestelmien monimuotoisuuden ja teknologiaan liittyvien erilaisten riskien vuoksi on vaikea löytää yhtä ainoaa ratkaisua, joka sopisi koko riskien kirjolle; toteaa tältä osin, että olisi otettava käyttöön lähestymistapa, jossa kokeilujen, pilottihankkeiden ja virtuaalisten sääntelyn testauspaikkojen avulla pyritään oikeasuhteisiin ja näyttöön perustuviin ratkaisuihin, joilla puututaan tarvittaessa ongelmiin tietyissä tilanteissa ja tietyillä aloilla;

Johdanto

1. katsoo, että haasteet tekoälyjärjestelmien käyttöönotossa yhteiskunnassa, työpaikoilla ja taloudessa on yksi tärkeimpiä kysymyksiä tämänhetkisellä poliittisella asialistalla; katsoo, että tekoälyyn perustuvat teknologiat voisivat parantaa ja niillä olisi pyrittävä parantamaan elämäämme lähes kaikilla aloilla yksilötasolta (esimerkiksi liikenne, yksilöllinen koulutus, haavoittuvassa asemassa olevien henkilöiden avustaminen, kuntoiluohjelmat ja luotot) työympäristöön (esimerkiksi pitkäveteisten ja yksitoikkoisten työtehtävien vähentäminen) ja globaaleihin haasteisiin (esimerkiksi ilmastonmuutos, terveydenhuolto, ravitsemus ja logistiikka);

2. on vakaasti sitä mieltä, että tekoälyjärjestelmien tuomien etujen tehokkaan hyödyntämisen ja mahdollisten väärinkäytösten estämisen sekä sääntelyn hajanaisuuden torjumiseksi unionissa on ratkaisevan tärkeää, että kaikkiin tekoälyjärjestelmiin sovelletaan yhdenmukaista, periaatteellista ja tulevaisuuden vaatimukset huomioon ottavaa lainsäädäntöä kaikkialla unionissa; katsoo, että vaikka alakohtainen sääntely on suositeltavampaa mahdollisille hyvin erilaisille käyttökohteille, yhteisiin periaatteisiin perustuva horisontaalinen ja yhdenmukainen oikeudellinen kehys vaikuttaa tarpeelliselta, jotta voidaan varmistaa oikeusvarmuus, asettaa yhtäläiset normit kaikkialla unionissa ja suojella tehokkaasti eurooppalaisia arvojamme ja kansalaisten oikeuksia;

3. toteaa, että digitaaliset sisämarkkinat on yhdenmukaistettava täysin, koska digitaalialalle on tunnusomaista nopea rajatylittävä dynamiikka ja kansainväliset datavirrat; katsoo, että unioni voi saavuttaa tavoitteet digitaalisen suvereniteettinsa säilyttämisestä ja digitaalisen innovoinnin vauhdittamisesta Euroopassa ainoastaan johdonmukaisilla ja yhteisillä säännöillä innovointikulttuurin mukaisesti;

4. toteaa, että tekoälyalan globaali kilpailu on jo alkanut ja että unionin olisi noustava siinä johtoasemaan hyödyntämällä tieteellistä ja teknologista potentiaaliaan; painottaa voimakkaasti, että teknologiaa kehitettäessä ei saa tinkiä käyttäjien suojelemisesta vahingoilta, joita tekoälyä käyttävät laitteet ja järjestelmät voivat aiheuttaa; kannustaa tuomaan kansainvälisesti esille siviilioikeudellista vastuuta koskevat unionin normit;

5. on vakaasti sitä mieltä, että tekoälyjärjestelmiä koskevat uudet yhteiset säännöt olisi annettava ainoastaan asetuksen muodossa; katsoo, että tekoälyjärjestelmästä aiheutuviin haittoihin tai vahinkoihin liittyvä vastuukysymys on yksi keskeisistä näkökohdista, joita on käsiteltävä tässä kehyksessä;

Vastuu ja tekoäly

6. katsoo, että hyvin toimivia vastuujärjestelmiä ei ole tarpeen muuttaa kokonaan mutta tekoälyjärjestelmien monimutkaisuus, yhteenliitettävyys, läpinäkymättömyys, haavoittuvuus, kyky muuttua päivitysten avulla, kyky itseoppimiseen ja mahdollinen autonomia sekä niihin liittyvien toimijoiden suuri määrä ovat kuitenkin merkittävä haaste unionin ja kansallisten vastuukehysten säännösten tehokkuudelle; katsoo, että tarvitaan vastuujärjestelmien erityisiä ja koordinoituja mukautuksia, jotta vältetään tilanne, jossa haittaa kärsineet henkilöt tai henkilöt, joiden omaisuus on vahingoittunut, jäävät ilman korvausta;

7. panee merkille, että kaikki tekoälyjärjestelmien ohjaamat fyysiset tai virtuaaliset toiminnot, laitteet tai prosessit voivat muodollisesti olla haitan tai vahingon suora tai välillinen syy, mutta ne ovat kuitenkin lähestulkoon aina tulosta siitä, että joku rakentaa järjestelmiä, ottaa niitä käyttöön tai puuttuu niihin; toteaa tältä osin, että tekoälyjärjestelmille ei ole tarpeen antaa oikeushenkilöllisyyttä; katsoo, että tekoälyjärjestelmien läpinäkymättömyys, yhteenliitettävyys ja autonomia voivat tehdä käytännössä erittäin vaikeaksi tai jopa mahdottomaksi jäljittää tiettyjä tekoälyjärjestelmien haitallisia toimia tiettyihin ihmisen panoksiin tai suunnittelussa tehtyihin päätöksiin; muistuttaa, että laajalti hyväksyttyjen vastuukäsitteiden mukaisesti on kuitenkin mahdollista kiertää tämä este siten, että tekoälyjärjestelmään liittyvän riskin luovat tai riskiä ylläpitävät tai valvovat eri henkilöt koko arvoketjussa ovat vastuuvelvollisia;

8. katsoo, että tuotevastuudirektiivi on jo yli 30 vuoden ajan osoittautunut tehokkaaksi keinoksi saada korvausta turvallisuudeltaan puutteellisen tuotteen aiheuttamasta haitasta, mutta sitä olisi kuitenkin tarkistettava sen mukauttamiseksi digitaaliseen maailmaan ja uusien digitaaliteknologioiden asettamiin haasteisiin vastaamiseksi; katsoo, että näin voitaisiin taata tehokkaan kuluttajansuojan korkea taso sekä kuluttajien ja yritysten oikeusvarmuus ja välttää aiheuttamasta pk-yrityksille ja uusyrityksille korkeita kustannuksia ja riskejä; kehottaa komissiota arvioimaan, olisiko tuotevastuudirektiivi muutettava asetukseksi, selventämään siinä annettua ’tuotteen’ määritelmää määrittämällä, kattaako se digitaalisen sisällön ja digitaaliset palvelut, sekä harkitsemaan ’vahingon’, ’puutteellisen turvallisuuden’ ja ’valmistajan’ kaltaisten käsitteiden mukauttamista; katsoo, että oikeusvarmuuden takaamiseksi kaikkialla unionissa ’valmistajan’ käsitteen olisi tuotevastuudirektiivin tarkistamisen jälkeen katettava valmistajat, kehittäjät, ohjelmoijat, palveluntarjoajat sekä backend-operaattorit; kehottaa komissiota harkitsemaan todistustaakkaa koskevien sääntöjen kääntämistä päinvastaiseksi selkeästi määritellyissä tapauksissa ja asianmukaisen arvioinnin jälkeen, kun on kyse uusien digitaaliteknologioiden aiheuttamista haitoista; huomauttaa, että on tärkeää varmistaa, että päivitetty unionin säädös rajoittuu jatkossakin selkeästi yksilöityihin ongelmiin, joihin on jo olemassa toteuttamiskelpoisia ratkaisuja, ja jättää samalla tilaa teknologian tulevalle kehitykselle, mukaan lukien vapaisiin ja avoimen lähdekoodin ohjelmistoihin perustuva kehitys; toteaa, että tuotevastuudirektiiviä olisi käytettävä jatkossakin turvallisuudeltaan puutteellisen tekoälyjärjestelmän valmistajaa kohtaan esitettyjen siviilioikeudellisten vahingonkorvausvaatimusten yhteydessä, kun tekoälyjärjestelmää voidaan pitää kyseisessä direktiivinä tarkoitettuna tuotteena; korostaa, että tuotevastuukehyksen päivittämisen yhteydessä olisi päivitettävä myös yleisestä tuoteturvallisuudesta 3. joulukuuta 2001 annettua Euroopan parlamentin ja neuvoston direktiiviä 2001/95/EY[12], jotta voidaan varmistaa, että tekoälyjärjestelmissä otetaan huomioon sisäänrakennetun turvallisuuden periaatteet;

9. katsoo, että jäsenvaltioiden voimassa oleva tuottamusperusteinen vahingonkorvausoikeus tarjoaa useimmissa tapauksissa riittävän suojan tason henkilöille, jotka kärsivät järjestelmään puuttuvan kolmannen osapuolen, esimerkiksi hakkerin, aiheuttamasta haitasta, tai henkilöille, joiden omaisuutta tällainen kolmas osapuoli vahingoittaa, sillä tällainen puuttuminen on yleensä tuottamuksellista toimintaa; toteaa, että olemassa olevan kansallisen vahingonkorvausoikeuden täydentäminen uusilla vastuuvelvollisuussäännöillä vaikuttaa tarpeelliselta ainoastaan tietyissä tapauksissa, kuten silloin kun kolmatta osapuolta ei saada jäljitettyä tai tämä on varaton;

10. pitää siksi asianmukaisena, että tässä mietinnössä keskitytään tekoälyjärjestelmän operaattorille esitettyihin siviilioikeudellisiin vahingonkorvausvaatimuksiin; vahvistaa, että operaattorin vastuuvelvollisuus on perusteltua, sillä hän valvoo tekoälyjärjestelmään liittyvää riskiä auton omistajaan verrattavissa olevalla tavalla; katsoo, että tekoälyjärjestelmän monimutkaisuuden ja yhteenliitettävyyden vuoksi operaattori on monesti ensimmäinen näkyvä yhteyspiste vaikutusten kohteena olevalle henkilölle;

Operaattorin vastuu

11. katsoo, että operaattoria koskevien vastuusääntöjen olisi katettava kaikki tekoälyjärjestelmien toiminnot riippumatta siitä, missä toiminto tapahtuu ja tapahtuuko se fyysisesti vai virtuaalisesti; huomauttaa, että julkisissa tiloissa tapahtuvat toiminnot, jotka altistavat monia henkilöitä riskille, ovat kuitenkin tapauksia, jotka edellyttävät lisätarkastelua; katsoo, että haitan tai vahingon mahdolliset uhrit eivät useinkaan ole tietoisia toiminnosta eikä heillä yleensä ole operaattoria kohtaan sopimukseen perustuvaa oikeutta saada vahingonkorvauksia; toteaa, että jos haitta tai vahinko toteutuu, näillä henkilöillä on tällöin vain tuottamukselliseen vastuuseen perustuva oikeus saada vahingonkorvauksia ja heidän voi olla vaikea todistaa tekoälyjärjestelmän operaattorin virhe ja sitä koskevat vahingonkorvausvaatimukset saattavat siten jäädä tuloksettomiksi;

12. pitää asianmukaisena, että operaattorin katsotaan kattavan sekä frontend- ja backend-operaattori, jos jälkimmäiseen ei sovelleta tuotevastuudirektiiviä; katsoo, että frontend-operaattori olisi määriteltävä luonnolliseksi tai oikeushenkilöksi, joka harjoittaa tietynasteista valvontaa tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden ja hyötyy sen toiminnasta; toteaa, että backend-operaattori olisi määriteltävä luonnolliseksi tai oikeushenkilöksi, joka jatkuvasti määrittää teknologian ominaisuuksia sekä asettaa saataville dataa ja olennaisia backend-tukipalveluja ja joka näin ollen myös harjoittaa tietynasteista valvontaa tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden; katsoo, että valvonnan harjoittamisella tarkoitetaan kaikkia operaattorin toimia, jotka vaikuttavat tekoälyjärjestelmän toimintaan ja siten siihen, missä määrin kolmannet osapuolet altistuvat sen mahdollisille riskeille; katsoo, että nämä toimet voivat vaikuttaa tekoälyjärjestelmän toimintaan alusta alkaen sen päättymiseen saakka määrittämällä syötteet, tuotokset tai tulokset, tai muuttaa tekoälyjärjestelmän tiettyjä toimintoja tai prosesseja;

13. panee merkille, että voi olla tilanteita, joissa operaattoreita on enemmän kuin yksi, esimerkiksi backend-operaattori ja frontend-operaattori; katsoo, että tässä tapauksessa kaikkien operaattoreiden olisi oltava yhteisvastuussa ja heillä olisi oltava oikeasuhteinen regressioikeus toisiaan kohtaan; katsoo, että kunkin suhteellinen vastuu olisi määritettävä sen mukaan, minkä asteista valvontaa operaattorit harjoittivat tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden; katsoo, että tuotteiden jäljitettävyyttä olisi parannettava, jotta eri vaiheisiin osallistuvat voidaan tunnistaa paremmin;

Erilaiset vastuusäännöt erilaisille riskeille

14. toteaa, että ratkaiseva tekijä vastuun kannalta on se, minkä tyyppistä tekoälyjärjestelmää operaattori valvoo; toteaa, että tekoälyjärjestelmä, johon liittyy luontaisesti suuri riski ja joka toimii autonomisesti, saattaa aiheuttaa huomattavasti suuremman vaaran väestölle; katsoo, että tekoälyjärjestelmien nykyisille siviilioikeuden vastuun järjestelmille aiheuttamien oikeudellisten haasteiden perusteella vaikuttaa järkevältä ottaa kyseisiä suuririskisiä autonomisia tekoälyjärjestelmiä varten käyttöön yhteinen ankara vastuun järjestelmä; korostaa, että tällaisen riskiperusteisen lähestymistavan, joka voi kattaa useita riskitasoja, olisi perustuttava selkeisiin kriteereihin ja asianmukaiseen korkean riskitason määritelmään sekä tarjottava oikeusvarmuutta;

15. katsoo, että tekoälyjärjestelmä aiheuttaa suuren riskin, jos sen autonomiseen toimintaan liittyy merkittävä potentiaali aiheuttaa haittaa yhdelle tai useammalle henkilölle tavalla, joka on sattumanvarainen ja joka ylittää sen, mitä voidaan kohtuudella odottaa; katsoo, että tekoälyjärjestelmän suuririskisyyttä määritettäessä on otettava huomioon myös ala, jolla voidaan odottaa esiintyvän merkittäviä riskejä, ja tehtyjen toimien luonne; katsoo, että potentiaalin merkittävyys riippuu mahdollisen haitan vakavuuden, sen todennäköisyyden, että riski aiheuttaa haittaa tai vahinkoa, ja tekoälyjärjestelmän käyttötavan vuorovaikutuksesta;

16. suosittaa, että kaikki suuririskiset tekoälyjärjestelmät luetellaan tyhjentävästi ehdotetun asetuksen liitteessä; toteaa, että kun otetaan huomioon teknologian nopea kehitys ja tarvittava tekninen asiantuntemus, komission olisi tarkasteltava uudelleen kyseistä liitettä viipymättä ja vähintään kuuden kuukauden välein ja tarvittaessa muutettava sitä delegoidulla säädöksellä; katsoo, että komission olisi tehtävä tiivistä yhteistyötä perustettavan uuden pysyvän komitean kanssa, joka on samankaltainen kuin lähtöaineita käsittelevä pysyvä komitea tai moottoriajoneuvoja käsittelevä tekninen komitea, joissa on mukana jäsenvaltioiden kansallisia asiantuntijoita ja sidosryhmiä; katsoo, että tekoälyä käsittelevän korkean tason asiantuntijaryhmän tasapainoinen kokoonpano voisi toimia esimerkkinä sidosryhmien ryhmän muodostamiselle, niin että siihen lisätään eettisten kysymysten asiantuntijoita sekä antropologeja, sosiologeja ja mielenterveyteen erikoistuneita asiantuntijoita; katsoo myös, että Euroopan parlamentin tulisi nimittää neuvoa-antavia asiantuntijoita, joita tämä perustettava uusi pysyvä komitea voi kuulla;

17. panee merkille, että tekoälyyn perustuvien teknologioiden kehitys on erittäin dynaamista ja kiihtyy jatkuvasti; painottaa, että käyttäjien asianmukaisen suojelun varmistamiseksi on noudatettava nopeutettua lähestymistapaa EU:n markkinoille tuotavien tekoälyjärjestelmiä käyttävien uusien laitteiden ja järjestelmien analysointiin mahdollisten riskien varalta; suosittaa, että kaikkia tähän liittyviä menettelyjä olisi yksinkertaistettava mahdollisimman paljon; ehdottaa lisäksi, että komission arviointi siitä, aiheuttaako tekoälyjärjestelmä suuren riskin, olisi aloitettava samaan aikaan kuin tuoteturvallisuuden arviointi, jotta estetään tilanne, jossa suuririskinen tekoälyjärjestelmä on jo hyväksytty markkinoille mutta sitä ei ole vielä luokiteltu suuririskiseksi ja se toimii siten ilman pakollista vakuutusturvaa;

18. toteaa, että komission olisi arvioitava, kuinka tiedot, jotka on kerätty ja tallennettu suuririskisiin tekoälyjärjestelmiin tai joita säilytetään niissä näytön keräämistä varten siltä varalta, että järjestelmästä aiheutuu haittaa tai vahinkoa, ovat saatavilla ja kuinka tutkintaviranomainen voi niitä käyttää sekä kuinka näiden tietojen jäljitettävyyttä ja tarkastettavuutta voitaisiin parantaa ja samalla ottaa huomioon perusoikeudet ja oikeus yksityisyyteen;

19. toteaa, että ehdotetun asetuksen olisi jäsenvaltioiden ankaran vastuun järjestelmien tapaan katettava rikkomukset, jotka kohdistuvat tärkeisiin lailla suojattuihin oikeuksiin henkeen, terveyteen, fyysiseen koskemattomuuteen ja omaisuuteen, ja siinä olisi vahvistettava korvausten määrät ja laajuus sekä vanhentumisaika; katsoo, että ehdotettuun asetukseen olisi sisällytettävä myös merkittävä aineeton vahinko, jonka tuloksena syntyy todennettavissa olevaa taloudellista tappiota, joka ylittää unionin vastuuoikeudessa yhdenmukaistetun kynnysarvon, jossa vaikutusten kohteena olevien henkilöiden oikeussuojan saatavuus ja muiden asiaan kuuluvien henkilöiden edut ovat tasapainossa; kehottaa komissiota arvioimaan uudelleen ja mukauttamaan vahingonkorvausten kynnysarvoja unionin oikeudessa; katsoo, että komission olisi analysoitava perusteellisesti kaikkien jäsenvaltioiden oikeusperinteet ja olemassa olevia kansalliset lait, joissa myönnetään korvausta aineettomasta vahingosta, jotta voidaan arvioida, onko aineettoman vahingon sisällyttäminen tekoälyä koskeviin säädöksiin tarpeen ja onko se ristiriidassa unionin nykyisen oikeudellisen kehyksen kanssa tai heikentääkö se jäsenvaltioiden kansallista lainsäädäntöä;

20. katsoo, että kaikki tekoälyjärjestelmillä ohjatut toiminnot, laitteet tai prosessit, jotka aiheuttavat haittaa tai vahinkoa mutta joita ei ole lueteltu ehdotetun asetuksen liitteessä, olisi säilytettävä tuottamusperusteisen vastuun piirissä; katsoo, että vaikutusten kohteena olevan henkilön olisi kuitenkin voitava hyötyä olettamasta, että vastuu on operaattorilla, jonka puolestaan olisi voitava todistaa syyttömyytensä osoittamalla noudattaneensa huolellisuusvelvollisuuttaan;

21. katsoo, että sellaiseen tekoälyjärjestelmään, jota komissio ja perustettava pysyvä komitea eivät ole vielä arvioineet ja jota ei siten ole vielä luokiteltu suuririskiseksi ja sisällytetty ehdotetun asetuksen liitteessä olevaan luetteloon, olisi kuitenkin 20 kohdassa tarkoitetusta järjestelmästä poiketen sovellettava ankaraa vastuuta, jos se on aiheuttanut toistuvia vaaratilanteita, jotka ovat johtaneet vakavaan haittaan tai vahinkoon; panee merkille, että jos näin on, komission olisi myös viipymättä arvioitava tarvetta tarkistaa kyseistä liitettä ja lisätä kyseinen tekoälyjärjestelmä luetteloon; katsoo, että jos komissio päättää tämän arvioinnin perusteella sisällyttää kyseisen tekoälyjärjestelmän luetteloon, sillä olisi oltava taannehtiva vaikutus alkaen ensimmäisestä todistetusta kyseisen tekoälyjärjestelmän aiheuttamasta vaaratilanteesta, joka johti vakavaan haittaan tai vahinkoon;

22. pyytää komissiota arvioimaan tarvetta sopimuksia koskeviin unionin tason säännöksiin, joilla estetään sopimusperusteiset vastuuvapauslausekkeet, mukaan lukien yritysten välisissä ja yritysten ja hallinnon välisissä suhteissa;

Vakuutukset ja tekoälyjärjestelmät

23. katsoo, että vastuuvakuutukset ovat yksi keskeisistä tekijöistä, jotka määrittävät uusien teknologioiden, tuotteiden ja palvelujen menestyksen; toteaa, että asianmukaiset vastuuvakuutukset ovat myös olennaisen tärkeitä, jotta kansalaiset saadaan vakuuttuneiksi siitä, että he voivat luottaa uuteen teknologiaan huolimatta haittojen aiheutumisen riskistä tai vaikutusten kohteena olevien henkilöiden mahdollisista oikeusvaateista; huomauttaa samalla, että tämä sääntelyjärjestelmä keskittyy tarpeeseen käyttää ja kehittää tekoälyjärjestelmien hyötyjä samalla, kun otetaan käyttöön vahvoja suojatoimenpiteitä;

24. katsoo, että ehdotetun asetuksen liitteessä lueteltujen suuririskisten tekoälyjärjestelmien kaikilla operaattoreilla olisi oltava vastuuvakuutus, koska haitan tai vahingon aiheutumisen mahdollisuus on huomattava ja jotta otettaisiin huomioon 16. syyskuuta 2009 annettu Euroopan parlamentin ja neuvoston direktiivi 2009/103/EY moottoriajoneuvojen käyttöön liittyvän vastuun varalta otettavasta vakuutuksesta ja vakuuttamisvelvollisuuden voimaansaattamisesta[13]; katsoo, että tällaisten suuririskisten tekoälyjärjestelmien pakollisen vakuutuksen olisi katettava ehdotetussa asetuksessa säädetyt määrät ja korvausten laajuus; ottaa huomioon, että tällainen teknologia on edelleen hyvin harvinaista, koska siinä edellytetään korkeaa autonomisen päätöksenteon tasoa, minkä vuoksi asiasta tällä hetkellä käytävä keskustelu on enimmäkseen tulevaisuuteen suuntautunutta; katsoo kuitenkin, että riskeihin liittyvien epävarmuustekijöiden ei pitäisi johtaa kohtuuttoman korkeisiin vakuutusmaksuihin ja siten olla esteenä tutkimukselle ja innovoinnille;

25. katsoo, että julkisin varoin rahoitettava unionin tason korvausmekanismi ei ole oikea tapa korjata mahdollisia puutteita vakuutusturvassa; katsoo, että tekoälyjärjestelmien riskejä koskevan tiedon puutteen ja tulevaa kehitystä koskevan epävarmuuden vuoksi vakuutusalalla on vaikeaa kehittää mukautettuja tai uusia vakuutustuotteita; katsoo, että jos pakollisen vakuutuksen kehittäminen jätetään täysin markkinoiden tehtäväksi, seurauksena on todennäköisesti ”kaikille sopiva” toimintamalli, jossa vakuutusmaksut ovat kohtuuttoman korkeita ja kannustimet vääränlaisia, jolloin operaattorit valitsevat edullisimman vakuutuksen parhaan kattavuuden sijaan, ja josta saattaa tulla este tutkimukselle ja innovoinnille; katsoo, että komission olisi tehtävä tiivistä yhteistyötä vakuutusalan kanssa sen selvittämiseksi, miten dataa ja innovatiivisia malleja voidaan hyödyntää sellaisten vakuutusten kehittämiseksi, joissa tarjotaan riittävää kattavuutta kohtuulliseen hintaan;

Loppupäätelmät

26. pyytää komissiota tekemään parlamentille Euroopan unionin toiminnasta tehdyn sopimuksen 225 artiklan nojalla ehdotuksen asetukseksi tekoälyjärjestelmien toimintaa koskevasta vastuusta liitteenä olevien suositusten mukaisesti;

27. katsoo, että pyydetyllä ehdotuksella ei ole rahoitusvaikutuksia;

28. kehottaa puhemiestä välittämään tämän päätöslauselman sekä liitteenä olevat suositukset komissiolle ja neuvostolle.

 

 


 

PÄÄTÖSLAUSELMAESITYKSEN LIITE YKSITYISKOHTAISET SUOSITUKSET EUROOPAN PARLAMENTIN JA NEUVOSTON ASETUKSEN LAATIMISEKSI TEKOÄLYJÄRJESTELMIEN TOIMINTAA KOSKEVASTA VASTUUSTA

A. EHDOTUKSEN PERIAATTEET JA TAVOITTEET

Tässä mietinnössä käsitellään digitalisoinnin yhtä tärkeää näkökohtaa, jota puolestaan muovaavat rajatylittävä toiminta, maailmanlaajuinen kilpailu ja keskeiset yhteiskunnalliset näkökohdat. Ohjenuorana olisi käytettävä seuraavia periaatteita:

Todelliset digitaaliset sisämarkkinat edellyttävät täydellistä yhdenmukaistamista, joka tapahtuu asetuksella. Tekoälyjärjestelmien kehittämisen mukanaan tuomiin uusiin oikeudellisiin haasteisiin on vastattava varmistamalla mahdollisimman suuri oikeusvarmuus koko vastuuketjussa, mukaan lukien valmistajat, operaattorit, vaikutusten kohteena olevat henkilöt ja muut kolmannet osapuolet. Ylisääntelyä pitäisi välttää ja byrokratiaa ehkäistävä, sillä niistä aiheutuisi haittaa eurooppalaiselle innovoinnille tekoälyn alalla, erityisesti jos teknologian, tuotteen tai palvelun kehittäjä on pk-yritys tai uusyritys. Tekoälyyn liittyvää siviilioikeudellista vastuuta koskevissa säännöissä olisi saavutettava tasapaino yhtäältä kansalaisten suojelun ja toisaalta sen välillä, että kannustetaan yrityksiä sijoittamaan innovointiin, erityisesti tekoälyjärjestelmiin. Sen sijaan, että korvattaisiin hyvin toimivat nykyiset vastuujärjestelmät, olisi tehtävä muutamia tarpeellisia mukautuksia esittämällä uusia ja tulevaisuuteen suuntautuvia ideoita. Tuleva ehdotus asetukseksi ja tuotevastuudirektiivi ovat tekoälyjärjestelmien yhteisen vastuukehyksen kaksi pilaria, ja ne edellyttävät tiivistä koordinointia ja yhdenmukaistamista kaikkien poliittisten toimijoiden välillä unionissa ja jäsenvaltioissa.

 Kansalaisilla olisi oltava oikeus samantasoiseen suojeluun ja samantasoisiin oikeuksiin riippumatta siitä, onko haitta aiheutunut tekoälyjärjestelmästä vai ei tai onko se tapahtunut fyysisesti tai virtuaalisesti. Näin voidaan vahvistaa heidän luottamustaan uuteen teknologiaan.

 Tulevassa ehdotuksessa asetukseksi olisi otettava huomioon sekä aineelliset että aineettomat vahingot. Komissiota pyydetään muun muassa 19. helmikuuta 2020 antamansa tekoälyn ja robotiikan vaikutuksia turvallisuuteen ja vastuuvelvollisuuteen käsittelevän tiedonannon perusteella analysoimaan perusteellisesti kaikkien jäsenvaltioiden oikeusperinteet sekä olemassa olevat säännökset, joissa myönnetään korvausta aineettomasta vahingosta, jotta voidaan arvioida, onko aineettoman vahingon sisällyttäminen tulevaan ehdotukseen asetukseksi oikeudellisesti pitävää ja tarpeellista vaikutusten kohteena olevan henkilön näkökulmasta. Tällä hetkellä saatavilla olevien tietojen perusteella parlamentti katsoo, että merkittävä aineeton vahinko olisi sisällytettävä siihen, jos vaikutusten kohteena olevalle henkilölle on koitunut huomattavaa, mikä tarkoittaa todennettavissa olevaa, taloudellista vahinkoa.


B. PYYDETYN EHDOTUKSEN TEKSTI

 

Ehdotus

EUROOPAN PARLAMENTIN JA NEUVOSTON ASETUS

tekoälyjärjestelmien toimintaa koskevasta vastuusta

 

EUROOPAN PARLAMENTTI JA NEUVOSTO, jotka

ottavat huomioon Euroopan unionin toiminnasta tehdyn sopimuksen ja erityisesti sen 114 artiklan,

ottavat huomioon Euroopan komission ehdotuksen,

sen jälkeen kun esitys lainsäätämisjärjestyksessä hyväksyttäväksi säädökseksi on toimitettu kansallisille parlamenteille,

ottavat huomioon Euroopan talous- ja sosiaalikomitean lausunnon[14],

noudattavat tavallista lainsäätämisjärjestystä[15],

sekä katsovat seuraavaa:

 

(1) ”Vastuun” käsitteellä on tärkeä kaksitahoinen rooli arjessamme: toisaalta sillä varmistetaan, että haittaa tai vahinkoa kärsineellä henkilöllä on oikeus vaatia korvausta osapuolelta, jonka katsotaan olevan vastuussa kyseisestä haitasta tai vahingosta, ja toisaalta se tarjoaa henkilöille taloudellisia kannustimia olla alun perinkään aiheuttamatta haittaa tai vahinkoa. Kaikissa vastuukehyksissä olisi pyrittävä lisäämään luottamusta tuotteiden ja palvelujen, mukaan lukien uusien digitaaliteknologioiden, kuten tekoälyn, esineiden internetin tai robotiikan, turvallisuuteen, luotettavuuteen ja johdonmukaisuuteen, jotta voidaan saattaa tasapainoon haitan tai vahingon mahdollisten uhrien tehokas suojelu ja riittävän liikkumavaran tarjoaminen, jotta uusien teknologioiden, tuotteiden tai palvelujen kehittäminen on mahdollista.

(2) Erityisesti uusien tuotteiden ja palvelujen elinkaaren alussa ja niiden esitestauksen jälkeen käyttäjällä ja kolmansilla henkilöillä on tietty riski siitä, että jokin ei toimi asianmukaisesti. Tämä yrityksen ja erehdyksen prosessi on samalla keskeinen teknisen edistyksen mahdollistaja, jota ilman useimpia teknologioitamme ei olisi olemassa. Tähän asti uusiin tuotteisiin ja palveluihin liittyviä riskejä on lievennetty asianmukaisesti vahvalla tuoteturvallisuuslainsäädännöllä ja vastuusäännöillä.

(3) Tekoälyn yleistyminen on merkittävä haaste nykyisille vastuukehyksille. Tekoälyjärjestelmien käyttö arjessamme voi johtaa tilanteisiin, joissa järjestelmien läpinäkymättömyyden (”mustan laatikon” ongelma) ja niitä niiden elinkaaren aikana käsittelevien toimijoiden runsaslukuisuuden takia voi olla erittäin kallista tai jopa mahdotonta tunnistaa, kuka kyseisen tekoälyjärjestelmän käyttöön liittyvää riskiä valvoi tai mikä koodi tai syöte aiheutti haitallisen operaation. Tilannetta vaikeuttavat entisestään tekoälyjärjestelmän ja muiden tekoälyjärjestelmien sekä muiden kuin tekoälyjärjestelmien yhteenliitettävyys, sen riippuvuus ulkoisista tiedoista, sen haavoittuvuus kyberturvallisuusrikkomuksille sekä koneoppimisen ja syväoppimisen mukanaan tuoma tekoälyjärjestelmien lisääntyvä autonomia. Näiden monimutkaisten ominaisuuksien ja mahdollisten haavoittuvuuksien lisäksi tekoälyjärjestelmiä voitaisiin käyttää myös vakavan haitan aiheuttamiseen, kuten ihmisarvon ja eurooppalaisten arvojen ja vapauksien vaarantamiseen seuraamalla ihmisiä vastoin näiden tahtoa, ottamalla käyttöön sosiaalisen pisteytyksen ohjelmia, tekemällä vääristyneitä ratkaisuja sairausvakuutusten, luoton myöntämisen, oikeuden päätösten tai rekrytointi- tai työllistämispäätösten yhteydessä tai rakentamalla tappavia autonomisia asejärjestelmiä.

(4) On tärkeää korostaa, että tekoälyjärjestelmien käyttöönoton edut ylittävät selvästi haitat. Tekoälyjärjestelmät auttavat torjumaan ilmastonmuutosta tehokkaammin, parantamaan lääkärintarkastuksia sekä työoloja, ottamaan vammaiset ja ikääntyvät henkilöt paremmin osaksi yhteiskuntaa ja tarjoamaan räätälöityjä koulutuskursseja kaikentyyppisille opiskelijoille. Paras etenemistapa on hyödyntää erilaisia teknologisia mahdollisuuksia ja lisätä ihmisten luottamusta tekoälyjärjestelmien käyttöön, samalla kun estetään haitalliset skenaariot, ja yhdistää vahvat eettiset normit vakaaseen ja oikeudenmukaiseen korvausmenettelyyn.

(5) Asianmukaista vastuujärjestelmää tarvitaan myös vastapainona turvallisuussääntöjen rikkomiselle. Tässä asetuksessa säädetyssä vastuujärjestelmässä täytyy kuitenkin ottaa huomioon kaikki asiaan liittyvät eri etunäkökohdat. Ennen uusia sääntelytoimia olisi tutkittava huolellisesti, mitä seurauksia mahdollisilla uusilla sääntelykehyksillä on pieniin ja keskisuuriin yrityksiin ja uusyrityksiin. Kun otetaan huomioon tällaisten yritysten ratkaiseva merkitys unionin talouden kannalta, on perusteltua noudattaa ehdottoman oikeasuhteista lähestymistapaa, jotta niille annetaan mahdollisuus kehittyä ja innovoida. Toisaalta tekoälyjärjestelmien aiheuttamien haittojen ja vahinkojen uhreilla olisi oltava oikeus hyvitykseen ja saada täysi korvaus kärsimistään haitoista ja vahingoista.

(6) Valmisteltaessa nykyiseen oikeudelliseen kehykseen mahdollisesti tarvittavia muutoksia olisi ensin tehtävä selväksi, että tekoälyjärjestelmillä ei ole sen enempää oikeushenkilöllisyyttä kuin omaatuntoakaan ja että niiden ainoana tehtävänä on palvella ihmiskuntaa. Monet tekoälyjärjestelmät eivät ole kovin erilaisia verrattuna muihin teknologioihin, jotka joskus perustuvat jopa monimutkaisempiin ohjelmistoihin. Viime kädessä valtaosaa tekoälyjärjestelmistä käytetään vähäpätöisten tehtävien hoitamiseen, jolloin ne eivät aiheuta lainkaan tai aiheuttavat hyvin vähän riskejä yhteiskunnalle. Käyttämällä ilmaisua ”automatisoitu päätöksenteko” voitaisiin välttää termin ”tekoäly” mahdollinen monitulkintaisuus. Tämä ilmaisu kuvaa tilannetta, joka alkaa siitä, että käyttäjä siirtää päätöksen tekemisen osittain tai kokonaan jollekin entiteetille ohjelmistoa tai palvelua käyttäen. Kyseinen entiteetti puolestaan käyttää automaattisesti toimeenpantavia päätöksentekomalleja toimen suorittamiseen käyttäjän puolesta tai antamaan käyttäjälle tietoa tämän toimea suorittaessaan tekemien päätösten pohjaksi.

(7) On kuitenkin olemassa myös tekoälyjärjestelmiä, joita kehitetään ja jotka otetaan käyttöön kriittisesti ja jotka perustuvat neuroniverkostojen ja syväoppimisprosessien kaltaisiin teknologioihin. Niiden läpinäkymättömyys ja autonomia voivat vaikeuttaa suuresti tiettyjen toimien jäljittämistä tiettyihin niiden suunnittelussa tai toiminnassa tehtyihin ihmisen päätöksiin. Tällaisen tekoälyjärjestelmän operaattori voisi esimerkiksi väittää, että haitan tai vahingon aiheuttanut fyysinen tai virtuaalinen toiminto, laite tai prosessi ei ollut hänen valvonnassaan, koska se johtui hänen tekoälyjärjestelmänsä autonomisesta toiminnasta. Pelkän autonomisen tekoälyjärjestelmän toiminnan ei myöskään pitäisi olla riittävä peruste vahingonkorvausvaatimuksen hyväksymiselle. Näin ollen saattaa olla olemassa korvausvastuutapauksia, joissa vastuu saattaa jakautua epäoikeudenmukaisesti tai toimimattomasti tai joissa tekoälyjärjestelmän aiheuttamaa haittaa tai vahinkoa kärsinyt henkilö ei pysty näyttämään toteen valmistajan, järjestelmään puuttuneen kolmannen osapuolen tai operaattorin tuottamusta ja jää ilman korvausta.

(8) Olisi kuitenkin aina oltava selvää, että kuka tahansa tekoälyjärjestelmän luokin tai ylläpitää tai valvoo sitä taikka puuttuu siihen, hänen olisi oltava vastuussa toiminnon, laitteen tai prosessin aiheuttamasta haitasta tai vahingosta. Tämä on seurausta yleisistä ja laajalti hyväksytyistä vastuuta koskevista oikeuden periaatteista, joiden mukaan henkilö, joka saa aikaan ihmiselle koituvan riskin tai pitää sitä yllä, on vastuussa, jos riskistä aiheutuu haittaa tai vahinkoa, jolloin henkilön olisi joko ennakolta minimoitava riski tai korvattava se jälkikäteen. Näin ollen tekoälyjärjestelmien yleistyminen ei merkitse sitä, että vastuuvelvollisuutta koskeville säännöille olisi tehtävä täydellinen tarkistus kaikkialla unionissa. Tietyt nykyiseen lainsäädäntöön tehtävät mukautukset ja hyvin arvioidut ja kohdennetut uudet säännökset riittäisivät ottamaan huomioon tekoälyyn liittyvät haasteet, niin että estettäisiin sääntelyn hajanaisuus ja taattaisiin tekoälyyn liittyvää siviilioikeudellista vastuuta koskevan lainsäädännön yhdenmukaistaminen kaikkialla unionissa.

(9) Neuvoston direktiivi 85/374/ETY[16] (tuotevastuudirektiivi) on jo yli 30 vuoden ajan osoittautunut tehokkaaksi keinoksi saada korvausta turvallisuudeltaan puutteellisen tuotteen aiheuttamasta vahingosta. Näin ollen direktiiviä olisi sovellettava myös haittaa tai vahinkoa kärsineen osapuolen turvallisuudeltaan puutteellisen tekoälyjärjestelmän valmistajaa kohtaan esittämiin siviilioikeudellisiin vahingonkorvausvaatimuksiin. Parempaa sääntelyä koskevien unionin periaatteiden mukaisesti kaikista tarvittavista lainsäädännöllisistä muutoksista olisi keskusteltava kyseisen direktiivin tarvittavan uudelleentarkastelun aikana. Jäsenvaltioiden voimassa oleva lainsäädäntö tuottamusperusteisesta vastuusta tarjoaa useimmissa tapauksissa riittävän suojan tason henkilöille, jotka kärsivät järjestelmään puuttuneen kolmannen henkilön aiheuttamasta haitasta tai vahingosta, sillä tämä puuttuminen on yleensä tuottamukseen perustuvaa toimintaa, jossa kolmas osapuoli käyttää tekoälyjärjestelmää haitan aiheuttamiseen. Tämän vuoksi tässä asetuksessa olisi keskityttävä tekoälyjärjestelmän operaattorille esitettyihin vahingonkorvausvaatimuksiin.

(10) Tämän asetuksen mukainen operaattorin vastuu perustuu siihen, että hän harjoittaa tietynasteista valvontaa tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden auton omistajaan verrattavissa olevalla tavalla. Mitä kehittyneempi ja autonomisempi järjestelmä on, sitä suurempi merkitys algoritmien määrittelyllä ja niihin vaikuttamisella, esimerkiksi jatkuvilla päivityksillä, on. Koska usein useamman kuin yhden henkilön voidaan merkityksellisesti katsoa toimivan tekoälyjärjestelmän operaattorina, tässä asetuksessa operaattorin olisi katsottava kattavan sekä backend-operaattorin että frontend-operaattorin. Vaikka frontend-operaattori katsotaan yleensä henkilöksi, joka päättää ensisijaisesti tekoälyjärjestelmän käytöstä, backend-operaattori saattaa itse asiassa pystyä enemmän valvomaan toimintaan liittyviä riskejä. Jos backend-operaattoria pidetään myös tuotevastuudirektiivin 3 artiklassa määriteltynä valmistajana, häneen olisi sovellettava kyseistä direktiiviä. Jos operaattoreita on vain yksi ja tämä on myös tekoälyjärjestelmän valmistaja, tämän asetuksen olisi oltava etusijalla tuotevastuudirektiiviin nähden.

(11) Jos käyttäjä eli henkilö, joka käyttää tekoälyjärjestelmää, on osallisena vahinkotapahtumassa, hänen olisi oltava vastuuvelvollinen tämän asetuksen mukaisesti vain, jos käyttäjää voidaan pitää myös operaattorina. Jos näin ei ole, se, missä laajuudessa käyttäjä myötävaikuttaa riskiin törkeällä huolimattomuudella tai tahallisuudella, saattaa johtaa siihen, että käyttäjä on tuottamusperusteisessa vastuussa kantajalle. Tämän ei pitäisi vaikuttaa asiassa sovellettaviin käyttäjän oikeuksiin kuluttajana.

(12) Asetuksen olisi mahdollistettava se, että vaikutusten kohteena olevat henkilöt voivat esittää vahingonkorvausvaatimuksia koko vastuuketjussa ja tekoälyjärjestelmän koko elinkaaren ajan. Sen olisi myös periaatteessa katettava kaikki tekoälyjärjestelmät riippumatta siitä, missä ne toimivat ja tapahtuvatko toiminnot fyysisesti vai virtuaalisesti. Suurimmassa osassa tämän asetuksen mukaisista vahingonkorvausvaatimuksista olisi kuitenkin käsiteltävä siviilioikeudellista vastuuta tapauksissa, joissa tekoälyjärjestelmä toimii julkisessa tilassa ja altistaa lukuisia henkilöitä riskille. Tällaisessa tilanteessa vaikutusten kohteena olevat henkilöt eivät useinkaan ole tietoisia käytössä olevasta tekoälyjärjestelmästä eikä heillä ole sopimussuhdetta tai oikeudellista suhdetta operaattoriin. Näin ollen tekoälyjärjestelmän toiminta asettaa heidät tilanteeseen, jossa he voisivat esittää tekoälyjärjestelmän operaattorille haitan tai vahingon tapahtuessa vain tuottamusperusteiseen vastuuseen perustuvan vahingonkorvausvaatimuksen ja heidän olisi erittäin vaikea todistaa tekoälyjärjestelmän operaattorin virhe.

(13) Ratkaiseva tekijä on se, minkä tyyppistä tekoälyjärjestelmää operaattori valvoo. Tekoälyjärjestelmä, johon liittyy suuri riski, saattaa aiheuttaa käyttäjälle tai väestölle huomattavasti suuremman vaaran tavalla, joka on sattumanvarainen ja ylittää sen, mitä voidaan kohtuudella odottaa. Tämä tarkoittaa sitä, että tekoälyjärjestelmän autonomisen toiminnan alkaessa suurin osa vaikutusten kohteena olevista henkilöistä ei ole tiedossa eikä tunnistettavissa (esimerkiksi julkisella aukiolla tai naapuritalossa olevat henkilöt) toisin kuin silloin, kun on kyseessä tekoälyjärjestelmän toiminta, jossa on mukana tiettyjä henkilöitä, jotka ovat säännönmukaisesti antaneet suostumuksensa sen käyttöön ennen sitä (esimerkiksi leikkaus sairaalassa tai myyntiesittely pienessä liikkeessä). Sen määrittelyn, kuinka merkittävä suuririskisen tekoälyjärjestelmän haitta- tai vahinkopotentiaali on, olisi perustuttava käyttötarkoituksen, jota varten tekoälyjärjestelmä saatetaan markkinoille, tekoälyjärjestelmän käyttötavan, potentiaalisen haitan tai vahingon vakavuuden, mahdollisen haitan aiheuttavan päätöksenteon autonomian asteen ja riskin aineellistumisen todennäköisyyden vuorovaikutukseen. Vakavuusaste olisi määritettävä asiaan liittyvien tekijöiden – kuten haitasta tai vahingosta kärsiville henkilöille toiminnosta aiheutuvan mahdollisen haitan laajuuden, mukaan lukien erityiset vaikutukset perusoikeuksiin, vaikutusten kohteena olevien henkilöiden lukumäärän, mahdollisen vahingon kokonaisarvon ja koko yhteiskunnalle aiheutuvan haitan – perusteella. Haitan tai vahingon todennäköisyys olisi määritettävä asiaan liittyvien tekijöiden – kuten sen, mikä on algoritmisten laskelmien merkitys päätöksentekoprosessissa, päätöksen monimutkaisuuden ja vaikutusten kumoutuvuuden – perusteella. Viime kädessä käyttötavan olisi oltava riippuvainen asiaan liittyvistä tekijöistä, muun muassa siitä, missä ympäristössä ja millä alalla tekoälyjärjestelmä toimii, voiko sillä olla oikeudellisia tai tosiasiallisia vaikutuksia vaikutusten kohteena olevan henkilön tärkeisiin lailla suojattuihin oikeuksiin ja ovatko vaikutukset kohtuudella vältettävissä.

(14) Kaikki suuririskiset tekoälyjärjestelmät olisi lueteltava tyhjentävästi tämän asetuksen liitteessä. Kun otetaan huomioon tekniikan ja markkinoiden nopea kehitys maailmanlaajuisesti sekä tekoälyjärjestelmien asianmukaiseen tarkasteluun tarvittava tekninen asiantuntemus, komissiolle olisi siirrettävä valta hyväksyä Euroopan unionin toiminnasta tehdyn sopimuksen 290 artiklan mukaisesti säädösvallan siirron nojalla annettavia delegoituja säädöksiä, joilla muutetaan tätä asetusta suuririskisten tekoälyjärjestelmien tyyppien ja niiden kriittisten alojen osalta, joilla niitä käytetään. Tässä asetuksessa säädettyjen määritelmien ja säännösten perusteella komission olisi tarkasteltava liitettä uudelleen viipymättä ja vähintään kuuden kuukauden välein ja tarvittaessa muutettava sitä delegoiduilla säädöksillä. Komission arviointi siitä, onko tekoälyjärjestelmä suuririskinen, olisi aloitettava samaan aikaan kuin tuoteturvallisuuden arviointi, jotta estetään tilanne, jossa suuririskinen tekoälyjärjestelmä on jo hyväksytty markkinoille mutta sitä ei ole vielä luokiteltu suuririskiseksi ja se toimii siten ilman pakollista vakuutusturvaa. Jotta yrityksillä ja tutkimusorganisaatioilla olisi riittävästi suunnittelu- ja investointivarmuutta, kriittisiin aloihin olisi tehtävä muutoksia vain kahdentoista kuukauden välein. Operaattoreiden olisi ilmoitettava komissiolle, jos ne kehittävät uutta teknologiaa, tuotetta tai palvelua, joka kuuluu johonkin liitteessä mainituista kriittisistä aloista ja joka voitaisiin myöhemmin luokitella suuririskiseksi tekoälyjärjestelmäksi.

(15) On erityisen tärkeää, että komissio asiaa valmistellessaan toteuttaa asianomaisten sidosryhmien asianmukaiset kuulemiset, myös asiantuntijatasolla, ja että nämä kuulemiset toteutetaan paremmasta lainsäädännöstä 13 päivänä huhtikuuta 2016 tehdyssä toimielinten välisessä sopimuksessa[17] vahvistettujen periaatteiden mukaisesti. Pysyvän komitean nimeltä ”Tekninen komitea – suuririskiset tekoälyjärjestelmät” (suuririskisiä tekoälyjärjestelmiä käsittelevä pysyvä komitea) olisi tuettava komissiota tämän asetuksen mukaisessa säännöllisessä uudelleentarkastelussa. Tämän pysyvän komitean olisi koostuttava jäsenvaltioiden edustajista sekä tasapainoisesta joukosta sidosryhmiä, mukaan lukien kuluttajajärjestöt, vaikutusten kohteena olevia henkilöitä edustavat järjestöt, eri alojen ja erikokoisten yritysten edustajat sekä tutkijat ja tiedeyhteisön edustajat. Jotta voitaisiin erityisesti varmistaa tasavertainen osallistuminen delegoitujen säädösten valmisteluun, Euroopan parlamentille ja neuvostolle toimitetaan kaikki asiakirjat samaan aikaan kuin jäsenvaltioiden asiantuntijoille, ja Euroopan parlamentin ja neuvoston asiantuntijoilla on järjestelmällisesti oikeus osallistua komission asiantuntijaryhmien sekä suuririskisiä tekoälyjärjestelmiä käsittelevän pysyvän komitean kokouksiin, joissa valmistellaan delegoituja säädöksiä.

(16) Tämän asetuksen olisi katettava henkeen, terveyteen, fyysiseen koskemattomuuteen ja omaisuuteen kohdistuvat haitat tai vahingot ja merkittävät aineettomat vahingot, joiden tuloksena syntyy todennettavissa olevaa taloudellista tappiota, joka ylittää unionin vastuuoikeudessa yhdenmukaistetun kynnysarvon, jossa vaikutusten kohteena olevien henkilöiden oikeussuojan saatavuus ja muiden asiaan kuuluvien henkilöiden edut ovat tasapainossa Komission olisi arvioitava uudelleen ja mukautettava vahingonkorvausten kynnysarvoja unionin oikeudessa. Merkittävän aineettoman vahingon olisi katsottava tarkoittavan vahinkoa, jonka seurauksena vaikutusten kohteena oleva henkilö kärsii huomattavasta haitasta, hänen henkilökohtaiset etunsa ovat objektiivisesti ja todistettavasti kärsineet ja hänelle on aiheutunut taloudellista tappiota, joka lasketaan ottaen huomioon esimerkiksi aikaisempien tulojen vuotuiset keskiarvot ja muut asiaan liittyvät olosuhteet. Tässä asetuksessa olisi myös määritettävä korvauksen määrä ja laajuus sekä korvausvaatimusten esittämisen vanhentumisajat. Tässä asetuksessa olisi asetettava korvauksille huomattavasti alemmat ylärajat kuin tuotevastuudirektiivissä, koska tämä asetus koskee ainoastaan tekoälyjärjestelmän yksittäisestä toiminnosta yksittäiselle henkilölle aiheutunutta taittaa tai vahinkoa, kun taas ensin mainittu koskee tiettyä määrää tuotteita tai jopa kokonaisia tuoteryhmiä, joissa on sama vika.

(17) Kaikki tekoälyjärjestelmillä ohjatut fyysiset tai virtuaaliset toiminnot, laitteet tai prosessit, joita ei ole lueteltu suuririskisinä tekoälyjärjestelminä tämän asetuksen liitteessä, olisi säilytettävä tuottamusperusteisen vastuun piirissä, ellei voimassa ole tiukempaa kansallista lainsäädäntöä ja kuluttajansuojalainsäädäntöä. Jäsenvaltioiden kansallista lainsäädäntöä, myös asiaa koskevaa oikeuskäytäntöä, joka liittyy korvauksen määrään ja laajuuteen sekä vanhentumisaikaan, olisi edelleen sovellettava. Sellaisen tekoälyjärjestelmän, jota ei ole lueteltu suuririskisenä tekoälyjärjestelmänä, aiheuttamasta haitasta tai vahingosta kärsineen henkilön olisi voitava hyötyä olettamasta, että vastuu on operaattorilla.

(18) Operaattorilta odotettavan huolellisuuden olisi vastattava i) tekoälyjärjestelmän luonnetta, ii) mahdollisen vaikutuksen kohteena olevaa lailla suojattua oikeutta, iii) tekoälyjärjestelmän mahdollisesti aiheuttamaa haittaa tai vahinkoa ja iv) tällaisen vahingon todennäköisyyttä. Tässä yhteydessä olisi otettava huomioon, että operaattorilla saattaa olla rajalliset tiedot tekoälyjärjestelmässä käytetyistä algoritmeista ja datasta. Olisi oletettava, että operaattori on noudattanut häneltä kohtuudella odotettavaa asianmukaista huolellisuutta valitessaan sopivan tekoälyjärjestelmän, jos operaattori on valinnut tekoälyjärjestelmän, joka on sertifioitu komission suunnitteleman vapaaehtoisen sertifiointijärjestelmän[18] kaltaisen järjestelmän mukaisesti. Olisi oletettava, että operaattori on noudattanut häneltä kohtuudella odotettavaa asianmukaista huolellisuutta tekoälyjärjestelmän toiminnan aikana, jos operaattori voi todistaa, että hän on tosiasiallisesti ja säännöllisesti seurannut tekoälyjärjestelmää sen toiminnan aikana sekä ilmoittanut valmistajalle mahdollisista epäsäännöllisyyksistä toiminnan aikana. Olisi oletettava, että operaattori on noudattanut häneltä kohtuudella odotettavaa asianmukaista huolellisuutta toiminnan luotettavuuden ylläpidossa, jos operaattori on asentanut kaikki tekoälyjärjestelmän valmistajan tarjoamat saatavilla olevat päivitykset. Koska operaattoreiden tiedon taso voi vaihdella sen mukaan, ovatko nämä pelkkiä kuluttajia vai ammattilaisia, huolellisuusvelvoitteita olisi mukautettava vastaavasti.

19) Jotta operaattori voi todistaa, että virhe ei ollut hänen, tai vaikutusten kohteena oleva henkilö voi todistaa virheen olemassaolon, valmistajilla olisi oltava velvollisuus tehdä yhteistyötä molempien asianomaisten osapuolten kanssa muun muassa antamalla hyvin dokumentoitua tietoa. Sekä unioniin että sen ulkopuolelle sijoittautuneiden valmistajien olisi lisäksi oltava velvollisia nimeämään tekoälyyn liittyviä vastuuasioita käsittelevä edustaja unionissa yhteyspisteeksi, joka vastaa kaikkiin operaattoreiden tiedusteluihin, samaan tapaan kuin Euroopan parlamentin ja neuvoston asetuksen (EU) 2016/679[19] 37 artiklassa tarkoitetut tietosuojavastaavat, Euroopan parlamentin ja neuvoston asetuksen 2018/858[20] 3 artiklan 41 kohdassa ja 13 artiklan 4 kohdassa tarkoitetut valmistajan edustajat tai Euroopan parlamentin ja neuvoston asetuksen 2019/1020[21] 4 artiklan 2 kohdassa ja 5 artiklassa tarkoitetut valtuutetut edustajat.

(20) Lainsäätäjän olisi otettava huomioon tekoälyjärjestelmiin liittyvät vastuuriskit koko niiden elinkaaren ajan kehityksestä käyttöön ja käyttöiän loppuun, mukaan lukien jätehuolto ja kierrätyksen hallinta. Tekoälyjärjestelmien sisällyttäminen tuotteeseen tai palveluun edustaa yrityksille taloudellista riskiä ja vaikuttaa siten voimakkaasti pk-yritysten sekä uusyritysten kykyyn ja vaihtoehtoihin vakuuttaa ja rahoittaa uusiin teknologioihin perustuvia hankkeita koskevaa tutkimus- ja kehitystyötään. Korvausvastuun tarkoituksena ei siten ole pelkästään turvata henkilöiden tärkeitä lailla suojeltuja oikeuksia, vaan se myös määrittää, voivatko yritykset ja erityisesti pk- ja uusyritykset hankkia pääomaa, innovoida, harjoittaa tutkimusta ja viime kädessä tarjota uusia tuotteita ja palveluja sekä luottavatko kuluttajat tällaisiin tuotteisiin ja palveluihin ja ovatko he halukkaita käyttämään niitä huolimatta näihin tuotteisiin tai palveluihin mahdollisesti liittyvistä riskeistä ja niihin kohdistetuista oikeusvaateista.

(21) Vakuutukset voivat auttaa varmistamaan, että uhrit voivat saada riittävän korvauksen, sekä mahdollistamaan kaikkien vakuutettujen henkilöiden riskien jakautuminen. Yksi tekijöistä, joiden pohjalta vakuutusyhtiöt tarjoavat vakuutustuotteita ja -palveluja, on riskinarviointi, joka perustuu riittävien aiempien korvausvaatimustietojen saatavuuteen. Laadukkaiden tietojen saatavuuden puute tai riittämätön määrä voi olla yksi syy siihen, miksi vakuutustuotteiden kehittäminen uusille ja kehitteillä oleville teknologioille on aluksi vaikeaa. Uusien teknologioiden luoman datan parempi saatavuus ja sen käytön optimointi yhdessä hyvin dokumentoidun tiedon antamista koskevan velvoitteen kanssa kuitenkin parantaisi vakuuttajien valmiuksia uusien riskien mallintamiseen ja innovatiivisemman vakuutusturvan kehittämiseen.

(22) Koska aiempia korvausvaatimuksia koskevat tiedot puuttuvat, olisi tutkittava, kuinka ja millä ehdoilla vastuu on vakuutettavissa niin, että vakuutus liitetään tuotteeseen eikä vastuussa olevaan henkilöön. On jo olemassa vakuutustuotteita, joita kehitetään ala- ja vakuutusturvakohtaisesti teknologian kehittyessä. Monet vakuuttajat erikoistuvat tiettyihin markkinasegmentteihin (esimerkiksi pk-yritykset) tai tarjoamaan vakuutusturvaa tietyille tuotetyypeille (esimerkiksi sähkölaitteet), mikä merkitsee, että vakuutetulle on yleensä saatavilla vakuutustuote. Kaikille sopivaa ratkaisua on kuitenkin vaikea kuvitella, ja vakuutusmarkkinat tarvitsevat aikaa sopeutuakseen. Komission olisi tiiviissä yhteistyössä vakuutusmarkkinoiden kanssa kehitettävä innovoivia vakuutustuotteita, joilla voitaisiin korjata vakuutuksissa olevat aukot. Poikkeustapauksissa, kuten kollektiivisia vahinkoja aiheuttavassa tilanteessa, joissa korvaus ylittää merkittävästi tässä asetuksessa säädetyt enimmäismäärät, jäsenvaltioita olisi kannustettava perustamaan rajoitetuksi ajaksi erityinen korvausrahasto, josta täytetään noiden tapausten erityistarpeet. Erityisiä korvausrahastoja voitaisiin perustaa myös sellaisia poikkeustapauksia varten, joissa tekoälyjärjestelmä, jota ei ole vielä luokiteltu suuririskiseksi tekoälyjärjestelmäksi ja jota ei siten ole vielä vakuutettu, aiheuttaa haittaa tai vahinkoa. Oikeusvarmuuden takaamiseksi ja sen velvoitteen täyttämiseksi, jonka mukaan on annettava tietoa kaikille vaikutusten kohteena mahdollisesti oleville henkilöille, erityisen korvausrahaston olemassaolosta ja ehdoista, joilla sitä voidaan hyödyntää, olisi annettava julkisesti tietoa selkeällä ja kattavalla tavalla.

(23) On äärimmäisen tärkeää, että kaikki tämän säädöksen myöhemmät muutokset tehdään yhdessä tuotevastuudirektiivin tarvittavan uudelleentarkastelun kanssa, jotta sitä voidaan tarkistaa kattavalla ja johdonmukaisella tavalla ja jotta kaikkien asianomaisten osapuolten oikeudet ja velvoitteet voidaan taata koko vastuuketjussa. Tekoälyjärjestelmien operaattoreita koskevan uuden vastuujärjestelmän käyttöönotto edellyttää, että tämän asetuksen säännökset ja tuotevastuudirektiivin uudelleentarkastelu sovitetaan tiiviisti yhteen sekä asiasisällön että lähestymistavan osalta, jotta ne muodostavat yhdessä tekoälyjärjestelmille johdonmukaisen vastuukehyksen, jossa ovat tasapainossa valmistajan, operaattorin, kuluttajan ja vaikutusten kohteena olevan henkilön edut vastuuriskin ja sovellettavien korvausjärjestelyjen osalta. Tekoälyjärjestelmän, frontend- ja backend-operaattorin, valmistajan, puutteellisen turvallisuuden, tuotteen ja palvelun määritelmien mukauttaminen ja yhdenmukaistaminen kaikessa lainsäädännössä on siten tarpeen, ja ne olisi suunniteltava tehtäväksi samanaikaisesti.

(24) Kun otetaan huomioon tämän asetuksen tavoitteet luoda tulevaisuuteen suuntautunut ja yhtenäinen unionin tason lähestymistapa, jossa asetetaan yhteiset unionin normit unionin kansalaisille ja yrityksille, sekä varmistaa oikeuksien yhdenmukaisuus ja oikeusvarmuus kaikkialla unionissa, jotta vältetään digitaalisilla sisämarkkinoilla hajanaisuus, joka haittaisi digitaalisen suvereniteetin ylläpitämisen, eurooppalaisen digitaalisen innovoinnin edistämisen sekä kansalaisten ja kuluttajien oikeuksien korkeatasoisen suojelun tavoitetta, tekoälyjärjestelmiin liittyvien vastuujärjestelmien olisi oltava täysin yhdenmukaisia. Jäsenvaltiot eivät nopean teknologisen muutoksen, rajatylittävän kehityksen sekä tekoälyjärjestelmien käytön ja unionissa mahdollisesti sovellettavien ristiriitaisten lainsäädännöllisten lähestymistapojen vuoksi voi riittävällä tavalla saavuttaa tätä, vaan se voidaan sen laajuuden ja vaikutusten vuoksi saavuttaa paremmin unionin tasolla. Sen vuoksi unioni voi toteuttaa toimenpiteitä Euroopan unionista tehdyn sopimuksen 5 artiklassa vahvistetun toissijaisuusperiaatteen mukaisesti. Mainitussa artiklassa vahvistetun suhteellisuusperiaatteen mukaisesti tässä asetuksessa ei ylitetä sitä, mikä on tarpeen näiden tavoitteiden saavuttamiseksi,


OVAT HYVÄKSYNEET TÄMÄN ASETUKSEN:

 

I luku

Yleiset säännökset

1 artikla

Kohde

Tässä asetuksessa vahvistetaan luonnollisten henkilöiden ja oikeushenkilöiden tekoälyjärjestelmien operaattoreille esittämiä siviilioikeudellisia vahingonkorvausvaatimuksia koskevat säännöt.

 

2 artikla

Soveltamisala

 

1. Tätä asetusta sovelletaan unionin alueella, jos tekoälyjärjestelmän ohjaama fyysinen tai virtuaalinen toiminto, laite tai prosessi aiheuttaa luonnolliselle henkilölle henkeen, terveyteen ja fyysiseen koskemattomuuteen kohdistuvaa haittaa tai vahinkoa tai luonnolliselle henkilölle tai oikeushenkilölle omaisuuteen kohdistuvaa haittaa tai vahinkoa taikka on aiheuttanut merkittävää aineetonta vahinkoa, jonka tuloksena on syntynyt todennettavissa olevaa taloudellista tappiota.

2. Tekoälyjärjestelmän operaattorin ja tekoälyjärjestelmän johdosta haittaa tai vahinkoa kärsineen luonnollisen henkilön tai oikeushenkilön väliset sopimukset, joilla kierretään tai rajoitetaan tässä asetuksessa vahvistettuja oikeuksia tai velvoitteita ja jotka on tehty ennen haitan tai vahingon tapahtumista tai sen jälkeen, katsotaan tässä asetuksessa esitettyjen oikeuksien ja velvoitteiden kannalta pätemättömiksi.

3. Tätä asetusta sovelletaan rajoittamatta muita täydentäviä vahingonkorvausvaatimuksia, jotka perustuvat sopimussuhteeseen tai tuotevastuuta, kuluttajansuojaa, syrjinnän torjuntaa, työntekijöiden suojelua ja ympäristönsuojelua koskeviin säännöksiin operaattorin ja tekoälyjärjestelmän vuoksi haittaa tai vahinkoa kärsineen luonnollisen henkilön tai oikeushenkilön välillä ja joita voidaan esittää operaattorille unionin tai kansallisen lainsäädännön mukaisesti.

 

3 artikla

Määritelmät

Tässä asetuksessa tarkoitetaan

a) ’tekoälyjärjestelmällä’ joko ohjelmistopohjaista tai laitteisiin upotettua järjestelmää, joka simuloi älykästä käyttäytymistä muun muassa keräämällä ja käsittelemällä tietoa, analysoiden ja tulkiten ympäristöään sekä toimien osittain autonomisesti tiettyjen tavoitteiden saavuttamiseksi;

b) ’autonomisella’ tekoälyjärjestelmällä järjestelmää, joka toimii tulkiten tiettyjä syötteitä ja soveltaen muun muassa muttei yksinomaan ennalta määrättyjä ohjeita samalla kun sen käyttäytymistä säätelevät sille asetettu tavoite, jonka saavuttamiseen kyseinen käyttäytyminen tähtää, ja muut sen kehittäjän tekemät suunnitteluun liittyvät valinnat;

c) ’suurella riskillä’ autonomisesti toimivan tekoälyjärjestelmän merkittävää potentiaalia aiheuttaa haittaa tai vahinkoa yhdelle tai useammalle henkilölle tavalla, joka on sattumanvarainen ja joka ylittää sen, mitä voidaan kohtuudella odottaa; potentiaalin merkittävyys riippuu mahdollisen haitan tai vahingon vakavuuden, päätöksenteon autonomian asteen, riskin aineellistumisen todennäköisyyden ja tekoälyjärjestelmän käyttötavan ja ympäristön vuorovaikutuksesta;

d) ’operaattorilla’ sekä frontend- että backend-operaattoria, jos direktiivi 85/374/ETY ei jo kata jälkimmäisen vastuuta;

e) ’frontend-operaattorilla’ luonnollista henkilöä tai oikeushenkilöä, joka harjoittaa tietynasteista valvontaa tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden ja hyötyy sen toiminnasta;

f) ’backend-operaattorilla’ luonnollista henkilöä tai oikeushenkilöä, joka jatkuvasti määrittää teknologian ominaisuuksia sekä asettaa saataville dataa ja olennaisia backend-tukipalveluja ja joka näin ollen myös harjoittaa tietynasteista valvontaa tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden;

g) ’valvonnalla’ kaikkia operaattorin toimia, jotka vaikuttavat tekoälyjärjestelmän toimintaan ja siten siihen, missä määrin operaattori altistaa kolmannet osapuolet tekoälyjärjestelmän toimintoihin ja toimintaan liittyville mahdollisille riskeille; tällaiset toimet voivat vaikuttaa toimintaan missä tahansa vaiheessa määrittämällä syötteet, tuotokset tai tulokset taikka muuttaa tekoälyjärjestelmän tiettyjä toimintoja tai prosesseja; se, missä määrin toimi määrittää nämä tekoälyjärjestelmän toiminnan näkökohdat, riippuu siitä, kuinka paljon operaattori voi vaikuttaa tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin;

h) ’vaikutusten kohteena olevalla henkilöllä’ henkilöä, jolle aiheutuu tekoälyjärjestelmän ohjaamasta fyysisestä tai virtuaalisesta toiminnosta, laitteesta tai prosessista haittaa tai vahinkoa ja joka ei ole sen operaattori;

i) ’haitalla tai vahingolla’ kielteistä vaikutusta, joka kohdistuu luonnollisen henkilön henkeen, terveyteen ja fyysiseen koskemattomuuteen tai luonnollisen henkilön tai oikeushenkilön omaisuuteen taikka aiheuttaa merkittävän aineettoman vahingon, jonka tuloksena syntyy todennettavissa olevaa taloudellista tappiota;

j) ’valmistajalla’ valmistajaa siten kuin se on määritetty neuvoston direktiivin 85/374/ETY[22] 3 artiklassa.

 

II luku

Suuririskiset tekoälyjärjestelmät

4 artikla

Ankara vastuu suuririskisistä tekoälyjärjestelmistä

1. Suuririskisen tekoälyjärjestelmän operaattorilla on ankara vastuu, jos kyseisen tekoälyjärjestelmän ohjaama fyysinen tai virtuaalinen toiminto, laite tai prosessi aiheuttaa haittaa tai vahinkoa.

2. Kaikki suuririskiset tekoälyjärjestelmät ja kaikki kriittiset alat, joilla niitä käytetään, luetellaan tämän asetuksen liitteessä. Siirretään komissiolle valta antaa delegoituja säädöksiä 13 artiklan mukaisesti kyseisen kattavan luettelon muuttamiseksi seuraavasti:

a) sisällyttämällä uusia suuririskisten tekoälyjärjestelmien tyyppejä ja kriittisiä aloja, joilla niitä otetaan käyttöön;

b) poistamalla tekoälyjärjestelmiä, joiden ei enää katsota olevan suuririskisiä; ja/tai

c) muuttamalla olemassa olevien suuririskisten tekoälyjärjestelmien kriittisiä aloja.

Kaikki delegoidut säädökset, joilla liitettä muutetaan, tulevat voimaan kuuden kuukauden kuluttua niiden hyväksymisestä. Määrittäessään uusia suuririskisiä tekoälyjärjestelmiä ja/tai kriittisiä aloja, jotka sisällytetään delegoidulla säädöksellä liitteeseen, komissio ottaa täysimääräisesti huomioon tässä asetuksessa ja erityisesti 3 artiklan c alakohdassa vahvistetut arviointiperusteet.

3. Suuririskisten tekoälyjärjestelmien operaattorit eivät voi vapauttaa itseään vastuusta väittämällä, että he ovat toimineet asianmukaista huolellisuutta noudattaen tai että haitan tai vahingon aiheutti operaattoreiden tekoälyjärjestelmän ohjaama autonominen toiminto, laite tai prosessi. Operaattorit eivät ole vastuuvelvollisia, jos haitta tai vahinko aiheutui ylivoimaisesta esteestä.

4. Suuririskisen tekoälyjärjestelmän frontend-operaattorin on varmistettava, että tekoälyjärjestelmän toiminnoilla on vastuuvakuutussuoja, joka on riittävä suhteessa tämän asetuksen 5 ja 6 artiklassa säädettyjen korvausten määriin ja laajuuteen. Backend-operaattorin on varmistettava, että sen palveluilla on toiminnan vastuuvakuutus- tai tuotevastuuvakuutussuoja, joka on riittävä suhteessa tämän asetuksen 5 ja 6 artiklassa säädettyjen korvausten määriin ja laajuuteen. Jos muiden unionin tai kansallisen lainsäädännön mukaisesti jo voimassa olevien frontend- tai backend-operaattoreiden pakollisten vakuutusjärjestelyjen tai olemassa olevien vapaaehtoisten yritysvakuutusrahastojen katsotaan kattavan tekoälyjärjestelmän toiminta tai tarjottu palvelu, tämän asetuksen mukainen velvoite ottaa tekoälyjärjestelmää tai tarjottua palvelua koskeva vakuutus katsotaan täytetyksi, kun kyseinen olemassa oleva pakollinen vakuutus tai vapaaehtoinen yritysvakuutusrahasto kattaa tämän asetuksen 5 ja 6 artiklassa säädettyjen korvausten määrät ja laajuuden.

5. Jos tämän asetuksen ja kansallisten vastuujärjestelmien välillä on ristiriitaisuuksia tekoälyjärjestelmien ankaran vastuun luokittelussa, sovelletaan tätä asetusta.

 

5 artikla

Korvauksen määrä

 

1. Suuririskisen tekoälyjärjestelmän operaattorin, jonka katsotaan olevan vastuussa haitasta tai vahingosta tämän asetuksen mukaisesti, on korvattava:

a) enintään kaksi miljoonaa euroa vaikutusten kohteena olevan henkilön kuolemantapauksessa tai terveydelle tai fyysiselle koskemattomuudelle aiheutuneesta haitasta, kun ne johtuvat suuririskisen tekoälyjärjestelmän toiminnasta;

b) enintään miljoona euroa merkittävän aineettoman vahingon tapauksessa, jonka tuloksena syntyy todennettavissa olevaa taloudellista tappiota, tai omaisuudelle aiheutuneen vahingon tapauksessa, myös silloin kun useampi vaikutusten kohteena olevalle henkilölle kuuluva esine vahingoittuu yhden suuririskisen tekoälyjärjestelmän yhden toiminnon tuloksena; jos vaikutusten kohteena oleva henkilö on esittänyt myös sopimukseen perustuvan vahingonkorvausvaatimuksen operaattorille, korvausta ei makseta tämän asetuksen mukaisesti, jos omaisuusvahingon tai merkittävän aineettoman vahingon määrä on arvoltaan alle [500 euroa][23].

2. Jos saman suuririskisen tekoälyjärjestelmän saman toiminnon aiheuttamasta haitasta tai vahingosta usealle henkilölle maksettavan korvauksen yhteismäärä ylittää 1 kohdassa säädetyt enimmäismäärät, kullekin henkilölle maksettavia määriä vähennetään suhteellisesti siten, että yhdistetty korvaus ei ylitä 1 kohdassa säädettyjä enimmäismääriä.

 

6 artikla

Korvauksen laajuus

 

1. Edellä 5 artiklan 1 kohdan a alakohdassa säädetyn määrän puitteissa vaikutusten kohteena olevan henkilön kuolemaan johtaneen fyysisen haitan tapauksessa vastuullisena pidetyn operaattorin maksettavaksi tulevan määrän laskentaperustana käytetään vaikutusten kohteena olevan henkilön ennen kuolemaansa saaman lääketieteellisen hoidon kustannuksia sekä ennen kuolemaa kärsittyä ansionmenetystä, joka aiheutuu työkyvyn menetyksestä tai heikkenemisestä tai henkilön tarpeiden lisääntymisestä haitan vaikutusajalta ennen kuolemaa. Operaattorin on lisäksi korvattava edesmenneen vaikutusten kohteena olevan henkilön hautauskustannukset osapuolelle, joka on vastuussa näiden kustannusten suorittamisesta.

Jos vaikutusten kohteena oleva henkilö oli kuolemaan johtaneen haitan aiheuttaneen tapauksen ajankohtana suhteessa kolmanteen osapuoleen ja hänellä oli laillinen velvoite elättää kyseistä kolmatta osapuolta, vastuullisena pidetyn operaattorin on korvattava kolmannen osapuolen menetykset maksamalla elatusta siinä laajuudessa, missä vaikutusten kohteena ollut henkilö olisi ollut velvoitettu sitä maksamaan, sen pituisen ajan, joka vastaa vaikutusten kohteena olevan henkilön ikäisen ja tätä yleisesti vastaavan henkilön keskimääräistä elinajanodotetta. Operaattorin on maksettava korvausta kolmannelle osapuolelle myös, jos kolmas osapuoli oli kuoleman aiheuttaneen tapahtuman ajankohtana siitetty mutta syntymätön lapsi.

2. Edellä 5 artiklan 1 kohdan b alakohdassa säädetyn määrän puitteissa vaikutusten kohteena olevan henkilön terveydelle tai fyysiselle koskemattomuudelle aiheutuneen haitan tapauksessa vastuullisena pidetyn operaattorin maksaman korvauksen on sisällettävä haittaan liittyvän lääketieteellisen hoidon kustannukset sekä vaikutusten kohteena olevan henkilön ansionmenetys, joka aiheutuu työkyvyn väliaikaisesta menetyksestä tai heikkenemisestä tai pysyvästä menetyksestä tai tästä johtuvasta lääkärintodistuksella osoitetusta henkilön tarpeiden lisääntymisestä.

 

7 artikla

Vanhentumisaika

1. Edellä 4 artiklan 1 kohdan mukaisesti esitettyihin siviilioikeudellisiin vahingonkorvausvaatimuksiin, jotka koskevat henkeen, terveyteen tai fyysiseen koskemattomuuteen liittyvää haittaa, sovelletaan erityistä vanhentumisaikaa, joka on 30 vuotta haitan aiheutumispäivästä.

 

2. Edellä 4 artiklan 1 kohdan mukaisesti esitettyihin siviilioikeudellisiin vahingonkorvausvaatimuksiin, jotka koskevat omaisuusvahinkoa tai merkittävää aineetonta vahinkoa, jonka tuloksena syntyy todennettavissa olevaa taloudellista tappiota, sovelletaan erityistä vanhentumisaikaa, joka on:

a) 10 vuotta omaisuusvahingon tai merkittävän aineettoman vahingon tuloksena syntyneen todennettavissa olevan taloudellisen tappion aiheutumispäivästä tai

b) 30 vuotta päivästä, jolloin omaisuusvahingon tai aineettoman vahingon myöhemmin aiheuttanut suuririskisen tekoälyjärjestelmän toiminta tapahtui.

Ensimmäisessä alakohdassa tarkoitetuista jaksoista sovelletaan ensin päättyvää.

3. Tämä artikla ei vaikuta vanhentumisaikojen lykkääntymistä tai keskeytymistä sääntelevän kansallisen lainsäädännön soveltamiseen.

 

III luku

Muut tekoälyjärjestelmät

8 artikla

Tuottamusperusteinen vastuu muista tekoälyjärjestelmistä

1. Jos tekoälyjärjestelmä ei ole suuririskinen 3 artiklan c alakohdassa ja 4 artiklan 2 kohdassa säädetyn mukaisesti eikä sitä näin ollen ole lueteltu tämän asetuksen liitteessä, sen operaattoriin sovelletaan tuottamusperusteista vastuuta haitasta tai vahingosta, jonka tekoälyjärjestelmän ohjaama fyysinen tai virtuaalinen toiminto, laite tai prosessi on aiheuttanut.

2. Operaattoria ei pidetä vastuullisena, jos hän voi osoittaa, että haitta tai vahinko ei johtunut hänen virheestään jommastakummasta seuraavasta syystä:

a) tekoälyjärjestelmä aktivoitiin hänen tietämättään, kun kaikki kohtuulliset ja tarvittavat toimenpiteet tällaisen aktivoinnin estämiseksi operaattorin valvontavallan ulottumattomissa oli toteutettu, tai

b) noudatettiin asianmukaista huolellisuutta toteuttamalla kaikki seuraavat toimet: valittiin sopiva tekoälyjärjestelmä oikeaan tehtävään ja oikealle osaamistasolle, otettiin tekoälyjärjestelmä asianmukaisesti käyttöön, valvottiin toimintoja ja ylläpidettiin toiminnallista luotettavuutta asentamalla säännöllisesti kaikki saatavilla olevat päivitykset.

Operaattori ei voi välttää vastuutaan väittämällä, että haitan tai vahingon aiheutti hänen tekoälyjärjestelmänsä ohjaama autonominen toiminto, laite tai prosessi. Operaattori ei ole vastuuvelvollinen, jos haitta tai vahinko aiheutui ylivoimaisesta esteestä.

3. Jos haitan tai vahingon aiheutti kolmas osapuoli, joka oli puuttunut tekoälyjärjestelmään muuttamalla sen toimintaa tai sen vaikutuksia, operaattori on kuitenkin vastuussa korvauksen maksamisesta, jos kyseistä kolmatta osapuolta ei saada jäljitettyä tai tämä on varaton.

4. Operaattorin tai vaikutusten kohteena olevan henkilön pyynnöstä tekoälyjärjestelmän valmistajalla on velvollisuus tehdä yhteistyötä näiden kanssa ja antaa näille tietoa korvausvaatimuksen merkittävyyden edellyttämässä laajuudessa, jotta vastuu voidaan määrittää.

 

9 artikla

Korvauksia ja vanhentumisaikaa koskevat kansalliset säännökset

 

Edellä olevan 8 artiklan 1 kohdan mukaisesti esitettyihin siviilioikeudellisiin vahingonkorvausvaatimuksiin sovelletaan vanhentumisaikojen sekä korvauksen määrän ja laajuuden osalta sen jäsenvaltion lainsäädäntöä, jossa haitta tai vahinko on aiheutunut.

 

IV luku

Vastuun jakaminen

10 artikla

Myötävaikutus

1. Jos haitan tai vahingon on aiheuttanut sekä tekoälyjärjestelmän ohjaama fyysinen tai virtuaalinen toiminto, laite tai prosessi että vaikutusten kohteena olevan henkilön tai muun henkilön, josta vaikutusten kohteena oleva henkilö on vastuussa, toiminta, operaattorilla tämän asetuksen mukaisesti olevan vastuun laajuutta vähennetään vastaavasti. Operaattori ei ole vastuuvelvollinen, jos vaikutusten kohteena oleva henkilö tai muu henkilö, josta vaikutusten kohteena oleva henkilö on vastuussa, on yksinään syyllinen aiheutuneeseen haittaan tai vahinkoon.

2. Vastuuvelvolliseksi katsottu operaattori voi käyttää tekoälyjärjestelmän tuottamaa dataa osoittamaan vaikutusten kohteena olevan henkilön myötävaikutuksen asetuksen (EU) 2016/679 ja muun sovellettavan tietosuojalainsäädännön mukaisesti. Vaikutusten kohteena oleva henkilö voi myös käyttää tätä dataa todisteena tai selvennyksenä vahingonkorvausvaatimuksessa.

 

11 artikla

Yhteisvastuu

Jos tekoälyjärjestelmällä on useampia kuin yksi operaattori, nämä ovat yhteisvastuussa. Jos frontend-operaattori on myös tekoälyjärjestelmän valmistaja, tämä asetus on etusijalla tuotevastuudirektiiviin nähden. Jos backend-operaattorin katsotaan olevan myös tuotevastuudirektiivin 3 artiklassa määritelty valmistaja, häneen olisi sovellettava kyseistä direktiiviä. Jos operaattoreita on vain yksi ja tämä on myös tekoälyjärjestelmän valmistaja, tämän asetuksen olisi oltava etusijalla tuotevastuudirektiiviin nähden.

 

12 artikla

Korvausten periminen

1. Operaattorilla ei ole oikeutta periä muilta korvauksia, jos vaikutusten kohteena oleva henkilö, jolla on oikeus tämän asetuksen mukaiseen korvaukseen, ei ole saanut täyttä korvausta.

2. Jos operaattori on yhteisvastuussa muiden operaattorien kanssa vaikutusten kohteena olevalle henkilölle ja on maksanut täyden korvauksen kyseiselle vaikutusten kohteena olevalle henkilölle 4 artiklan 1 kohdan tai 8 artiklan 1 kohdan mukaisesti, kyseinen operaattori voi periä osan korvauksista takaisin muilta operaattoreilta suhteessa näiden vastuuseen.

Kunkin suhteellinen vastuu määritetään sen perusteella, minkä asteista valvontaa operaattorit harjoittivat tekoälyjärjestelmän toimintoihin ja toimintaan liittyvään riskiin nähden. Jos yhteisvastuussa olevan operaattorin osuutta ei saada perittyä tältä, muiden operaattoreiden on vastattava tästä puuttuvasta osuudesta. Jos yhteisvastuussa oleva operaattori maksaa korvauksia vaikutusten kohteena olevalle henkilölle ja vaatii ennakkomaksujen tasausta muilta vastuuvelvollisilta operaattoreilta, vaikutusten kohteena olevan henkilön korvausvaatimus muille operaattoreille siirtyy tälle operaattorille. Korvausvaatimusten siirtoa ei lasketa alkuperäisen korvausvaatimuksen vahingoksi.

3. Jos turvallisuudeltaan puutteellisen tekoälyjärjestelmän operaattori maksaa täyden korvauksen vaikutusten kohteena olevalle henkilölle haitasta tai vahingosta 4 artiklan 1 kohdan tai 8 artiklan 1 kohdan mukaisesti, hän voi hakea korvausta turvallisuudeltaan puutteellisen tekoälyjärjestelmän valmistajalta direktiivin 85/374/ETY sekä turvallisuudeltaan puutteellisia tuotteita koskevaan vastuuseen liittyvien kansallisten säännösten mukaisesti.

4. Jos operaattorin vakuutusyhtiö korvaa vaikutusten kohteena olevalle henkilölle aiheutuneet haitat tai vahingot 4 artiklan 1 kohdan tai 8 artiklan 1 kohdan mukaisesti, kaikki vaikutusten kohteena olevan henkilön siviilioikeudelliset vahingonkorvausvaatimukset muuta henkilöä kohtaan samasta vahingosta siirretään operaattorin vakuutusyhtiölle siihen määrään asti, johon operaattorin vakuutusyhtiö on maksanut korvausta vaikutusten kohteena olevalle henkilölle.

 

V luku

Loppusäännökset

13 artikla

Siirretyn säädösvallan käyttäminen

1. Komissiolle siirrettyä valtaa antaa delegoituja säädöksiä koskevat tässä artiklassa säädetyt edellytykset.

2. Siirretään komissiolle ... päivästä ...kuuta ... [tämän asetuksen soveltamispäivä] viideksi vuodeksi 4 artiklan 2 kohdassa tarkoitettu valta antaa delegoituja säädöksiä.

3. Euroopan parlamentti tai neuvosto voi milloin tahansa peruuttaa 4 artiklan 2 kohdassa tarkoitetun säädösvallan siirron. Peruuttamispäätöksellä lopetetaan tuossa päätöksessä mainittu säädösvallan siirto. Peruuttaminen tulee voimaan sitä päivää seuraavana päivänä, jona sitä koskeva päätös julkaistaan Euroopan unionin virallisessa lehdessä, tai jonakin myöhempänä, kyseisessä päätöksessä mainittuna päivänä. Peruuttamispäätös ei vaikuta jo voimassa olevien delegoitujen säädösten pätevyyteen.

4. Ennen kuin komissio hyväksyy delegoidun säädöksen, se kuulee suuririskisiä tekoälyjärjestelmiä käsittelevää teknistä komiteaa paremmasta lainsäädännöstä 13 päivänä huhtikuuta 2016 tehdyssä toimielinten välisessä sopimuksessa vahvistettujen periaatteiden mukaisesti.

5. Heti kun komissio on antanut delegoidun säädöksen, komissio antaa sen tiedoksi yhtäaikaisesti Euroopan parlamentille ja neuvostolle.

6. Edellä olevan 4 artiklan 2 kohdan nojalla annettu delegoitu säädös tulee voimaan ainoastaan, jos Euroopan parlamentti tai neuvosto ei ole kahden kuukauden kuluessa siitä, kun asianomainen säädös on annettu tiedoksi Euroopan parlamentille ja neuvostolle, ilmaissut vastustavansa sitä tai jos sekä Euroopan parlamentti että neuvosto ovat ennen mainitun määräajan päättymistä ilmoittaneet komissiolle, että ne eivät vastusta säädöstä. Euroopan parlamentin tai neuvoston aloitteesta tätä määräaikaa jatketaan kahdella kuukaudella.

 

14 artikla

Uudelleentarkastelu

Komissio esittää 1 päivään tammikuuta 202X [3 vuotta tämän asetuksen soveltamispäivästä] ja sen jälkeen kolmen vuoden välein Euroopan parlamentille, neuvostolle ja Euroopan talous- ja sosiaalikomitealle yksityiskohtaisen kertomuksen, jossa tarkastellaan tätä asetusta uudelleen tekoälyn jatkokehityksen valossa.

Valmistellessaan ensimmäisessä alakohdassa tarkoitettua kertomusta komissio pyytää jäsenvaltioilta asiaankuuluvia tietoja, jotka liittyvät oikeuskäytäntöön, tuomioistuinten päätöksiin sekä onnettomuustilastoihin, kuten onnettomuuksien määrä, aiheutuneet vahingot, osallisena olleet tekoälysovellukset, vakuutusyhtiöiden maksamat korvaukset, sekä arvion vaikutusten kohteena olevien henkilöiden yksilöllisesti tai kollektiivisesti esittämien vahingonkorvausvaatimusten määrästä sekä näiden vaatimusten tuomioistuinkäsittelyiden kestosta.

Komission kertomukseen liitetään tarvittaessa lainsäädäntöehdotuksia, joilla on tarkoitus korjata kertomuksessa yksilöityjä puutteita.

 

15 artikla

Voimaantulo

Tämä asetus tulee voimaan kahdentenakymmenentenä päivänä sen jälkeen, kun se on julkaistu Euroopan unionin virallisessa lehdessä.

Sitä sovelletaan 1 päivästä tammikuuta 202X.

 

 

Tämä asetus on kaikilta osiltaan velvoittava, ja sitä sovelletaan sellaisenaan kaikissa jäsenvaltioissa.



 

PERUSTELUT

”Vastuun” käsitteellä on tärkeä kaksitahoinen rooli arjessamme: yhtäältä sillä varmistetaan, että vahinkoa kärsineellä henkilöllä on oikeus vaatia korvausta henkilöltä, jonka on osoitettu olevan vastuussa kyseisestä haitasta, ja toisaalta se tarjoaa henkilöille taloudellisia kannustimia olla alun perinkään aiheuttamatta haittaa. Kaikissa tulevaisuuteen suuntautuvissa vastuukehyksissä olisi siksi pyrittävä saattamaan tasapainoon vahingon tai haitan mahdollisten uhrien tehokas suojelu ja samalla riittävän liikkumavaran tarjoaminen, jotta uusien teknologioiden, tuotteiden tai palvelujen kehittäminen on mahdollista.

 

Erityisesti uusien tuotteiden ja palvelujen elinkaaren alussa käyttäjällä ja kolmansilla henkilöillä on tietty riski siitä, että jokin ei toimi asianmukaisesti. Tämä yrityksen ja erehdyksen prosessi on kuitenkin myös keskeinen teknisen edistyksen mahdollistaja, jota ilman useimpia teknologioitamme ei olisi olemassa. Tähän asti EU:n vahva tuoteturvasääntelyllä ja vastuuvelvollisuutta koskevilla säännöillä on pystytty selviytymään uusien teknologioiden mahdollisesti suuremmista riskeistä. Monen silmissä tekoälyn nousu haastaa nyt tämän varmuuden. Tämän teknologian tekee ainutlaatuiseksi sen ”läpinäkymättömyys” eli toisin sanoen sen ”musta laatikko” -vaikutus. Kun otetaan huomioon tekoälyjärjestelmien yhteenliitettävyys, niiden riippuvuus ulkoisesta datasta, haavoittuvuus kyberturvallisuusuhkien suhteen ja niiden selkeä autonomia, tekoälyjärjestelmien osallisuus voi tehdä erittäin kalliiksi tai jopa mahdottomaksi selvittää, kuka tilannetta valvoi tai mikä koodi tai syöte on viime kädessä aiheuttanut haitallisen toiminnon. Tämän johdosta haittaa kärsineen henkilön voi olla vaikeaa saada korvauksia.

 

Vaikka tekoälyjärjestelmät aiheuttavatkin nykyisille vastuujärjestelmillemme uusia oikeudellisia haasteita, ne eivät aineellisesti ole monessa tapauksessa kovinkaan erilaisia verrattuna muihin teknologioihin, jotka joskus perustuvat jopa monimutkaisempiin ohjelmistoihin. Nykyaikaiset tekoälyjärjestelmät toimivat usein melko alkeellisesti ja ovat kaukana tieteiselokuvista tuntemistamme tiedostavista roboteista. Keskustelu tekoälyjärjestelmien oikeushenkilöydestä on siten tarpeetonta. Järkevä tapa lähestyä uusien tekoälyjärjestelmien aiheuttamia oikeudellisia haasteita on pidättäytyä tekemästä suuria muutoksia vastuukehykseemme. Jos henkilö kärsii haittaa turvallisuudeltaan puutteellisen tekoälyjärjestelmän vuoksi, tuotevastuudirektiivin olisi oltava oikeudellinen väline, jonka perusteella valmistajalta haetaan korvauksia. Jos haitan aiheuttaa asiaan puuttuva kolmas henkilö, jäsenvaltioiden olemassa oleva tuottamusperusteisen vastuun järjestelmä tarjoaa (useimmiten) riittävän suojatason. Unionin parempaa sääntelyä koskevien periaatteiden mukaisesti kaikista valmistajia ja asiaan puuttuvia kolmansia henkilöitä koskevista tarvittavista lainsäädännöllisistä muutoksista olisi keskusteltava niitä koskevissa sääntelykehyksissä.

 

Tässä mietinnössä ei uskota olemassa oleviin vastuujärjestelmiin vain yhdessä asiassa: tekoälyjärjestelmien käyttöönottajien vastuussa on oikeudellinen aukko. Vaikka nämä henkilöt päättävät tekoälyjärjestelmien käytöstä, ovat niitä, jotka pääasiallisesti valvovat niihin liittyviä riskejä ja hyötyvät niiden toiminnasta, monet heille esitetyt vahingonkorvausvaatimukset jäävät tuloksettomiksi, koska vaikutusten kohteena oleva henkilö ei pysty osoittamaan käyttöönottajan virhettä. Erityisesti tapauksissa, joissa haittaa on aiheuttanut julkisessa tilassa olevan tekoälyjärjestelmän toiminta, vaikutusten kohteena olevien henkilöiden mahdollisesti valtava ryhmä ei tavallisesti olisi missään sopimussuhteessa käyttöönottajaan, mikä ei jättäisi heille juuri mitään mahdollisuutta saada korvausta haitasta. Esittelijä ehdottaa kahta erilaista lähestymistapaa tämän aukon täyttämiseksi tekoälyjärjestelmän aiheuttaman riskitason mukaisesti:

 

1) Suuririskiset tekoälyjärjestelmät: Tällaisen järjestelmän käyttöönottaja on melko samanlaisessa asemassa kuin auton tai lemmikkieläimen omistaja. Hän valvoo kohdetta, joka merkittävästi vaarantaa yleisön tavalla, joka on sattumanvarainen ja mahdoton ennustaa. Näin ollen käyttöönottajan olisi – auton tai lemmikin omistajan tavoin – oltava ankarassa vastuussa ja korvattava uhrille tietyssä laajuudessa tietty määrä rahaa kaikista haitoista tämän tärkeille lailla suojatuille oikeuksille (henki, terveys, fyysinen koskemattomuus, omaisuus). Mietinnössä määritellään selkeät arviointiperusteet sille, mitä tekoälyjärjestelmiä voidaan pitää suuririskisinä, ja luetellaan ne tyhjentävästi liitteessä. Kun otetaan huomioon nopea tekninen ja markkinoiden kehitys sekä asiantuntemus, jota tekoälyjärjestelmän riittävä arviointi edellyttää, olisi oltava komission tehtävä tarkistaa liitettä delegoiduilla säädöksillä. Uuden pysyvän komitean, jossa on mukana kansallisia asiantuntijoita ja sidosryhmiä, olisi tuettava komissiota sen arvioidessa mahdollisesti suuririskisiä tekoälyjärjestelmiä.

 

2) Kaikki muut tekoälyjärjestelmät: Liitteeseen sisältymättömän tekoälyjärjestelmän aiheuttamasta haitasta kärsineen henkilön olisi kuitenkin voitava hyötyä käyttöönottajan vastuuolettamasta. Tekoälyjärjestelmän aiheuttaman haitan tapauksessa korvauksen määrän ja laajuuden sekä vanhentumisaikojen osalta sovelletaan kansallista lainsäädäntöä.

 

Kaikissa uutta lainsäädäntöä koskevissa ehdotuksissa on perusteellisesti arvioitava olemassa oleva lainsäädäntö, jotta vältetään päällekkäisyys tai ristiriitaiset säännökset. Tämän periaatteen pohjalta mietintö kattaa vain henkeen, terveyteen, fyysiseen koskemattomuuteen ja omaisuuteen kohdistuvat haitat. Vaikka tekoälyjärjestelmät voivat aiheuttaa huomattavaa haittaa henkilökohtaisille oikeuksille ja muille merkittäville lailla suojelluille eduille, näitä rikkomuksia käsitellään paljon paremmin jo olemassa olevassa ja räätälöidyssä kyseisiä aloja koskevassa sääntelyssä (esimerkiksi syrjinnän kieltävä lainsäädäntö tai kuluttajansuojalainsäädäntö). Juuri samasta syystä esittelijä ei sisällyttänyt tähän biometristen tietojen käyttöä tai kasvontunnistustekniikoita tekoälyjärjestelmissä. Kaikki luvaton käyttö tällä alalla katetaan jo erityisellä tietoturvaa koskevalla lainsäädännöllä, kuten yleisellä tietoturva-asetuksella. Jos kansallisten vastuujärjestelmien säännökset siitä, kuuluuko tekoälyjärjestelmä ankaran vastuun piiriin, ovat ristiriidassa asetuksen kanssa tai jos on tehty sopimuksia asetuksen vaikutusten rajoittamiseksi, mietinnössä katsotaan, että asetuksen säännökset ovat aina etusijalla. Siinä pyritään lisäksi siihen, että vaikutusten kohteena oleva henkilö saa käyttöönottajalta aina täyden korvauksen, ennen kuin muut henkilöt kuin vaikutusten kohteena oleva henkilö voivat esittää mahdollisia vahingonkorvausvaatimuksia valmistajalle. Jotta voidaan taata oikeusvarmuus kaikkialla unionissa, backend-operaattoriin – joka ei kuulu tämän asetuksen piiriin – olisi sovellettava samaa vastuuta kuin valmistajaan, tuottajaan ja kehittäjään.

 

Koska Euroopan unionin ja sen jäsenvaltioiden vastuukehyksiä ei tarvitse muuttaa radikaalisti, tekoälyjärjestelmien ei pitäisi myöskään pakottaa meitä luopumaan perinteisistä vakuutusjärjestelmistämme. Julkisesti rahoitetut korvausmekanismit eivät ole riittävä vastaus tekoälyn nousuun. Tällaiset korvausjärjestelyt muodostaisivat vain tarpeettoman taloudellisen taakan veronmaksajille. Tekoälyjärjestelmiin liittyvän aiemman korvaushakemusdatan saatavuuden puutteesta huolimatta eurooppalaiset vakuutusyhtiöt kehittävät jo uusia tuotteita ala- ja vakuutusturvakohtaisesti teknologian kehittyessä edelleen. Jos uutta vakuutussuojaa tarvitaan, vakuutusmarkkinat kehittävät sopivan ratkaisun. Olisi väärin langeta hypoteettisiin skenaarioihin, joita käytetään lobbaamaan uusia julkisia järjestelmiä. Jos jonain päivänä toteutuu massoihin vaikuttava haittatapahtuma, kuten suuri terrori-isku, jäsenvaltiot voisivat perustaa erityisiä korvausrahastoja rajoitetuksi ajaksi, kuten on jo tapahtunut. Näin ollen tässä mietinnössä edellytetään ainoastaan, että suuririskisten tekoälyjärjestelmien käyttöönottajat hankkivat riittävän vastuuvakuutuksen (verrattavissa liikennevakuutusdirektiivissä säädettyyn velvoitteeseen), joka kattaa tässä asetuksessa määritettyjen korvausten määrät ja laajuuden. Esittelijä uskoo vahvasti, että vakuutusmarkkinat pystyvät joko mukauttamaan olemassa olevaa vakuutusturvaa tai kehittämään erilaisia uusia tuotteita, joista kukin kattaa erikseen eri alojen erityyppiset tekoälyjärjestelmät.

 

Keskittyessään kapeasti mutta selkeästi tekoälyjärjestelmien käyttöönottajien vastuusääntöihin esittelijä on vakuuttunut, että voidaan saattaa tasapainoon yhteiskunnan tehokas suojelu samalla kun annetaan tälle jännittävälle teknologialle mahdollisuus innovoida edelleen. Aivan liian usein esiin nostetaan vain tekoälyn riskit. Kyllä, tekoälyjärjestelmiä voitaisiin käyttää pahantekoon. Mutta annammeko kielteisten ilmenemismuotojen – joita on kaikilla teknologioilla matkapuhelimista ydinvoimaan – rajoittaa niiden käyttöä yleisesti? Haluammeko jättää käyttämättä tekoälyn tarjoaman avun, kun torjumme ilmastonmuutosta, parannamme terveydenhoitojärjestelmiämme tai otamme vammaiset henkilöt paremmin huomioon? Mietinnössä kannatetaan voimakkaasti tekoälyjärjestelmien myönteisten vaikutusten hyödyntämistä samalla kun rakennetaan vahvat suojakeinot.

 

Siksi kaikki tekoälyä koskeva uusi lainsäädäntö olisi laadittava asetusten muodossa. Koska digitaalialalle on tunnusomaista nopea rajat ylittävä dynamiikka, Euroopan digitaaliset sisämarkkinat on yhdenmukaistettava täysin, jotta menestymme globaalissa digitaalisessa kilpailussa.

 

On tärkeää korostaa, että tästä asetuksesta käytävän poliittisen keskustelun olisi tapahduttava käsi kädessä tuotevastuudirektiivin tarvittavan uudelleentarkastelun kanssa. Tekoälyjärjestelmien käyttöönottajia koskevan uuden vastuujärjestelmän käyttöönotto edellyttää, että neuvottelut tästä asetuksesta ja tuotevastuudirektiivin uudelleentarkastelusta koordinoidaan tiiviisti sekä asiasisällön että lähestymistavan osalta, jotta ne muodostavat yhdessä tekoälyjärjestelmiä koskevan johdonmukaisen vastuukehyksen, jossa saatetaan tasapainoon valmistajan, käyttöönottajan ja vaikutusten kohteena olevan henkilön edut vastuuriskin osalta. Tekoälyjärjestelmän, käyttöönottajan, valmistajan, kehittäjän, puutteellisen turvallisuuden, tuotteen ja palvelun määritelmien mukauttaminen ja yhdenmukaistaminen kaikissa lainsäädäntöaloitteissa on siten tarpeen.

 

Viimeisenä mutta ei vähäisimpänä seikkana poliittisten toimijoiden olisi tiedostettava, että teknologinen edistys ei pysähdy heidän lainsäädäntöneuvottelujensa aikana. Jos aiomme tosissamme pysyä digitalisoinnin vauhdissa, ylläpitää digitaalista suvereniteettiamme ja toimia keskeisessä roolissa digitaalisena aikana, toimielinten on lähetettävä selkeä poliittinen viesti menestyksekkäälle teollisuudellemme ja taitaville tutkijoillemme, jotka työskentelevät uusien tekoälyjärjestelmien parissa. Kunnes lainsäädännöllinen reaktio tekoälyn nousuun muodostuu laiksi, teollisuuden ja tutkijoiden on voitava innovoida nykyisten sääntöjen mukaisesti ja heille olisi suotava viiden vuoden siirtymäaika. Jos emme tarjoa tätä suunnitteluvarmuutta, Eurooppa jää ilman lukuisia uusia teknologioita, tuotteita tai palveluja.


 

 

SISÄMARKKINA- JA KULUTTAJANSUOJAVALIOKUNNAN LAUSUNTO (7.7.2020)

oikeudellisten asioiden valiokunnalle

tekoälyä koskevasta siviilioikeudellisen vastuun järjestelmästä

(2020/2014(INL))

Valmistelija: Svenja Hahn

(Aloite – työjärjestyksen 47 artikla)

EHDOTUKSET

Sisämarkkina- ja kuluttajansuojavaliokunta pyytää asiasta vastaavaa oikeudellisten asioiden valiokuntaa

 sisällyttämään seuraavat ehdotukset päätöslauselmaesitykseen, jonka se myöhemmin hyväksyy:

A. ottaa huomioon, että uusien digitaaliteknologioiden, kuten tekoälyn, esineiden ja palvelujen internetin tai robotiikan, käytöllä on yhä suurempi merkitys jokapäiväisessä elämässämme;

B. ottaa huomioon, että tällaiset uudet digitaaliteknologiat voivat edistää innovaatioiden kehittämistä monilla aloilla ja tarjota etuja kuluttajille innovatiivisten tuotteiden ja palvelujen kautta ja yrityksille, erityisesti startup-yrityksille, mikroyrityksille sekä pienille ja keskisuurille yrityksille (pk-yrityksille), suorituskyvyn optimoinnin ja kilpailukyvyn parantumisen myötä sekä julkishallinnolle parempien, osallistavampien ja räätälöityjen julkisten palvelujen myötä;

C. ottaa huomioon, että tekoälyn ja muiden uusien digitaaliteknologioiden käyttö, käyttöönotto ja kehittäminen voivat myös aiheuttaa riskejä ja haasteita nykyiselle tuotevastuukehykselle, jota ei välttämättä pystytä soveltamaan tällaisiin uusiin sovelluksiin, mikä saattaa heikentää kuluttajien luottamusta ja kuluttajansuojaa;

D. ottaa huomioon, että tuoteturvallisuus ja tuotevastuu ovat kaksi toisiaan täydentävää mekanismia, joilla pyritään samaan toimintapolitiikan tavoitteeseen eli tavaroiden ja palvelujen toimiviin sisämarkkinoihin, ja toteaa, että tässä lausunnossa esitetään ehdotuksia siitä, miten unionin vastuukehystä voitaisiin mahdollisesti mukauttaa, kun otetaan huomioon uusien digitaaliteknologioiden kasvava merkitys;

E. ottaa huomioon, että vankat vastuumekanismit, jotka pitävät huolta siitä, että vahingot ja haitat korvataan, auttavat suojelemaan kansalaisia ja kuluttajia paremmin vahingoilta ja haitoilta ja rakentavat luottamusta uusiin digitaaliteknologioihin sekä takaavat samalla oikeusvarmuuden yrityksille ja erityisesti startup-yrityksille, mikroyrityksille ja pk-yrityksille, mikä antaa niille mahdollisuuden innovointiin;

F. ottaa huomioon, että hyväksynnän lisäämiseksi tekoälyn teoreettisten hyötyjen olisi myös edistettävä tehokkaasti vaurautta ja kehitystä;

G. ottaa huomioon, että tulevan eurooppalaisen lainsäädännön perustana olisi pidettävä komission Euroopan parlamentille, neuvostolle ja Euroopan talous- ja sosiaalikomitealle antamaa kertomusta tekoälyn, esineiden internetin ja robotiikan vaikutuksista turvallisuuteen ja vastuuvelvollisuuteen[24] sekä valkoista kirjaa tekoälystä – Eurooppalainen lähestymistapa huippuosaamiseen ja luottamukseen[25];

1. panee tyytyväisenä merkille komission tavoitteen mukauttaa unionin oikeudellista kehystä tekoälyn ja muiden uusien digitaaliteknologioiden kehitykseen, käyttöönottoon ja käyttötarkoituksiin ja varmistaa siten kuluttajien korkeatasoinen suojelu tekoälyyn, robotiikkaan tai niihin liittyvään teknologiaan perustuvien uusien teknologioiden aiheuttamilta vahingoilta ja haitoilta, samalla kun säilytetään tasapaino teollisuus- ja kulutustuotteiden digitalisointia koskevan tavoitteen kanssa ja tuetaan teknologista innovointia;

2. kehottaa komissiota päivittämään nykyistä vastuukehystä ja etenkin neuvoston direktiiviä 85/374/ETY[26] (tuotevastuudirektiivi) sen mukauttamiseksi digitaaliseen ympäristöön;

3. kehottaa komissiota tarkistamaan tuotevastuudirektiiviä ottaen huomioon uusien digitaaliteknologioiden, kuten tekoälyn, esineiden internetin tai robotiikan, asettamat haasteet ja varmistamaan näin tehokkaan ja korkeatasoisen kuluttajansuojan sekä oikeusvarmuuden kuluttajille ja yrityksille välttäen samalla korkeita kustannuksia ja riskejä, jotka kohdistuvat pk-yrityksiin ja startup-yrityksiin;

4. korostaa, että tuotevastuukehyksen päivittämisen yhteydessä olisi päivitettävä myös Euroopan parlamentin ja neuvoston direktiivi 2001/95/EY[27] (tuoteturvallisuusdirektiivi), jotta voidaan varmistaa, että sisäänrakennetun turvallisuuden periaatteet sisällytetään tekoälyjärjestelmiin;

5. korostaa, että nykyisen vastuukehyksen mahdollisen tarkistamisen tavoitteena olisi oltava vastuu- ja kuluttajansuojasääntöjen yhdenmukaistaminen, jotta varmistetaan tasapuoliset toimintaedellytykset sekä vältetään kuluttajansuojaan liittyvä eriarvoisuus ja sisämarkkinoiden pirstoutuminen;

6. pyytää komissiota arvioimaan, voisiko yleistä tuotevastuuta koskeva asetus edistää tätä tavoitetta; tähdentää kuitenkin, että on tärkeää varmistaa, että unionin sääntely rajoittuu selkeästi yksilöityihin ongelmiin, joihin on olemassa toteuttamiskelpoisia ratkaisuja, ja jättää tilaa teknologian myöhemmälle kehitykselle, vapaisiin ja avoimen lähdekoodin ohjelmistoihin perustuva kehitys mukaan lukien; korostaa, että tässä olisi noudatettava täysimääräisesti sovellettavaa lainsäädäntöä, kuten Euroopan parlamentin ja neuvoston direktiiviä (EU) 2019/790[28];

7. kehottaa komissiota päivittämään tuotevastuukehystä ottaen huomioon digitalisaation aiheuttamat erityishaasteet vastuulainsäädännön kannalta; katsoo, että haasteita voi aiheutua esimerkiksi siitä, että tuotteet ovat sidoksissa toisiinsa, riippuvaisia datasta tai alttiita kyberturvallisuusriskeille;

8. korostaa erityisesti tarvetta ottaa huomioon tekoälysovellusten prosessit, joita ei välttämättä ole dokumentoitu hyvin tai jotka voivat ilmetä itsenäisesti sen jälkeen, kun tuote on saatettu markkinoille;

9. kehottaa komissiota selventämään tuotevastuudirektiivissä annettua ”tuotteen” määritelmää päättämällä, kattaako se digitaalisen sisällön ja digitaaliset palvelut, sekä harkitsemaan ”valmistajan”, ”vahingon” ja ”puutteellisen turvallisuuden” kaltaisten käsitteiden päivittämistä; korostaa, että tällöin on otettava huomioon kuluttajansuojasäännöstö ja erityisesti nykyinen Euroopan parlamentin ja neuvoston direktiivi (EU) 2019/770[29] (digitaalista sisältöä koskeva direktiivi) sekä Euroopan parlamentin ja neuvoston direktiivi (EU) 2019/771[30] (tavarakauppadirektiivi);

10. suosittelee, että tekoälylle ei pitäisi myöntää omaa oikeushenkilöllisyyttä; kehottaa komissiota myös tutkimaan, onko tuotevastuukehystä tarkistettava, jotta vahinkoa kärsineitä osapuolia voidaan suojella ja he voivat saada korvauksia tehokkaasti, kun on kyse tuotteista, jotka ostetaan yhdessä niihin liittyvien palvelujen kanssa, sekä tarkastelemaan sisäänrakennettua yksityisyyden suojaa ja sisäänrakennettua turvallisuutta koskevia sääntöjä siltä kannalta, että ne vastaavat kuluttajien kohtuullisia odotuksia heidän digitaalisten tuotteidensa suhteen;

11. korostaa, että tuotevastuudirektiivin asiaa koskevien säännösten mukaisesti verkossa toimivat markkinapaikat, jotka toimivat verkossa myytävien tuotteiden toimitusketjussa maahantuojina tai toimittajina, kuuluvat tuotevastuudirektiivin soveltamisalaan ja ovat siten vastuussa myymiensä tuotteiden puutteellisen turvallisuuden aiheuttamista vahingoista, paitsi jos ne toimivat toimittajina ja valmistaja voidaan tunnistaa;

12. kehottaa komissiota arvioimaan, onko käsite ”ajankohta, jona tuote laskettiin liikkeelle” tarkoituksenmukainen uuden digitaaliteknologian yhteydessä ja voisiko valmistajan vastuu ja vahingonkorvausvelvollisuus ulottua tätä pidemmälle, kun otetaan huomioon, että tekoälyyn perustuvia tuotteita voidaan muuttaa tuottajan valvonnassa niiden markkinoille saattamisen jälkeen, mikä voi johtaa puutteelliseen turvallisuuteen ja siitä aiheutuvaan vahinkoon, sekä kehottaa koordinoimaan tämän tarkastelun tiiviisti mahdollisten unionin turvallisuuskehykseen tehtävien vastaavien mukautusten kanssa;

13. painottaa, että on tärkeää varmistaa oikeudenmukainen ja tehokas vastuunjako liiketoimiketjussa, jotta vastuu voidaan kohdentaa asianmukaisimmalla tavalla; korostaa, että tekoälyyn ja uusiin teknologioihin perustuvien tuotteiden monimutkaisuuden, yhteenliitettävyyden ja vaikeaselkoisuuden vuoksi kuluttajien voi olla vaikea osoittaa, mikä tuotteen turvallisuuspuute aiheutti vahinkoa, koska ei voida olettaa, että kuluttajilla on kaikki tarvittavat tiedot tai erityistä teknistä tietämystä;

14. korostaa siksi, että on asiaankuuluvaa, että kuluttajille, joille on aiheutunut haittaa tai joiden omaisuutta on vahingoittunut, annetaan mahdollisuus osoittaa, että vahingon on aiheuttanut tuotteen puutteellinen turvallisuus, vaikka siihen liittyisi kolmannen osapuolen ohjelmistoja tai vian syytä olisi vaikea jäljittää, esimerkiksi silloin, kun tuotteet ovat osa monimutkaista yhteenliitettyä esineiden internetiä;

15. kehottaa komissiota harkitsemaan todistustaakkaa koskevien sääntöjen kääntämistä selkeästi määritellyissä tapauksissa ja asianmukaisen arvioinnin jälkeen, kun on kyse uusien digitaaliteknologioiden aiheuttamista haitoista, jotta haitasta tai omaisuusvahingoista kärsineille kuluttajille annetaan mahdollisuus puolustaa oikeuksiaan, samalla kun ehkäistään väärinkäytöksiä ja tarjotaan oikeusvarmuutta yrityksille, ja jotta varmistetaan oikeudenmukaisuus ja lievennetään tietoon liittyvää epäsymmetriaa, joka heikentää vahinkoa kärsineiden osapuolten asemaa;

16. pyytää komissiota arvioimaan mahdollisuutta asettaa uusien digitaaliteknologioiden tuottajille velvoite sisällyttää tuotteisiinsa ominaisuus, jolla voidaan tallentaa tietoa kyseisen teknologian toiminnasta sovellettavien tietosuojasäännösten ja liikesalaisuuksien suojaa koskevien sääntöjen mukaisesti, ja ottamaan tässä huomioon muun muassa todennäköisyyden sille, että teknologiaan liittyvä riski toteutuu, tällaisen velvollisuuden asianmukaisuuden ja oikeasuhteisuuden sekä sen teknisen toteutettavuuden ja kustannukset; katsoo, että mikäli valmistaja laiminlyö tämän velvollisuuden tai kieltäytyy antamasta kuluttajalle kohtuullista mahdollisuutta saada näitä tietoja, tästä aiheutuisi valmistajalle kumottavissa oleva vastuuolettama;

17. korostaa, että tekoälyyn olisi sovellettava riskiperusteista lähestymistapaa nykyisen vastuukehyksen puitteissa ottaen huomioon kuluttajille aiheutuvat eritasoiset riskit tietyillä aloilla sekä tekoälyn käyttötavat; korostaa, että tällaisen lähestymistavan, joka voisi kattaa useita riskitasoja, olisi perustuttava selkeisiin kriteereihin ja asianmukaiseen korkean riskitason määritelmään sekä tarjottava oikeudellista selkeyttä;

18. katsoo lisäksi, että tekoälypohjaisten järjestelmien eri kehitys-, käyttöönotto- ja käyttövaiheisiin osallistuvia olisi pidettävä vastuullisina samassa suhteessa kuin mikä on heidän vastuunsa näiden toimijoiden sisäisissä suhteissa; korostaa kuitenkin, että näiden eri toimijoiden yhteisvastuu olisi taattava suhteessa osapuoleen, joka on kärsinyt haittaa tai omaisuusvahinkoja; ehdottaa, että tuotteiden jäljitettävyyttä olisi parannettava esimerkiksi käyttämällä hajautetun tilikirjan teknologiaa, kuten lohkoketjua, jotta eri vaiheisiin osallistuvat voidaan tunnistaa paremmin;

19. korostaa, että tekoälyjärjestelmien selitettävyys, tulkittavuus ja jäljitettävyys ovat avainasemassa sen varmistamisessa, että vastuujärjestelmillä taataan riittävä, tehokas ja oikeudenmukainen vastuunjako;

20. pyytää komissiota arvioimaan huolellisesti erillisen mutta täydentävän ankaran vastuun järjestelmän käyttöönottoa tekoälyjärjestelmille, joihin liittyy suuri riski haitan tai vahingon aiheuttamisesta yhdelle tai useammalle henkilölle tai heidän omaisuudelleen tavalla, joka on satunnainen ja mahdoton ennustaa etukäteen, ja ottamaan tässä huomioon muun muassa, miten vastuujärjestelmä todennäköisesti vaikuttaa kansalaisten ja kuluttajien suojeluun haitoilta, yritysten ja erityisesti pk-yritysten innovointikykyyn, unionin turvallisuus- ja vastuukehyksen johdonmukaisuuteen sekä toissijaisuus- ja suhteellisuusperiaatteisiin; katsoo, että tällaisen järjestelmän olisi varmistettava, että uhrit saavat tosiasiallisesti korvausta tekoälyn ohjaamien järjestelmien aiheuttamista vahingoista;

21. kehottaa komissiota ehdottamaan konkreettisia toimia, kuten tuotevastuutapauksia koskevaa rekisteriä, joilla lisätään avoimuutta ja valvotaan unionissa liikkuvia turvallisuudeltaan puutteellisia tuotteita; korostaa, että on olennaisen tärkeää varmistaa korkeatasoinen kuluttajansuoja ja runsas tiedonsaanti ostettavissa olevien tuotteiden osalta.


TIEDOT HYVÄKSYMISESTÄ
LAUSUNNON ANTAVASSA VALIOKUNNASSA

Hyväksytty (pvä)

7.7.2020

 

 

 

Lopullisen äänestyksen tulos

+:

–:

0:

39

0

5

Lopullisessa äänestyksessä läsnä olleet jäsenet

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Lopullisessa äänestyksessä läsnä olleet varajäsenet

Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin

 

 


 

 

LOPULLINEN ÄÄNESTYS NIMENHUUTOÄÄNESTYKSENÄ
LAUSUNNON ANTAVASSA VALIOKUNNASSA

39

+

EPP

S&D

RENEW

ID

GREENS/EFA

ECR

EUL/NGL

NI

Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, Maria‑Manuel Leitão‑Marques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

Andrus Ansip, Vlad‑Marius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie Yon‑Courtin

Alessandra Basso

David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kim Van Sparrentak

Adam Bielan, Carlo Fidanza, Beata Mazurek

Kateřina Konečná, Anne‑Sophie Pelletier

Marco Zullo

 

0

-

 

 

 

5

0

ID

ECR

Hynek Blaško, Markus Buchheit, Virginie Joron, Jean‑Lin Lacapelle

Eugen Jurzyca

 

Symbolien selitys:

+ : puolesta

- : vastaan

0 : tyhjää

 

 

 


 

 

LIIKENNE- JA MATKAILUVALIOKUNNAN LAUSUNTO (15.7.2020)

oikeudellisten asioiden valiokunnalle

suosituksista komissiolle tekoälyä koskevasta siviilioikeudellisen vastuun järjestelmästä

(2020/2014(INL))

Valmistelija: Cláudia Monteiro de Aguiar

(Aloite – työjärjestyksen 47 artikla)

PA_INL

EHDOTUKSET

Liikenne- ja matkailuvaliokunta pyytää asiasta vastaavaa oikeudellisten asioiden valiokuntaa sisällyttämään seuraavat ehdotukset päätöslauselmaesitykseen, jonka se myöhemmin hyväksyy:

 ottaa huomioon Euroopan unionin toiminnasta tehdyn sopimuksen 225 artiklan,

 ottaa huomioon direktiivin 85/374/ETY[31],

 ottaa huomioon työjärjestyksen 56 artiklan,

A. arvioi, että tekoälyllä ja muilla kehitteillä olevilla digitaaliteknologioilla on paljon annettavaa yhteiskunnillemme ja taloudelle; toteaa, ettei silti ole täysin poissuljettua, että tällaisten teknologioiden operoinnista aiheutuu vahinkoja, vammoja tai ihmishenkien menetyksiä;

B. ottaa huomioon, että liikenteen eri osa-alueilla automaatiota ja tekoälyä on hyödynnetty vaihtelevassa määrin; panee lisäksi merkille, että tekoälyä käytetään monenlaisissa teknologioissa, kuten autonomiset ajoneuvot, miehittämättömät ilma-alusjärjestelmät ja älykäs liikenteenhallinta;

C. toteaa, että siviilioikeudellista vastuuta koskevaa unionin sääntelyä täydentävät kansalliset vastuujärjestelmät ja että molemmissa olisi otettava huomioon kehitteillä olevien teknologioiden kompleksisuus, jotta voidaan taata mahdollisimman korkeatasoinen suoja mutta kuitenkin tukea teknistä innovointia; panee merkille, että unionilla ei ole tekoälytuotteille yhdenmukaista siviilioikeudellisen vastuun järjestelmää; katsoo, että kannustamisen tekoälyn kehittämiseen ja käyttöönottoon EU:ssa olisi oltava unionille ensisijainen prioriteetti ja tekoälytuotteita koskevan vastuujärjestelmän kehittämisen perimmäinen tarkoitus; panee merkille, että jopa 90 prosenttia liikenneonnettomuuksista johtuu ainakin osittain inhimillisestä erehdyksestä; toteaa, että autonomisille ajoneuvoille olisi oltava eettiset normit; toteaa, että tällaisen normiston käyttöönotolla voidaan ehkäistä virheitä koneellisessa päätöksenteossa ja algoritmeissa mutta yhdenmukaistettua vastuujärjestelmää tarvitaan silti varmistamaan, että kaikki tekoälyjärjestelmien aiheuttamat vahingot korvataan täysimääräisesti;

D. katsoo, että unionin ja jäsenvaltioiden lainsäädännöllä olisi varmistettava tuoteturvallisuuden ja palvelujen turvallisuuden korkea taso ja asianmukainen järjestelmänhallinta sekä ennen tuotteen käyttöönottoa että koko sen elinkaaren ajan ja helpotettava korvausten maksamista uhreille; katsoo, että tekoälyn teknisen kehittämisen olisi pysyttävä ihmiskeskeisenä ja että tekoälyä hyödyntävien tuotteiden ja sovellusten olisi edistettävä inhimillistä kehitystä ja elämänlaatua;

1. korostaa, että tekoälyä voidaan soveltaa ajoneuvoissa, liikenneinfrastruktuurissa ja eri liikennemuodoissa eri tasoilla ja että se vaikuttaa merkittävästi järjestelmän autonomiaan, joka vaihtelee kuljettajan täydellisestä hallinnasta ajoneuvon täyteen autonomiaan, jolloin myös siviilioikeudellinen vastuu siirtyy asteittain kuljettajalta muille osapuolille sen mukaan, mitä autonomisempia automatisoidut ajojärjestelmät ovat; kehottaa laatimaan kaikentyyppisille tekoälyohjelmistoja käyttäville liikennemuodoille ja infrastruktuureille selkeät unionin määritelmät ja vastaavan riskiluokituksen, jotta vastuukysymykset olisi helpompi selvittää vastuumekanismin avulla ja jotta voidaan soveltaa mahdollisimman tiukkoja turvallisuusvaatimuksia, sekä korostaa, että turvallisuus on liikennealalla ensiarvoisen tärkeää ja että sen voidaan sanoa kulkevan käsi kädessä vastuun kanssa;

2. muistuttaa, että liikennealalla tekoälyteknologioita on käytetty enenevässä määrin jo vuosikymmeniä ja että etenkin rautatieliikenteen ohjausta on automatisoitu, myös kaupungeissa, joissa täysin automatisoidut, itseohjautuvat toiminnot ovat lisänneet järjestelmien käytettävissä oloa, verkon kapasiteettia ja tehokasta käyttöä;

3. tähdentää, että automatisoidut toiminnot voivat parantaa huomattavasti turvallisuutta keskipitkällä ja pitkällä aikavälillä mutta niillä voi olla myös tahattomia vaikutuksia esimerkiksi kyberturvallisuuteen tai tietosuojaan; toteaa, että vaikka vaihteleva automaatioaste on haaste, tekoälyä voitaisiin käyttää myös logistiikkaketjujen suunnitteluun ja ohjaukseen sekä tehokkuuden, häiriönsietokyvyn, luotettavuuden, kestävyyden, yhteentoimivuuden ja joustavuuden lisäämiseen ja että se tuo valtavasti mahdollisuuksia vammaisille ja liikuntarajoitteisille henkilöille; tähdentää, että tekoälytuotteita on valvottava tarkkaan niitä koskevan unionin siviilioikeudellisen vastuun järjestelmän puitteissa, jotta varmistetaan vammaisten ja liikuntarajoitteisten henkilöiden turvallisuus;

4. korostaa, että on tärkeää määritellä selkeä vastuunjako ohjelmistosuunnittelijoiden, erilaisten komponenttien valmistajien, data- ja muiden palvelujen tarjoajien sekä operoijien ja loppukäyttäjien välillä, jotta voidaan varmistaa mahdollisimman hyvä tuoteturvallisuus ja kuluttajien oikeuksien kunnioittaminen; huomauttaa, että infrastruktuurin ja ajoneuvojen välisestä uudesta digitaalisesta vuorovaikutuksesta aiheutuvien riskien jakautuminen on määritettävä asianmukaisesti ja että on sovellettava oikeudenmukaista vastuujärjestelmää käyttöohjelmistohäiriöihin, verkkohäiriöihin ja ohjelmistosuunnitteluun liittyviin riskeihin, joita ei tällä hetkellä ole riittävästi katettu;

5. korostaa, että liikennealan tekoälysovelluksissa, joiden riskiprofiili on erityisen korkea, tarvitaan automaation ja järjestelmän itseoppimisen asteeseen sovitettua riskiperusteista lähestymistapaa; huomauttaa, että korkean riskiprofiilin tekoälysovelluksille on asetettava oikeudellisia vaatimuksia; toteaa kuitenkin, että tässä lähestymistavassa ei pitäisi ennakolta määrittää tiettyjä aloja, kuten liikenne, aloiksi, joilla käytetään suuririskistä tekoälyä, vaan sen olisi perustuttava alakohtaisiin ja teknologianeutraaleihin arviointeihin; korostaa, että nämä vaatimukset on yhdenmukaistettava kaikkialla unionissa, jotta voidaan varmistaa mahdollisimman korkea tuoteturvallisuuden taso ja minimoida käyttäjille tekoälyjärjestelmien operoinnin yhteydessä mahdollisesti aiheutuvat riskit, ja painottaa Euroopan unionin toiminnasta tehdyn sopimuksen 191 artiklaan kirjatun ennalta varautumisen periaatteen keskeistä asemaa riskianalyysissä ja riskinhallinnassa; kehottaa vastaamaan asianmukaisesti tarpeeseen omaksua tarkoituksenmukainen lähestymistapa tietosuojaan sekä hakkerointiin ja kyberrikollisuuteen liittyvien riskien hallintaan;

6. huomauttaa, että nykyisten tuoteturvallisuussäännösten mukaan tuottaja on vastuussa, ellei toisin todisteta, ja todistustaakka on tuottajilla ja/tai kehittäjillä; korostaa, että tätä periaatetta olisi sovellettava myös tekoälytuotteisiin; suosittaa, että tapauksissa, joissa tuottaja ja/tai kehittäjä ei todistetusti ole vastuussa, operoijan, jolla on tekoälyllä varustetun tuotteen tai palvelun omistajaa tai käyttäjää enemmän hallintavaltaa, olisi oltava se osapuoli, jolla katsotaan olevan parhaat edellytykset hallita riskejä, ja todistustaakka olisi näin ollen siirrettävä operoijalle; toteaa, että velvoitteiden olisi aina kuuluttava sille toimijalle, jolla on parhaat edellytykset riskinhallintaan; korostaa, että kuluttajan suostumus on yksi tekoälyä hyödyntävien liikennepalvelujen kehittämisen perusperiaatteista; kehottaa painokkaasti komissiota kehittämään tällaisten palvelujen sertifiointikeinoja; toteaa, että tekoälyteknologioita käyttävien unionin kansalaisten ja yritysten suojelu edellyttää selkeää vastuunjakoa eri osapuolten välillä, olivatpa nämä sijoittautuneet unioniin tai sen ulkopuolelle (ekstraterritoriaalisuus);

7. korostaa tarvetta taata vähintään nykyistä vastaava tuoteturvallisuuden taso ottaen huomioon myös unionin nollavisiotavoite, tehdä onnettomuuksien uhreille helpommaksi saada hyvitystä, estää oikeudenkäyntikulujen kasvu nykyisestä ja välttää oikeudellinen epävarmuus, erityisesti niiden yritysten kannalta, jotka markkinoivat tuotteitaan unionissa ja maailmanlaajuisesti; korostaa tarvetta varmistaa korvausten nopea maksaminen uhreille vastuuketjusta riippumatta;

8. katsoo, että olipa liikennejärjestelmien ja ajoneuvojen automaatioaste ja tekoälyn käyttötaso mikä hyvänsä, lopullisen vastuun olisi aina säilyttävä luonnollisilla henkilöillä ja oikeushenkilöillä, jotta varmistetaan oikeusvarmuus ja kannustetaan investointeihin ja teknologian asianmukaiseen käyttöönottoon;

9. pitää tärkeänä varmistaa, että kuljettajat ovat saaneet asianmukaisen koulutuksen ja että he tuntevat aina täysin ajoneuvon automaatioasteen ja tietävät oman vastuunsa laajuuden, ja painottaa, että heidät olisi perehdytettävä ajoneuvojen tekoälyjärjestelmiin ja niiden rajoituksiin, kuten aktivointiin, deaktivointiin ja vikoihin; toteaa lisäksi, että ajoneuvon järjestelmien olisi muistutettava määräajoin kuljettajaa, että hän on vastuussa ajoneuvon tilan valvonnasta, ja annettava kuljettajalle selkeitä varoituksia tekoälyjärjestelmän rajoituksista; tähdentää, että kuljettajan ei voida katsoa olevan vastuussa, jos hänen todetaan käyttäneen täysautomaattisia ajojärjestelmiä säännönmukaisesti;

10. toteaa, että vakavia onnettomuuksia varten tarvitaan tapahtumatallentimia, joiden käytössä on noudatettava tiukasti tietosuojaa ja yksityisyyttä koskevaa lainsäädäntöä ja joiden avulla voidaan määrittää vastuussa oleva luonnollinen henkilö tai oikeushenkilö; korostaa, että datan taltiointi, jakaminen ja hallinta ovat jatkossa keskeisellä sijalla tekoälyn käyttöönotossa liikkuvuuden alalla, ja painottaa, että tallentimia ei saisi missään tapauksessa käyttää pysyvinä jäljitysjärjestelminä; kehottaa lisäämään julkista ja yksityistä tutkimus- ja kehitystyötä sekä testausta, jotta voidaan parantaa tuoteturvallisuutta ja siten myös liikenneturvallisuutta, mutta vähintäänkin tuottaa konkreettista tietoa jatkokehityksen tueksi; toteaa, että häiriötilanteiden minimoimiseksi tarvitaan viimeisintä kehitystä edustava infrastruktuuri ja älykäs liikennejärjestelmä, joka pohjautuu ajantasaiseen, selkeään ja tulkittavissa olevaan dataan;

11. kehottaa analysoimaan tarkemmin tarvetta mukauttaa Euroopan parlamentin ja neuvoston direktiiviä 2006/126/EY[32] ja Euroopan parlamentin ja neuvoston direktiiviä 2009/103/EY[33] ajoneuvojen automatisoitujen toimintojen johdosta; kannustaa voimakkaasti komissiota arvioimaan säännöllisesti Euroopan liikennealan sääntelyjärjestelmää, jotta se pystyy varmasti vastaamaan tekoälyteknologian käytöstä johtuviin turvallisuus- ja vastuuhaasteisiin; kehottaa lisäksi komissiota tutkimaan mahdollisuutta sisällyttää unionin tuoteturvallisuuslainsäädäntöön vaatimuksia, jotka koskevat virheelliseen dataan liittyviä turvallisuusriskejä;

12. korostaa, että onnettomuuksia tai liikennelainsäädännön rikkomistapauksia koskevat vastuujärjestelmät on suunniteltava huolellisesti kutakin automaatioastetta ja tekoälyn käyttötasoa varten ja niistä on tiedotettava käyttäjille selkeästi, jotta varmistetaan kitkaton siirtymä kuljettajan täydestä vastuusta valmistajan ja operoijan täyteen vastuuseen;

13. panee merkille, että se, missä määrin liikenneverkoston miehittämättömät järjestelmät, kuten automatisoidut ajoneuvot ja miehittämättömät ilma-alusjärjestelmät, voivat toimia maaliikenteen infrastruktuurissa ja toisaalta ilmatilassa, riippuu monista vaihtelevista signaaleista ja olosuhteista sekä mahdollisesti ilmenevistä vaaroista tai esteistä; toteaa, että tällainen käytön lisääntyminen erityisesti kaupunkialueilla panee nykyisen siviilioikeudellisen vastuujärjestelmän jatkuvasti koetukselle; kehottaa tämän vuoksi päivittämään säännöllisesti digitaalisia karttoja, liikenteenhallintajärjestelmiä ja datan jakamista koskevia sääntöjä, jotta saatavilla olisi pakolliset vähimmäistiedot ja asianmukaiset tiedot ja ohjeet tekoälyllä varustettujen tuotteiden käytöstä ja tieverkosta, sekä huolehtimaan automatisoidun lennonohjausjärjestelmän (U-Space) asianmukaisesta kehittämisestä ja käyttöönotosta; katsoo, että kaikessa liikenteen automaatioon ja tekoälysovelluksiin liittyvän sääntelykehyksen päivitys- ja kehitystyössä olisi lähdettävä liikkeelle ihmisen tarpeista;

14. kehottaa komissiota antamaan suuntaviivat, jotta vältetään kansallisen sääntelyn hajanaisuus, ottaen huomioon direktiivin 85/374/ETY ja nykyiset kansalliset vastuujärjestelmät; tähdentää, että tarvitaan siviilioikeudellista vastuuta koskeva unionin kehys ja että hajanaisuus olisi erittäin haitallista näiden teknologioiden kehittämiselle ja unionin yritysten, erityisesti pk-yritysten, kilpailukyvylle ja että se heikentäisi oikeusvarmuutta ja turvallisuutta ja hidastaisi korvausten maksamista uhreille; toteaa, että vastuun olisi aina kuuluttava sille toimijalle, jolla on parhaat edellytykset riskinhallintaan, ja että vastuu olisi määritettävä oikeudenmukaisessa oikeudellisessa menettelyssä.


TIEDOT HYVÄKSYMISESTÄ
LAUSUNNON ANTAVASSA VALIOKUNNASSA

Hyväksytty (pvä)

14.7.2020

 

 

 

Lopullisen äänestyksen tulos

+:

–:

0:

49

0

0

Lopullisessa äänestyksessä läsnä olleet jäsenet

Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, István Ujhelyi, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski

Lopullisessa äänestyksessä läsnä olleet varajäsenet

Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti

 


 

LOPULLINEN ÄÄNESTYS NIMENHUUTOÄÄNESTYKSENÄ
LAUSUNNON ANTAVASSA VALIOKUNNASSA

49

+

ECR

Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski

GUE/NGL

Leila Chaibi, Kateřina Konečná, Elena Kountoura

ID

Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo

NI

Mario Furore, Dorien Rookmaker

PPE

Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian‑Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg‑Vrionidi, Elżbieta Katarzyna Łukacijewska

Renew

José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan‑Christoph Oetjen, Dominique Riquet

S&D

Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi

Verts/ALE

Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay‑Grunenberg, Tilly Metz

 

0

-

 

 

 

0

0

 

 

 

Symbolien selitys:

+ : puolesta

- : vastaan

0 : tyhjää

 

 

 


 

TIEDOT HYVÄKSYMISESTÄ ASIASTA VASTAAVASSA VALIOKUNNASSA

Hyväksytty (pvä)

1.10.2020

 

 

 

Lopullisen äänestyksen tulos

+:

–:

0:

23

0

1

Lopullisessa äänestyksessä läsnä olleet jäsenet

Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos

Lopullisessa äänestyksessä läsnä olleet varajäsenet

Patrick Breyer, Evelyne Gebhardt, Kosma Złotowski

 


LOPULLINEN ÄÄNESTYS NIMENHUUTOÄÄNESTYKSENÄ ASIASTA VASTAAVASSA VALIOKUNNASSA

23

+

EPP

Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos

S&D

Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken

RENEW

Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara

ID

Gunnar Beck, Jean‑Paul Garraud, Gilles Lebreton

VERTS/ALE

Patrick Breyer, Marie Toussaint

ECR

Angel Dzhambazki, Kosma Złotowski

NI

Mislav Kolakušić

 

0

-

 

 

 

1

0

GUE/NGL

Manon Aubry

 

Symbolien selitys:

+ : puolesta

- : vastaan

0 : tyhjää

 

 

Päivitetty viimeksi: 19. lokakuuta 2020
Oikeudellinen huomautus - Tietosuojakäytäntö