Menettely : 2020/2012(INL)
Elinkaari istunnossa
Asiakirjan elinkaari : A9-0186/2020

Käsiteltäväksi jätetyt tekstit :

A9-0186/2020

Keskustelut :

PV 19/10/2020 - 15
PV 19/10/2020 - 18
CRE 19/10/2020 - 15
CRE 19/10/2020 - 18

Äänestykset :

PV 20/10/2020 - 17
PV 20/10/2020 - 21

Hyväksytyt tekstit :

P9_TA(2020)0275

<Date>{08/10/2020}8.10.2020</Date>
<NoDocSe>A9-0186/2020</NoDocSe>
PDF 559kWORD 239k

<TitreType>MIETINTÖ</TitreType>

<Titre>suosituksista komissiolle tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien eettisten näkökohtien kehyksestä</Titre>

<DocRef>(2020/2012(INL))</DocRef>


<Commission>{JURI}Oikeudellisten asioiden valiokunta</Commission>

Esittelijä: <Depute>Ibán García del Blanco</Depute>

Valmistelijat (*):

Urmas Paet, ulkoasiainvaliokunta

Alexandra Geese, sisämarkkina- ja kuluttajansuojavaliokunta

Valter Flego, liikenne- ja matkailuvaliokunta

Assita Kanko, kansalaisvapauksien sekä oikeus- ja sisäasioiden valiokunta

(*) Valiokuntien yhteistyömenettely – työjärjestyksen 57 artikla

(Aloite – työjärjestyksen 47 artikla)

TARKISTUKSET
EUROOPAN PARLAMENTIN PÄÄTÖSLAUSELMAESITYS
 PÄÄTÖSLAUSELMAN LIITE: PYYDETYN EHDOTUKSEN SISÄLTÖÄ KOSKEVAT YKSITYISKOHTAISET SUOSITUKSET
 A. EHDOTUKSEN PERIAATTEET JA TAVOITTEET
 B. PYYDETYN LAINSÄÄDÄNTÖEHDOTUKSEN TEKSTI
 PERUSTELUT
 ULKOASIAINVALIOKUNNAN LAUSUNTO
 SISÄMARKKINA- JA KULUTTAJANSUOJAVALIOKUNNAN LAUSUNTO
 LIIKENNE- JA MATKAILUVALIOKUNNAN LAUSUNTO
 KANSALAISVAPAUKSIEN SEKÄ OIKEUS- JA SISÄASIOIDEN VALIOKUNNAN LAUSUNTO
 TYÖLLISYYDEN JA SOSIAALIASIOIDEN VALIOKUNNAN LAUSUNTO
 YMPÄRISTÖN, KANSANTERVEYDEN JA ELINTARVIKKEIDEN TURVALLISUUDEN VALIOKUNNAN LAUSUNTO
 KULTTUURI- JA KOULUTUSVALIOKUNNAN LAUSUNTO
 TIEDOT HYVÄKSYMISESTÄ ASIASTA VASTAAVASSA VALIOKUNNASSA
 LOPULLINEN ÄÄNESTYS NIMENHUUTOÄÄNESTYKSENÄ ASIASTA VASTAAVASSA VALIOKUNNASSA

EUROOPAN PARLAMENTIN PÄÄTÖSLAUSELMAESITYS

suosituksista komissiolle tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien eettisten näkökohtien kehyksestä

(2020/2012(INL))

Euroopan parlamentti, joka

 ottaa huomioon Euroopan unionin toiminnasta tehdyn sopimuksen 225 artiklan,

 ottaa huomioon Euroopan unionin toiminnasta tehdyn sopimuksen 114 artiklan,

 ottaa huomioon Euroopan unionin perusoikeuskirjan,

 ottaa huomioon Euroopan suurteholaskennan yhteisyrityksen perustamisesta 28. syyskuuta 2018 annetun neuvoston asetuksen (EU) 2018/1488[1],

 ottaa huomioon rodusta tai etnisestä alkuperästä riippumattoman yhdenvertaisen kohtelun periaatteen täytäntöönpanosta 29. kesäkuuta 2000 annetun neuvoston direktiivin 2000/43/EY[2] (rotujen välistä tasa-arvoa koskeva direktiivi),

 ottaa huomioon yhdenvertaista kohtelua työssä ja ammatissa koskevista yleisistä puitteista 27. marraskuuta 2000 annetun neuvoston direktiivin 2000/78/EY[3] (yhdenvertaista kohtelua työssä koskeva direktiivi),

 ottaa huomioon luonnollisten henkilöiden suojelusta henkilötietojen käsittelyssä sekä näiden tietojen vapaasta liikkuvuudesta ja direktiivin 95/46/EY kumoamisesta 27. huhtikuuta 2016 annetun Euroopan parlamentin ja neuvoston asetuksen (EU) 2016/679 (yleinen tietosuoja-asetus)[4] sekä luonnollisten henkilöiden suojelusta toimivaltaisten viranomaisten suorittamassa henkilötietojen käsittelyssä rikosten ennalta estämistä, tutkimista, paljastamista tai rikoksiin liittyviä syytetoimia tai rikosoikeudellisten seuraamusten täytäntöönpanoa varten sekä näiden tietojen vapaasta liikkuvuudesta ja neuvoston puitepäätöksen 2008/977/YOS kumoamisesta 27. huhtikuuta 2016 annetun Euroopan parlamentin ja neuvoston direktiivin (EU) 2016/680[5],

 ottaa huomioon 13. huhtikuuta 2016 tehdyn toimielinten välisen sopimuksen paremmasta lainsäädännöstä[6],

 ottaa huomioon 6. kesäkuuta 2018 annetun ehdotuksen Euroopan parlamentin ja neuvoston asetukseksi Digitaalinen Eurooppa -ohjelman perustamisesta vuosiksi 2021–2027 (COM(2018)0434),

 ottaa huomioon 11. joulukuuta 2019 annetun komission tiedonannon Euroopan parlamentille, neuvostolle, Euroopan talous- ja sosiaalikomitealle sekä alueiden komitealle Euroopan vihreän kehityksen ohjelmasta (COM(2019)0640),

 ottaa huomioon 19. helmikuuta 2020 annetun komission tiedonannon Euroopan parlamentille, neuvostolle, Euroopan talous- ja sosiaalikomitealle sekä alueiden komitealle aiheesta ”Tekoäly – Eurooppalainen lähestymistapa huippuosaamiseen ja luottamukseen” (COM(2020)0065),

 ottaa huomioon 19. helmikuuta 2020 annetun komission tiedonannon Euroopan parlamentille, neuvostolle, Euroopan talous- ja sosiaalikomitealle sekä alueiden komitealle Euroopan datastrategiasta (COM(2020)0066),

 ottaa huomioon 19. helmikuuta 2020 annetun komission tiedonannon Euroopan parlamentille, neuvostolle, Euroopan talous- ja sosiaalikomitealle sekä alueiden komitealle aiheesta ”Euroopan digitaalista tulevaisuutta rakentamassa” (COM(2020)0067),

 ottaa huomioon kesäkuussa 2020 annetut Euroopan unionin neuvoston päätelmät Euroopan digitaalisen tulevaisuuden rakentamisesta,

 ottaa huomioon 16. helmikuuta 2017 antamansa päätöslauselman suosituksista komissiolle robotiikkaa koskevista yksityisoikeudellisista säännöistä[7],

 ottaa huomioon 1. kesäkuuta 2017 antamansa päätöslauselman Euroopan teollisuuden digitalisoinnista[8],

 ottaa huomioon 12. syyskuuta 2018 antamansa päätöslauselman autonomisista asejärjestelmistä[9],

 ottaa huomioon 11. syyskuuta 2018 antamansa päätöslauselman kielellisestä tasa-arvosta digitaaliajalla[10],

 ottaa huomioon 12. helmikuuta 2019 antamansa päätöslauselman tekoälyä ja robotiikkaa koskevasta kokonaisvaltaisesta Euroopan unionin teollisuuspolitiikasta[11],

 ottaa huomioon 8. huhtikuuta 2019 julkaistun komission perustaman tekoälyä käsittelevän korkean tason asiantuntijaryhmän asiakirjan ”Luotettavaa tekoälyä koskevat eettiset ohjeet”,

 ottaa huomioon seuraavat katsaukset ja selvitykset, jotka valmisteltiin Euroopan parlamentin tutkimuspalveluun kuuluvan, tulevaisuuden ennakoinnin tutkimusyksikössä toimivan tieteen ja tekniikan tulevaisuuspaneelin (STOA) pyynnöstä: ”What if algorithms could abide by ethical principles?”, ”Artificial Intelligence ante portas: Legal & ethical reflections”, ”A governance framework for algorithmic accountability and transparency”, ”Should we fear artificial intelligence?” ja ”The ethics of artificial intelligence: Issues and initiatives”,

 ottaa huomioon kansallisten vähemmistöjen suojelua koskevan Euroopan neuvoston puiteyleissopimuksen, ihmisoikeuksien ja perusvapauksien suojaamiseksi tehdyn yleissopimuksen kahdennentoista pöytäkirjan sekä alueellisia kieliä tai vähemmistökieliä koskevan eurooppalaisen peruskirjan,

 ottaa huomioon 22. toukokuuta 2019 annetun OECD:n neuvoston suosituksen tekoälystä,

 ottaa huomioon työjärjestyksen 47 ja 54 artiklan,

 ottaa huomioon ulkoasiainvaliokunnan, sisämarkkina- ja kuluttajansuojavaliokunnan, liikenne- ja matkailuvaliokunnan, kansalaisvapauksien sekä oikeus- ja sisäasioiden valiokunnan, työllisyyden ja sosiaaliasioiden valiokunnan, ympäristön, kansanterveyden ja elintarvikkeiden turvallisuuden valiokunnan sekä kulttuuri- ja koulutusvaliokunnan lausunnot,

 ottaa huomioon oikeudellisten asioiden valiokunnan mietinnön (A9-0186/2020),

Johdanto

A. ottaa huomioon, että ihmiset vastaavat tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisestä, käyttöönotosta ja käytöstä ja että heidän valintansa ratkaisevat, miten tällainen teknologia voi hyödyttää yhteiskuntaa;

B. ottaa huomioon, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa edistetään ja kehitetään nopeaa tahtia, ja toteaa, että ne voivat tuoda mahdollisuuksia yrityksille ja hyötyjä kansalaisille sekä vaikuttaa suoraan kaikkiin yhteiskuntiemme osa-alueisiin, perusoikeudet sekä sosiaaliset ja taloudelliset periaatteet ja arvot mukaan lukien, ja että niillä voi olla pysyviä vaikutuksia kaikilla elämänaloilla;

C. ottaa huomioon, että tekoäly, robotiikka ja niihin liittyvä teknologia tuovat tullessaan merkittäviä muutoksia työmarkkinoille ja työpaikoille; toteaa, että ne voivat mahdollisesti korvata toistuvia työtehtäviä suorittavia työntekijöitä, helpottaa yhteistyöhön perustuvia ihminen-konejärjestelmiä, lisätä kilpailukykyä ja vaurautta sekä luoda uusia työmahdollisuuksia päteville työntekijöille, mutta huomauttaa, että ne merkitsevät myös vakavaa haastetta työvoiman uudelleenorganisoinnille;

D. ottaa huomioon, että tekoälyn, robotiikan ja niihin liittyvän teknologian kehittäminen voi myös auttaa saavuttamaan Euroopan vihreän kehityksen ohjelman kestävyystavoitteet monilla eri aloilla; toteaa, että digitaaliteknologiat voivat tehostaa ympäristönsuojelutoimien vaikutusta; ottaa huomioon, että niiden avulla voidaan myös vähentää liikenneruuhkia sekä kasvihuonekaasujen ja ilman epäpuhtauksien päästöjä;

E. ottaa huomioon, että esimerkiksi julkisessa liikenteessä tekoälyn tukemia älykkäitä liikennejärjestelmiä voidaan käyttää minimoimaan jonoja, optimoimaan reittisuunnittelua, lisäämään vammaisten henkilöiden itsenäisyyttä ja parantamaan energiatehokkuutta, jolloin tehostetaan hiilestä irtautumista ja pienennetään ympäristöjalanjälkeä;

F. toteaa, että tällaiset teknologiat luovat uusia liiketoimintamahdollisuuksia, jotka voivat myötävaikuttaa unionin teollisuuden elpymiseen tämänhetkisestä terveys- ja talouskriisistä, jos niitä hyödynnetään paremmin esimerkiksi liikennealalla; toteaa, että nämä mahdollisuudet voivat synnyttää uusia työpaikkoja, koska näiden teknologioiden käyttöönotto voi lisätä yritysten tuottavuutta ja tuottaa tehokkuushyötyjä; huomauttaa, että tämän alan innovointiohjelmat voivat auttaa alueellisia klustereita menestymään;

G. ottaa huomioon, että unionilla ja sen jäsenvaltioilla on erityinen vastuu hyödyntää, edistää ja tehostaa tekoälystä saatavaa lisäarvoa sekä varmistaa, että tekoälyteknologiat ovat turvallisia ja edistävät kansalaisten hyvinvointia ja yleistä etua, sillä ne voivat edesauttaa suuresti yhteistä tavoitettamme parantaa kansalaisten elämää ja lisätä vaurautta unionissa tukemalla parempien strategioiden kehittämistä ja innovointia eri aloilla ja sektoreilla; toteaa, että jotta voitaisiin hyödyntää tekoälyn koko potentiaali ja saada käyttäjät tiedostamaan tekoälyteknologioiden tuomat hyödyt ja haasteet, on tarpeen ottaa tekoäly- tai digilukutaito osaksi koulutusta, myös edistämällä digitaalista osallisuutta, ja toteuttaa unionin tasolla tiedotuskampanjoita, joissa annetaan paikkansapitävä kuva tekoälyn kehityksen kaikista näkökohdista;

H. katsoo, että tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevan yhteisen unionin sääntelykehyksen myötä kansalaisten pitäisi voida jakaa niiden potentiaaliin liittyvät hyödyt samalla, kun heitä suojellaan näiden teknologioiden mahdollisilta riskeiltä ja edistetään niiden luotettavuutta unionissa ja muualla; toteaa, että tällaisen kehyksen olisi perustuttava unionin oikeuteen ja arvoihin ja siinä olisi noudatettava läpinäkyvyyden, selitettävyyden, oikeudenmukaisuuden, vastuuvelvollisuuden ja vastuullisuuden periaatteita;

I. katsoo, että tällainen sääntelykehys on olennaisen tärkeä, jotta voidaan välttää kansallisen lainsäädännön eroista johtuva hajanaisuus sisämarkkinoilla, ja sen avulla voidaan edistää kipeästi kaivattuja investointeja, kehittää datainfrastruktuuria ja tukea tutkimusta; toteaa, että kehyksen olisi koostuttava yhteisistä oikeudellisista velvoitteista ja eettisistä periaatteista, jotka esitetään tämän päätöslauselman liitteenä olevassa ehdotuksessa asetukseksi; katsoo, että sääntelykehys olisi laadittava paremman sääntelyn suuntaviivojen mukaisesti;

J. ottaa huomioon, että unionissa on otettu käyttöön tiukka lainsäädäntökehys muun muassa henkilötietojen ja yksityisyyden suojan sekä syrjimättömyyden varmistamiseksi ja sukupuolten tasa-arvon, ympäristönsuojelun ja kuluttajien oikeuksien edistämiseksi; toteaa, että tätä lainsäädäntökehystä, johon sisältyy laaja horisontaalinen ja alakohtainen lainsäädäntö, mukaan lukien voimassa olevat tuoteturvallisuus- ja tuotevastuusäännöt, sovelletaan jatkossakin tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan, vaikka tiettyihin säädöksiin saattaa olla tarpeen tehdä eräitä mukautuksia, jotta voidaan ottaa huomioon digitalisaatio ja vastata tekoälyn käytöstä aiheutuviin uusiin haasteisiin;

K. toteaa, että unionin nykyinen oikeudellinen kehys, mukaan lukien kuluttajalainsäädäntö ja työllisyys- ja sosiaalialan säännöstö, tietosuojalainsäädäntö, tuoteturvallisuus- ja markkinavalvontalainsäädäntö sekä syrjinnän vastainen lainsäädäntö, ei välttämättä enää sovellu torjumaan tehokkaasti tekoälyn, robotiikan ja niihin liittyvän teknologian aiheuttamia riskejä;

L. katsoo, että voimassa olevaan lainsäädäntöön tehtävien mukautusten lisäksi tekoälyteknologioihin liittyviä oikeudellisia ja eettisiä kysymyksiä olisi käsiteltävä toimivassa, kattavassa ja tulevaisuuden vaatimukset huomioon ottavassa unionin sääntelykehyksessä, joka ilmentää perussopimuksissa ja perusoikeuskirjassa vahvistettuja unionin periaatteita ja arvoja; toteaa, että tällaisessa kehyksessä olisi vältettävä ylisääntelyä niin, että siinä ainoastaan korjataan nykyisen lainsäädännön porsaanreiät, ja sillä olisi lisättävä niin yritysten kuin kansalaisten oikeusvarmuutta sisällyttämällä siihen pakollisia toimenpiteitä, joilla estetään käytännöt, jotka kiistatta heikentäisivät perusoikeuksia;

M. toteaa, että uudessa sääntelykehyksessä on otettava huomioon kaikki asiaan liittyvät edut; katsoo, että uuden sääntelykehyksen seuraukset kaikille toimijoille olisi tutkittava huolellisesti vaikutustenarvioinnissa ja että tämän olisi oltava edellytyksenä muille lainsäädäntötoimille; toteaa, että pienillä ja keskisuurilla yrityksillä (pk-yrityksillä) ja startup-yrityksillä on keskeinen rooli varsinkin unionin taloudessa, joten on perusteltua noudattaa ehdottoman oikeasuhteista lähestymistapaa, jotta ne voivat kehittyä ja innovoida;

 

N. toteaa, että tekoälyllä, robotiikalla ja niihin liittyvällä teknologialla voi olla vakavia seurauksia yksittäisten ihmisten, ryhmien ja koko yhteiskunnan aineellisen ja aineettoman koskemattomuuden kannalta ja että mahdollisiin yksilölle tai yhteisölle aiheutuviin vahinkoihin on puututtava lainsäädännöllä;

O. toteaa, että unionin liikennealaa koskevia erityissääntöjä voi olla tarpeen mukauttaa, jotta ne olisivat tekoälyä koskevan unionin sääntelykehyksen mukaisia;

P. ottaa huomioon, että tekoälyteknologioilla on strategista merkitystä liikennealalle, myös siksi, että ne parantavat kaikkien liikennemuotojen turvallisuutta ja saavutettavuutta ja luovat uusia työllistymismahdollisuuksia ja kestävämpiä liiketoimintamalleja; katsoo, että liikennealan tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä koskevalla unionin lähestymistavalla on mahdollista lisätä unionin talouden globaalia kilpailukykyä ja strategista riippumattomuutta;

Q. huomauttaa, että inhimillinen virhe on yhä taustalla noin 95 prosentissa unionin kaikista tieliikenneonnettomuuksista; toteaa, että unionin tavoitteena oli vähentää vuoteen 2020 mennessä vuotuista tieliikennekuolemien määrää 50 prosenttia vuoteen 2010 verrattuna, mutta kehityksen pysähdyttyä työtä jatketaan EU:n tieliikenneturvallisuuspolitiikan puitteissa vuosiksi 2021–2030 määrittämällä seuraavat toimet nollavisiotavoitteen saavuttamiseksi; huomauttaa, että tekoäly, automaatio ja muut uudet teknologiat tarjoavat valtavan potentiaalin ja ovat elintärkeitä liikenneturvallisuuden parantamiseksi, kun ne vähentävät inhimillisten virheiden mahdollisuuksia;

R. toteaa, että tekoälyä koskevassa unionin sääntelykehyksessä olisi huomioitava myös tarve varmistaa, että työntekijöiden oikeuksia kunnioitetaan; katsoo, että siinä olisi otettava huomioon kesäkuussa 2020 tehty Euroopan tason työmarkkinaosapuolten puitesopimus digitalisaatiosta;

S. toteaa, että tekoälyä koskevan unionin sääntelykehyksen soveltamisalan olisi oltava asianmukainen, oikeasuhteinen ja perusteellisesti arvioitu; katsoo, että kehyksen olisi katettava laaja valikoima teknologioita ja niiden komponentteja, mukaan lukien niiden käyttämät tai tuottamat algoritmit, ohjelmistot ja data, ja että tarvitaan kohdennettua riskiperusteista lähestymistapaa, jottei estetä tulevaa innovointia eikä luoda tarpeettomia rasitteita, etenkään pk-yrityksille; huomauttaa, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa käyttävien sovellusten kirjo on niin laaja, että on vaikea löytää yhtä ainoaa ratkaisua, joka toimisi kaikkiin mahdollisiin riskeihin;

T. toteaa, että data-analyysi ja tekoäly vaikuttavat yhä enemmän kansalaisten saatavilla olevaan tietoon; katsoo, että jos tällaisia teknologioita käytetään väärin, ne saattavat vaarantaa perustavaa laatua olevat oikeudet sananvapauteen ja tiedonvälityksen vapauteen sekä tiedotusvälineiden vapauden ja moniarvoisuuden;

U. toteaa, että tekoälyä koskevan unionin sääntelykehyksen maantieteellisen soveltamisalan olisi katettava kaikki unionissa kehitetyn, käyttöön otetun tai käytetyn tekoälyn, robotiikan ja niihin liittyvän teknologian osa-alueet, myös silloin kun osa teknologiasta saattaa sijaita unionin ulkopuolella tai sillä ei ole tiettyä sijaintipaikkaa;

V. katsoo, että tekoälyä koskevan unionin sääntelykehyksen olisi katettava kaikki olennaiset vaiheet, nimittäin asiaan liittyvien teknologioiden ja niiden komponenttien kehittäminen, käyttöönotto ja käyttö, ja siinä olisi otettava asiaankuuluvasti huomioon tähän liittyvät oikeudelliset velvoitteet ja eettiset periaatteet sekä vahvistettava edellytykset sen varmistamiseksi, että kehittäjät, käyttöönottajat ja käyttäjät toimivat kaikilta osin näiden velvoitteiden ja periaatteiden mukaisesti;

W. ottaa huomioon, että yhdenmukainen lähestymistapa tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskeviin eettisiin periaatteisiin edellyttää, että unionissa vallitsee yhteisymmärrys teknologioiden perustana olevista käsitteistä, kuten algoritmeista, ohjelmistoista, datasta tai biometrisestä tunnistuksesta;

X. katsoo, että unionin tason toimet ovat perusteltuja, koska on vältettävä hajanaista sääntelyä tai kansallisia säännöksiä, joilla ei ole yhteistä nimittäjää, ja varmistettava laissa vahvistettujen yhteisten eettisten periaatteiden yhtenäinen soveltaminen kehitettäessä, otettaessa käyttöön ja käytettäessä tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa; toteaa, että selkeitä sääntöjä tarvitaan, kun riskit ovat merkittävät;

Y. ottaa huomioon, että yhteiset eettiset periaatteet ovat tehokkaita vain, kun ne on vahvistettu myös laissa ja kun niiden noudattamisen varmistamisesta, arvioinnista ja seurannasta vastaavat tahot on määritetty;

Z. toteaa, että eettinen ohjeistus, kuten tekoälyä käsittelevän korkean tason asiantuntijaryhmän hyväksymät periaatteet, on hyvä lähtökohta, mutta sillä ei voida varmistaa, että kehittäjät, käyttöönottajat ja käyttäjät toimivat oikeudenmukaisesti ja takaavat tehokkaan yksilöiden suojan; huomauttaa, että ohjeistus on sitäkin tärkeämpää suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian tapauksessa;

AA. katsoo, että kunkin jäsenvaltion olisi nimettävä kansallinen valvontaviranomainen, jonka vastuulla on varmistaa, arvioida ja seurata, että suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisessä, käyttöönotossa ja käytössä noudatetaan tekoälyä koskevaa unionin sääntelykehystä, sekä mahdollistaa keskustelu ja näkemystenvaihto tiiviissä yhteistyössä asiaankuuluvien sidosryhmien ja kansalaisyhteiskunnan kanssa; toteaa, että kansallisten valvontaviranomaisten olisi tehtävä yhteistyötä keskenään;

AB. toteaa, että jotta voitaisiin varmistaa yhdenmukainen lähestymistapa koko unionissa ja digitaalisten sisämarkkinoiden optimaalinen toiminta, olisi harkittava komission ja/tai tätä varten mahdollisesti nimettävien asiaankuuluvien unionin toimielimnten, elinten, toimistojen tai virastojen toteuttamaa unionin tason koordinointia sen suhteen, millaisia uusia, erityisesti rajatylittäviä mahdollisuuksia ja haasteita teknologian jatkuvaan kehitykseen liittyy; katsoo, että komissiolle olisi annettava tehtäväksi löytää sopiva ratkaisu tällaisen unionin tason koordinoinnin jäsentämiseen;

Ihmiskeskeinen ja ihmisen luoma tekoäly

1. katsoo, että alakohtaista lainsäädäntöä rajoittamatta tarvitaan toimiva ja yhdenmukainen sääntelykehys, joka perustuu unionin oikeuteen, Euroopan unionin perusoikeuskirjaan ja ihmisoikeuksia koskevaan kansainväliseen oikeuteen; toteaa, että kehystä on sovellettava erityisesti suuririskiseen teknologiaan, jotta voidaan vahvistaa yhtäläiset vaatimukset kaikkialla unionissa ja suojella tehokkaasti unionin arvoja;

2. katsoo, että tekoälyä koskevassa uudessa sääntelykehyksessä, joka koostuu tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevista oikeudellisista velvoitteista ja eettisistä periaatteista, olisi kaikilta osin noudatettava perusoikeuskirjaa; toteaa, että kehyksessä olisi siten kunnioitettava ihmisarvoa, yksilön autonomiaa ja itsemääräämisoikeutta, vältettävä vahinkoja, edistettävä oikeudenmukaisuutta, osallistavuutta ja läpinäkyvyyttä, poistettava vääristymiä ja syrjintää, myös vähemmistöryhmien kohdalla, sekä kunnioitettava ja noudatettava periaatteita, jotka koskevat käytettävän teknologian kielteisten ulkoisvaikutusten rajoittamista, teknologian selitettävyyden varmistamista ja sen takaamista, että teknologian tehtävänä on palvella ihmisiä eikä korvata heitä tai päättää heidän puolestaan, siten, että perimmäisenä tavoitteena on lisätä jokaisen ihmisen hyvinvointia;

3. korostaa epäsymmetrisyyttä tekoälyteknologioita käyttävien sekä niiden kanssa vuorovaikutuksessa ja niiden kohteena olevien tahojen välillä; korostaakin, että kansalaisten luottamusta tekoälyyn voidaan rakentaa ainoastaan sellaisen oletusarvoisen ja sisäänrakennetun eettisyyden takaavan sääntelykehyksen varassa, jolla varmistetaan, että kaikissa käyttöön otetuissa tekoälysovelluksissa kunnioitetaan ja noudatetaan kaikilta osin perussopimuksia, perusoikeuskirjaa ja johdettua unionin oikeutta; katsoo, että tällaisen toimintatavan olisi oltava sopusoinnussa unionin lainsäädäntöä ohjaavan ennalta varautumisen periaatteen kanssa ja keskeisellä sijalla tekoälyä koskevassa sääntelykehyksessä; kehottaa tässä yhteydessä ottamaan käyttöön selkeän ja johdonmukaisen hallintomallin, jonka avulla yritykset ja innovoijat voivat kehittää edelleen tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa;

4. katsoo, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien lainsäädäntötoimien olisi oltava tarpeellisuus- ja suhteellisuusperiaatteiden mukaisia;

5.  katsoo, että tällaisen lähestymistavan myötä yritykset voivat tuoda markkinoille innovatiivisia tuotteita ja luoda uusia mahdollisuuksia ja samalla varmistetaan unionin arvojen suojelu, sillä se johtaa sellaisten tekoälyjärjestelmien kehittämiseen, joihin on sisäänrakennettu unionin eettiset periaatteet; katsoo, että arvoihin perustuva sääntelykehys toisi lisäarvoa, sillä se antaisi unionille ainutlaatuisen kilpailuedun ja edistäisi merkittävästi unionin kansalaisten ja yritysten hyvinvointia ja vaurautta vauhdittamalla sisämarkkinoiden toimintaa; korostaa, että tällainen tekoälyä koskeva sääntelykehys tuo lisäarvoa myös edistämällä innovointia sisämarkkinoilla; katsoo, että esimerkiksi liikennesektorilla tämä lähestymistapa antaa unionin yrityksille mahdollisuuden nousta alalla globaaliin johtoasemaan;

6. huomauttaa, että tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan, mukaan lukien tällaisen teknologian käyttämät tai tuottamat ohjelmistot, algoritmit ja data, olisi sovellettava unionin oikeudellista kehystä;

7. toteaa, että tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan perustuvat mahdollisuudet edellyttävät massadataa ja että algoritmien kouluttamiseen ja tulosten tarkentamiseen tarvitaan tietty vähimmäismäärä dataa; pitää tässä yhteydessä myönteisenä komission ehdotusta yhteisen data-avaruuden perustamisesta unioniin tietojenvaihdon tehostamiseksi ja tutkimuksen tukemiseksi unionin tietosuojasääntöjä täysin noudattaen;

8. katsoo, että etenkin yksityisyyden ja henkilötietojen suojaa koskevaa unionin nykyistä oikeudellista kehystä on sovellettava kaikilta osin tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan ja että sitä on tarkasteltava ja tutkittava säännöllisesti ja päivitettävä tarvittaessa, jotta voidaan puuttua tehokkaasti näiden teknologioiden riskeihin; katsoo, että kehystä olisi tältä osin hyvä täydentää vahvoilla ohjaavilla eettisillä periaatteilla; huomauttaa, että tapauksissa, joissa säädösten antaminen olisi ennenaikaista, olisi käytettävä ei-sitovia oikeuslähteitä;

9. odottaa, että jatkotoimena tekoälyä koskevalle valkoiselle kirjalle komissio sisällyttää tämän päätöslauselman liitteessä pyydettyyn lainsäädäntöehdotukseen vahvan eettisen lähestymistavan, joka koskee muun muassa turvallisuutta, vastuuta ja perusoikeuksia ja jolla maksimoidaan tekoälyteknologioiden mahdollisuudet ja minimoidaan niiden riskit; odottaa, että pyydetty lainsäädäntöehdotus sisältää toimintapoliittisia ratkaisuja tekoälyn suurimpiin tunnistettuihin riskeihin, jotka koskevat muun muassa massadatan eettistä keruuta ja käyttöä sekä algoritmien läpinäkyvyyttä ja niiden vääristymiä; kehottaa komissiota laatimaan tekoälyteknologian merkitsemiseksi kriteerejä ja indikaattoreita, jotta voidaan parantaa läpinäkyvyyttä, selitettävyyttä ja vastuuvelvollisuutta ja kannustaa kehittäjiä toteuttamaan täydentäviä varotoimia; korostaa tarvetta panostaa siihen, että tekoälytutkimukseen sisällytetään muita kuin teknisiä tieteenaloja sosiaalinen konteksti huomioon ottaen;

10. katsoo, että tekoäly, robotiikka ja niihin liittyvä teknologia on räätälöitävä ihmisen tarpeisiin noudattaen periaatetta, että niiden kehittämisen, käyttöönoton ja käytön olisi aina palveltava ihmisiä eikä ikinä päinvastoin; toteaa, että niillä olisi pyrittävä lisäämään hyvinvointia ja yksilönvapautta sekä säilyttämään rauha, estämään konfliktit ja lujittamaan kansainvälistä turvallisuutta samalla, kun maksimoidaan niiden hyödyt ja ehkäistään ja vähennetään niiden riskejä;

11. toteaa, että ihmisten mutta myös muiden toteuttamassa suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisessä, käyttöönotossa ja käytössä olisi aina toimittava eettisesti ja kunnioitettava ihmisen toimijuutta ja demokraattista valvontaa ja mahdollistettava ne ja että niissä olisi tarvittaessa pystyttävä palauttamaan ihmisen valvonta toteuttamalla asianmukaisia valvontatoimenpiteitä;

Riskinarviointi

12. korostaa, että tulevassa kehyksessä olisi sovellettava tekoälyn, robotiikan ja niihin liittyvän teknologian sääntelyyn eriytettyä ja tulevaisuuteen suuntautuvaa riskiperusteista lähestymistapaa, johon sisältyy teknologianeutraaleja vaatimuksia kaikilla aloilla ja tapauksen mukaan alakohtaisia vaatimuksia; huomauttaa, että suuririskisistä aloista ja käyttötarkoituksista on laadittava tyhjentävä ja kumulatiivinen luettelo, jotta varmistetaan, että riskinarviointijärjestelmä pannaan yhdenmukaisesti täytäntöön ja että oikeudellisia velvoitteita noudatetaan jäsenvaltioiden tasapuolisten toimintaedellytysten varmistamiseksi ja sisämarkkinoiden hajanaisuuden estämiseksi; korostaa, että luetteloa on arvioitava säännöllisesti uudelleen, ja toteaa, että näiden teknologioiden kehittyessä tulevaisuudessa voidaan joutua arvioimaan uudelleen tapa, jolla riskinarviointi toteutetaan;

13. katsoo, että se, onko tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa pidettävä suuririskisinä ja onko niiden yhteydessä siten pakollista noudattaa tekoälyä koskevassa sääntelykehyksessä vahvistettuja oikeudellisia velvoitteita ja eettisiä periaatteita, olisi aina ratkaistava puolueettoman ja säännellyn ulkopuolisen arvioinnin perusteella ja konkreettisia ja ennalta määritettyjä kriteerejä käyttäen;

14. katsoo, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa olisi pidettävä suuririskisinä silloin, kun niiden kehittämiseen, käyttöönottoon ja käyttöön liittyy merkittävä riski vahingon tai haitan aiheuttamisesta yksittäisille ihmisille tai yhteiskunnalle unionin lainsäädännössä vahvistettujen perusoikeuksien ja turvallisuussääntöjen vastaisesti; katsoo, että arvioitaessa, liittyykö tekoälyteknologioihin tällainen riski, olisi otettava huomioon, millä alalla niitä kehitetään, otetaan käyttöön tai käytetään, mikä on niiden täsmällinen käyttötarkoitus ja miten vakava odotettavissa oleva vahinko tai haitta on; toteaa, että ensimmäinen ja toinen kriteeri eli alan ja käyttötarkoituksen kriteerit olisi huomioitava kumuloituvasti;

15. painottaa, että tällaisten teknologioiden riskinarviointi olisi tehtävä suuririskisiä aloja ja käyttötarkoituksia koskevan tyhjentävän ja kumulatiivisen luettelon perusteella; uskoo vahvasti, että unionissa olisi toimittava johdonmukaisesti näiden teknologioiden riskinarvioinnissa, etenkin kun arvioidaan, onko niissä noudatettu tekoälyä koskevaa sääntelykehystä ja myös muuta mahdollisesti sovellettavaa alakohtaista lainsäädäntöä;

16. katsoo, että riskiperusteisen lähestymistavan kehittämisessä olisi rajoitettava yritysten ja erityisesti pk-yritysten hallinnollista taakkaa käyttämällä mahdollisimman paljon olemassa olevia välineitä; toteaa, että näihin välineisiin kuuluu esimerkiksi asetuksessa (EU) 2016/679 säädetty tietosuojaa koskeva vaikutustenarviointi;

Turvallisuusvaatimukset, läpinäkyvyys ja vastuuvelvollisuus

17. palauttaa mieliin, että kuluttajien oikeus tietoon on ankkuroitu unionin oikeuteen keskeisenä periaatteena, ja korostaa, että sen olisi tämän vuoksi toteuduttava kaikilta osin tekoälyn, robotiikan ja niihin liittyvän teknologian yhteydessä; katsoo, että siihen olisi erityisesti sisällyttävä läpinäkyvyys, joka koskee vuorovaikutusta tekoälyjärjestelmien kanssa, mukaan lukien automaatioprosessit, ja niiden toimintatapaa ja valmiuksia, esimerkiksi tiedon suodatus- ja esitystapaa sekä tarkkuutta ja rajoituksia; katsoo, että tällaisia tietoja olisi annettava kansallisille valvontaviranomaisille ja kansallisille kuluttajansuojaviranomaisille;

18. korostaa, että kuluttajien luottamus on olennaisen tärkeää näiden teknologioiden kehittämisessä ja toteutuksessa ja että niihin voi liittyä riskejä, kun ne perustuvat läpinäkymättömiin algoritmeihin ja vääristyneisiin datajoukkoihin; katsoo, että kuluttajilla olisi oltava oikeus saada riittävä määrä ymmärrettävää, oikea-aikaista, vakioitua, tarkkaa ja helposti saatavilla olevaa tietoa algoritmijärjestelmien olemassaolosta, päättelyprosesseista, mahdollisista lopputuloksista ja vaikutuksista kuluttajiin sekä siitä, miten he voivat saada yhteyden päätösvaltaiseen ihmiseen ja miten järjestelmän tekemiä päätöksiä voidaan tarkistaa, mielekkäästi riitauttaa ja korjata; korostaa tältä osin tarvetta ottaa huomioon kuluttajalainsäädännön perustana olevat tiedonsaannin ja tietojen julkistamisen periaatteet ja noudattaa niitä; katsoo, että loppukäyttäjille on annettava yksityiskohtaista tietoa liikennejärjestelmien ja tekoälyn tukemien ajoneuvojen toiminnasta;

 

19. pitää olennaisena, että tekoälyn, robotiikan ja niihin liittyvän teknologian käyttämät tai tuottamat algoritmit ja datajoukot ovat selitettävissä ja viranomaisten, kuten kansallisten valvontaviranomaisten ja markkinavalvontaviranomaisten, saatavissa silloin, kun se on ehdottoman välttämätöntä, ja edellyttäen, että noudatetaan kaikilta osin tietosuojaa, yksityisyyttä, teollis- ja tekijänoikeuksia ja liikesalaisuuksia koskevaa unionin lainsäädäntöä; toteaa lisäksi, että suuririskisten teknologioiden kehittämisen eri vaiheisiin osallistuvien tahojen olisi tallennettava tällainen dokumentaatio alalla sovellettavien mahdollisimman korkeatasoisten vaatimusten mukaisesti; huomauttaa, että markkinavalvontaviranomaisilla voi olla tässä yhteydessä lisäoikeuksia; korostaa laillisen takainsimallinnuksen merkitystä tässä suhteessa; katsoo, että voimassa olevan markkinavalvontalainsäädännön tarkastelu saattaa olla tarpeen, jotta siinä otetaan varmasti huomioon tekoälyn, robotiikan ja niihin liittyvän teknologian yleistymisen eettinen ulottuvuus;

20. kehottaa asettamaan vaatimuksen, että suuririskisten teknologioiden kehittäjät ja käyttöönottajat antavat riskinarvioinnin perusteella viranomaisille dokumentaation käyttö-, suunnittelu- ja turvallisuusohjeista, mukaan lukien lähdekoodi, kehitystyökalut ja järjestelmän käyttämä data, silloin, kun se on ehdottoman tarpeen, ja edellyttäen, että noudatetaan kaikilta osin tietosuojaa, yksityisyyttä, teollis- ja tekijänoikeuksia ja liikesalaisuuksia koskevaa unionin lainsäädäntöä; huomauttaa, että tämän velvoitteen avulla voitaisiin arvioida, ovatko ne noudattaneet unionin lainsäädäntöä ja eettisiä periaatteita, ja mainitsee tässä yhteydessä esimerkin, jossa julkaisuista annetaan kansalliskirjastoon vapaakappale; huomauttaa, että algoritmien läpinäkyvyyden ja algoritmien käytön läpinäkyvyyden välillä on merkittävä ero;

21. toteaa myös, että ihmisarvon, yksilön autonomian ja turvallisuuden kunnioittamiseksi olisi otettava huomioon elintärkeät ja kehittyneet lääkinnälliset laitteet sekä se, että riippumattomilla luotetuilla viranomaisilla säilyvät tarvittavat keinot tarjota palveluja tällaisia laitteita käyttäville ihmisille, kun alkuperäinen kehittäjä tai käyttöönottaja ei enää tarjoa niitä; huomauttaa, että tällaisiin palveluihin sisältyvät esimerkiksi huolto-, korjaus- ja parannustyöt, myös ohjelmistopäivitykset, joilla korjataan toimintahäiriöitä ja haavoittuvuuksia;

22. katsoo, että suuririskistä tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisen teknologian käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, olisi kehitettävä sisäänrakennetusti turvallisella, jäljitettävissä olevalla, teknisesti toimintavarmalla, luotettavalla, eettisellä ja oikeudellisesti sitovalla tavalla sekä riippumattomassa valvonnassa ja seurannassa riippumatta alasta, jolla niitä kehitetään, otetaan käyttöön ja käytetään; katsoo erityisesti, että tekoälytuotteiden ja -palvelujen kehitys- ja toimitusketjujen kaikkien toimijoiden olisi oltava oikeudellisesti vastuussa, ja painottaa, että tarvitaan mekanismeja vastuun ja vastuuvelvollisuuden varmistamiseksi;

23. korostaa, että sääntely ja ohjeet, jotka koskevat selitettävyyttä, tarkastettavuutta, jäljitettävyyttä ja läpinäkyvyyttä, sekä viranomaisten pääsy tällaisten teknologioiden taustalla olevaan teknologiaan, dataan ja laskentajärjestelmiin riskinarvioinnin perusteella silloin, kun se on ehdottoman tarpeen, ja edellyttäen, että noudatetaan kaikilta osin tietosuojaa, yksityisyyttä, teollis- ja tekijänoikeuksia ja liikesalaisuuksia koskevaa unionin lainsäädäntöä, ovat olennaisen tärkeitä, jotta voidaan varmistaa kansalaisten luottamus näihin teknologioihin, joskin selitettävyyden aste on suhteutettava teknologioiden monimutkaisuuteen; huomauttaa, että aina ei ole mahdollista selittää, miksi jokin malli on johtanut tiettyyn tulokseen tai päätökseen, kuten niin sanotut mustan laatikon algoritmit osoittavat; katsookin, että näiden periaatteiden noudattaminen on edellytys vastuuvelvollisuuden takaamiselle;

24. katsoo, että kansalaisille ja kuluttajille on ilmoitettava, kun he ovat vuorovaikutuksessa sellaisen järjestelmän kanssa, joka käyttää tekoälyä erityisesti tuotteen tai palvelun personoimiseksi sen käyttäjille, ja heille on kerrottava, voivatko he poistaa personoinnin käytöstä tai rajoittaa sitä;

25. huomauttaa, että tekoälyn, robotiikan ja niihin liittyvän teknologian on oltava teknisesti toimintavarmaa ja tarkkaa, jotta niihin voidaan luottaa;

26. korostaa, että on tärkeää suojella toisiinsa liitettyjä tekoäly- ja robotiikkaverkostoja ja toteuttaa tehokkaita toimenpiteitä, joilla estetään tietoturvaloukkaukset, tietovuodot, tietojen korruptointi, kyberhyökkäykset ja henkilötietojen väärinkäyttö, ja että tämä edellyttää, että unionin ja kansallisen tason asiaankuuluvat virastot, elimet ja toimielimet toimivat yhdessä ja yhteistyössä teknologian loppukäyttäjien kanssa; kehottaa komissiota ja jäsenvaltioita varmistamaan, että tekoälyteknologian kehittämisessä ja käyttöönotossa kunnioitetaan aina unionin arvoja ja perusoikeuksia, jotta voidaan varmistaa unionin digitaalisen infrastruktuurin turvallisuus ja häiriönsietokyky;

Puolueettomuus ja syrjimättömyys

27. muistuttaa, että tekoäly voi sen mukaan, miten sitä kehitetään ja käytetään, luoda ja vahvistaa ennakkoluuloja, myös taustalla oleviin datajoukkoihin sisältyvien vääristymien kautta, ja siten synnyttää erilaisia automaattisen syrjinnän muotoja, myös välillistä syrjintää, joka kohdistuu erityisesti ominaisuuksiltaan samankaltaisten ihmisten ryhmiin; kehottaa komissiota ja jäsenvaltioita ryhtymään kaikkiin mahdollisiin toimenpiteisiin tällaisten vääristymien välttämiseksi ja perusoikeuksien täysimääräisen suojelun varmistamiseksi;

28. on huolissaan vääristymien ja syrjinnän riskeistä suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisen teknologian käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittämisessä, käyttöönotossa ja käytössä; muistuttaa, että tässä yhteydessä olisi kaikissa olosuhteissa noudatettava unionin oikeutta ja kunnioitettava ihmisoikeuksia, ihmisarvoa ja yksilön autonomiaa ja itsemääräämisoikeutta ja varmistettava kaikkien ihmisten yhdenvertainen ja syrjimätön kohtelu;

29. painottaa, että tekoälyteknologiat olisi suunniteltava kunnioittamaan, palvelemaan ja suojelemaan unionin arvoja sekä fyysistä ja henkistä koskemattomuutta, vaalimaan unionin kulttuurista ja kielellistä monimuotoisuutta sekä auttamaan olennaisten tarpeiden täyttämisessä; painottaa, että on vältettävä kaikkea sellaista käyttöä, joka voi johtaa asiattomaan suoraan tai välilliseen pakottamiseen, vaarantaa henkisen autonomian ja mielenterveyden tai johtaa perusteettomaan valvontaan, harhauttamiseen tai asiattomaan manipulointiin;

30. uskoo vakaasti, että perusoikeuskirjassa vahvistettuja perustavaa laatua olevia ihmisoikeuksia olisi ehdottomasti kunnioitettava, jotta voidaan varmistaa, että tällainen kehittyvä teknologia ei synnytä suojeluun liittyviä aukkoja;

31. toteaa, että ohjelmistojen, algoritmien ja datan mahdolliset vääristymät ja niiden aiheuttama syrjintä voivat aiheuttaa selvää vahinkoa ihmisille ja yhteiskunnalle, joten olisi kannustettava laatimaan ja jakamaan strategioita niiden torjumiseksi, esimerkiksi korjaamalla datajoukkojen vääristymiä tutkimus- ja kehitystoiminnassa, ja laadittava säännöt tietojen käsittelyyn; katsoo, että ohjelmistoja, algoritmeja ja dataa voitaisiin näin käyttää apuna vääristymien ja syrjinnän torjumisessa tietyissä tilanteissa sekä edistämään yhtäläisiä oikeuksia ja myönteistä sosiaalista muutosta;

32. katsoo, että oikeudenmukaisuutta, tarkkuutta, luottamuksellisuutta ja läpinäkyvyyttä koskevien eettisten arvojen olisi oltava näiden teknologioiden perustana, mikä tarkoittaa, ettei niiden toiminta saisi synnyttää puolueellisia tuotoksia;

33. korostaa tekoälyssä, robotiikassa ja niihin liittyvässä teknologiassa käytettävien datajoukkojen laadun merkitystä ja toteaa, että se riippuu niiden kontekstista, erityisesti opetusdatan edustavuuden osalta, datajoukkojen vääristymien korjaamisesta, käytetyistä algoritmeista sekä data- ja aggregointivaatimuksista; korostaa, että kansallisten valvontaviranomaisten olisi tarvittaessa voitava tarkastaa nämä datajoukot, jotta varmistetaan, että ne ovat edellä mainittujen periaatteiden mukaisia;

34. korostaa, että erityisesti Euroopan ulkopuolisten toimijoiden lietsomassa laajalle levinneessä disinformaatiosodassa tekoälyteknologioilla voi olla eettisesti haitallisia vaikutuksia, kun kolmas maa voi hyödyntää datan ja algoritmien vääristymiä tai muuttaa tarkoituksellisesti opetusdataa, ja ne voivat myös altistua muunlaiselle vaaralliselle pahantahtoiselle manipuloinnille ennalta-arvaamattomin tavoin ja sellaisin seurauksin, joita on mahdoton kuvitellakaan; toteaa, että sen vuoksi on yhä tärkeämpää, että unioni investoi edelleen tutkimukseen, analysointiin, innovointiin sekä rajatylittävään ja monialaiseen tietämyksen siirtoon sellaisten tekoälyteknologioiden kehittämiseksi, joissa ei esiinny minkäänlaista profilointia, vääristymiä ja syrjintää ja jotka voisivat tehokkaasti edistää valeuutisten ja disinformaation torjuntaa siten, että samalla kunnioitetaan tietosuojaa ja unionin oikeudellista kehystä;

35. muistuttaa, että on tärkeää varmistaa yksittäisille ihmisille tehokkaat oikeussuojakeinot, ja kehottaa jäsenvaltioita huolehtimaan siitä, että käytössä on helposti saatavilla olevia, kohtuuhintaisia, riippumattomia ja tehokkaita menettelyjä sekä tarkastelumekanismeja, joilla taataan ihmisen suorittama puolueeton tarkastelu aina, kun algoritmijärjestelmien käytön väitetään loukanneen kansalaisten oikeuksia, kuten kuluttajien oikeuksia tai kansalaisoikeuksia, olipa kyse sitten julkisen tai yksityisen sektorin toimijoiden järjestelmistä; pitää tärkeänä ehdotusta Euroopan parlamentin ja neuvoston direktiiviksi, joka koskee kuluttajien yhteisten etujen suojaamiseksi nostettavia edustajakanteita sekä direktiivin 2009/22/EY kumoamista ja josta päästiin poliittiseen sopimukseen 22. kesäkuuta 2020, ja toteaa, että sitä voitaisiin hyödyntää vastaisuudessa tapauksissa, joissa riitautetaan tekoälyjärjestelmän käyttöönotto tai jo tapahtuva käyttö, johon liittyy riski kuluttajien oikeuksien loukkauksesta, tai pyydetään korjaamaan tällainen loukkaus; pyytää komissiota ja jäsenvaltioita varmistamaan kansallisille ja unionin kuluttajajärjestöille riittävän rahoituksen, jotta ne voivat auttaa kuluttajia käyttämään oikeuttaan korjaaviin toimenpiteisiin, kun heidän oikeuksiaan on loukattu;

36. katsoo sen vuoksi, että jokaisen luonnollisen henkilön ja oikeushenkilön olisi voitava hakea hyvitystä sellaisen päätöksen johdosta, jonka tekoäly, robotiikka tai niihin liittyvä teknologia on tehnyt tämän vahingoksi unionin tai kansallisen lainsäädännön vastaisesti;

37. katsoo, että kuluttajat voisivat kääntyä myös kansallisten valvontaviranomaisten puoleen, jotka toimivat ensimmäisenä yhteyspisteenä unionin sääntelykehyksen epäillyissä rikkomistapauksissa, tekemällä niille hyvityspyyntöjä kyseisen kehyksen tehokkaan täytäntöönpanon varmistamiseksi;

Sosiaalinen vastuu ja sukupuolten välinen tasapaino

38. korostaa, että sosiaalisesti vastuullisen tekoälyn, robotiikan ja niihin liittyvän teknologian avulla voidaan löytää ratkaisuja, joilla suojellaan ja edistetään yhteiskuntamme perusoikeuksia ja -arvoja, kuten demokratiaa, oikeusvaltioperiaatetta, monimuotoisia ja riippumattomia tiedotusvälineitä sekä puolueetonta ja vapaata tiedonsaantia, terveyttä ja taloudellista hyvinvointia, yhtäläisiä mahdollisuuksia, työntekijöiden oikeuksia ja sosiaalisia oikeuksia, laadukasta koulutusta, lasten suojelua, kulttuurista ja kielellistä monimuotoisuutta, sukupuolten tasa-arvoa, digitaalista lukutaitoa, innovointia ja luovuutta; muistuttaa tarpeesta varmistaa, että kaikkien kansalaisten, myös marginalisoitujen tai haavoittuvassa asemassa olevien ihmisten, kuten vammaisten henkilöiden, edut otetaan asianmukaisesti huomioon ja ne ovat asianmukaisesti edustettuina;

39. painottaa, että on tärkeää saavuttaa yleisesti korkea digitaalisen lukutaidon taso ja kouluttaa alalle erittäin päteviä ammattilaisia sekä varmistaa tällaisten tutkintojen vastavuoroinen tunnustaminen kaikkialla unionissa; korostaa, että tarvitaan monimuotoisia kehittäjä- ja insinööritiimejä toimimaan keskeisten yhteiskunnallisten toimijoiden rinnalle, jotta tekoälyalgoritmeihin, -järjestelmiin ja -sovelluksiin ei epähuomiossa sisällytetä sukupuoleen liittyviä ja kulttuurisia ennakkoluuloja; tukee tekoälyn yhteiskunnallisia, oikeudellisia ja eettisiä vaikutuksia käsittelevien opetusohjelmien ja tiedotustoimien kehittämistä;

40. pitää ajatuksen- ja sananvapauden takaamista ensiarvoisen tärkeänä, kunhan taataan, että tällaisilla teknologioilla ei edistetä vihapuhetta tai väkivaltaa, ja pitää sananvapauden estämistä tai rajoittamista digitaalisessa ympäristössä unionin perusperiaatteiden nojalla laittomana, paitsi jos tämän perusvapauden käyttämiseen sisältyy laittomia tekoja;

41. korostaa, että tekoälyn, robotiikan ja niihin liittyvän teknologian avulla voidaan vähentää sosiaalista eriarvoisuutta, ja katsoo, että niiden kehittämistä koskevan eurooppalaisen mallin on perustuttava kansalaisten luottamukseen ja suurempaan sosiaaliseen yhteenkuuluvuuteen;

42. painottaa, että tekoälyjärjestelmien käyttöönotolla ei saisi aiheettomasti rajoittaa käyttäjien mahdollisuuksia saada julkisia palveluja, kuten sosiaaliturvapalveluja; kehottaakin komissiota arvioimaan, miten tämä tavoite voidaan saavuttaa;

43. korostaa sellaisen vastuullisen tutkimus- ja kehitystoiminnan merkitystä, jolla pyritään maksimoimaan tekoälyn, robotiikan ja niihin liittyvän teknologian mahdollisuudet kansalaisille sekä yleinen etu; kehottaa unionia ja sen jäsenvaltioita antamaan käyttöön resursseja, jotta voidaan kehittää ja tukea vastuullista innovointia;

44. korostaa, että teknologinen asiantuntemus on jatkossa yhä tärkeämpää ja että siksi on tarpeen päivittää jatkuvasti koulutustarjontaa, erityisesti tulevia sukupolvia varten, ja edistää jo työmarkkinoilla olevien ammatillista uudelleenkoulutusta; toteaa tässä yhteydessä, että innovointia ja koulutusta olisi edistettävä yksityisen sektorin lisäksi myös julkisella sektorilla;

45. tähdentää, että tällaisten teknologioiden kehittäminen, käyttöönotto ja käyttö eivät saisi aiheuttaa minkäänlaista vahinkoa tai haittaa ihmisille, yhteiskunnalle tai ympäristölle ja että kehittäjät, käyttöönottajat ja käyttäjät olisi siksi saatettava vastuuseen tällaisen vahingon tai haitan aiheuttamisesta asiaa koskevien unionin ja kansallisten vastuusääntöjen mukaisesti;

46. kehottaa jäsenvaltioita arvioimaan, olisiko näiden teknologioiden käyttöönoton aiheuttamien työpaikkojen menetysten takia toteutettava aiheellisia julkisia politiikkatoimia, kuten lyhennettävä työaikaa;

47. katsoo, että suunnitteluun on ehdottomasti otettava unionin arvoihin ja eettisiin periaatteisiin pohjautuva painotus, jotta voidaan luoda edellytykset tekoälyn, robotiikan ja niihin liittyvän teknologian laajamittaiselle sosiaaliselle hyväksynnälle; pitää tällaista painotusta, jossa tavoitteena on kehittää luotettava, eettisesti vastuullinen ja teknisesti toimintavahva tekoäly, tärkeänä mahdollistajana kestävälle ja älykkäälle liikkuvuudelle, joka on turvallista ja esteetöntä;

48. pyytää kiinnittämään huomiota autonomisten ajoneuvojen suureen lisäarvoon liikuntarajoitteisille henkilöille, sillä tällaisten ajoneuvojen ansiosta heidän mahdollisuutensa pärjätä tieliikenteessä omin avuin paranevat, mikä helpottaa heidän arkeaan; korostaa esteettömyyden merkitystä etenkin suunniteltaessa MaaS-järjestelmiä (liikkuminen palveluna);

49. kehottaa komissiota jatkossakin tukemaan luotettavien tekoälyjärjestelmien kehittämistä, jotta liikenteestä voidaan tehdä turvallisempaa, tehokkaampaa, esteetöntä, kohtuuhintaista ja kaikki käyttäjät, myös liikuntarajoitteiset ja erityisesti vammaiset henkilöt, huomioon ottavaa Euroopan parlamentin ja neuvoston direktiivin (EU) 2019/882 ja matkustajien oikeuksia koskevan unionin lainsäädännön mukaisesti;

50. katsoo, että tekoäly voi auttaa hyödyntämään paremmin vammaisten henkilöiden taitoja ja valmiuksia ja että tekoälyn käyttö työpaikoilla voi edistää osallistavia työmarkkinoita ja nostaa vammaisten henkilöiden työllisyysastetta;

Ympäristö ja kestävä kehitys

51. korostaa, että viranomaisten ja yritysten olisi käytettävä tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa ihmisten ja planeetan hyödyksi ja että näin olisi edistettävä kestävän kehityksen, ympäristönsuojelun, ilmastoneutraaliuden ja kiertotalouden tavoitteiden saavuttamista; katsoo, että näiden teknologioiden kehittämisellä, käyttöönotolla ja käytöllä olisi edistettävä vihreää siirtymää ja ympäristönsuojelua sekä minimoitava ja korjattava ympäristölle aiheutuvia vahinkoja niiden koko elinkaaren ajan ja niiden koko toimitusketjussa unionin lainsäädännön mukaisesti;

52. toteaa, että tekoälyn, robotiikan ja niihin liittyvän teknologian edellä mainittujen merkittävien ympäristövaikutusten vuoksi alakohtaiset viranomaiset voisivat tarvittaessa ja tapauksen mukaan arvioida niiden kehittämisen, käyttöönoton ja käytön ympäristövaikutukset koko niiden elinkaaren ajalta; huomauttaa, että tähän voisi sisältyä arvio tarvittavien raaka-aineiden talteenoton vaikutuksesta, energiankulutuksesta sekä teknologioiden kehittämisestä, käyttöönotosta ja käytöstä syntyvistä kasvihuonekaasupäästöistä;

53. ehdottaa, että kehityksen huippua edustavien vastuullisten tekoälyratkaisujen kehittämiseksi olisi selvitettävä tekoälyn, robotiikan ja niihin liittyvän teknologian tarjoamat mahdollisuudet, edistettävä niitä ja maksimoitava ne vastuullisen tutkimus- ja kehitystoiminnan avulla, mikä edellyttää unionin ja sen jäsenvaltioiden resurssien käyttöönottoa;

54. korostaa, että näiden teknologioiden kehittäminen, käyttöönotto ja käyttö tarjoavat tilaisuuden edistää Yhdistyneiden kansakuntien kestävän kehityksen tavoitteita, maailmanlaajuista energiasiirtymää ja hiilestä irtautumista;

55. katsoo, että yhteiskuntavastuun, sukupuolten välisen tasapainon, ympäristönsuojelun ja kestävyyden tavoitteet eivät saisi estää soveltamasta näillä aloilla voimassa olevia yleisiä ja alakohtaisia velvoitteita; katsoo, että erityisesti suuririskisten teknologioiden kehittäjille, käyttöönottajille ja käyttäjille olisi laadittava ei-sitovia ohjeita niiden menetelmien täytäntöönpanoon, joilla arvioidaan tämän asetuksen vaatimusten noudattamista ja edellä mainittujen tavoitteiden saavuttamista;

56. kehottaa unionia edistämään ja rahoittamaan sellaisen ihmiskeskeisen tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, joilla puututaan ympäristö- ja ilmastohaasteisiin ja joissa kunnioitetaan perusoikeuksia, verotuksen, hankintojen tai muiden kannustimien avulla;

57. korostaa, että vaikka tekoälyn, robotiikan ja niihin liittyvän teknologian, mukaan lukien automaattiset päätökset ja koneoppiminen, kehittämisellä, käyttöönotolla ja käytöllä on nykyisin suuri hiilijalanjälki, näillä teknologioilla voidaan auttaa pienentämään tieto- ja viestintätekniikan alan nykyistä ympäristöjalanjälkeä; tähdentää, että näiden ja muiden asianmukaisesti säänneltyjen asiaan liittyvien teknologioiden olisi oltava ratkaisevassa asemassa vihreän kehityksen ohjelman, YK:n kestävän kehityksen tavoitteiden ja Pariisin sopimuksen tavoitteiden saavuttamisessa monilla eri aloilla ja että niiden pitäisi tehostaa ympäristönsuojelutoimien, kuten jätteen vähentämistä ja ympäristön tilan heikkenemisen estämistä koskevien politiikkatoimien, vaikutusta;

58. kehottaa komissiota tekemään tutkimuksen tekoälyteknologian hiilijalanjäljen vaikutuksesta sekä tekoälyteknologian käyttöön siirtymisen myönteisistä ja kielteisistä vaikutuksista kuluttajien kannalta;

59. toteaa, että tekoälysovelluksia kehitetään koko ajan enemmän, mikä vaatii laskenta-, tallennus- ja energiaresursseja, joten tekoälyjärjestelmien ympäristövaikutukset olisi otettava huomioon niiden koko elinkaaren aikana;

60. katsoo, että esimerkiksi terveyden alalla vastuun on viime kädessä oltava luonnollisella henkilöllä tai oikeushenkilöllä; korostaa, että algoritmeja varten tarvitaan jäljitettävää ja julkisesti saatavilla olevaa koulutusdataa;

61. tukee vahvasti komission ehdotusta eurooppalaisen terveysdata-avaruuden perustamisesta[12], jolla pyritään edistämään terveystietojen vaihtoa ja tukemaan tutkimusta noudattaen kaikilta osin tietosuojaa, muun muassa käsittelemällä tietoja tekoälyteknologian avulla, ja jolla tehostetaan ja laajennetaan terveystietojen käyttöä ja uudelleenkäyttöä; kehottaa laajentamaan terveystietojen vaihtoa rajojen yli sekä linkittämään ja käyttämään tietyntyyppisiä terveystietoja, kuten eurooppalaisten terveysrekisterien tietoja, genomitietoja ja lääketieteellisiä digitaalikuvia, suojattujen, federoitujen tietovarastojen kautta, jotta voidaan edistää unionin laajuisia yhteentoimivia rekistereitä tai tietokantoja esimerkiksi tutkimuksen, tieteen ja terveydenhuollon aloilla;

62. korostaa tekoälyn hyötyjä tautien ehkäisyssä, hoidossa ja hallinnassa, mistä esimerkkinä on se, että tekoäly ennusti covid-19-epidemian puhkeamisen jo ennen WHO:ta; kehottaa komissiota tarjoamaan Euroopan tautienehkäisy- ja -valvontakeskukselle (ECDC) asianmukaisen sääntelykehyksen sekä resurssit, jotka mahdollistavat tarvittavien anonymisoitujen, reaaliaikaisten ja maailmanlaajuisten terveystietojen keräämisen itsenäisesti jäsenvaltioiden ohella, jotta voidaan muun muassa puuttua covid-19-kriisin esiin tuomiin kysymyksiin;

Yksityisyyden suoja ja biometrinen tunnistaminen

63. panee merkille, että tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisestä, käyttöönotosta ja käytöstä peräisin olevan datan, myös biometristen tietojen ja muiden henkilötietojen, tuottaminen ja käyttö lisääntyvät nopeasti, minkä vuoksi on erityisen tärkeää kunnioittaa kansalaisten oikeutta yksityisyyteen ja henkilötietojen suojaan unionin lainsäädännön mukaisesti ja valvoa sen toteutumista;

64. huomauttaa, että näiden teknologioiden ansiosta henkilötietoja ja muita tietoja voidaan käyttää ihmisten luokittelemiseen ja mikrokohdentamiseen, ihmisten haavoittuvuuksien selvittämiseen tai tarkan ennustetiedon hyödyntämiseen, joten sen vastapainoksi on pantava tehokkaasti täytäntöön tietosuojan ja yksityisyyden periaatteet, kuten tietojen minimointi, oikeus vastustaa profilointia ja valvoa itseään koskevien tietojen käyttöä, oikeus saada selitys automaattiseen käsittelyyn perustuvaan päätökseen ja sisäänrakennettu yksityisyyden suoja, sekä yleisen tietosuoja-asetuksen mukaiset suhteellisuuden, tarpeellisuuden ja käyttötarkoituksen tarkasti määritellyn rajoittamisen periaatteet;

65. korostaa, että kun viranomaiset käyttävät tärkeään yleiseen etuun liittyvissä tarkoituksissa etätunnistusteknologiaa, kuten biometristen piirteiden ja erityisesti kasvojen tunnistusta, käytöstä olisi aina ilmoitettava, sen olisi oltava oikeasuhteista, kohdennettua ja tiettyihin tavoitteisiin rajattua, sen olisi oltava ajallisesti rajoitettua unionin lainsäädännön mukaisesti ja siinä olisi otettava asianmukaisesti huomioon ihmisarvo ja yksilön autonomia sekä perusoikeuskirjassa vahvistetut perusoikeudet; katsoo, että tällaisen käytön kriteereihin ja rajoituksiin olisi sovellettava laillisuusvalvontaa ja demokraattista valvontaa ja siinä olisi otettava huomioon sen psykologiset ja sosiokulttuuriset vaikutukset kansalaisyhteiskuntaan;

66. huomauttaa, että vaikka tekoälyn, robotiikan ja niihin liittyvän teknologian käyttöönotosta julkisen vallan päätöksissä on hyötyä, se voi johtaa vakavaan väärinkäyttöön, kuten joukkovalvontaan, ennakoivaan poliisitoimintaan ja oikeudenmukaista menettelyä koskevien oikeuksien loukkauksiin;

67. katsoo, että teknologioita, joilla voidaan tuottaa automaattisia päätöksiä ja siten korvata viranomaisten tekemät päätökset, olisi käsiteltävä äärimmäisen harkiten, erityisesti oikeuden ja lainvalvonnan alalla;

68. katsoo, että jäsenvaltioiden olisi turvauduttava tällaisiin teknologioihin vain, jos on saatu perusteellinen näyttö niiden luotettavuudesta ja jos ihmisen mielekäs väliintulo ja tarkastelu on mahdollista tai järjestelmällistä tapauksissa, joissa on kyse perusvapauksista; pitää tärkeänä, että kansalliset viranomaiset tekevät perusoikeuksia koskevia tiukkoja vaikutustenarviointeja näissä tapauksissa käyttöön otetuille tekoälyjärjestelmille, varsinkin jos teknologiat on arvioitu suuririskisiksi;

69. katsoo, että kaikissa tekoälyn, robotiikan ja niihin liittyvän teknologian julkisen vallan erioikeuksien puitteissa tekemissä päätöksissä olisi edellytettävä ihmisen mielekästä väliintuloa ja oikeudenmukaista menettelyä, varsinkin jos teknologiat on arvioitu suuririskisiksi;

70. katsoo, että teknologian kehitys ei saisi johtaa siihen, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa käytetään tekemään autonomisesti julkisen sektorin päätöksiä, joilla on suora ja merkittävä vaikutus kansalaisten oikeuksiin ja velvoitteisiin;

71. toteaa, että tekoäly, robotiikka ja niihin liittyvä teknologia voisivat lainvalvonnan ja rajavalvonnan alalla parantaa yleistä turvallisuutta mutta että ne edellyttävät myös laajaa ja perusteellista julkista valvontaa ja mahdollisimman suurta läpinäkyvyyttä yksittäisten sovellusten riskinarvioinnin suhteen sekä yleiskuvaa tekoälyn, robotiikan ja niihin liittyvän teknologian käytöstä lainvalvonnassa ja rajavalvonnassa; toteaa, että tällaisiin teknologioihin liittyy merkittäviä eettisiä riskejä, joihin on puututtava asianmukaisesti, kun pidetään mielessä niiden mahdolliset haitalliset vaikutukset yksilöihin, etenkin kun on kyse heidän oikeudestaan yksityisyyteen, tietosuojaan ja syrjimättömyyteen; korostaa, että niiden väärinkäytöstä voi tulla suora uhka demokratialle ja että niiden käyttöönotossa ja käytössä on noudatettava suhteellisuus- ja tarpeellisuusperiaatteita, perusoikeuskirjaa sekä asiaankuuluvaa unionin johdettua oikeutta, kuten tietosuojasääntöjä; korostaa, että tekoäly ei saisi koskaan korvata ihmisiä tuomioiden antajana; katsoo, että esimerkiksi takuita tai valvontarangaistusta koskeviin päätöksiin, jotka käsitellään tuomioistuimissa, tai yksinomaan automaattiseen käsittelyyn perustuviin päätöksiin, joilla on yksilöä koskevia oikeusvaikutuksia tai jotka vaikuttavat heihin merkittävästi, on aina liityttävä mielekäs arviointi ja inhimillinen harkinta;

Hyvä hallinto

72. korostaa, että asianmukainen hallintotapa tekoälyn, robotiikan ja niihin liittyvän teknologian, etenkin suuririskisten teknologioiden, kehittämisessä, käyttöönotossa ja käytössä voi lisätä kansalaisten turvallisuutta ja luottamusta näihin teknologioihin, kun siihen sisältyy toimenpiteitä, joilla keskitytään vastuuvelvollisuuteen ja puututaan mahdollisiin vääristymien ja syrjinnän riskeihin;

73. katsoo, että luomalla tällaisten teknologioiden hallinnolle yhteinen kehys, jota koordinoivat komissio ja/tai tätä varten tähän tehtävään mahdollisesti nimettävät asiaankuuluvat unionin toimielimet, elimet, toimistot tai virastot ja jonka kansalliset valvontaviranomaiset panevat täytäntöön kussakin jäsenvaltiossa, varmistettaisiin yhtenäinen eurooppalainen toimintatapa ja estettäisiin sisämarkkinoiden hajanaisuus;

74. toteaa, että tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiseen käytetään suuria määriä dataa ja että tällaisen datan käsittelyä, jakamista ja käyttöä ja siihen pääsyä on hallinnoitava lain sekä siinä vahvistettujen laatua, eheyttä, yhteentoimivuutta, läpinäkyvyyttä, turvallisuutta, yksityisyyttä ja valvontaa koskevien vaatimusten mukaisesti;

75. muistuttaa, että datan saatavuus on olennainen osatekijä digitaalitalouden kasvussa; huomauttaa, että datan yhteentoimivuudella on lukkiutumisvaikutusten rajoittamisen kautta keskeinen rooli reilujen markkinaolosuhteiden varmistamisessa ja tasapuolisten toimintaedellytysten edistämisessä digitaalisilla sisämarkkinoilla;

76. korostaa tarvetta varmistaa, että henkilötietoja suojellaan asianmukaisesti, ja toteaa, että tämä koskee erityisesti haavoittuvassa asemassa olevia ryhmiä, kuten vammaisia henkilöitä, potilaita, lapsia, ikäihmisiä, vähemmistöjä, maahanmuuttajia ja muita syrjäytymisvaarassa olevia ryhmiä, koskevia tai näiltä peräisin olevia tietoja;

77. huomauttaa, että viranomaiset ulkoistavat tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisen, käyttöönoton ja käytön usein yksityisille tahoille; katsoo, että tämä ei saisi millään tavalla vaarantaa julkisten arvojen ja perusoikeuksien suojelua; katsoo, että julkisten hankintojen ehdoissa olisi soveltuvin osin otettava huomioon viranomaisille asetetut eettiset vaatimukset;

Kuluttajat ja sisämarkkinat

78. pitää tärkeänä, että tekoälyä koskevaa sääntelykehystä sovelletaan tilanteissa, joissa unionin kuluttajat ovat algoritmijärjestelmän käyttäjiä, sen piirissä tai sen kohteena tai heitä ohjataan tällaiseen järjestelmään, riippumatta siitä, mihin järjestelmää kehittävät, myyvät tai käyttävät yhteisöt ovat sijoittautuneet; katsoo lisäksi, että kehyksessä vahvistettuja sääntöjä olisi oikeusvarmuuden vuoksi sovellettava kaikkiin kehittäjiin ja koko arvoketjuun eli asiaankuuluvien teknologioiden ja niiden komponenttien kehittämiseen, käyttöönottoon ja käyttöön ja että niillä olisi taattava korkeatasoinen kuluttajansuoja;

79. panee merkille yhteyden yhtäältä tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisen teknologian käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, sekä toisaalta esimerkiksi esineiden internetin, koneoppimisen, sääntöpohjaisten järjestelmien tai automaattisten ja avusteisten päätöksentekoprosessien välillä; toteaa lisäksi, että voitaisiin kehittää vakiomuotoisia kuvakkeita, joiden avulla tällaisia järjestelmiä voidaan selittää kuluttajille, kun ne ovat monimutkaisia tai niillä on valta tehdä päätöksiä, jotka vaikuttavat merkittävästi heidän elämäänsä;

80. muistuttaa, että komission olisi tarkasteltava voimassa olevaa oikeudellista kehystä ja sen soveltamista, kuluttajansuoja-, tuotevastuu-, tuoteturvallisuus- ja markkinavalvontalainsäädäntö mukaan lukien, jotta voidaan kartoittaa lainsäädännön puutteet ja nykyiset sääntelyvelvoitteet; katsoo, että tämä on tarpeen sen selvittämiseksi, pystytäänkö sillä vastaamaan tekoälyn, robotiikan ja niihin liittyvän teknologian leviämisen aiheuttamiin uusiin haasteisiin ja takaamaan korkeatasoinen kuluttajansuoja;

81. painottaa tarvetta vastata tehokkaasti tekoälyn, robotiikan ja niihin liittyvän teknologian tuomiin haasteisiin ja varmistaa, että kuluttajilla on vaikutusmahdollisuuksia ja heitä suojellaan asianmukaisesti; korostaa tarvetta tarkastella asiaa laajemminkin kuin vain niiden perinteisten tiedonsaannin ja tietojen julkistamisen periaatteiden kannalta, joiden varaan kuluttajalainsäädäntö on rakennettu, sillä kuluttajan oikeuksia on vahvistettava ja tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiselle, käyttöönotolle ja käytölle on asetettava selkeitä rajoituksia, jotta varmistetaan, että tällainen teknologia parantaa kuluttajien elämää ja kehittyy tavalla, jossa kunnioitetaan perusoikeuksia ja kuluttajan oikeuksia sekä unionin arvoja;

82. huomauttaa, että päätöksellä N:o 768/2008/EY käyttöön otetussa lainsäädäntökehyksessä esitetään yhdenmukaistettu luettelo valmistajille, maahantuojille ja jakelijoille asetetuista velvoitteista, kannustetaan standardien käyttöön ja säädetään useista valvonnan tasoista tuotteen vaarallisuuden mukaan; katsoo, että tätä kehystä olisi sovellettava myös tuotteisiin, joihin on sisällytetty tekoäly;

83. huomauttaa, että tekoälyn, robotiikan ja niihin liittyvän teknologian kuluttajiin kohdistuvien vaikutusten analysoimiseksi pääsy tietoihin voitaisiin ulottaa koskemaan kansallisia toimivaltaisia viranomaisia edellyttäen, että noudatetaan kaikilta osin tietosuojaa, yksityisyyttä ja liikesalaisuuksia koskevaa unionin lainsäädäntöä; muistuttaa, että on tärkeää valistaa kuluttajia niin, että heillä on entistä paremmat tiedot ja taidot, kun he ovat tekemisissä tekoälyn, robotiikan ja niihin liittyvän teknologian kanssa, jotta voidaan suojella heitä mahdollisilta riskeiltä ja puolustaa heidän oikeuksiaan;

84. kehottaa komissiota esittämään tietojen jäljitettävyyttä koskevia toimenpiteitä, joissa otetaan huomioon sekä tiedonhankinnan laillisuus että kuluttajien oikeuksien ja perusoikeuksien suojelu ja noudatetaan kaikilta osin tietosuojaa, yksityisyyttä, teollis- ja tekijänoikeuksia sekä liikesalaisuuksia koskevaa unionin lainsäädäntöä;

85. huomauttaa, että näiden teknologioiden olisi oltava käyttäjälähtöisiä ja ne olisi suunniteltava siten, että kaikki ikään, sukupuoleen, kykyihin tai ominaisuuksiin katsomatta voivat käyttää tekoälytuotteita tai -palveluja; pitää erityisen tärkeänä, että vammaiset henkilöt voivat käyttää niitä; katsoo, että ei pitäisi käyttää vain yhtä kaikkiin sovellettavaa lähestymistapaa ja että olisi huomioitava kaikkia palvelevan suunnittelun periaatteet, joissa otetaan huomioon mahdollisimman laajasti eri käyttäjät ja noudatetaan asianomaisia esteettömyysvaatimuksia; painottaa, että näin mahdollistetaan yksilöille tasapuolinen pääsy ja aktiivinen osallistuminen nykyisen ja kehittyvän tietokonevälitteisen inhimillisen toiminnan ja apuvälineteknologian alalla;

86. korostaa, että kun julkisista lähteistä peräisin olevilla varoilla edistetään merkittävästi tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa tai käyttöä, voitaisiin avoimen hankintamenettelyn ja avoimen alihankinnan vaatimusten lisäksi harkita mahdollisuutta julkistaa koodi, tuotettu data – siltä osin kuin se ei sisällä henkilötietoja – ja koulutettu malli oletusarvoisesti kehittäjän suostumuksella, jotta voidaan taata läpinäkyvyys, tehostaa kyberturvallisuutta ja mahdollistaa uudelleenkäyttö innovoinnin vauhdittamiseksi; korostaa, että näin voidaan hyödyntää sisämarkkinoiden koko potentiaali ja välttää markkinoiden pirstoutuminen;

87.  katsoo, että tekoälyllä, robotiikalla ja niihin liittyvällä teknologialla on valtavasti potentiaalia tarjota kuluttajille mahdollisuuksia saada monenlaisia palveluja monilla elämänaloilla sekä parempia tuotteita ja palveluja, samalla kun kuluttajat hyötyvät paremmasta markkinavalvonnasta, kunhan edelleen sovelletaan kaikkia sovellettavia periaatteita, ehtoja, mukaan lukien läpinäkyvyys ja tarkastettavuus, ja säännöksiä;

Turvallisuus ja puolustus

88. korostaa, että unionin ja sen jäsenvaltioiden turvallisuus- ja puolustuspolitiikkaa ohjaavat EU:n perusoikeuskirjan ja YK:n peruskirjan periaatteet sekä yhteisymmärrys ihmisen loukkaamattomien ja luovuttamattomien oikeuksien, ihmisarvon, vapauden, demokratian, tasa-arvon ja oikeusvaltioperiaatteen kunnioittamisen yleismaailmallisista arvoista; korostaa, että kaikissa unionin puitteissa toteutettavissa puolustukseen liittyvissä toimissa on kunnioitettava näitä yleismaailmallisia arvoja ja edistettävä rauhaa, turvallisuutta ja edistystä Euroopassa ja maailmassa;

89. suhtautuu myönteisesti siihen, että eräitä tavanomaisia aseita koskevan YK:n yleissopimuksen (CCW) korkeiden sopimuspuolten vuonna 2019 pidetyssä kokouksessa hyväksyttiin 11 ohjaavaa periaatetta autonomisten asejärjestelmien kehittämistä ja käyttöä varten; pitää kuitenkin valitettavana, että tappavia autonomisia asejärjestelmiä sääntelevästä oikeudellisesti sitovasta välineestä, johon sisältyisi tehokas täytäntöönpanon valvontamekanismi, ei ole päästy sopimukseen; pitää myönteisinä ja tukee komission tekoälyä käsittelevän korkean tason asiantuntijaryhmän 9. huhtikuuta 2019 julkaisemaa asiakirjaa ”Luotettavaa tekoälyä koskevat eettiset ohjeet” ja siinä esitettyä kantaa tappaviin autonomisiin asejärjestelmiin; kehottaa jäsenvaltioita laatimaan kansallisia strategioita tappavien autonomisten asejärjestelmien määrittelyä ja asemaa varten, jotta saadaan aikaan kattava unionin tason strategia, ja edistämään yhdessä unionin korkean edustajan / komission varapuheenjohtajan ja neuvoston kanssa keskustelua tappavista autonomisista asejärjestelmistä CCW-sopimuksen puitteissa ja muilla asiaankuuluvilla foorumeilla sekä täysin autonomisten, puoliautonomisten ja kauko-ohjattujen tappavien asejärjestelmien kehittämisen ja käytön eettisiä ja oikeudellisia parametreja koskevien kansainvälisten normien laatimisesta; muistuttaa tässä yhteydessä autonomisista asejärjestelmistä 12. syyskuuta 2018 antamastaan päätöslauselmasta ja kehottaa jälleen kiireellisesti määrittelemään ja hyväksymään tappavia autonomisia asejärjestelmiä koskevan yhteisen kannan, jotta kielletään kansainvälisesti sellaisten tappavien autonomisten asejärjestelmien kehittäminen, valmistus ja käyttö, jotka mahdollistavat iskut ilman merkityksellistä ihmisten suorittamaa valvontaa ja ihmisen osallistumista edellyttävää periaatetta noudattamatta, maailman merkittävimpien tekoälytutkijoiden vuonna 2015 päivätyssä avoimessa kirjeessään antaman lausunnon mukaisesti; pitää myönteisenä neuvoston ja Euroopan parlamentin välistä sopimusta jättää Euroopan puolustusrahastosta rahoitettavien toimien ulkopuolelle tappavat autonomiset aseet, joissa ihminen ei voi iskuja tehtäessä ”merkityksellisesti vaikuttaa päätöksiin kohteiden valinnasta ja iskun tekemisestä”; katsoo, että muiden puolustusalan tekoälysovellusten, kuten tiedustelun, valvonnan ja taktisen tiedustelun tai kyberoperaatioiden sovellusten, eettisiä näkökohtia ei saa sivuuttaa ja että on kiinnitettävä erityistä huomiota droonien kehittämiseen ja käyttöönottoon sotilasoperaatioissa;

90. tähdentää, että puolustus- ja turvallisuusalan kehittyvää teknologiaa, jota ei säännellä kansainvälisessä oikeudessa, olisi arvioitava ihmisyyden kunnioittamisen periaatteen ja yleisen omantunnon sanelemien velvoitteiden mukaisesti;

91. suosittaa, että tekoälyä hyödyntävien järjestelmien puolustuskäyttöä taistelutilanteissa ja muissa tilanteissa sääntelevässä eurooppalaisessa kehyksessä on kunnioitettava kaikkia sovellettavia oikeussääntöjä, erityisesti kansainvälistä humanitaarista oikeutta ja ihmisoikeuksia koskevaa kansainvälistä oikeutta, ja että kehyksen on oltava unionin oikeuden, periaatteiden ja arvojen mukainen samalla, kun pidetään mielessä teknisen ja turvallisuusinfrastruktuurin erot unionissa;

92. toteaa, että toisin kuin puolustusteollinen perusta, kriittiset tekoälyinnovaatiot voivat tulla pienistä jäsenvaltioista, joten YTPP-vakioidulla lähestymistavalla olisi varmistettava, että pienemmät jäsenvaltiot ja pk-yritykset eivät joudu paitsioon; korostaa, että EU:n yhteisillä tekoälyvalmiuksilla, jotka sovitetaan jäsenvaltioiden toimintakonsepteihin, voidaan korjata tekniset puutteet, jotka voisivat jättää valtiot vaille asiaankuuluvaa teknologiaa, alan asiantuntemusta tai kykyä ottaa tekoälyjärjestelmiä käyttöön puolustusministeriöissään;

93. katsoo, että unionin kehyksen nykyiset ja tulevat turvallisuuteen ja puolustukseen liittyvät toiminnot perustuvat tekoälyyn, robotiikkaan ja autonomiaan sekä niihin liittyvään teknologiaan ja että luotettava ja toimintavarma tekoäly voisi antaa oman panoksensa nykyaikaisen ja tehokkaan armeijan hyväksi; katsoo, että unionin on siksi omaksuttava johtava asema turvallisuus- ja puolustusalan tekoälyjärjestelmien tutkimus- ja kehitystoiminnassa; katsoo, että tekoälyä hyödyntävien sovellusten käyttö turvallisuus- ja puolustusalalla voisi tarjota operaation komentajalle useita suoria hyötyjä, joita ovat esimerkiksi laadukkaampi kerätty data, parempi tilannetietoisuus, nopeampi päätöksenteko, pienempi oheisvaurioiden riski paremman kaapeloinnin ansiosta, paikalla olevien joukkojen suojelu sekä puolustustarvikkeiden parempi luotettavuus ja siten pienempi ihmisiin kohdistuva ja ihmishenkien menetyksen riski; painottaa, että luotettavan tekoälyn kehittäminen puolustusalalla on olennaisen tärkeää Euroopan strategisen riippumattomuuden varmistamiseksi voimavarojen ja operaatioiden alalla; muistuttaa, että tekoälyjärjestelmistä on myös tulossa keskeisiä tekijöitä uusien turvallisuusuhkien, kuten kyber- ja hybridisodankäynnin, torjunnassa sekä verkossa että sen ulkopuolella; korostaa samalla kaikkia tekoälyn sääntelemättömän käytön riskejä ja haasteita; toteaa, että tekoäly voi altistua manipuloinnille, virheille ja epätarkkuuksille;

94. korostaa, että tekoälyteknologiat ovat pohjimmiltaan kaksikäyttöisiä ja että tekoälyn kehittäminen puolustukseen liittyvissä toiminnoissa hyötyy sotilas- ja siviiliteknologioiden välisestä vaihdosta; korostaa, että tekoäly puolustukseen liittyvissä toiminnoissa on poikittainen murroksellinen teknologia, jonka kehittäminen voi tarjota mahdollisuuksia unionin kilpailukyvylle ja strategiselle riippumattomuudelle;

95. toteaa, että nykypäivän hybridisodankäynnin ja edistyneen sodankäynnin yhteydessä tiedon määrä ja nopeus kriisin alkuvaiheissa saattavat olla ylivoimaisia ihmisanalyytikoille ja että tekoälyjärjestelmä voisi käsitellä tietoja sen varmistamiseksi, että ihmispäättäjät jäljittävät koko tietospektrin asianmukaisessa aikataulussa nopeaa reagointia varten;

96. korostaa, että on tärkeää investoida tekoälyn inhimillisen pääoman kehittämiseen ja edistää tarvittavia osaamista ja koulutusta turvallisuus- ja puolustusalan tekoälyteknologioiden alalla keskittyen erityisesti puoliautonomisten ja autonomisten operatiivisten järjestelmien etiikkaan, joka perustuu ihmisen vastuuvelvollisuuteen tekoälyä hyödyntävässä maailmassa; korostaa erityisesti, että on tärkeää varmistaa, että tämän alan eettisillä asiantuntijoilla on asianmukaiset taidot ja he saavat asianmukaista koulutusta; kehottaa komissiota esittämään mahdollisimman pian vahvistetun osaamisohjelman, josta ilmoitettiin tekoälyä koskevassa valkoisessa kirjassa 19. helmikuuta 2020;

97. korostaa, että kvanttilaskenta voi olla konflikteissa mullistavin muutos sitten atomiaseiden käyttöönoton, ja kehottaa siksi ottamaan kvanttilaskentateknologian jatkokehittämisen yhdeksi unionin ja jäsenvaltioiden painopisteeksi; toteaa, että kvanttilaskennan avulla tehdyt hyökkäykset, kriittiseen infrastruktuuriin kohdistuvat hyökkäykset mukaan lukien, luovat konfliktiympäristön, jossa päätöksentekoon käytettävissä oleva aika lyhenee dramaattisesti päivistä ja tunneista minuutteihin ja sekunteihin, mikä pakottaa jäsenvaltiot kehittämään itseään suojaavia voimavaroja ja kouluttamaan sekä päätöksentekijät että sotilashenkilöstön reagoimaan tehokkaasti tällaisissa määräajoissa;

98. kehottaa lisäämään investointeja eurooppalaiseen tekoälyyn puolustuksen alalla ja sitä ylläpitävään kriittiseen infrastruktuuriin;

99. muistuttaa, että useimmat maailman nykyisistä sotilasmahdeista ovat jo toteuttaneet merkittäviä T&K-toimia, jotka liittyvät tekoälyn sotilaalliseen ulottuvuuteen; katsoo, että unionin on huolehdittava siitä, ettei se jää tässä suhteessa jälkeen;

100. kehottaa komissiota sisällyttämään kyberturvallisuusvalmiuksien kehittämisen teollisuuspolitiikkaansa, jotta voidaan varmistaa turvallisten, häiriönsietokykyisten ja toimintavarmojen tekoäly- ja robottijärjestelmien kehittäminen ja käyttöönotto; kehottaa komissiota tutkimaan lohkoketjuun perustuvien kyberturvallisuusprotokollien ja -sovellusten käyttöä, jotta voidaan parantaa tekoälyinfrastruktuurien häiriönkestokykyä, luotettavuutta ja toimintavarmuutta tiedonsalausmalleilla, joista on poistettu välikädet; kannustaa eurooppalaisia sidosryhmiä tutkimaan ja rakentamaan edistyneitä toimintoja, jotka helpottaisivat sellaisten korruptoituneiden ja vihamielisten tekoäly- ja robottijärjestelmien havaitsemista, jotka voisivat heikentää unionin ja kansalaisten turvallisuutta;

101. korostaa, että kaikilla puolustusalan tekoälyjärjestelmillä on oltava konkreettinen ja tarkasti määritelty käyttöala siten, että ihmisellä säilyy toimijuus havaita ja kytkeä pois tai deaktivoida käyttöön otetut järjestelmät, jos ne siirtyvät pois ihmiskomentajan määrittelemältä ja osoittamalta käyttöalalta tai jos ne toteuttavat eskaloituvia tai ei-toivottuja toimia; katsoo, että sotilaskäyttöön tarkoitetut tekoälyä hyödyntävät järjestelmät, tuotteet ja teknologiat olisi varustettava ”mustalla laatikolla”, johon kirjataan kaikki koneen suorittamat tietotransaktiot;

102. korostaa, että ihmiskäyttäjällä on säilyttävä kokonaisuudessaan vastuu ja vastuuvelvollisuus tekoälyjärjestelmien suunnittelua, kehittämistä, käyttöönottoa ja käyttöä koskevasta päätöksestä, sillä ihmisen suorittaman mielekkään seurannan ja valvonnan on oltava mahdollista kaikkien asejärjestelmien ja inhimillisten aikomusten suhteen, kun päätetään voimankäytöstä toteutettaessa tekoälyä hyödyntävien asejärjestelmien päätöksiä, joilla voi olla tappavia seurauksia; korostaa, että ihmisen suorittama valvonta olisi säilytettävä tekoälyjärjestelmien johtamisjärjestelyssä siten, että pidetään kiinni ihmisen osallistumista edellyttävästä periaatteesta, ihmisen osallistumisen mahdollistavasta periaatteesta ja ihminen määrää -periaatteesta sotilasjohdon tasolla; korostaa, että tekoälyjärjestelmien on mahdollistettava armeijoiden sotilasjohdon täysi vastuu ja vastuuvelvollisuus tappavasta voimankäytöstä sekä tarvittava harkinta, jota koneille ei voida antaa, koska tällaisen harkinnan on perustuttava erottelukykyyn, suhteellisuuteen ja ennalta varautumiseen, tappavien tai laajamittaista tuhoa aiheuttavien toimien toteuttamisessa tällaisten järjestelmien avulla; korostaa, että älykkäiden aseiden ja muiden tekoälyä hyödyntävien järjestelmien käyttöönotolle on luotava selkeät ja jäljitettävissä olevat valtuutus- ja vastuuvelvollisuuspuitteet, joissa käytetään yksilöllisiä käyttäjäominaisuuksia, kuten biometrisiä tietoja, jotta käyttöönotto voi tapahtua yksinomaan valtuutetun henkilöstön toimesta;

Liikenne

103. korostaa tekoälyn, robotiikan ja niihin liittyvän teknologian käyttömahdollisuuksia kaikissa autonomisissa tie-, raide-, vesi- ja lentoliikennevälineissä ja myös edistettäessä liikennemuotosiirtymää ja intermodaalisuutta, koska tällaiset teknologiat voivat auttaa löytämään optimaalisen liikennemuotoyhdistelmän tavaroiden ja matkustajien kuljetuksessa; painottaa lisäksi niiden potentiaalia tehdä kuljetus-, logistiikka- ja liikennevirroista tehokkaampia ja kaikista liikennemuodoista turvallisempia, älykkäämpiä ja ympäristöystävällisempiä; huomauttaa, että tekoälyä koskeva eettinen lähestymistapa voidaan nähdä myös ennakkovaroitusjärjestelmänä erityisesti liikenteen turvallisuuden ja tehokkuuden kannalta;

104. korostaa, että yritysten ja talousalueiden globaalissa kilpailussa unionin on edistettävä investointeja ja vahvistettava liikennealalla toimivien yritysten kansainvälistä kilpailukykyä luomalla tekoälysovellusten ja jatkoinnovaatioiden kehittämistä ja soveltamista suosiva ympäristö, jossa unioniin sijoittautuneista yrityksistä voi kehittyä maailman johtavia toimijoita tekoälyteknologioiden kehittämisessä;

105. korostaa, että unionin liikennealalla tarvitaan päivitetty sääntelykehys, joka koskee tällaisia kehittyviä teknologioita ja niiden käyttöä liikennealalla, sekä sellainen selkeä eettinen kehys luotettavan tekoälyn saavuttamiseksi, jossa otetaan huomioon turvallisuuteen, yksilön autonomian kunnioittamiseen, valvontaan ja vastuuseen liittyvät näkökohdat; toteaa, että tämä lisää kaikille yhteisesti koituvia hyötyjä ja on avainasemassa edistettäessä investointeja tutkimukseen ja innovointiin, osaamisen kehittämistä ja tekoälyn käyttöönottoa julkisissa palveluissa sekä pk-yrityksissä, startup-yrityksissä ja muissa yrityksissä, samalla kun varmistetaan tietosuoja ja yhteentoimivuus aiheuttamatta tarpeetonta hallinnollista rasitetta yrityksille ja kuluttajille;

106. toteaa, että tekoälyn kehittäminen ja käyttöönotto liikennealalla ei ole mahdollista ilman nykyaikaista infrastruktuuria, joka on olennainen osa älykkäitä liikennejärjestelmiä; korostaa, että jäsenvaltioiden kehitystasojen sitkeät erot aiheuttavat riskin siitä, että vähiten kehittyneet alueet ja niiden asukkaat jäävät paitsi autonomisen liikkuvuuden kehittämisen tuomista hyödyistä; kehottaa antamaan riittävästi rahoitusta unionin liikenneinfrastruktuurin nykyaikaistamiseen, myös sen integrointiin 5G-verkkoon;

107. suosittaa, että kaikille liikennemuodoille, autoteollisuus mukaan lukien, ja tekoälyä hyödyntävien ajoneuvojen ja niihin liittyvien tuotteiden ja palvelujen testaukseen kehitetään unionin laajuiset luotettavaa tekoälyä koskevat standardit;

108. toteaa, että tekoälyjärjestelmät voisivat auttaa vähentämään liikennekuolemia merkittävästi esimerkiksi parantamalla reaktioaikoja ja sääntöjen noudattamista; pitää silti mahdottomana, että autonomisten ajoneuvojen käyttö estäisi kaikki onnettomuudet, ja korostaa, että tämä tekee tekoälyn tekemien päätösten selitettävyydestä entistäkin tärkeämpää, jotta päätösten puutteet ja tahattomat seuraukset pystytään perustelemaan;

Työllisyys, työntekijöiden oikeudet, digitaaliset taidot ja työyhteisö

109. huomauttaa, että tekoälyn, robotiikan ja niihin liittyvän teknologian soveltaminen työpaikoilla voi edistää osallistavia työmarkkinoita ja vaikuttaa työterveyteen ja -turvallisuuteen ja että niitä voidaan toisaalta käyttää myös työntekijöiden suoritusten seurantaan, arviointiin, ennakoimiseen ja ohjaamiseen, mistä on suoria ja välillisiä seurauksia heidän työuralleen; toteaa, että tekoälyllä olisi oltava myönteinen vaikutus työoloihin ja että sen käytön olisi perustuttava ihmisoikeuksien sekä unionin perusoikeuksien ja arvojen kunnioittamiseen; katsoo, että tekoälyn olisi oltava ihmiskeskeistä, parannettava ihmisten ja yhteiskunnan hyvinvointia ja edistettävä reilua ja oikeudenmukaista siirtymää; toteaa, että tällaisilla teknologioilla olisi siten oltava myönteinen vaikutus työoloihin ja että niiden käytön olisi perustuttava ihmisoikeuksien sekä unionin perusoikeuksien ja arvojen kunnioittamiseen;

110. korostaa tarvetta kehittää koulutuksen avulla työntekijöiden ja heidän edustajiensa tekoälyosaamista työpaikoilla, jotta voidaan ymmärtää paremmin tekoälyratkaisujen vaikutuksia; korostaa, että työnhakijoille ja työntekijöille olisi ilmoitettava asiaankuuluvalla tavalla kirjallisesti tekoälyn käytöstä rekrytointimenettelyissä ja muissa henkilöresursseja koskevissa päätöksissä sekä siitä, miten tässä tapauksessa voidaan pyytää ihmisen suorittamaa uudelleentarkastelua automaattisen päätöksen kumoamiseksi;

111. korostaa, että on varmistettava, että tekoälyn ja robotiikan kehittämisestä ja käytöstä syntyvä tuottavuuden kasvu hyödyttää paitsi yritysten omistajia ja osakkeenomistajia myös yrityksiä ja työntekijöitä parempien työolojen ja -ehtojen, myös palkkojen, sekä talouskasvun ja -kehityksen muodossa ja että se palvelee koko yhteiskuntaa, erityisesti silloin, kun tällaiset hyödyt saavutetaan työpaikkojen kustannuksella; kehottaa jäsenvaltioita tutkimaan huolellisesti tekoälyn mahdollisia vaikutuksia työmarkkinoihin ja sosiaaliturvajärjestelmiin ja kehittämään strategioita pitkän aikavälin vakauden varmistamiseksi uudistamalla veroja ja maksuja sekä muilla toimenpiteillä siltä varalta, että julkiset tulot pienenevät;

112. korostaa, että yritysten on tärkeää investoida viralliseen ja epäviralliseen koulutukseen ja elinikäiseen oppimiseen, jotta voidaan tukea oikeudenmukaista siirtymistä digitaalitalouteen; korostaa tässä yhteydessä, että tekoälyn käyttöön ottaneilla yrityksillä on vastuu asianmukaisen uudelleen- ja täydennyskoulutuksen tarjoamisesta kaikille asianomaisille työntekijöille, jotta he oppivat käyttämään digitaalisia välineitä ja työskentelemään yhteistyörobottien ja muiden uusien teknologioiden kanssa ja siten mukautuvat työmarkkinoiden muuttuviin tarpeisiin ja pysyvät työelämässä;

113. toteaa, että erityistä huomiota olisi kiinnitettävä keikka- ja alustatyön kaltaisiin uusiin työn muotoihin, jotka ovat seurausta uusien teknologioiden soveltamisesta tässä yhteydessä; korostaa, että tekoälyn vaikutus on otettava huomioon myös säänneltäessä etätyön ehtoja kaikkialla unionissa ja varmistettaessa ihmisarvoiset työolot ja -ehdot digitaalitaloudessa; kehottaa komissiota kuulemaan tässä asiassa työmarkkinaosapuolia, tekoälyn kehittäjiä, tutkijoita ja muita sidosryhmiä;

114. korostaa, että tekoäly, robotiikka ja niihin liittyvä teknologia eivät saa millään tavoin vaikuttaa jäsenvaltioissa ja unionin tasolla tunnustettujen perusoikeuksien käyttämiseen, mukaan lukien oikeus tai vapaus ryhtyä lakkoon tai toteuttaa muita jäsenvaltioiden työmarkkinasuhteiden järjestelmien piiriin kuuluvia toimia, kansallisen lainsäädännön ja/tai käytännön mukaisesti, taikka vaikuttaa oikeuteen neuvotella, tehdä ja panna täytäntöön työehtosopimuksia tai ryhtyä työtaistelutoimiin kansallisen lainsäädännön ja/tai käytännön mukaisesti;

115. painottaa koulutuksen ja jatkuvan oppimisen merkitystä, jotta voidaan kehittää digitaalisella aikakaudella tarvittavat pätevyydet ja torjua digitaalista syrjäytymistä; kehottaa jäsenvaltioita investoimaan laadukkaisiin, tarpeisiin vastaaviin ja osallistaviin yleissivistävän koulutuksen, ammatillisen koulutuksen ja elinikäisen oppimisen järjestelmiin sekä työntekijöiden uudelleen- ja täydennyskoulutustoimiin aloilla, joihin tekoäly saattaa vaikuttaa vakavasti; korostaa tarvetta tarjota nykyiselle ja tulevalle työvoimalle tarvittava luku- ja kirjoitustaito, laskutaito ja digitaalinen osaaminen samoin kuin luonnontieteiden, teknologian, insinööritieteiden ja matematiikan alan (STEM-aineiden) osaamista ja monialaista pehmeää osaamista, kuten kriittistä ajattelukykyä, luovuutta ja yrittäjyyshenkeä; korostaa, että tässä yhteydessä on kiinnitettävä erityistä huomiota muita heikommassa asemassa olevien ryhmien osallistamiseen;

116. muistuttaa, että tekoälyn, robotiikan ja niihin liittyvän teknologian on oltava työpaikoilla kaikkien käytettävissä kaikkia palvelevan suunnittelun periaatteen mukaisesti;

Koulutus ja kulttuuri

117. korostaa tarvetta kehittää tekoälyn kehittämiselle, käyttöönotolle ja käytölle kriteerejä, joissa otetaan huomioon niiden vaikutus koulutukseen, tiedotusvälineisiin, nuoriin, tutkimukseen ja urheiluun sekä vaikutus kulttuurialalla ja luovilla aloilla, kehittämällä vertailuarvoja ja määrittelemällä periaatteita tekoälyteknologioiden eettisesti vastuulliselle ja hyväksytylle käytölle näillä aloilla, mukaan lukien selkeä vastuujärjestelmä tekoälyn käytöstä syntyville tuotteille;

118. toteaa, että jokaisella lapsella on oikeus laadukkaaseen julkiseen koulutukseen kaikilla tasoilla; kehottaa siksi kehittämään, ottamaan käyttöön ja käyttämään laadukkaita tekoälyjärjestelmiä, jotka edistävät ja tarjoavat kaikille laadukkaita oppimisvälineitä kaikilla tasoilla, ja korostaa, että uusien tekoälyjärjestelmien käyttöönotto kouluissa ei saisi pahentaa digitaalista kahtiajakoa yhteiskunnassa; toteaa, että tekoäly ja robotiikka tarjoavat valtavia mahdollisuuksia koulutuksen alalla; toteaa, että tekoälyyn perustuvat yksilöllisen oppimisen järjestelmät eivät saisi korvata opetussuhteita opettajien kanssa ja että perinteisiä koulutusmuotoja ei saisi unohtaa, ja muistuttaa samalla, että opettajille, jotka pyrkivät hankkimaan asianmukaisia taitoja, jotta he voivat sopeutua teknologisiin muutoksiin ja paitsi hyödyntää tekoälyn tarjoamia mahdollisuuksia myös ymmärtää sen rajoituksia, olisi tarjottava taloudellista, teknistä ja koulutukseen liittyvää tukea, tieto- ja viestintätekniikan alan erikoiskoulutus mukaan lukien; kehottaa laatimaan unionin tasolla strategian, jotta voidaan edistää koulutusjärjestelmien uudistamista ja päivittämistä, auttaa oppilaitoksia valmistautumaan kaikilla tasoilla ja tarjota opettajille ja oppilaille tarvittavat taidot ja kyvyt;

119. korostaa, että oppilaitosten olisi pyrittävä käyttämään koulutustarkoituksiin ainoastaan sellaisia tekoälyjärjestelmiä, jotka ovat saaneet eettisten periaatteiden noudattamista koskevan eurooppalaisen todistuksen;

120. korostaa, että digitoinnin ja uusien teknologioiden tarjoamat mahdollisuudet eivät saa johtaa työpaikkojen yleiseen vähenemiseen kulttuurialalla ja luovilla aloilla, originaalien säilyttämisen laiminlyöntiin tai siihen, että väheksytään perinteisiä tapoja tutustua kulttuuriperintöön, vaan niitä olisi suosittava yhtäläisesti; toteaa, että unionissa kehitettyjen, käyttöön otettujen ja käytettyjen tekoälyjärjestelmien olisi heijastettava unionin kulttuurista monimuotoisuutta ja monikielisyyttä;

121. toteaa tekoälyn kasvavan potentiaalin tieto-, media- ja verkkoalustojen alalla, myös välineenä disinformaation torjunnassa unionin lainsäädännön mukaisesti; painottaa, että jos tekoälyä ei säännellä, sillä voi olla myös eettisesti haitallisia vaikutuksia, koska datassa ja algoritmeissa olevia vääristymiä hyödyntämällä voidaan levittää disinformaatiota ja luoda informaatiokuplia; korostaa videonjakoalustojen ja suoratoistoalustojen käyttämien algoritmien läpinäkyvyyden ja niihin liittyvän vastuuvelvollisuuden merkitystä, jotta varmistetaan kulttuurisesti ja kielellisesti monimuotoisen sisällön saatavuus;

Kansalliset valvontaviranomaiset

122. panee merkille lisäarvon, joka saadaan siitä, että kussakin jäsenvaltiossa nimetyt kansalliset valvontaviranomaiset vastaavat suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevien oikeudellisten velvoitteiden ja eettisten periaatteiden noudattamisen varmistamisesta, arvioinnista ja seurannasta, sillä näin edesautetaan oikeudellisten ja eettisten vaatimusten noudattamista näissä teknologioissa;

123. katsoo, että nämä viranomaiset on velvoitettava tekemään yhteistyötä alakohtaisen lainsäädännön täytäntöönpanosta vastaavien viranomaisten kanssa, ilman että ne hoitavat näiden kanssa päällekkäisiä tehtäviä, jotta voidaan tunnistaa eettisestä näkökulmasta suuririskiset teknologiat ja valvoa vaadittujen ja aiheellisten toimenpiteiden täytäntöönpanoa, jos tällaisia teknologioita tunnistetaan;

124. toteaa, että viranomaisten olisi oltava yhteydessä paitsi toisiinsa myös komissioon ja muihin asiaankuuluviin unionin toimielimiin, elimiin, toimistoihin ja virastoihin, jotta voidaan taata rajatylittävien toimien johdonmukaisuus;

125. ehdottaa, että tällaisen yhteistyön puitteissa laaditaan yhteiset kriteerit ja hakuprosessi, joita noudatetaan myönnettäessä eettisten periaatteiden noudattamista koskeva eurooppalainen todistus, myös silloin, kun sellaisten teknologioiden, joita ei pidetä suuririskisinä, kehittäjä, käyttöönottaja tai käyttäjä pyytää todistusta siitä, että tämä on saanut kansalliselta valvontaviranomaiselta myönteisen arvion vaatimusten noudattamisesta;

126. kehottaa antamaan näille viranomaisille tehtäväksi edistää unionissa säännöllistä ajatustenvaihtoa kansalaisyhteiskunnan kanssa ja innovointia tarjoamalla tukea tutkijoille, kehittäjille ja muille asiaankuuluville sidosryhmille sekä digitaalisesti vähemmän kypsille yrityksille, etenkin pk-yrityksille tai startup-yrityksille, erityisesti valistusta ja tukea kehitykseen, käyttöönottoon, koulutukseen ja kykyjen hankkimiseen, jotta varmistetaan tehokas teknologian siirto sekä pääsy teknologioihin, hankkeisiin, tuloksiin ja verkostoihin;

127. kehottaa kutakin jäsenvaltiota myöntämään sen nimeämälle kansalliselle valvontaviranomaiselle riittävästi rahoitusta ja korostaa tarvetta vahvistaa kansallisia markkinavalvontaviranomaisia tekoälyyn liittyvien valmiuksien, taitojen ja osaamisen sekä tekoälyn, robotiikan ja niihin liittyvän teknologian erityisiä riskejä koskevan tietämyksen osalta;

Koordinointi unionin tasolla

128. pitää tärkeänä, että komissio ja/tai tätä varten mahdollisesti nimettävät asiaankuuluvat unionin toimielimet, elimet, toimistot ja virastot vastaavat unionin tason koordinoinnista, jotta vältetään hajanaisuus, ja että varmistetaan yhdenmukainen lähestymistapa kaikkialla unionissa; katsoo, että koordinoinnissa olisi keskityttävä edellisessä alaosiossa tarkoitettujen kansallisten valvontaviranomaisten toimeksiantoihin ja toimiin kussakin jäsenvaltiossa samoin kuin parhaiden käytäntöjen vaihtamiseen näiden viranomaisten kesken sekä alan tutkimus- ja kehitysyhteistyön edistämiseen kaikkialla unionissa; kehottaa komissiota arvioimaan eri vaihtoehtoja ja löytämään sopivimman ratkaisun tällaisen koordinoinnin jäsentämiseen; mainitsee asiaankuuluvista olemassa olevista unionin toimielimistä, elimistä, toimistoista ja virastoista esimerkkeinä Euroopan unionin kyberturvallisuusviraston (ENISA), Euroopan tietosuojavaltuutetun (EDPS) ja Euroopan oikeusasiamiehen;

129. katsoo, että tällainen koordinointi, kuten myös eettisten periaatteiden noudattamista koskeva eurooppalainen todistus, paitsi hyödyttäisi unionin teollisuuden kehitystä ja innovointia tällä saralla myös lisäisi kansalaisten tietoisuutta näihin teknologioihin liittyvistä mahdollisuuksista ja riskeistä;

130. ehdottaa perustettavaksi asiantuntijakeskusta, jossa on mukana tiede- ja tutkimusyhteisön ja teollisuuden edustajia ja yksittäisiä asiantuntijoita unionin tasolla, jotta voidaan edistää tietämyksen ja teknisen asiantuntemuksen vaihtoa sekä helpottaa yhteistyötä unionissa ja sen ulkopuolella; kehottaa asiantuntijakeskusta ottamaan mukaan myös sidosryhmäorganisaatiot, kuten kuluttajansuojajärjestöt, jotta varmistetaan kuluttajien laaja edustus; katsoo, että algoritmisten järjestelmien naisiin ja vähemmistöihin kohdistuvien mahdollisten suhteettomien vaikutusten vuoksi tällaisen rakenteen päätöksentekotasojen olisi oltava monimuotoisia ja niillä olisi varmistettava sukupuolten tasa-arvo; korostaa, että jäsenvaltioiden on kehitettävä tekoälyä koskevia riskinhallintastrategioita kansallisten markkinavalvontastrategioidensa yhteydessä;

131.  ehdottaa, että komissio ja/tai tätä varten mahdollisesti nimettävät asiaankuuluvat unionin toimielimet, elimet, toimistot ja virastot antavat kansallisille valvontaviranomaisille tarvittavaa apua niiden roolissa ensimmäisinä yhteyspisteinä tapauksissa, joissa epäillään, että tekoälyä koskevassa unionin sääntelykehyksessä vahvistettuja oikeudellisia velvoitteita ja eettisiä periaatteita, mukaan lukien syrjimättömyysperiaate, on rikottu; toteaa, että tällöin olisi annettava kansallisille valvontaviranomaisille tarvittavaa apua myös tapauksissa, joissa nämä suorittavat vaatimustenmukaisuuden arviointeja tukeakseen kansalaisten riitauttamis- ja hyvitysoikeutta, varsinkin tukemalla soveltuvin osin muiden toimivaltaisten viranomaisten, erityisesti kuluttajansuoja-asioiden yhteistyöverkoston ja muissa jäsenvaltioissa sijaitsevien kansallisten kuluttajansuojaelinten, kansalaisyhteiskunnan järjestöjen ja työmarkkinaosapuolten, kuulemista unionissa;

132. panee merkille tiedeyhteisön, kansalaisyhteiskunnan ja teollisuuden edustajista koostuvan, tekoälyä käsittelevän korkean tason asiantuntijaryhmän samoin kuin eurooppalaisen tekoälyallianssin arvokkaan työn, erityisesti ”Luotettavaa tekoälyä koskevat eettiset ohjeet”, ja ehdottaa, että se voisi tarjota asiantuntemusta komissiolle ja/tai tätä varten mahdollisesti nimettäville asiaankuuluville unionin toimielimille, elimille, toimistoille ja virastoille;

133. panee merkille tekoälyyn liittyvien hankkeiden sisällyttämisen Euroopan puolustusteolliseen kehittämisohjelmaan; katsoo, että tuleva Euroopan puolustusrahasto ja pysyvä rakenteellinen yhteistyö (PRY) voivat myös tarjota puitteet tuleville tekoälyyn liittyville hankkeille, mikä voisi auttaa virtaviivaistamaan unionin toimia tällä alalla ja edistämään samanaikaisesti unionin tavoitetta ihmisoikeuksien, kansainvälisen oikeuden ja monenvälisten ratkaisujen vahvistamisesta; korostaa, että tekoälyyn liittyvät hankkeet olisi synkronoitava tekoälyä koskevien unionin laajempien siviiliohjelmien kanssa; toteaa, että tekoälystä 19. helmikuuta 2020 annetun komission valkoisen kirjan mukaisesti olisi perustettava tekoälyn tutkimukseen ja kehittämiseen turvallisuus- ja puolustusalalla keskittyviä huippuosaamis- ja testauskeskuksia noudattaen tiukkoja vaatimuksia, joilla tuetaan yksityisten sidosryhmien osallistumista ja investointeja;

134. panee merkille 19. helmikuuta 2020 julkaistun komission valkoisen kirjan tekoälystä ja pitää valitettavana, että siinä ei otettu huomioon sotilaallisia näkökohtia; kehottaa komissiota ja korkeaa edustajaa / varapuheenjohtajaa myös osana yleistä lähestymistapaa esittämään unionin puitteissa toteutettavia puolustukseen liittyviä toimintoja koskevan alakohtaisen tekoälystrategian, jolla varmistetaan sekä kansalaisten oikeuksien kunnioittaminen että unionin strategiset edut ja joka perustuu tekoälyä hyödyntävien järjestelmien kehittämisestä niiden sotilaalliseen käyttöön ulottuvaan johdonmukaiseen lähestymistapaan, ja perustamaan tekoälyä käsittelevän korkean tason asiantuntijaryhmän yhteyteen turvallisuutta ja puolustusta käsittelevän työryhmän, jonka olisi käsiteltävä erityisesti toimintapoliittisia ja investointeihin liittyviä kysymyksiä sekä tekoälyn eettisiä näkökohtia turvallisuuden ja puolustuksen alalla; kehottaa neuvostoa, komissiota ja korkeaa edustajaa / varapuheenjohtajaa aloittamaan tätä koskevan jäsennellyn vuoropuhelun parlamentin kanssa;

Eettisten periaatteiden noudattamista koskeva eurooppalainen todistus

135. ehdottaa, että unionin tason koordinoinnin yhteydessä laaditaan yhteiset kriteerit ja hakuprosessi, joita noudatetaan myönnettäessä eettisten periaatteiden noudattamista koskeva eurooppalainen todistus, myös silloin, kun sellaisten teknologioiden, joita ei pidetä suuririskisinä, kehittäjä, käyttöönottaja tai käyttäjä pyytää todistusta siitä, että tämä on saanut kansalliselta valvontaviranomaiselta myönteisen arvion vaatimusten noudattamisesta;

136. katsoo, että tällainen eettisten periaatteiden noudattamista koskeva eurooppalainen todistus edistäisi sisäänrakennettua eettisyyttä tekoälyn ekosysteemien koko toimitusketjussa; ehdottaakin, että todistus voisi suuririskisten teknologioiden tapauksessa olla pakollinen edellytys pääsylle tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskeviin julkisiin hankintamenettelyihin;

Kansainvälinen yhteistyö

137. katsoo, että tehokas rajatylittävä yhteistyö ja eettiset normit ovat mahdollisia vain, jos kaikki sidosryhmät sitoutuvat varmistamaan ihmisen toimijuuden ja ihmisen suorittaman valvonnan, teknisen toimintavarmuuden ja turvallisuuden, läpinäkyvyyden ja vastuuvelvollisuuden, monimuotoisuuden, syrjimättömyyden ja oikeudenmukaisuuden sekä yhteiskunnallisen ja ekologisen hyvinvoinnin ja noudattamaan yksityisyyden suojaa, datahallintoa ja tietosuojaa koskevia vakiintuneita periaatteita, erityisesti Euroopan parlamentin ja neuvoston asetuksessa (EU) 2016/679 vahvistettuja periaatteita;

138. korostaa, että näiden teknologioiden kehittämistä, käyttöönottoa ja käyttöä koskevat unionin oikeudelliset velvoitteet ja eettiset periaatteet voisivat nostaa Euroopan johtavaan asemaan maailmassa tekoälyalalla, joten niitä olisi edistettävä maailmanlaajuisesti tekemällä yhteistyötä kansainvälisten kumppanien kanssa ja jatkamalla samalla kriittistä ja etiikkapohjaista vuoropuhelua sellaisten kolmansien maiden kanssa, joilla on vaihtoehtoisia malleja tekoälyn sääntelyä, kehittämistä ja käyttöönottoa varten;

139. muistuttaa, että näihin teknologioihin liittyvillä mahdollisuuksilla ja riskeillä on maailmanlaajuinen ulottuvuus, sillä niissä käytettyjä ohjelmistoja ja dataa tuodaan usein unioniin tai viedään unionista, joten yhteistyöhön tarvitaan johdonmukainen lähestymistapa kansainvälisellä tasolla; kehottaa komissiota tekemään aloitteen sen arvioimiseksi, mitä kahden- ja monenvälisiä sopimuksia olisi mukautettava, jotta voidaan varmistaa johdonmukainen lähestymistapa ja tehdä eettisten periaatteiden noudattamisen eurooppalaista mallia tunnetuksi maailmanlaajuisesti;

140. korostaa edellä kuvatun unionin tason koordinoinnin lisäarvoa myös tässä mielessä;

141. kehottaa luomaan synergioita ja verkostoja eurooppalaisten tekoälytutkimuskeskusten ja muiden monenvälisten foorumien, kuten Euroopan neuvoston, YK:n kasvatus-, tiede- ja kulttuurijärjestön (Unesco), Taloudellisen yhteistyön ja kehityksen järjestön (OECD), Maailman kauppajärjestön (WTO) ja Kansainvälisen televiestintäliiton (ITU), välille, jotta voidaan sovittaa yhteen niiden toimet ja koordinoida paremmin tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä;

142. korostaa, että unionin on oltava eturintamassa tuettaessa CCW-sopimuksen hallitustenvälisessä asiantuntijaryhmässä ja muilla asiaankuuluvilla foorumeilla monenvälisiä pyrkimyksiä keskustella tehokkaasta kansainvälisestä sääntelykehyksestä, jolla varmistetaan ihmisen suorittama mielekäs valvonta autonomisten asejärjestelmien suhteen, kyseisten teknologioiden hallitsemiseksi ottamalla käyttöön hyvin määriteltyjä, vertailuarvoihin perustuvia prosesseja ja hyväksymällä lainsäädäntöä niiden eettistä käyttöä varten armeijan, teollisuuden, lainvalvonnan, tiedeyhteisön ja kansalaisyhteiskunnan sidosryhmiä kuullen, jotta ymmärretään asiaan liittyvät eettiset näkökohdat ja vähennetään tällaisiin teknologioihin liittyviä riskejä sekä estetään niiden käyttö pahantahtoisiin tarkoituksiin;

143. tunnustaa Naton roolin euroatlanttisen turvallisuuden edistämisessä ja kehottaa tekemään Naton puitteissa yhteistyötä puolustusalan tekoälyjärjestelmien yhteisten standardien laatimista ja yhteentoimivuutta varten; korostaa, että transatlanttiset suhteet ovat tärkeitä yhteisten arvojen säilyttämiseksi ja tulevien ja uusien uhkien torjumiseksi;

144. korostaa, että on tärkeää luoda sotilaskäyttöön sovitettujen tekoälyä hyödyntävien järjestelmien käytölle sotilasoperaatioissa eettiset käytännesäännöt, jotka vastaavat kemiallisten ja biologisten aseiden käyttöönoton kieltävää voimassa olevaa sääntelykehystä; katsoo, että komission olisi käynnistettävä tekoälyä hyödyntävien asejärjestelmien käyttöä sodankäynnissä koskevien normien laatiminen kansainvälisen humanitaarisen oikeuden mukaisesti ja että unionin olisi tavoiteltava tällaisten normien kansainvälistä hyväksymistä; katsoo, että unionin olisi harjoitettava tekoälydiplomatiaa kansainvälisillä foorumeilla samanmielisten kumppanien, kuten G7:n, G20:n ja OECD:n, kanssa;

Loppupäätelmät

145. toteaa edellä esitettyjen tekoälyn, robotiikan ja niihin liittyvän teknologian eettiseen ulottuvuuteen liittyviä näkökohtia koskevien pohdintojen perusteella, että oikeudellinen ja eettinen ulottuvuus olisi otettava huomioon toimivassa, tulevaisuuteen suuntautuvassa ja kattavassa unionin tason sääntelykehyksessä, jota tukevat kansalliset toimivaltaiset viranomaiset ja jota koordinoivat ja edistävät komissio ja/tai tätä varten mahdollisesti nimettävät asiaankuuluvat unionin toimielimet, elimet, toimistot ja virastot säännöllisenä tukenaan mahdollinen edellä mainittu asiantuntijakeskus, ja että tätä eettistä ulottuvuutta olisi kunnioitettava asiaankuuluvasti ja sen noudattamisesta olisi annettava todistus sisämarkkinoilla;

146. pyytää komissiota Euroopan unionin toiminnasta tehdyn sopimuksen 225 artiklassa määrättyä menettelyä noudattaen tekemään Euroopan unionin toiminnasta tehdyn sopimuksen 114 artiklan nojalla ehdotuksen asetukseksi tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevista eettisistä periaatteista liitteenä olevien yksityiskohtaisten suositusten mukaisesti; huomauttaa, että ehdotuksella ei saisi heikentää alakohtaista lainsäädäntöä vaan sillä olisi ainoastaan korjattava havaitut porsaanreiät;

147. suosittaa, että komissio kaikkia asianomaisia sidosryhmiä kuultuaan tarkastelee tarvittaessa tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan sovellettavaa voimassa olevaa unionin lainsäädäntöä, jotta voidaan vastata niiden nopeaan kehitykseen liitteessä olevien suositusten mukaisesti välttäen ylisääntelyä, myös pk-yritysten tapauksessa;

148. katsoo, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevan unionin sääntelykehyksen määräajoin tapahtuva arviointi ja tarvittaessa uudelleentarkastelu on olennaisen tärkeää sen varmistamiseksi, että sovellettava lainsäädäntö on teknologian nopean kehityksen tasalla;

149. katsoo, että pyydetyllä lainsäädäntöehdotuksella olisi rahoitusvaikutuksia, jos jollekin eurooppalaiselle elimelle annettaisiin edellä mainitut koordinointitehtävät, sillä silloin olisi varmistettava, että sille annetaan tarvittavat tekniset välineet ja henkilöresurssit sen uusien tehtävien hoitamiseksi;

150. kehottaa puhemiestä välittämään tämän päätöslauselman sekä liitteenä olevat yksityiskohtaiset suositukset komissiolle ja neuvostolle.

 

 


 

PÄÄTÖSLAUSELMAN LIITE: PYYDETYN EHDOTUKSEN SISÄLTÖÄ KOSKEVAT YKSITYISKOHTAISET SUOSITUKSET
A. EHDOTUKSEN PERIAATTEET JA TAVOITTEET

I. Ehdotuksen pääperiaatteet ja tavoitteet ovat seuraavat:

˗  rakentaa sidosryhmien ja yhteiskunnan kaikilla tasoilla luottamusta tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan erityisesti silloin, kun niitä pidetään suuririskisinä

˗  tukea tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä unionissa muun muassa auttamalla yrityksiä, myös startup-yrityksiä sekä pieniä ja keskisuuria yrityksiä, arvioimaan ja käsittelemään varmuudella nykyisiä ja tulevia sääntelyvaatimuksia ja riskejä innovointi- ja yrityskehitysprosessin aikana ja seuraavassa vaiheessa, jossa ammattilaiset ja yksityishenkilöt käyttävät niitä, siten, että minimoidaan hallinnollinen ja muu rasitus

˗  tukea tekoälyn, robotiikan ja niihin liittyvän teknologian käyttöönottoa unionissa tarjoamalla asianmukainen ja oikeasuhteinen sääntelykehys, jonka soveltaminen ei saisi vaikuttaa voimassa olevaan tai tulevaan alakohtaiseen lainsäädäntöön ja jonka tarkoituksena on kannustaa sääntelyvarmuuteen ja innovointiin samalla, kun taataan perusoikeudet ja kuluttajansuoja

˗  tukea tekoälyn, robotiikan ja niihin liittyvän teknologian käyttöä unionissa varmistamalla, että niitä kehitetään, ne otetaan käyttöön ja niitä käytetään eettisten periaatteiden mukaisesti

˗  edellyttää läpinäkyvyyttä ja parempaa tiedonkulkua kansalaisten keskuudessa sekä tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa kehittävissä, käyttöön ottavissa tai käyttävissä organisaatioissa, jotta voidaan varmistaa, että nämä teknologiat ovat unionin oikeuden, perusoikeuksien ja -arvojen sekä pyydetyn asetusehdotuksen eettisten periaatteiden mukaisia.

II. Ehdotus koostuu seuraavista osista:

˗  ”asetus tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevista eettisistä periaatteista”, komission ja/tai tätä varten mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen koordinointitehtävä unionin tasolla sekä eettisten periaatteiden noudattamista koskeva eurooppalainen sertifiointi

˗  komission tukitehtävä

˗  kunkin jäsenvaltion valvontaviranomaisen tehtävä varmistaa, että tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan sovelletaan eettisiä periaatteita

 

˗  asiaankuuluvien tutkimus- ja kehittämishankkeiden sekä asianomaisten sidosryhmien, muun muassa startup-yritysten, pienten ja keskisuurten yritysten ja muiden yritysten, työmarkkinaosapuolten ja muiden kansalaisyhteiskunnan edustajien, osallistaminen ja kuuleminen sekä niiden tukeminen

˗  liite, jossa esitetään suuririskisiä aloja ja käyttötarkoituksia koskeva tyhjentävä ja kumulatiivinen luettelo

III. Asetus tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevista eettisistä periaatteista perustuu seuraaviin periaatteisiin:

˗  ihmiskeskeinen, ihmisen luoma ja ihmisen valvonnassa oleva tekoäly, robotiikka ja niihin liittyvä teknologia

˗  suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian pakollinen vaatimustenmukaisuuden arviointi

˗  turvallisuus, läpinäkyvyys ja vastuuvelvollisuus

˗  suojatoimet ja oikeussuojakeinot puolueellisuutta ja syrjintää vastaan

˗  oikeus hyvitykseen

˗  tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan liittyvä yhteiskuntavastuu ja sukupuolten tasa-arvo

˗  tekoälyn, robotiikan ja niihin liittyvän teknologian ympäristökestävyys

˗  yksityisyyden kunnioittaminen ja biometrisen tunnistuksen käyttöä koskevat rajoitukset

˗  tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan, myös tällaisen teknologian käyttämään tai tuottamaan dataan, liittyvä hyvä hallinto.

IV. Unionin tason koordinoinnin toteuttamiseksi komission ja/tai tätä varten mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen olisi hoidettava seuraavat päätehtävät:

˗  tehdä yhteistyötä, joka liittyy pyydetyn asetusehdotuksen ja asiaa koskevan alakohtaisen unionin lainsäädännön täytäntöönpanon seurantaan

˗  tehdä yhteistyötä, joka liittyy ohjeistuksen antamiseen pyydetyn asetusehdotuksen johdonmukaisesta soveltamisesta eli suuririskisenä pidettävän tekoälyn, robotiikan ja niihin liittyvän teknologian kriteerien sekä asetuksen liitteenä olevan suuririskisten alojen ja käyttötarkoitusten luettelon soveltamisesta

˗  tehdä yhteistyötä kunkin jäsenvaltion valvontaviranomaisen kanssa kehitettäessä pyydetyssä asetusehdotuksessa ja asiaa koskevassa unionin lainsäädännössä säädettyjen eettisten periaatteiden ja oikeudellisten velvoitteiden noudattamista koskeva eurooppalainen todistus sekä hakuprosessi niitä kehittäjiä, käyttöönottajia ja käyttäjiä varten, jotka haluavat saada todistuksen siitä, että teknologia, jota ei pidetä suuririskisenä, on pyydetyn asetusehdotuksen mukainen

˗  tehdä yhteistyötä toimialojen ja maiden rajat ylittävän yhteistyön tukemiseksi käymällä asianomaisten sidosryhmien ja kansalaisyhteiskunnan kanssa EU:ssa ja maailmassa, erityisesti yritysten, työmarkkinaosapuolten, tutkijoiden ja toimivaltaisten viranomaisten kanssa, säännöllistä näkemystenvaihtoa, joka liittyy muun muassa teknisten standardien kehittämiseen kansainvälisellä tasolla

˗  tehdä yhteistyötä kunkin jäsenvaltion valvontaviranomaisen kanssa laadittaessa sitovia ohjeita menetelmistä, joita kunkin valvontaviranomaisen on määrä noudattaa vaatimustenmukaisuuden arvioinnissa

˗  tehdä yhteistyötä, joka liittyy yhteydenpitoon kunkin jäsenvaltion valvontaviranomaisen kanssa ja niiden toimeksiannon ja tehtävien koordinointiin

˗  tehdä yhteistyötä, joka liittyy tietoisuuden lisäämiseen sekä tietojen antamiseen ja näkemystenvaihtoon kehittäjien, käyttöönottajien ja käyttäjien kanssa kaikkialla unionissa

˗  tehdä yhteistyötä, joka liittyy tietoisuuden lisäämiseen, tietojen antamiseen, digitaalisen lukutaidon, koulutuksen ja osaamisen edistämiseen sekä näkemystenvaihtoon suunnittelijoiden, kehittäjien, käyttöönottajien, kansalaisten, käyttäjien ja institutionaalisten elinten kanssa kaikkialla unionissa ja kansainvälisesti

˗  tehdä yhteistyötä koordinoitaessa tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevaa yhteistä hallintokehystä, joka kunkin jäsenvaltion valvontaviranomaisen on määrä panna täytäntöön

˗  tehdä asiantuntijakeskuksena toimimiseen liittyvää yhteistyötä edistämällä tietojenvaihtoa ja tukemalla yhteisymmärryksen kehittymistä sisämarkkinoilla

˗  tehdä turvallisuutta ja puolustusta käsittelevän työryhmän isännöimiseen liittyvää yhteistyötä.

V. Lisäksi komission olisi hoidettava seuraavat tehtävät:

˗  laatia ja pitää ajan tasalla yhteinen luettelo unionissa yksilöidyistä suuririskisistä teknologioista delegoiduilla säädöksillä yhteistyössä kunkin jäsenvaltion valvontaviranomaisen kanssa

˗  saattaa asetuksen liitteenä oleva luettelo ajan tasalle delegoiduilla säädöksillä.

VI. Kunkin jäsenvaltion valvontaviranomaisen olisi hoidettava seuraavat päätehtävät:

˗  edistää pyydetyssä asetusehdotuksessa vahvistetun sääntelykehyksen johdonmukaista soveltamista yhteistyössä muiden jäsenvaltioiden valvontaviranomaisten sekä muiden alakohtaisen lainsäädännön täytäntöönpanosta vastaavien viranomaisten, komission ja/tai tätä varten mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen kanssa pyydetyssä asetusehdotuksessa säädettyjen riskinarviointikriteerien sekä sen liitteessä vahvistetun suuririskisten alojen ja käyttötarkoitusten luettelon soveltamisen osalta sekä vaadittujen ja asianmukaisten toimenpiteiden täytäntöönpanon valvonnan osalta, kun soveltamisen tuloksena yksilöidään suuririskisiä teknologioita

˗  arvioida, onko unionissa kehitettyä, käyttöön otettua ja käytettyä tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisen teknologian käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, pidettävä suuririskisinä teknologioina pyydetyssä asetusehdotuksessa ja sen liitteenä olevassa luettelossa säädettyjen riskinarviointikriteerien mukaisesti

˗  antaa eurooppalainen todistus pyydetyssä asetusehdotuksessa ja asiaa koskevassa unionin lainsäädännössä säädettyjen eettisten periaatteiden ja oikeudellisten velvoitteiden noudattamisesta ja antaa tällainen todistus komission ja/tai tätä varten mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen kehittämän hakuprosessin tuloksena myös kehittäjälle, käyttöönottajalle tai käyttäjälle, joka haluaa saada todistuksen siitä, että teknologia, jota ei pidetä suuririskisenä, on pyydetyn asetusehdotuksen mukainen

˗  arvioida ja seurata, noudatetaanko pyydetyssä asetusehdotuksessa ja asiaa koskevassa unionin lainsäädännössä vahvistettuja eettisiä periaatteita ja oikeudellisia velvoitteita

˗  vastata tekoälyn, robotiikan ja niihin liittyvän teknologian hallintostandardien laatimisesta ja täytäntöönpanosta muun muassa pitämällä yhteyttä kaikkiin asiaankuuluviin sidosryhmiin ja kansalaisyhteiskunnan edustajiin ja pitämällä yllä säännöllistä vuoropuhelua näiden kanssa; tehdä tätä varten yhteistyötä komission ja tätä varten mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen kanssa koordinoitaessa yhteistä kehystä unionin tasolla

˗  lisätä tietoisuutta, tarjota yleisölle tietoa tekoälystä, robotiikasta ja niihin liittyvästä teknologiasta sekä tukea asiaankuuluvien ammattiryhmien koulutusta, myös oikeuslaitoksessa, ja antaa siten kansalaisille ja työntekijöille mahdollisuus hankkia oikeudenmukaisen siirtymän edellyttämät digitaalinen lukutaito, taidot ja välineet

˗  toimia ensimmäisenä yhteyspisteenä tapauksissa, joissa epäillään, että pyydetyssä asetusehdotuksessa vahvistettuja oikeudellisia velvoitteita ja eettisiä periaatteita on rikottu, ja suorittaa tällaisissa tapauksissa vaatimustenmukaisuuden arviointi; vaatimustenmukaisuuden arvioinnin yhteydessä se voi kuulla unionissa muita toimivaltaisia viranomaisia, erityisesti kuluttajansuoja-asioiden yhteistyöverkostoa, kansallisia kuluttajansuojaelimiä, kansalaisyhteiskunnan järjestöjä ja työmarkkinaosapuolia, ja/tai tiedottaa niille.

VII. Sidosryhmien keskeisenä tehtävänä olisi oltava yhteydenpito komission ja/tai tätä varten mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen sekä kunkin jäsenvaltion valvontaviranomaisen kanssa.


 

B. PYYDETYN LAINSÄÄDÄNTÖEHDOTUKSEN TEKSTI

Ehdotus

EUROOPAN PARLAMENTIN JA NEUVOSTON ASETUS

tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevista eettisistä periaatteista

ottavat huomioon Euroopan unionin toiminnasta tehdyn sopimuksen ja erityisesti sen 114 artiklan,

ottavat huomioon Euroopan komission ehdotuksen,

sen jälkeen kun esitys lainsäätämisjärjestyksessä hyväksyttäväksi säädökseksi on toimitettu kansallisille parlamenteille,

ottavat huomioon Euroopan talous- ja sosiaalikomitean lausunnon,

noudattavat tavallista lainsäätämisjärjestystä,

sekä katsovat seuraavaa:

(1) Tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisen teknologian käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittämisen, käyttöönoton ja käytön olisi perustuttava haluun palvella yhteiskuntaa. Näihin teknologioihin voi liittyä mahdollisuuksia ja riskejä, joiden käsittelyä ja sääntelyä varten olisi vahvistettava eettisiä periaatteita ilmentävä kattava unionin tason sääntelykehys, jota olisi noudatettava teknologian kehittämisestä ja käyttöönotosta aina sen käyttöön asti.

(2) Tällaista sääntelykehystä, joka koskee tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisen teknologian käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittämistä, käyttöönottoa ja käyttöä unionissa, olisi noudatettava samantasoisesti kaikissa jäsenvaltioissa, jotta näiden teknologioiden tarjoamat mahdollisuudet voidaan hyödyntää tehokkaasti ja niihin liittyviin riskeihin voidaan puuttua johdonmukaisesti ja jotta voidaan välttää sääntelyn hajanaisuutta. Olisi varmistettava, että tässä asetuksessa vahvistettuja sääntöjä sovelletaan yhdenmukaisesti kaikkialla unionissa.

(3) Asiassa eri puolilla unionia noudatettavien sääntöjen ja käytäntöjen nykyinen moninaisuus uhkaa johtaa hajanaisuuteen sisämarkkinoilla ja on merkittävä riski yhtä lailla yksilöiden kuin yhteiskunnan hyvinvoinnin ja vaurauden suojelun kannalta sekä sen kannalta, että voidaan hyödyntää johdonmukaisesti kaikkia tekoälyn, robotiikan ja niihin liittyvän teknologian tarjoamia mahdollisuuksia innovoinnin edistämiseen sekä hyvinvoinnin ja vaurauden säilyttämiseen. Erot siinä, missä määrin kehittäjät, käyttöönottajat ja käyttäjät ottavat huomioon näihin teknologioihin erottamattomasti liittyvän eettisen ulottuvuuden, voivat estää niiden vapaan kehittämisen, käyttöönoton tai käytön unionissa sekä muodostaa esteen tasapuolisille toimintaedellytyksille ja teknologisen edistyksen tavoittelulle ja taloudellisen toiminnan harjoittamiselle unionin tasolla, vääristää kilpailua ja estää viranomaisia täyttämästä unionin oikeuden mukaisia velvoitteitaan. Lisäksi se, että tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiseltä, käyttöönotolta ja käytöltä puuttuu eettisiä periaatteita ilmentävä yhteinen sääntelykehys, aiheuttaa oikeudellista epävarmuutta kaikille osapuolille eli kehittäjille, käyttöönottajille ja käyttäjille.

(4) Tällä asetuksella olisi edistettävä johdonmukaista lähestymistapaa unionin tasolla, mutta siinä olisi kuitenkin annettava tämän lähestymistavan asettamissa rajoissa jäsenvaltioille harkintavalta täytäntöönpanossa muun muassa sen suhteen, miten niiden kansallisen valvontaviranomaisen on määrä hoitaa toimeksiantonsa ottaen huomioon sille tässä asetuksessa asetettu tavoite.

(5) Tämä asetus ei rajoita voimassa olevan tai tulevan alakohtaisen lainsäädännön soveltamista. Sen olisi oltava tavoitteeseensa nähden oikeasuhteinen, jotta se ei aiheettomasti haittaa innovointia unionissa, ja sen olisi oltava riskiperusteisen lähestymistavan mukainen.

(6) Tällaisen kehyksen maantieteellisen soveltamisalan olisi katettava kaikki tekoälyn, robotiikan ja niihin liittyvän teknologian osa-alueet unionissa tapahtuvan kehittämisen, käyttöönoton ja käytön kaikissa vaiheissa, myös tapauksissa, joissa osa teknologiasta saattaa sijaita unionin ulkopuolella tai sillä ei ole tiettyä tai yhtä sijaintipaikkaa, kuten pilvipalvelujen tapauksessa.

(7) Jotta sääntely olisi yhtenäistä ja luotaisiin näin oikeusvarmuutta yhtä lailla kansalaisille kuin yrityksille, unionissa olisi vallittava yhteisymmärrys sellaisista käsitteistä kuin tekoäly, robotiikka, niihin liittyvä teknologia ja biometrinen tunnistus. Niiden olisi oltava teknologianeutraaleja, ja niitä olisi tarvittaessa tarkasteltava uudelleen.

(8) Lisäksi on tarpeen ottaa huomioon se, että on olemassa tekoälyyn ja robotiikkaan liittyviä teknologioita, joissa ohjelmistolle on annettu eriasteinen autonomia ohjata fyysisiä tai virtuaalisia prosesseja[13]. Esimerkiksi kansainvälisessä standardissa SAE J3016 on ehdotettu kuutta automaation tasoa ajoneuvojen automatisoituun ajoon.

(9) Tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisen teknologian käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittämisellä, käyttöönotolla ja käytöllä olisi täydennettävä ihmisen kykyjä eikä korvattava niitä, ja sen yhteydessä olisi varmistettava, että toiminta ei ole kansalaisten edun vastaista ja siinä noudatetaan unionin oikeutta, Euroopan unionin perusoikeuskirjassa, jäljempänä ’perusoikeuskirja’, vahvistettuja perusoikeuksia, Euroopan unionin tuomioistuimen vakiintunutta oikeuskäytäntöä sekä muita unionissa sovellettavia eurooppalaisia ja kansainvälisiä välineitä.

(10) Ihmisen olisi aina voitava tarkastaa, arvioida ja valvoa tekoälyn, robotiikan ja niihin liittyvän teknologian tekemiä tai niiden pohjalta tehtyjä päätöksiä ja puuttua niihin mielekkäällä tavalla. Näiden teknologioiden tekninen ja toiminnallinen monimutkaisuus ei koskaan saisi estää niiden käyttöönottajaa tai käyttäjää vähintäänkin käynnistämästä vikaturvallista pysäytysmekanismia, muuttamasta tai pysäyttämästä niiden toimintaa tai palaamasta käyttämään aiempaa tilaa turvallisten toimintojen palauttamiseksi siinä tapauksessa, että unionin oikeuden ja tässä asetuksessa vahvistettujen eettisten periaatteiden ja oikeudellisten velvoitteiden noudattaminen on vaarassa.

(11) Tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, joiden kehittämiseen, käyttöönottoon ja käyttöön liittyy merkittävä riski vahingon tai haitan aiheuttamisesta yksittäisille ihmisille tai yhteiskunnalle, jolloin rikotaan unionin oikeudessa vahvistettuja perusoikeuksia ja turvallisuussääntöjä, olisi pidettävä suuririskisinä teknologioina. Tätä arvioitaessa olisi otettava huomioon, millä alalla niitä kehitetään, ne otetaan käyttöön tai niitä käytetään, mikä on niiden erityinen käyttötarkoitus ja miten vakava odotettavissa oleva vahinko tai haitta on. Vakavuusaste olisi määritettävä mahdollisen vahingon tai haitan laajuuden, vaikutusten kohteena olevien henkilöiden lukumäärän, aiheutetun vahingon kokonaisarvon ja koko yhteiskunnalle aiheutuvan haitan perusteella. Vakavia vahingon ja haitan muotoja ovat esimerkiksi lasten, kuluttajien tai työntekijöiden oikeuksien loukkaukset, joiden laajuus, kohteena olevien lasten, kuluttajien tai työntekijöiden lukumäärä tai vaikutus koko yhteiskuntaan on sellainen, että se aiheuttaa merkittävän riskin unionin oikeudessa vahvistettujen perusoikeuksien ja turvallisuussääntöjen rikkomisesta. Tässä asetuksessa olisi esitettävä suuririskisiä aloja ja käyttötarkoituksia koskeva tyhjentävä ja kumulatiivinen luettelo.

(12) Tässä asetuksessa säädettyjä velvoitteita, erityisesti suuririskisiä teknologioita koskevia velvoitteita, olisi sovellettava ainoastaan unionissa kehitettyyn, käyttöön otettuun tai käytettyyn tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan, myös tällaisen teknologian käyttämiin tai tuottamiin ohjelmistoihin, algoritmeihin ja dataan, joita pidetään tässä asetuksessa säädetyn riskinarvioinnin perusteella suuririskisinä. Tällaisia velvoitteita olisi noudatettava rajoittamatta yleistä velvoitetta, jonka mukaan kaikkea tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisen teknologian käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, olisi kehitettävä, ne olisi otettava käyttöön ja niitä olisi käytettävä unionissa ihmiskeskeisellä tavalla ja noudattaen yksilön autonomian ja ihmisten turvallisuuden periaatteita unionin oikeuden mukaisesti ja kunnioittaen kaikilta osin perusoikeuksia, kuten ihmisarvoa, oikeutta vapauteen ja turvallisuuteen sekä oikeutta henkilökohtaiseen koskemattomuuteen.

(13) Suuririskisten teknologioiden olisi noudatettava turvallisuuden, läpinäkyvyyden, vastuuvelvollisuuden, puolueettomuuden tai syrjimättömyyden, yhteiskuntavastuun ja sukupuolten tasa-arvon, hyvitysoikeuden, ympäristökestävyyden, yksityisyyden ja hyvän hallinnon periaatteita, ja kansallisen valvontaviranomaisen olisi tehtävä niistä ennakolta puolueeton ja objektiivinen ulkopuolinen riskinarviointi tässä asetuksessa ja sen liitteenä olevassa luettelossa säädettyjen kriteerien mukaisesti. Arvioinnissa olisi otettava huomioon kehittäjän tai käyttöönottajan näkemykset ja mahdollinen itsearviointi.

(14) Komission ja/tai tähän tarkoitukseen mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen olisi laadittava kehittäjille, käyttöönottajille ja käyttäjille ei-sitovat täytäntöönpano-ohjeet tämän asetuksen noudattamista koskevista menetelmistä. Niiden olisi ohjeita laatiessaan kuultava asiaankuuluvia sidosryhmiä.

(15) Unionissa olisi toimittava johdonmukaisesti näiden teknologioiden riskinarvioinnissa varsinkin silloin, kun niitä arvioidaan paitsi tämän asetuksen perusteella myös sovellettavan alakohtaisen lainsäädännön mukaisesti. Näin ollen kansallisten valvontaviranomaisten olisi ilmoitettava muille viranomaisille, jotka suorittavat riskinarviointeja alakohtaisen lainsäädännön mukaisesti, kun nämä teknologiat arvioidaan suuririskisiksi tässä asetuksessa säädetyn riskinarvioinnin perusteella.

(16) Jotta suuririskinen tekoäly, robotiikka ja niihin liittyvä teknologia, myös tällaisen teknologian käyttämät tai tuottamat ohjelmistot, algoritmit ja data, olisivat luotettavia, niitä olisi kehitettävä, ne olisi otettava käyttöön ja niitä olisi käytettävä turvallisella ja läpinäkyvällä tavalla ja vastuuvelvollisuutta noudattaen toimintavarmuutta, häiriönsietokykyä, turvallisuutta, tarkkuutta ja virheiden tunnistamista, selitettävyyttä, tulkittavuutta, tarkastettavuutta, avoimuutta ja tunnistettavuutta koskevien turvallisuusvaatimusten mukaisesti sekä siten, että on mahdollista poistaa kyseiset toiminnot tilapäisesti käytöstä tai palata käyttämään aiempaa tilaa turvallisten toimintojen palauttamiseksi, jos kyseisiä vaatimuksia ei noudateta. Läpinäkyvyys olisi varmistettava antamalla viranomaisille pääsy näiden teknologioiden perustana oleviin teknologiaan, dataan ja laskentajärjestelmiin silloin, kun se on ehdottoman välttämätöntä.

(17) Tekoälyn, robotiikan ja niihin liittyvän teknologian, erityisesti suuririskisten teknologioiden, kehittäjät, käyttöönottajat ja käyttäjät ovat vastuussa turvallisuutta, läpinäkyvyyttä ja vastuuvelvollisuutta koskevien periaatteiden noudattamisesta eriasteisesti siinä määrin kuin nämä osallistuvat kyseisten teknologioiden, myös niiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittämiseen, käyttöönottoon tai käyttöön. Kehittäjien olisi varmistettava, että teknologia suunnitellaan ja rakennetaan tässä asetuksessa vahvistettujen turvallisuusvaatimusten mukaisesti, kun taas käyttöönottajien ja käyttäjien olisi teknologiaa käyttöön ottaessaan ja käyttäessään noudatettava täysin näitä vaatimuksia. Tämän vuoksi suuririskisten teknologioiden kehittäjien olisi arvioitava ja ennakoitava kehittämänsä teknologian väärinkäyttöön liittyviä kohtuudella odotettavissa olevia riskejä. Kehittäjien täytyy myös varmistaa, että näiden kehittämissä järjestelmissä ilmoitetaan mahdollisuuksien mukaan ja asianmukaisin keinoin, esimerkiksi vastuuvapauslausekkeilla, virheiden tai epätarkkuuksien todennäköisyys.

(18) Kehittäjien ja käyttöönottajien olisi asetettava käyttäjien saataville kaikki kyseisen teknologian myöhemmät päivitykset, erityisesti ohjelmistopäivitykset, sopimuksessa taikka unionin oikeudessa tai kansallisessa lainsäädännössä edellytetyllä tavalla. Lisäksi jos riskinarviointi sitä edellyttää, kehittäjien ja käyttöönottajien olisi toimitettava viranomaisille kyseisen teknologian käyttöä koskeva asiaankuuluva dokumentaatio ja siihen liittyvät turvallisuusohjeet, mukaan lukien lähdekoodi, kehitystyökalut ja järjestelmän käyttämä data, silloin, kun se on ehdottoman välttämätöntä, ja edellyttäen, että noudatetaan kaikilta osin tietosuojaa, yksityisyyttä, teollis- ja tekijänoikeuksia ja liikesalaisuuksia koskevaa unionin lainsäädäntöä.

(19) Yksityishenkilöillä on oikeus odottaa, että heidän käyttämänsä teknologia toimii kohtuullisesti ja heidän luottamustaan kunnioitetaan. Kansalaisten luottamus tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan, myös tällaisten teknologioiden käyttämiin tai tuottamiin ohjelmistoihin, algoritmeihin ja dataan, on riippuvainen teknisten prosessien ymmärtämisestä ja käsittämisestä. Teknisten prosessien selitettävyyden asteen olisi oltava riippuvainen näiden prosessien kontekstista ja virheellisen tai epätarkan tuotoksen aiheuttamien seurausten vakavuudesta, ja sen olisi oltava riittävä niiden riitauttamiseksi ja hyvityksen hakemiseksi. Näiden teknologioiden mahdolliseen vaikeatajuisuuteen olisi puututtava tarkastettavuuden, jäljitettävyyden ja läpinäkyvyyden avulla.

(20) Yhteiskunnan luottamus tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan, myös tällaisten teknologioiden käyttämiin tai tuottamiin ohjelmistoihin, algoritmeihin ja dataan, on riippuvainen siitä, missä määrin teknologiaa on mahdollista arvioida, tarkastaa ja jäljittää. Kehittäjien olisi varmistettava, että teknologia suunnitellaan ja rakennetaan siten, että mahdollistetaan arviointi, tarkastus ja jäljitettävyys, jos näiden osallistumisen laajuus tätä edellyttää. Siinä määrin kuin se on teknisesti mahdollista, kehittäjien, käyttöönottajien ja käyttäjien olisi varmistettava, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa käyttöön otettaessa ja käytettäessä noudatetaan kaikilta osin läpinäkyvyysvaatimuksia ja mahdollistetaan tarkastus ja jäljitettävyys.

(21) Jotta voidaan varmistaa läpinäkyvyys ja vastuuvelvollisuus, kansalaisten olisi saatava tietää, kun järjestelmä käyttää tekoälyä, kun tekoälyjärjestelmät personoivat tuotetta tai palvelua sen käyttäjille, voivatko he poistaa personoinnin käytöstä tai rajoittaa sitä ja kun käytetään automatisoidun päätöksenteon teknologiaa. Läpinäkyvyystoimenpiteiden lisäksi olisi, siinä määrin kuin se on teknisesti mahdollista, kerrottava selkeästi ja ymmärrettävästi käytetystä datasta sekä algoritmista, sen tarkoituksesta, sen tuloksista ja sen mahdollisista vaaroista.

(22) Ohjelmistojen, algoritmien ja datan puolueellisuus ja syrjivyys on laitonta, ja niihin olisi puututtava sääntelemällä prosesseja, joita noudatetaan niitä suunniteltaessa ja käyttöön otettaessa. Puolueellisuus voi johtua automatisoidun järjestelmän antamien tietojen pohjalta tehdyistä tai sen tekemistä päätöksistä sekä datajoukoista, joihin tällainen päätöksenteko perustuu tai joiden avulla järjestelmää on koulutettu.

(23) Tekoälyn, robotiikan ja niihin liittyvän teknologian käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa olisi pidettävä puolueellisina esimerkiksi silloin, kun ne eivät tuota optimaalisia tuloksia suhteessa henkilöön tai henkilöryhmään ennakkoasenteisiin perustuvan henkilökäsityksen tai sosiaalisen käsityksen ja henkilön tai henkilöryhmän ominaisuuksiin liittyvien tietojen myöhemmän käsittelyn vuoksi.

(24) Unionin oikeuden mukaisesti tekoälyn, robotiikan ja niihin liittyvän teknologian käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa olisi pidettävä syrjivinä, jos ne tuottavat tuloksia, joilla on suhteettoman kielteisiä vaikutuksia, ja johtavat henkilön tai henkilöryhmän erilaiseen kohteluun muun muassa asettamalla tämän muihin verrattuna epäedulliseen asemaan esimerkiksi henkilökohtaisten ominaisuuksien perusteella ilman objektiivista tai kohtuullista perustetta ja huolimatta mahdollisista väitteistä, joiden mukaan teknologia on neutraalia.

(25) Unionin oikeuden mukaisesti oikeutettuja tavoitteita, joilla voitaisiin tämän asetuksen nojalla objektiivisesti perustella henkilöiden tai henkilöryhmien erilliskohtelu, ovat yleisen järjestyksen ja turvallisuuden ja kansanterveyden suojelu, rikosten ehkäiseminen, perusoikeuksien ja -vapauksien suojelu, tasapuolinen edustus ja ammatinharjoittamista koskevat objektiiviset vaatimukset.

(26) Tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, olisi myötävaikutettava kestävään edistykseen. Nämä teknologiat eivät saisi olla ristiriidassa ympäristön suojelemista tai vihreää siirtymää koskevan tavoitteen kanssa. Niillä voisi olla merkittävä rooli Yhdistyneiden kansakuntien asettamien kestävän kehityksen tavoitteiden saavuttamisessa, jotta tulevat sukupolvet voivat kukoistaa. Näillä teknologioilla voidaan tukea riittävän edistymisen seurantaa kestävyyttä ja sosiaalista yhteenkuuluvuutta koskevien indikaattoreiden perusteella ja käyttämällä vastuullisia tutkimus- ja innovointivälineitä, jotka edellyttävät unionin ja sen jäsenvaltioiden resurssien käyttöönottoa, jotta voidaan tukea näihin tavoitteisiin tähtääviä hankkeita ja investoida niihin.

(27) Tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittäminen, käyttöönotto ja käyttö eivät saisi tarkoituksellisesti aiheuttaa minkäänlaista vahinkoa tai haittaa yksittäisille ihmisille tai yhteiskunnalle eikä sitä saisi tietoisesti hyväksyä. Siksi varsinkin suuririskisiä teknologioita olisi kehitettävä, ne olisi otettava käyttöön ja niitä olisi käytettävä yhteiskuntavastuullisella tavalla.

(28) Kehittäjiä, käyttöönottajia ja käyttäjiä olisi näin ollen pidettävä vastuullisina yksilöille ja yhteiskunnalle aiheutuneesta vahingosta tai haitasta, siinä määrin kuin nämä osallistuvat tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiseen, käyttöönottoon ja käyttöön, unionin ja kansallisten korvausvastuuta koskevien sääntöjen mukaisesti.

(29) Erityisesti kehittäjien, jotka tekevät päätöksiä, joilla määrätään tekoälyn, robotiikan ja niihin liittyvän teknologian kehityssuunta tai -tapa tai ohjataan sitä, sekä käyttöönottajien, jotka osallistuvat valvonta- tai johtotehtävissä niiden käyttöönottoon tekemällä käyttöönottoa koskevia päätöksiä sekä vastaamalla niihin liittyvien riskien valvonnasta tai hyötymällä käyttöönotosta, olisi yleisesti katsottava olevan vastuussa tällaisen vahingon tai haitan välttämisestä ottamalla käyttöön asianmukaiset toimenpiteet kehittämisprosessin aikana ja noudattamalla näitä toimenpiteitä tinkimättä käyttöönottovaiheen aikana.

(30) Yhteiskuntavastuullinen tekoäly, robotiikka ja niihin liittyvä teknologia, myös tällaisten teknologioiden käyttämät tai tuottamat ohjelmistot, algoritmit ja data, voidaan määritellä teknologiaksi, jonka avulla voidaan löytää ratkaisuja, joilla turvataan ja edistetään erilaisia tavoitteita, jotka koskevat yhteiskuntaa, varsinkin demokratiaa, terveyttä ja taloudellista vaurautta, yhtäläisiä mahdollisuuksia, työntekijöiden oikeuksia ja sosiaalisia oikeuksia, monimuotoisia ja riippumattomia tiedotusvälineitä sekä objektiivista ja vapaasti saatavilla olevaa tietoa, mikä mahdollistaa julkisen keskustelun, laadukkaan koulutuksen, kulttuurisen ja kielellisen monimuotoisuuden, sukupuolten välisen tasapainon, digitaalisen lukutaidon, innovoinnin ja luovuuden. Sosiaalisesti vastuullista teknologiaa kehitettäessä, käyttöön otettaessa ja käytettäessä myös otetaan asianmukaisesti huomioon sen perimmäinen vaikutus kansalaisten fyysiseen ja henkiseen hyvinvointiin, eikä se edistä vihapuhetta tai väkivaltaa. Erityisesti suuririskisten teknologioiden avulla olisi saavutettava nämä tavoitteet.

(31) Tekoälyä, robotiikkaa ja siihen liittyvää teknologiaa kehitettäessä, käyttöön otettaessa ja käytettäessä olisi myös toimittava siten, että tuetaan sosiaalista osallisuutta, demokratiaa, moniarvoisuutta, yhteisvastuuta, oikeudenmukaisuutta, tasa-arvoa ja yhteistyötä, ja niiden mahdollisuudet tähän olisi maksimoitava ja niitä olisi tutkittava tutkimus- ja innovointihankkeiden avulla. Unionin ja sen jäsenvaltioiden olisi sen vuoksi otettava käyttöön viestintä- ja hallintoresurssejaan sekä taloudellisia resurssejaan tällaisten hankkeiden tukemiseksi ja niihin investoimiseksi.

(32) Hankkeet, jotka liittyvät tekoälyn, robotiikan ja niihin liittyvän teknologian mahdollisuuksiin käsitellä sosiaalisen hyvinvoinnin kysymystä, olisi toteutettava vastuullisten tutkimus- ja innovointivälineiden pohjalta, jotta voidaan taata alusta alkaen, että hankkeissa noudatetaan eettisiä periaatteita.

(33) Tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittämisessä, käyttöönotossa ja käytössä olisi otettava huomioon niiden ympäristöjalanjälki. Sovellettavassa unionin oikeudessa vahvistettujen velvoitteiden mukaisesti tällaiset teknologiat eivät saisi aiheuttaa haittaa ympäristölle elinkaarensa aikana ja koko toimitusketjussa ja niitä olisi kehitettävä, ne olisi otettava käyttöön ja niitä olisi käytettävä siten, että suojellaan ympäristöä, lievennetään ja korjataan niiden ympäristöjalanjälkeä, edistetään vihreää siirtymää ja tuetaan ilmastoneutraaliutta ja kiertotaloutta koskevien tavoitteiden saavuttamista.

(34) Tätä asetusta sovellettaessa kehittäjiä, käyttöönottajia ja käyttäjiä olisi pidettävä vastuullisina ympäristölle aiheutuneista haitoista sovellettavien ympäristövastuuta koskevien sääntöjen mukaisesti, siinä määrin kuin nämä osallistuvat suuririskisenä pidettävän tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiseen, käyttöönottoon ja käyttöön.

(35) Näitä teknologioita kehitettäessä, käyttöön otettaessa ja käytettäessä olisi myös toimittava siten, että tuetaan sovellettavassa unionin oikeudessa vahvistettujen velvoitteiden mukaisten ympäristötavoitteiden saavuttamista, esimerkiksi jätteiden syntymisen vähentämistä, hiilijalanjäljen pienentämistä, ilmastonmuutoksen torjuntaa ja ympäristön suojelemista, ja niiden mahdollisuudet tähän olisi maksimoitava ja niitä olisi tutkittava tutkimus- ja innovointihankkeiden avulla. Unionin ja jäsenvaltioiden olisi sen vuoksi otettava käyttöön viestintä- ja hallintoresurssejaan sekä taloudellisia resurssejaan tällaisten hankkeiden tukemiseksi ja niihin investoimiseksi.

(36) Hankkeet, jotka liittyvät tekoälyn, robotiikan ja niihin liittyvän teknologian mahdollisuuksiin käsitellä ympäristöön liittyviä huolenaiheita, olisi toteutettava vastuullisten tutkimus- ja innovointivälineiden pohjalta, jotta voidaan taata alusta alkaen, että hankkeissa noudatetaan eettisiä periaatteita.

(37) Kaikessa unionissa kehitetyssä, käyttöön otetussa ja käytetyssä tekoälyssä, robotiikassa ja niihin liittyvässä teknologiassa, myös tällaisten teknologioiden käyttämissä tai tuottamissa ohjelmistoissa, algoritmeissa ja datassa, olisi kunnioitettava kaikilta osin unionin kansalaisten oikeutta yksityisyyteen ja henkilötietojen suojaan. Niiden kehittämisen, käyttöönoton ja käytön olisi erityisesti oltava Euroopan parlamentin ja neuvoston asetuksen (EU) 2016/679[14] ja Euroopan parlamentin ja neuvoston direktiivin 2002/58/EY[15] mukaista.

(38) Tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, käytön eettiset rajat olisi otettava asianmukaisesti huomioon etenkin käytettäessä henkilöiden automaattiseen tunnistamiseen etätunnistusteknologioita, kuten biometristen ominaisuuksien, erityisesti kasvojen, tunnistamista. Kun viranomaiset käyttävät näitä teknologioita tärkeää yleistä etua koskevasta syystä eli henkilöiden turvallisuuden takaamiseksi ja kansallisiin hätätilanteisiin puuttumiseksi eivätkä kiinteistöjen turvallisuuden takaamiseksi, käytöstä olisi aina ilmoitettava ja sen olisi oltava oikeasuhteista, kohdennettua ja tiettyihin tavoitteisiin rajattua sekä ajallisesti rajoitettua unionin oikeuden mukaisesti ja ottaen asianmukaisesti huomioon ihmisarvo ja yksilön autonomia sekä perusoikeuskirjassa vahvistetut perusoikeudet. Tällaisen käytön kriteereihin ja rajoituksiin olisi sovellettava laillisuusvalvontaa, ja ne edellyttävät demokraattista valvontaa ja keskustelua, johon myös kansalaisyhteiskunta osallistuu.

(39) Asiaankuuluviin vaatimuksiin ja normeihin perustuva hallinto parantaa turvallisuutta ja lisää kansalaisten luottamusta tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehittämiseen, käyttöönottoon ja käyttöön.

(40) Viranomaisten olisi tehtävä perusoikeuksia koskeva vaikutustenarviointi ennen sellaisten suuririskisten teknologioiden käyttöönottoa, joilla tuetaan julkisella sektorilla tehtäviä päätöksiä ja joilla on suora ja merkittävä vaikutus kansalaisten oikeuksiin ja velvollisuuksiin.

(41) Asiaankuuluvia olemassa olevia hallintostandardeja ovat esimerkiksi komission perustaman tekoälyä käsittelevän korkean tason asiantuntijaryhmän laatima asiakirja ”Luotettavaa tekoälyä koskevat eettiset ohjeet” ja muut tekniset standardit, joita esimerkiksi Euroopan standardointikomitea (CEN), Euroopan sähkötekniikan standardointikomitea (CENELEC) ja Euroopan telealan standardointilaitos (ETSI) ovat hyväksyneet Euroopan tasolla ja Kansainvälinen standardisoimisjärjestö (ISO) ja kansainvälinen sähkö- ja elektroniikkainsinöörien järjestö (IEEE) kansainvälisellä tasolla.

(42) Datan jakaminen ja käyttö usean osallistujan kesken on arkaluonteista toimintaa, minkä vuoksi tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiseen, käyttöönottoon ja käyttöön olisi sovellettava asiaankuuluvia sääntöjä, vaatimuksia, normeja ja protokollia, joissa otetaan huomioon laatua, eheyttä, turvallisuutta, luotettavuutta, yksityisyyttä ja valvontaa koskevat vaatimukset. Datahallintostrategiassa olisi keskityttävä tällaisen datan käsittelyyn, jakamiseen ja saatavuuteen, mukaan lukien sen asianmukainen hallinta, tarkastettavuus ja jäljitettävyys, ja taattava haavoittuville ryhmille, kuten vammaisille henkilöille, potilaille, lapsille, vähemmistöille ja maahanmuuttajille, tai muille syrjäytymisvaarassa oleville ryhmille kuuluvan datan riittävä suoja. Lisäksi kehittäjien, käyttöönottajien ja käyttäjien olisi tarvittaessa voitava käyttää keskeisiä suorituskykyindikaattoreita käyttämiensä datajoukkojen arvioinnissa kehittämiensä, käyttöön ottamiensa ja käyttämiensä teknologioiden luotettavuuden parantamiseksi.

(43) Jäsenvaltioiden olisi nimitettävä riippumaton hallintoviranomainen toimimaan valvontaviranomaisena. Kunkin kansallisen valvontaviranomaisen olisi erityisesti vastattava suuririskisenä pidettävän tekoälyn, robotiikan ja niihin liittyvän teknologian yksilöimisestä tässä asetuksessa säädettyjen riskinarviointikriteerien perusteella sekä sen arvioinnista ja seurannasta, noudattavatko nämä teknologiat tässä asetuksessa säädettyjä velvoitteita.

(44) Kunkin kansallisen valvontaviranomaisen olisi myös vastattava näiden teknologioiden hyvästä hallinnosta komission ja/tai tähän tarkoitukseen mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen tai virastojen koordinoimana. Niillä on näin ollen tärkeä rooli unionin kansalaisten luottamuksen ja turvallisuuden edistämisessä sekä demokraattisen, moniarvoisen ja tasa-arvoisen yhteiskunnan mahdollistamisessa.

(45) Arvioidessaan teknologioita, jotka ovat tämän asetuksen mukaisesti suuririskisiä, ja seuratessaan, noudattavatko ne tämän asetuksen vaatimuksia, kansallisten valvontaviranomaisten olisi tarvittaessa tehtävä yhteistyötä niiden viranomaisten kanssa, jotka vastaavat näiden teknologioiden arvioinnista ja seurannasta ja alakohtaisen lainsäädännön noudattamisen valvonnasta.

(46) Kansallisten valvontaviranomaisten olisi tehtävä laajaa ja säännöllistä yhteistyötä keskenään sekä komission ja muiden asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen kanssa, jotta voidaan taata johdonmukaiset rajatylittävät toimet ja mahdollistaa näiden teknologioiden johdonmukainen kehittäminen, käyttöönotto ja käyttö unionissa tässä asetuksessa säädettyjen eettisten periaatteiden ja oikeudellisten velvoitteiden mukaisesti.

(47) Tällaisen yhteistyön puitteissa ja täyden yhdenmukaistamisen saavuttamiseksi unionin tasolla kansallisten valvontaviranomaisten olisi avustettava komissiota yhteisen ja tyhjentävän luettelon laatimisessa suuririskisestä tekoälystä, robotiikasta ja niihin liittyvästä teknologiasta tässä asetuksessa ja sen liitteessä säädettyjen kriteerien mukaisesti. Lisäksi olisi kehitettävä myöntämisprosessi, jota noudatetaan annettaessa eettisten periaatteiden noudattamista koskeva eurooppalainen todistus ja johon sisältyy vapaaehtoinen hakuprosessi kehittäjälle, käyttöönottajalle tai käyttäjälle, joka haluaa saada todistuksen siitä, että teknologia, jota ei pidetä suuririskisenä, on tämän asetuksen mukainen.

(48) Kansallisten valvontaviranomaisten olisi varmistettava, että voidaan koota yhteen mahdollisimman monta sidosryhmää, kuten teollisuus, yritykset, työmarkkinaosapuolet, tutkijat, kuluttajat ja kansalaisyhteiskunnan järjestöt, ja tarjota moniarvoinen foorumi pohdintoja ja näkemystenvaihtoa varten niin, että voidaan tehdä ymmärrettäviä ja tarkkoja päätelmiä, joiden perusteella voidaan antaa ohjeistusta siitä, miten hallintoa säännellään.

(49) Kansallisten valvontaviranomaisten olisi varmistettava, että voidaan koota yhteen mahdollisimman monta sidosryhmää, kuten teollisuus, yritykset, työmarkkinaosapuolet, tutkijat, kuluttajat ja kansalaisyhteiskunnan järjestöt, ja tarjota moniarvoinen foorumi pohdintoja ja näkemystenvaihtoa varten, jotta helpotetaan yhteistyötä erityisesti tiede- ja tutkimusyhteisöä, teollisuutta ja kansalaisyhteiskuntaa edustavien sidosryhmien ja yksittäisten asiantuntijoiden kanssa ja näiden välillä niin, että voidaan tehdä ymmärrettäviä ja tarkkoja päätelmiä, joiden perusteella voidaan antaa ohjeistusta siitä, miten hallintoa säännellään.

(50) Lisäksi näiden kansallisten valvontaviranomaisten olisi tarjottava ammatillista hallinnollista ohjeistusta ja tukea kehittäjille, käyttöönottajille ja käyttäjille, erityisesti pienille ja keskisuurille yrityksille tai startup-yrityksille, jotka kohtaavat haasteita tässä asetuksessa säädettyjen eettisten periaatteiden ja oikeudellisten velvoitteiden noudattamisessa.

(51) Komission ja/tai tähän tarkoitukseen mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen olisi laadittava sitovat ohjeet menetelmistä, joita kansallisten valvontaviranomaisten on määrä käyttää suorittaessaan vaatimustenmukaisuuden arviointia.

(52) Väärinkäytösten paljastaminen saattaa unionin oikeuden mahdolliset ja tosiasialliset rikkomiset viranomaisten tietoon, jotta voidaan estää muutoin tapahtuvat haitat tai vahingot. Lisäksi ilmoitusmenettelyt parantavat tiedonkulkua yritysten ja organisaatioiden sisällä ja vähentävät siten riskiä siitä, että kehitetään vikoja tai virheitä sisältäviä tuotteita tai palveluja. Yritysten ja organisaatioiden, jotka kehittävät, ottavat käyttöön tai käyttävät tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisten teknologioiden käyttämää tai tuottamaa dataa, olisi perustettava ilmoituskanavia, ja rikkomuksista ilmoittavia henkilöitä olisi suojeltava vastatoimilta.

(53) Tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, nopea kehitys on ennakoimatonta, ja sama koskee myös teknistä koneoppimista, päättelyprosesseja ja muuta teknologiaa, johon tämä kehitys pohjautuu. Sen vuoksi on aiheellista ja tarpeellista perustaa uudelleentarkastelumekanismi, jonka mukaisesti komissio antaa tämän asetuksen soveltamista koskevan kertomuksen lisäksi säännöllisesti kertomuksen tämän asetuksen soveltamisalan mahdollisesta muuttamisesta.

(54) Jäsenvaltiot eivät voi riittävällä tavalla saavuttaa tämän asetuksen tavoitetta eli vahvistaa tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä unionissa koskevien eettisten periaatteiden ja oikeudellisten velvoitteiden yhteistä sääntelykehystä, vaan se voidaan sen laajuuden ja vaikutusten vuoksi saavuttaa paremmin unionin tasolla. Sen vuoksi unioni voi toteuttaa toimenpiteitä Euroopan unionista tehdyn sopimuksen 5 artiklassa vahvistetun toissijaisuusperiaatteen mukaisesti. Mainitussa artiklassa vahvistetun suhteellisuusperiaatteen mukaisesti tässä asetuksessa ei ylitetä sitä, mikä on tarpeen tämän tavoitteen saavuttamiseksi.

(55) Jotta vältetään hajanaisuus ja varmistetaan tämän asetuksen johdonmukainen soveltaminen, tässä asetuksessa säädetty unionin tason koordinointi olisi parasta antaa komission ja/tai tätä varten mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen tehtäväksi. Komission tehtäväksi olisi siksi annettava löytää asianmukainen ratkaisu tällaisen koordinoinnin järjestämiseen unionin tasolla, jotta voidaan koordinoida eri jäsenvaltioiden kansallisten valvontaviranomaisten toimeksiantoja ja toimia suoritettaessa tekoälyn, robotiikan ja niihin liittyvän teknologian riskinarviointia, vahvistettaessa näiden teknologioiden kehittämistä, käyttöönottoa ja käyttöä koskeva yhteinen hallintokehys, kehitettäessä tässä asetuksessa säädettyjen eettisten periaatteiden ja oikeudellisten velvoitteiden noudattamisen sertifiointia ja myönnettäessä sitä koskevia todistuksia, tuettaessa säännöllistä näkemystenvaihtoa asianomaisten sidosryhmien ja kansalaisyhteiskunnan kanssa sekä perustettaessa asiantuntijakeskus, jossa on mukana tiede- ja tutkimusyhteisö, teollisuus ja yksittäisiä asiantuntijoita unionin tasolla, jotta voidaan edistää tietämyksen ja teknisen asiantuntemuksen vaihtoa, sekä edistettäessä unionin lähestymistapaa kansainvälisen yhteistyön avulla ja varmistettaessa, että näihin teknologioihin liittyviin mahdollisuuksiin ja riskeihin vastataan maailmanlaajuisesti johdonmukaisella tavalla,

 


OVAT HYVÄKSYNEET TÄMÄN ASETUKSEN:

 

I luku

Yleiset säännökset

1 artikla

Kohde

 

Tämän asetuksen tarkoituksena on vahvistaa kattava ja tulevaisuudenkestävä eettisiä periaatteita ja oikeudellisia velvoitteita koskeva unionin sääntelykehys tekoälyn, robotiikan ja niihin liittyvän teknologian unionissa tapahtuvaa kehittämistä, käyttöönottoa ja käyttöä varten.

2 artikla

Soveltamisala

 

Tätä asetusta sovelletaan unionissa kehitettyyn, käyttöön otettuun tai käytettyyn tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan, myös tällaisten teknologioiden käyttämiin tai tuottamiin ohjelmistoihin, algoritmeihin ja dataan.

3 artikla

Maantieteellinen soveltamisala

Jos mikä tahansa tekoälyn osa kehitetään tai otetaan käyttöön tai sitä käytetään unionissa, myös silloin, kun tällaisten teknologioiden käyttämät tai tuottamat ohjelmistot, algoritmit tai data sijaitsevat unionin ulkopuolella tai niillä ei ole tiettyä maantieteellistä sijaintipaikkaa, siihen sovelletaan tätä asetusta.

4 artikla

Määritelmät

Tässä asetuksessa tarkoitetaan:

a) ’tekoälyllä’ joko ohjelmistopohjaista tai laitteisiin upotettua järjestelmää, joka pyrkii älykästä käyttäytymistä ilmentäen saavuttamaan asetettuja tavoitteita muun muassa keräämällä, käsittelemällä, analysoimalla ja tulkitsemalla tietoa ympäristöstään ja toimimalla tietyssä määrin autonomisesti[16];

b) ’autonomisuudella’ sitä, että tekoälyjärjestelmä toimii tulkiten tiettyjä syötteitä ja muun muassa muttei yksinomaan soveltaen ennalta määrättyjä ohjeita samalla kun sen käyttäytymistä säätelevät sille asetettu tavoite, jonka saavuttamiseen kyseinen käyttäytyminen tähtää, ja muut sen kehittäjän tekemät suunnitteluun liittyvät valinnat;

c) ’robotiikalla’ automaattisesti ohjattavia, uudelleenohjelmoitavia ja monikäyttöisiä koneita[17], jotka suorittavat fyysisessä maailmassa ihmisen perinteisesti suorittamia tai alulle panemia tehtäviä muun muassa tekoälyn tai siihen liittyvän teknologian avulla;

d) ’niihin liittyvällä teknologialla’ teknologiaa, jonka avulla ohjelmisto voi ohjata osittain tai täysin autonomisesti fyysistä tai virtuaalista prosessia, teknologiaa, joka kykenee havaitsemaan biometristä, geneettistä tai muuta dataa, sekä teknologiaa, joka jäljittelee ihmisen ominaisuuksia tai muutoin hyödyntää niitä;

e) ’suurella riskillä’ tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiseen, käyttöönottoon ja käyttöön liittyvää merkittävää riskiä vahingon tai haitan aiheuttamisesta yksittäisille ihmisille tai yhteiskunnalle unionin oikeudessa vahvistettujen perusoikeuksien ja turvallisuussääntöjen vastaisesti, kun otetaan huomioon niiden erityinen käyttötarkoitus, ala, jolla niitä kehitetään, otetaan käyttöön tai käytetään, sekä odotettavissa olevan vahingon tai haitan vakavuus;

f) ’kehittämisellä’ algoritmien rakentamista ja suunnittelua, ohjelmistojen kirjoittamista ja suunnittelua tai datan keräämistä, tallentamista ja hallintaa tekoälyn, robotiikan ja niihin liittyvän teknologian luomiseksi tai kouluttamiseksi taikka uuden sovelluksen luomiseksi olemassa olevaa tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa varten;

g) ’kehittäjällä’ luonnollista henkilöä tai oikeushenkilöä, joka tekee päätöksiä, joilla määrätään tekoälyn, robotiikan ja niihin liittyvän teknologian kehityssuunta tai -tapa tai ohjataan sitä;

h) ’käyttöönotolla’ tekoälyn, robotiikan ja niihin liittyvän teknologian käyttöä ja hallintaa sekä niiden markkinoille saattamista tai asettamista muulla tavoin käyttäjien saataville;

i) ’käyttöönottajalla’ luonnollista henkilöä tai oikeushenkilöä, joka osallistuu tekoälyn, robotiikan ja niihin liittyvän teknologian konkreettiseen käyttöönottoon valvonta- tai johtotehtävässä tekemällä päätöksiä, valvomalla riskejä ja hyötymällä käyttöönotosta;

j) ’käytöllä’ muuta tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan liittyvää toimea kuin kehittämistä tai käyttöönottoa;

k) ’käyttäjällä’ luonnollista henkilöä tai oikeushenkilöä, joka käyttää tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa muihin tarkoituksiin kuin kehittämiseen tai käyttöönottoon;

l) ’puolueellisuudella’ henkilöstä tai henkilöryhmästä tämän henkilökohtaisten ominaisuuksien perusteella muodostettua ennakkoasenteisiin perustuvaa henkilökäsitystä tai sosiaalista käsitystä;

m) ’syrjinnällä’ henkilön tai henkilöryhmän erilliskohtelua, joka perustuu seikkaan, jolle ei ole objektiivista tai kohtuullista perustetta, ja joka sen vuoksi kielletään unionin oikeudessa;

n) ’vahingolla tai haitalla’ muun muassa vihapuheen, puolueellisuuden, syrjinnän tai leimaamisen aiheuttamaa fyysistä tai psyykkistä vammaa, aineellista tai aineetonta vahinkoa, kuten taloudellisia menetyksiä, työpaikan tai koulutusmahdollisuuden menettämistä, aiheetonta valinnanvapauden tai sananvapauden rajoittamista tai yksityisyyden menetystä, ja mitä tahansa unionin oikeuden rikkomista, joka vaikuttaa haitallisesti johonkin henkilöön;

o) ’hyvällä hallinnolla’ tapaa, jolla varmistetaan, että kehittäjät, käyttöönottajat ja käyttäjät ottavat käyttöön ja noudattavat virallisiin sääntöihin, menettelyihin ja arvoihin perustuvia asianmukaisia ja kohtuullisia vaatimuksia, normeja ja käyttäytymisprotokollia, ja jonka avulla nämä voivat käsitellä eettisiä kysymyksiä asianmukaisesti sitä mukaa tai ennen kuin niitä ilmenee.

5 artikla

Tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevat eettiset periaatteet

1. Kehitettäessä, otettaessa käyttöön ja käytettäessä unionissa tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, on noudatettava unionin oikeutta sekä kunnioitettava kaikilta osin ihmisarvoa, yksilön autonomiaa ja ihmisten turvallisuutta ja muita perusoikeuskirjassa vahvistettuja perusoikeuksia.

2. Tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiseen, käyttöönottoon ja käyttöön liittyvässä henkilötietojen, myös muista kuin henkilötiedoista sekä biometrisistä tiedoista saatujen henkilötietojen, käsittelyssä on noudatettava asetusta (EU) 2016/679 ja direktiiviä 2002/58/EY.

3. Unioni ja sen jäsenvaltiot kannustavat tutkimushankkeita, joiden tarkoituksena on tarjota tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan perustuvia ratkaisuja, joilla pyritään edistämään sosiaalista osallisuutta, demokratiaa, moniarvoisuutta, yhteisvastuuta, oikeudenmukaisuutta, tasa-arvoa ja yhteistyötä.

II luku

Suuririskisiin teknologioihin liittyvät velvoitteet

6 artikla

Suuririskisiin teknologioihin liittyvät velvoitteet

1. Tämän luvun säännöksiä sovelletaan ainoastaan unionissa kehitettyyn, käyttöön otettuun tai käytettyyn tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan, myös tällaisten teknologioiden käyttämiin tai tuottamiin ohjelmistoihin, algoritmeihin ja dataan, joita pidetään suuririskisinä.

 

2. Suuririskistä tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, on kehitettävä, ne on otettava käyttöön ja niitä on käytettävä tavalla, jolla varmistetaan, että ne eivät riko tässä asetuksessa vahvistettuja eettisiä periaatteita.

7 artikla

Ihmiskeskeinen ja ihmisen luoma tekoäly

1. Suuririskisiä teknologioita, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, on kehitettävä, ne on otettava käyttöön ja niitä on käytettävä tavalla, joka takaa ihmisen suorittaman täydellisen valvonnan kaikkina aikoina.

2. Edellä 1 kohdassa tarkoitettuja teknologioita on kehitettävä, ne on otettava käyttöön ja niitä on käytettävä tavalla, joka mahdollistaa teknologian saamisen takaisin tarvittaessa ihmisen valvontaan muun muassa muuttamalla sitä tai pysäyttämällä se.

 

8 artikla

Turvallisuus, läpinäkyvyys ja vastuuvelvollisuus

1. Suuririskistä tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, on kehitettävä, ne on otettava käyttöön ja niitä on käytettävä tavalla, jolla varmistetaan, että

 a) niitä kehitetään, ne otetaan käyttöön ja niitä käytetään häiriönsietokykyisellä tavalla siten, että varmistetaan riittävä turvallisuustaso noudattamalla kyberturvallisuuden vähimmäisperustasoja, jotka ovat oikeasuhteisia havaittuun riskiin nähden, ja estetään teknisten haavoittuvuuksien hyväksikäyttö vihamielisiin tai laittomiin tarkoituksiin;

b) niitä kehitetään, ne otetaan käyttöön ja niitä käytetään turvallisella tavalla, jolla varmistetaan, että käytössä on suojatoimia, joihin sisältyy varasuunnitelma ja toimet siltä varalta, että on olemassa turvallisuusriski;

c) niitä kehitetään, ne otetaan käyttöön ja niitä käytetään tavalla, jolla varmistetaan käyttäjän kohtuullisten odotusten mukainen luotettava toiminta siten, että ne saavuttavat tavoitteet ja suorittavat toiminnot, joita varten ne on suunniteltu, muun muassa varmistamalla, että kaikki operaatiot ovat toistettavissa;

d) niitä kehitetään, ne otetaan käyttöön ja niitä käytetään tavalla, jolla varmistetaan, että tietyn teknologian tavoitteet ja toiminnot toteutuvat tarkasti; jos satunnaisia epätarkkuuksia ei voida välttää, järjestelmän on mahdollisuuksien mukaan ilmoitettava käyttöönottajille ja käyttäjille asianmukaisella tavalla virheiden ja epätarkkuuksien todennäköisyydestä;

e) niitä kehitetään, ne otetaan käyttöön ja niitä käytetään helposti selitettävissä olevalla tavalla sen varmistamiseksi, että teknologian teknisiä prosesseja voidaan tarkastella;

f) niitä kehitetään, ne otetaan käyttöön ja niitä käytetään siten, että ne ilmoittavat käyttäjille siitä, että he ovat vuorovaikutuksessa tekoälyjärjestelmien kanssa, ja paljastavat asianmukaisesti ja tyhjentävästi kykynsä, tarkkuutensa ja rajoituksensa tekoälyn kehittäjille, käyttöönottajille ja käyttäjille;

g) niitä kehitetään, ne otetaan käyttöön ja niitä käytetään 6 artiklan mukaisesti siten, että jos teknologia ei noudata a–g alakohdassa vahvistettuja turvallisuusvaatimuksia, on mahdollista poistaa kyseiset toiminnot tilapäisesti käytöstä ja palata käyttämään aiempaa tilaa turvallisten toimintojen palauttamiseksi. 

2. Edellä 1 kohdassa mainittuja teknologioita, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, on 6 artiklan 1 kohdan mukaisesti kehitettävä, ne on otettava käyttöön ja niitä on käytettävä avoimella ja jäljitettävissä olevalla tavalla siten, että niiden osatekijät, prosessit ja vaiheet dokumentoidaan tiukimpien mahdollisten sovellettavien vaatimusten ja 14 artiklassa tarkoitettujen kansallisten valvontaviranomaisten on mahdollista arvioida, onko teknologia tässä asetuksessa asetettujen velvoitteiden mukaista. Erityisesti näiden teknologioiden kehittäjän, käyttöönottajan tai käyttäjän on vastattava 1 kohdassa vahvistettujen turvallisuusvaatimusten noudattamisesta ja pystyttävä osoittamaan niiden noudattaminen.

3. Edellä 1 kohdassa mainittujen teknologioiden kehittäjän, käyttöönottajan tai käyttäjän on varmistettava, että 14 artiklassa tarkoitetut kansalliset valvontaviranomaiset tai tarvittaessa muut kansalliset tai eurooppalaiset alakohtaiset valvontaviranomaiset voivat tarkastaa toimenpiteet, jotka on toteutettu 1 kohdassa asetettujen turvallisuusvaatimusten noudattamisen varmistamiseksi.

9 artikla

Puolueettomuus ja syrjimättömyys

 

1. Unionissa kehitetyn, käyttöön otetun tai käytetyn suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian käyttämien tai tuottamien ohjelmistojen, algoritmien tai datan on oltava puolueettomia, eivätkä ne saa syrjiä rodun, sukupuolen, seksuaalisen suuntautumisen, raskauden, vammaisuuden, fyysisten tai geneettisten ominaisuuksien, iän, kansalliseen vähemmistöön kuulumisen, etnisen tai sosiaalisen alkuperän, kielen, uskonnon tai vakaumuksen, poliittisten näkemysten tai kansalaisvaikuttamisen, kansalaisuuden, siviilisäädyn, taloudellisen aseman, koulutuksen, rikosrekisterin tai muun sellaisen seikan perusteella, sanotun kuitenkaan rajoittamatta 3 kohdan soveltamista.

 

2. Poiketen siitä, mitä 1 ja 2 kohdassa säädetään, henkilöiden tai henkilöryhmien erilliskohtelu voi olla perusteltua ainoastaan, jos sillä on objektiivinen, kohtuullinen ja oikeutettu tavoite, joka on sekä oikeasuhteinen että välttämätön sikäli kuin ei ole olemassa vaihtoehtoja, jotka vaikuttaisivat vähäisemmässä määrin yhdenvertaisen kohtelun periaatteeseen, sanotun kuitenkaan rajoittamatta laitonta syrjintää koskevan unionin lainsäädännön soveltamista.

10 artikla

Sosiaalinen vastuu ja sukupuolten tasa-arvo

Unionissa kehitettyä, käyttöön otettua ja käytettyä suuririskistä tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, on kehitettävä, ne on otettava käyttöön ja niitä on käytettävä asiaa koskevan unionin oikeuden, periaatteiden ja arvojen mukaisesti tavalla, jolla ei puututa vaaleihin tai myötävaikuteta disinformaation levittämiseen, jolla kunnioitetaan työntekijöiden oikeuksia sekä edistetään laadukasta koulutusta ja digitaalista lukutaitoa, jolla ei pahenneta sukupuolten välistä kuilua estämällä yhtäläisten mahdollisuuksien tarjoaminen kaikille ja joka ei ole teollis- ja tekijänoikeuksien ja niiden mahdollisten rajoitusten tai poikkeusten vastainen.

11 artikla

Ympäristökestävyys

Jäljempänä 14 artiklassa tarkoitettujen kansallisten valvontaviranomaisten tai tarvittaessa muiden kansallisten tai Euroopan alakohtaisten valvontaviranomaisten on arvioitava suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, ympäristökestävyys ja varmistettava, että otetaan käyttöön toimenpiteitä niiden luonnonvaroihin, energiankulutukseen, jätteiden syntymiseen, hiilijalanjälkeen, ilmastohätätilaan ja ympäristön tilan heikkenemiseen liittyvän yleisen vaikutuksen lieventämiseksi ja korjaamiseksi, jotta varmistetaan sovellettavan unionin oikeuden tai kansallisen lainsäädännön sekä unionin muiden kansainvälisten ympäristösitoumusten noudattaminen.

12 artikla

Yksityisyyden kunnioittaminen ja henkilötietojen suoja

Biometristen tietojen käyttö ja kerääminen biometriseen tunnistukseen tai kasvontunnistukseen perustuvaan etätunnistukseen julkisilla alueilla aiheuttaa erityisiä riskejä perusoikeuksille, ja tällainen käyttöönotto tai käyttö sallitaan ainoastaan jäsenvaltioiden viranomaisille tärkeään yleiseen etuun liittyvissä tarkoituksissa. Näiden viranomaisten on varmistettava, että tällaisesta käyttöönotosta tai käytöstä ilmoitetaan yleisölle ja se on oikeasuhteista, kohdennettua ja tiettyihin tavoitteisiin ja tiettyyn paikkaan rajattua sekä ajallisesti rajoitettua unionin ja kansallisen lainsäädännön, erityisesti asetuksen (EU) 2016/679 ja direktiivin 2002/58/EY, mukaisesti ja siinä otetaan asianmukaisesti huomioon ihmisarvo ja yksilön autonomia sekä perusoikeuskirjassa vahvistetut perusoikeudet, erityisesti oikeus yksityisyyteen ja henkilötietojen suojaan.

 

13 artikla

Oikeus hyvitykseen

 Jokaisella luonnollisella henkilöllä tai oikeushenkilöllä on oikeus hakea hyvitystä vahingosta tai haitasta, joka on aiheutunut suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, unionin oikeuden ja tässä asetuksessa asetettujen velvoitteiden vastaisesta kehittämisestä, käyttöönotosta ja käytöstä.

14 artikla

Riskinarviointi

1. Tätä asetusta sovellettaessa tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, pidetään suuririskisinä teknologioina, kun objektiivisiin kriteereihin, kuten niiden erityiseen käyttötarkoitukseen, alaan, jolla niitä kehitetään, ne otetaan käyttöön tai niitä käytetään, sekä mahdollisesti aiheutettavan vahingon tai haitan vakavuuteen, perustuvan riskinarvioinnin mukaan niiden kehittämiseen, käyttöönottoon tai käyttöön liittyy merkittävä riski siitä, että niiden voidaan odottaa aiheuttavan vahinkoa tai haittaa yksittäisille ihmisille tai yhteiskunnalle unionin oikeudessa vahvistettujen perusoikeuksien ja turvallisuussääntöjen vastaisesti.

2. Rajoittamatta sovellettavan alakohtaisen lainsäädännön soveltamista 14 artiklassa tarkoitettujen kansallisten valvontaviranomaisten on suoritettava tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, riskinarviointi tämän artiklan 1 kohdassa ja tämän asetuksen liitteenä olevassa tyhjentävässä ja kumulatiivisessa luettelossa säädettyjen objektiivisten kriteerien mukaisesti komission ja/tai muiden tähän tarkoitukseen mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen koordinoidessa niiden yhteistyötä.

3. Komissio laatii yhteisen luettelon unionissa yksilöidyistä suuririskisistä teknologioista ja pitää sitä ajan tasalla delegoiduilla säädöksillä 15 a artiklan mukaisesti yhteistyössä 2 kohdassa tarkoitettujen kansallisten valvontaviranomaisten kanssa.

4. Komissio myös saattaa tämän asetuksen liitteenä olevan luettelon säännöllisesti ajan tasalle delegoiduilla säädöksillä 15 a artiklan mukaisesti.

15 artikla

Vaatimustenmukaisuuden arviointi

1. Suuririskisestä tekoälystä, robotiikasta ja niihin liittyvästä teknologiasta on tehtävä tämän asetuksen 6–12 artiklassa asetettujen velvoitteiden noudattamista koskeva arviointi ja niitä on myöhemmin seurattava, ja 17 artiklassa tarkoitettujen kansallisten valvontaviranomaisten on toteutettava arviointi ja seuranta komission ja/tai muiden tähän tarkoitukseen mahdollisesti nimettävien unionin toimielinten, elinten, toimistojen ja virastojen koordinoimina.

 

2. Sellaisten suuririskisten teknologioiden, joiden on 1 kohdan mukaisesti arvioitu noudattavan tässä asetuksessa asetettuja velvoitteita, käyttämät tai tuottamat ohjelmistot, algoritmit ja data on myös katsottava kyseisten velvoitteiden mukaisiksi, jollei asiaankuuluva kansallinen valvontaviranomainen päätä suorittaa arviointia omasta aloitteestaan tai kehittäjän, käyttöönottajan tai käyttäjän pyynnöstä.

 

3. Komissio ja/tai tähän tarkoitukseen mahdollisesti erikseen nimettävät asiaankuuluvat unionin toimielimet, elimet, toimistot ja virastot laativat tämän asetuksen voimaantulopäivään mennessä sitovat ohjeet menetelmistä, joita kansallisten valvontaviranomaisten on määrä käyttää 1 kohdassa tarkoitetussa vaatimustenmukaisuuden arvioinnissa, sanotun kuitenkaan rajoittamatta alakohtaisen lainsäädännön soveltamista.

 

16 artikla

Eettisten periaatteiden noudattamista koskeva eurooppalainen todistus

1. Jos 7 a artiklan mukaisesti tehty suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, vaatimustenmukaisuuden arviointi on ollut myönteinen, asianomaisen kansallisen valvontaviranomaisen on annettava eettisten periaatteiden noudattamista koskeva eurooppalainen todistus.

 

2. Jos tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa, myös tällaisten teknologioiden käyttämiä tai tuottamia ohjelmistoja, algoritmeja ja dataa, ei pidetä suuririskisinä, jolloin niihin ei sovelleta 6–12 artiklassa säädettyjä velvoitteita eikä 13 artiklassa säädettyä riskinarviointia ja 14 artiklassa säädettyä vaatimustenmukaisuuden arviointia, näiden teknologioiden kehittäjä, käyttöönottaja tai käyttäjä voi myös pyytää antamaan todistuksen tässä asetuksessa säädettyjen velvoitteiden noudattamisesta teknologioille tai osalle niistä, jos kansalliset valvontaviranomaiset päättävät tämän olevan perusteltua kyseessä olevan teknologian luonteen vuoksi. Todistus voidaan myöntää ainoastaan, jos asiaankuuluva kansallinen valvontaviranomainen on suorittanut vaatimustenmukaisuuden arvioinnin ja kyseinen arviointi on myönteinen.

 

3. Komissio ja/tai tähän tarkoitukseen mahdollisesti nimettävät muut asiaankuuluvat unionin toimielimet, elimet, toimistot ja virastot kehittävät hakuprosessin 2 kohdassa tarkoitetun todistuksen myöntämistä varten.

 

III luku

Institutionaalinen valvonta

17 artikla

Hallintostandardit ja täytäntöönpano-ohjeet

1. Unionissa kehitetyn, käyttöön otetun tai käytetyn tekoälyn, robotiikan ja niihin liittyvän teknologian on noudatettava asiaankuuluvia hallintostandardeja, jotka 17 artiklassa tarkoitetut kansalliset valvontaviranomaiset ovat vahvistaneet unionin oikeuden, periaatteiden ja arvojen mukaisesti komission ja/tai tähän tarkoitukseen mahdollisesti nimettävien asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen koordinoimina ja asiaankuuluvia sidosryhmiä kuullen.

 

2. Edellä 1 kohdassa tarkoitettuihin standardeihin on sisällyttävä ei-sitovat täytäntöönpano-ohjeet kehittäjille, käyttöönottajille ja käyttäjille menetelmistä tämän asetuksen noudattamiseksi, ja ne on julkaistava tämän asetuksen voimaantulopäivään mennessä.

 

3. Kehittäjien, käyttöönottajien ja käyttäjien on noudatettava unionissa kehitetyn, käyttöön otetun tai käytetyn tekoälyn, robotiikan ja niihin liittyvän teknologian käyttämän tai tuottaman datan hallinnassa asiaankuuluvia kansallisia, unionin, muiden eurooppalaisten organisaatioiden ja kansainvälisiä sääntöjä ja standardeja sekä asiaankuuluvia teollisuus- ja toimintaprotokollia. Kehittäjien ja käyttöönottajien on erityisesti suoritettava mahdollisuuksien mukaan tekoälyn, robotiikan ja niihin liittyvän teknologian käyttämien ulkoisten datalähteiden laaduntarkastuksia ja otettava käyttöön tällaisen datan keräämistä, säilyttämistä, käsittelyä ja käyttöä koskevia valvontamekanismeja.

 

3. Unionissa kehitetyn, käyttöön otetun tai käytetyn tekoälyn, robotiikan ja niihin liittyvän teknologian käyttämän tai tuottaman datan keräämisessä, säilyttämisessä, käsittelyssä ja jakamisessa sekä siihen pääsyssä on noudatettava asiaankuuluvia kansallisia, unionin, muiden eurooppalaisten organisaatioiden ja kansainvälisiä sääntöjä ja standardeja sekä asiaankuuluvia teollisuus- ja toimintaprotokollia, sanotun kuitenkaan rajoittamatta siirrettävyysoikeuksia ja niiden henkilöiden oikeuksia, joiden tekoälyn, robotiikan ja siihen liittyvän teknologian käyttö on tuottanut dataa. Kehittäjien ja käyttöönottajien on erityisesti varmistettava, että kyseisiä protokollia sovelletaan tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisen ja käyttöönoton aikana, määrittelemällä selkeästi vaatimukset, jotka koskevat näiden teknologioiden käyttämän tai tuottaman datan käsittelyä ja pääsyn antamista siihen, sekä tällaisen datan käsittelyn ja siihen pääsyn antamisen tarkoitus, laajuus ja vastaanottajat siten, että näiden kaikkien on aina oltava tarkastettavissa ja jäljitettävissä.

 

18 artikla

Valvontaviranomaiset

1. Kunkin jäsenvaltion on nimettävä riippumaton viranomainen, joka vastaa tämän asetuksen soveltamisen seurannasta, jäljempänä ’valvontaviranomainen’, sekä 13, 14 ja 15 artiklassa säädetyn riskinarvioinnin, vaatimustenmukaisuuden arvioinnin ja sertifioinnin suorittamisesta, sanotun kuitenkaan rajoittamatta alakohtaisen lainsäädännön soveltamista.

 

2. Kunkin kansallisen valvontaviranomaisen on myötävaikutettava tämän asetuksen johdonmukaiseen soveltamiseen kaikkialla unionissa. Eri jäsenvaltioiden valvontaviranomaisten on tätä varten tehtävä yhteistyötä keskenään sekä komission ja/tai tähän tarkoitukseen mahdollisesti nimettävien muiden asiaankuuluvien unionin toimielinten, elinten, toimistojen ja virastojen kanssa.

 

3. Kunkin kansallisen valvontaviranomaisen on toimittava ensimmäisenä yhteyspisteenä tapauksissa, joissa epäillään, että tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisen, käyttöönoton tai käytön tuloksena on rikottu tässä asetuksessa säädettyjä eettisiä periaatteita ja oikeudellisia velvoitteita, mukaan lukien syrjivä kohtelu tai muiden oikeuksien loukkaaminen. Tällaisissa tapauksissa asianomaisen kansallisen valvontaviranomaisen on suoritettava vaatimustenmukaisuuden arviointi, jotta voidaan tukea kansalaisten riitautus- ja hyvitysoikeutta.

 

4. Kunkin kansallisen valvontaviranomaisen vastuulla on valvoa 13 artiklassa tarkoitettujen asiaankuuluvien kansallisten, unionin ja kansainvälisten hallintosääntöjen ja -standardien soveltamista tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan muun muassa pitämällä yhteyttä mahdollisimman moneen asiaankuuluvaan sidosryhmään. Tätä varten kunkin jäsenvaltion valvontaviranomaisen on tarjottava foorumi säännölliselle näkemystenvaihdolle tiede- ja tutkimusyhteisön, teollisuuden ja kansalaisyhteiskunnan sidosryhmien kanssa ja niiden kesken.

 

5. Kunkin kansallisen valvontaviranomaisen on annettava tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan sovellettavan unionin lainsäädännön ja tässä asetuksessa vahvistettujen eettisten periaatteiden yleistä täytäntöönpanoa koskevaa ammatillista ja hallinnollista ohjeistusta ja tukea etenkin asiaankuuluville tutkimus- ja kehittämisorganisaatioille sekä pienille ja keskisuurille yrityksille tai startup-yrityksille.

 

6. Kunkin jäsenvaltion on ilmoitettava tämän artiklan nojalla antamansa säännökset komissiolle viimeistään ... päivänä ...kuuta ... [Virallinen lehti: lisätään päivämäärä, joka on vuoden kuluttua voimaantulosta] sekä ilmoitettava komissiolle kaikki niitä koskevat myöhemmät muutokset viipymättä.

 

7. Jäsenvaltioiden on toteutettava kaikki tarvittavat toimenpiteet tässä asetuksessa säädettyjen eettisten periaatteiden ja oikeudellisten velvoitteiden täytäntöönpanon varmistamiseksi. Jäsenvaltioiden on tuettava sekä unionin että kansallisella tasolla asiaankuuluvia sidosryhmiä ja kansalaisyhteiskuntaa niiden pyrkimyksissä varmistaa oikea-aikaiset, eettiset ja tietoon perustuvat toimet tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevan teknologisen kehityksen myötä syntyvien uusien ja erityisesti rajatylittävien mahdollisuuksien ja haasteiden johdosta.

 

19 artikla

Rikkomisista ilmoittaminen ja niistä ilmoittavien henkilöiden suojelu

 

Tämän asetuksen rikkomisesta ilmoittamiseen ja rikkomisesta ilmoittavien henkilöiden suojeluun sovelletaan Euroopan parlamentin ja neuvoston direktiiviä (EU) 2019/1937[18].

 

20 artikla

Koordinointi unionin tasolla

1. Komissiolla ja/tai tätä varten mahdollisesti nimettävillä asiaankuuluvilla unionin toimielimillä, elimillä, toimistoilla ja virastoilla on seuraavat tehtävät:

 

 varmistaa, että 17 artiklassa tarkoitetut kansalliset valvontaviranomaiset toteuttavat 13 artiklassa tarkoitetun tekoälyn, robotiikan ja niihin liittyvän teknologian riskinarvioinnin johdonmukaisesti 7 artiklan 1 kohdassa ja tämän asetuksen liitteenä olevassa suuririskisten alojen ja käyttötarkoitusten luettelossa säädettyjen yhteisten objektiivisten kriteerien perusteella;

 

 panna merkille 14 artiklassa tarkoitettu suuririskisen tekoälyn, robotiikan ja niihin liittyvän teknologian vaatimustenmukaisuuden arviointi ja myöhempi seuranta, jotka 17 artiklassa tarkoitettujen kansallisten valvontaviranomaisten on määrä suorittaa;

 

 kehittää hakuprosessi, jota 17 artiklassa tarkoitettujen kansallisten valvontaviranomaisten on määrä noudattaa myöntäessään 15 artiklassa tarkoitetun todistuksen;

 

 laatia 14 artiklan 3 kohdassa tarkoitetut sitovat ohjeet menetelmistä, joita 17 artiklassa tarkoitettujen kansallisten valvontaviranomaisten on määrä käyttää, sanotun kuitenkaan rajoittamatta alakohtaisen lainsäädännön soveltamista;

 

 koordinoida 17 artiklassa tarkoitettujen kansallisten valvontaviranomaisten toimintaa vahvistettaessa 16 artiklassa tarkoitetut asiaankuuluvat hallintostandardit, mukaan lukien ei-sitovat täytäntöönpano-ohjeet kehittäjille, käyttöönottajille ja käyttäjille menetelmistä tämän asetuksen noudattamiseksi;

 

 tehdä yhteistyötä 17 artiklassa tarkoitettujen kansallisten valvontaviranomaisten kanssa, kun ne myötävaikuttavat tämän asetuksen johdonmukaiseen soveltamiseen kaikkialla unionissa 17 artiklan 2 kohdan mukaisesti;

 

 toimia asiantuntijakeskuksena edistämällä tekoälyyn, robotiikkaan ja niihin liittyvään teknologiaan liittyvää tietojenvaihtoa ja tukemalla yhteisymmärryksen kehittymistä sisämarkkinoilla, antamalla lisäohjeita, lausuntoja ja asiantuntijaneuvoja 17 artiklassa tarkoitetuille kansallisille valvontaviranomaisille, seuraamalla asiaa koskevan unionin lainsäädännön täytäntöönpanoa, yksilöimällä parhaita käytäntöjä koskevia standardeja ja antamalla tarvittaessa suosituksia sääntelytoimenpiteiksi; näin tehdessään sen olisi oltava yhteydessä mahdollisimman moneen asiaankuuluvaan sidosryhmään ja varmistettava, että sen kokoonpano eri päätöksentekotasoilla on monimuotoinen ja varmistaa sukupuolten tasa-arvon;

 

 isännöidä turvallisuutta ja puolustusta käsittelevää työryhmää, joka tarkastelee politiikka- ja investointikysymyksiä, jotka liittyvät nimenomaisesti tekoälyn, robotiikan ja niihin liittyvän teknologian eettiseen käyttöön turvallisuuden ja puolustuksen alalla.

 

21 artikla

Siirretyn säädösvallan käyttäminen

1. Komissiolle siirrettyä valtaa antaa delegoituja säädöksiä koskevat tässä artiklassa säädetyt edellytykset.

 

2. Siirretään komissiolle … päivästä …kuuta … [tämän asetuksen voimaantulopäivä] viiden vuoden ajaksi 7 artiklan 3 ja 4 kohdassa tarkoitettu valta antaa delegoituja säädöksiä.

 

3. Euroopan parlamentti tai neuvosto voi milloin tahansa peruuttaa 7 artiklan 3 ja 4 kohdassa tarkoitetun säädösvallan siirron. Peruuttamispäätöksellä lopetetaan tuossa päätöksessä mainittu säädösvallan siirto. Peruuttaminen tulee voimaan sitä päivää seuraavana päivänä, jona sitä koskeva päätös julkaistaan Euroopan unionin virallisessa lehdessä, tai jonakin myöhempänä, kyseisessä päätöksessä mainittuna päivänä. Peruuttamispäätös ei vaikuta jo voimassa olevien delegoitujen säädösten pätevyyteen.

 

4. Ennen kuin komissio hyväksyy delegoidun säädöksen, se kuulee kunkin jäsenvaltion nimeämiä asiantuntijoita paremmasta lainsäädännöstä 13 päivänä huhtikuuta 2016 tehdyssä toimielinten välisessä sopimuksessa vahvistettujen periaatteiden mukaisesti.

 

5. Heti kun komissio on antanut delegoidun säädöksen, komissio antaa sen tiedoksi yhtäaikaisesti Euroopan parlamentille ja neuvostolle.

 

6. Edellä olevan 7 artiklan 3 tai 4 kohdan nojalla annettu delegoitu säädös tulee voimaan ainoastaan, jos Euroopan parlamentti tai neuvosto ei ole kolmen kuukauden kuluessa siitä, kun asianomainen säädös on annettu tiedoksi Euroopan parlamentille ja neuvostolle, ilmaissut vastustavansa sitä tai jos sekä Euroopan parlamentti että neuvosto ovat ennen mainitun määräajan päättymistä ilmoittaneet komissiolle, että ne eivät vastusta säädöstä. Euroopan parlamentin tai neuvoston aloitteesta tätä määräaikaa jatketaan kolmella kuukaudella.

 

22 artikla

Direktiivin (EU) 2019/1937 muuttaminen

 

Muutetaan direktiivi (EU) 2019/1937 seuraavasti:

 

1) Lisätään 2 artiklan 1 kohdan a alakohtaan alakohta seuraavasti:

 

”xi) tekoälyn, robotiikan ja niihin liittyvän teknologian kehittäminen, käyttöönotto ja käyttö;”

 

2) Lisätään liitteessä olevaan I osaan kohta seuraavasti:

 

”K. 2 artiklan 1 kohdan a alakohdan xi alakohta – Tekoälyn, robotiikan ja niihin liittyvän teknologian kehittäminen, käyttöönotto ja käyttö:

 

xxi) Euroopan parlamentin ja neuvoston asetus [XXX] tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä koskevista eettisistä periaatteista.”

23 artikla

Uudelleentarkastelu

Komissio tarkastelee säännöllisesti tekoälyn, robotiikan ja niihin liittyvän teknologian, myös tällaisten teknologioiden käyttämien tai tuottamien ohjelmistojen, algoritmien ja datan, kehitystä ja toimittaa ennen ... päivää ...kuuta ... [Virallinen lehti: lisätään päivämäärä, joka on kolme vuotta voimaantulosta] ja sen jälkeen joka kolmas vuosi Euroopan parlamentille, neuvostolle ja Euroopan talous- ja sosiaalikomitealle tämän asetuksen soveltamisesta kertomuksen, johon sisältyy arvio tämän asetuksen soveltamisalan mahdollisesta muuttamisesta.

24 artikla

Voimaantulo

1. Tämä asetus tulee voimaan kahdentenakymmenentenä päivänä sen jälkeen, kun se on julkaistu Euroopan unionin virallisessa lehdessä. Sitä sovelletaan ... päivästä ...kuuta ... .

2. Tämä asetus on kaikilta osiltaan velvoittava, ja sitä sovelletaan sellaisenaan jäsenvaltioissa perussopimusten mukaisesti.

Tämä asetus on kaikilta osiltaan velvoittava, ja sitä sovelletaan sellaisenaan kaikissa jäsenvaltioissa.


 

LIITE

 

Tyhjentävä ja kumulatiivinen luettelo suuririskisistä aloista ja käyttötarkoituksista, joihin liittyy riski perusoikeuksien ja turvallisuussääntöjen rikkomisesta

 

 

Suuririskiset alat

 

 Työelämä

 Koulutus

 Terveydenhuolto

 Liikenne

 Energia

 Julkinen sektori (turvapaikka-asiat, muuttoliike, rajavalvonta, oikeuslaitos ja sosiaaliturvapalvelut)

 Puolustus ja turvallisuus

 Rahoitus, pankkiala, vakuutukset

 

 

Suuririskiset käyttötarkoitukset

 

 Rekrytointi

 Arvosanojen antaminen ja opiskelijoiden arviointi

 Julkisten varojen myöntäminen

 Lainojen myöntäminen

 Kaupankäynti, arvopaperivälitys, verotus jne.

 Lääketieteelliset hoidot ja toimenpiteet

 Vaaliprosessit ja poliittiset kampanjat

 Julkisen sektorin päätökset, joilla on merkittävä ja välitön vaikutus luonnollisten henkilöiden tai oikeushenkilöiden oikeuksiin ja velvollisuuksiin

 Automatisoitu ajaminen

 Liikenteenhallinta

 Autonomiset sotilasjärjestelmät

 Energian tuotanto ja jakelu

 Jätehuolto

 Päästöjen hallinta 

 


 

PERUSTELUT

 

Blade Runner -elokuvassa vuodelta 1982 älykkäitä androideja (replikantteja) valmistavassa yhtiössä työskentelevä replikantti Rachael toteaa kontrollista karanneita replikantteja työkseen eliminoivalle palkkionmetsästäjä Deckardille:

 

– ”It seems you feel our work is not a benefit to the public.”

 

Deckard vastaa:

 

– ”Replicants are like any other machine - they’re either a benefit or a hazard. If they’re a benefit, it’s not my problem.”

 

Hyödyt ja riskit

 

Tekoälyn laajamittainen käyttöönotto kaikissa laitteissa, joiden avulla olemme vuorovaikutuksessa viranomaisten kanssa, työpaikalla tai yhteisössä, merkitsee teknologialoikkaa, joka on verrattavissa vain teollisen vallankumouksen aikakauden saavutuksiin. Elämä ei palaudu entiselleen, sillä työmarkkinoilla, viranomaisasioinnissa, henkilökohtaisissa suhteissa ja jopa kotonamme tapahtuu mullistuksia. Ajatelkaamme vaikka esineiden internetiä kaikissa kodinkoneissamme. Näin valtava teknologialoikka asettaa meidät saman ongelman eteen, joka esitettiin Blade Runnerin lainauksen vastauksessa: kaikkeen teknologiaan liittyy hyötyjä ja riskejä. Tekoäly tarjoaa suuria mahdollisuuksia, mutta myös sen hyödyt ja riskit ovat ennennäkemättömiä.

 

Euroopan unionin rooli oikeudellisen kehyksen luomisessa

 

Julkishallinnossa tähän ilmiöön ei kuitenkaan voida suhtautua Deckardin tavoin ammatillisen kyynisesti. Euroopan parlamentille on tärkeää vauhdittaa mahdollisuuksia, joita teknologia tarjoaa Euroopan hyvinvoinnille ja kilpailukyvylle, mutta myös valvoa teknologialle luontaisia riskejä ja ennakoida seurauksia, jos jokin näistä riskeistä todellisuudessa toteutuukin. Haluamme olla edelläkävijöitä sellaisen eettisen kynnyksen säätämisessä, joka yhtäältä suojelee unionin kansalaisia teknologiakehityksen mahdollisilta haittavaikutuksilta ja toisaalta synnyttää lisäarvoa lisäämällä maailmassa luottamusta eurooppalaista tekoälyä kohtaan. Eettisen kynnyksen on vastattava Euroopan unionin perusoikeuskirjan mukaisia unionin periaatteita ja arvoja ja sovittava täysin yhteen sivistämiseen liittyvän hankkeemme kanssa. Teknologian kehittämistä koskevan lainsäädännön on perustuttava ihmislähtöiseen ja ihmiskeskeiseen lähestymistapaan. Sääntelyä sovelletaan Euroopassa kehitettävään tekoälyyn, mutta sen noudattamista edellytetään myös kaikilta muilta unionin markkinoille aikovilta alan toimijoilta.

 

On tärkeää, että näitä oikeuksia ja velvollisuuksia koskevaa kehystä noudatetaan unionin kaikissa jäsenvaltioissa. Toisistaan poikkeavat kansalliset säännökset saattaisivat johtaa sisämarkkinoiden häiriöihin ja haitata yhteistä pyrkimystämme saavuttaa teknologinen johtoasema maailmassa. Luomalla eurooppalainen virasto, jonka tehtävänä on valvoa tämän asetuksen soveltamista, voidaan yhdenmukaistaa kussakin jäsenvaltiossa käyttöön otetut oikeudelliset ja tekniset puitteet.

 

Joustava ja tulevaisuuteen suuntautuva sääntely

 

Niille, jotka eivät kannata alan järjestäytymistä vaan itsesääntelyä, alkuvaiheen vuoropuhelua voidaan käyttää myös osoittamaan kansalaisten osallistamisen tarpeellisuutta. Se näet takaa taloudellista tuottoa pidemmälle menevien tavoitteiden saavuttamisen. Muita tavoitteita, jotka unionin julkishallinnon on turvattava, ovat syrjinnän (mihin ikinä se perustuukin) välttäminen päätöksentekoprosesseissa ja teknologian muutosvoiman hyödyntäminen edistettäessä (erityisesti sukupuolten tasa-arvon suhteen) oikeudenmukaisempaa ja ympäristön kannalta kestävämpää yhteiskuntaa. Jälkimmäisiin kysymyksiin teksti tarjoaa unionin viranomaisille nimenomaiset valtuudet.

 

Sääntelyssä pyritään niin ikään yhdistämään korkea vaatimustaso ja yksinkertaisuus, jotta vältetään liiallinen pedanttisuus ja/tai raskaat byrokraattiset rasitteet mukana oleville toimijoille. Tavoitteena on myös luoda riittävän joustava kehys, jotta voidaan saavuttaa edistystä äärimmäisen muuttuvissa olosuhteissa ja samalla kehittää alakohtaisia säännöksiä konkreettisempiin tarkoituksiin.

 

Kansallisten valvontaelinten perustamiseen liittyvä kokonaisvaltainen lähestymistapa

 

Sääntelyn tavoitteena on laajentaa valvonta koskemaan erittäin monimutkaisen teknologian kaikkia vaiheita, ja se koskee muun muassa teknologian kehittämistä, täytäntöönpanoa ja kehitystä koneoppimisen tai syväoppimisen avulla. Erityistä painoa pannaan ns. suuririskisiin teknologioihin liittyville varotoimille, kun negatiivisten ulkoisvaikutusten todennäköisyys on suuri ja/tai kun kyse on arkaluonteisesta aineistosta, joka edellyttää erityistä suojelua. Tällainen aineisto määritellään tässä samassa asetuksessa. Sääntely ulottuu yksilön oikeuksien kannalta erittäin arkaluonteiseen kysymykseen, joka koskee etätunnistusteknologioita, ja niiden käyttöä varten vahvistetaan monia suojatoimia. Lisäksi sääntely sisältää erittäin tiukan aineellisen ja ajallisen kehyksen, jota viranomaiset voivat poikkeuksellisesti soveltaa vakavissa hätätilanteissa.

 

Sääntelykehyksen suunnitteluun, kehittämiseen, valvontaan ja seurantaan on tarkoitus ottaa mukaan kaikki kansalaiset ja erityisesti ne henkilöt tai yhteisöt, joita tämä eniten koskee tai joihin se eniten vaikuttaa. Asetus valtuuttaa kaikki kansalliset valvontaelimet – joiden pakollisesta perustamisesta säädöksessä myös säädetään – pyytämään tarvittaessa ja säännöllisesti kansalaisyhteiskunnan toimijoiden panosta. Lisäksi vahvistetaan tekoälyn kehittäjiä, käyttöönottajia ja käyttäjiä koskevat läpinäkyvyyttä ja vastuuvelvollisuutta koskevat tiukat velvoitteet ja käyttäjille asetetaan kansalaiskäyttäytymistä koskevia velvoitteita ja tarjotaan asianmukainen suoja, kun he käyttävät näitä teknologioita vilpittömässä mielessä.

 

Ymmärrettävyys, läpinäkyvyys, vastuullisuus, vastuuvelvollisuus ja hallinto

 

Olemme vielä hyvin kaukana Isaac Asimovin Säätiö-kirjasarjassaan kuvaileman psykohistorian luomisesta algoritmien avulla. Näin ollen vapaan tahdon käsite – ihmisyyden erottamaton osa – ei vaikuta olevan tällä hetkellä uhattuna. Näin ei ole edes silloin, kun ennakoidaan historian suurten linjojen kehitystä. Demokraattisten päätösten tekijöinä meidän on varmistettava, että suuria ja pieniä päätöksiä, joissa käytetään apuna tekoälyteknologiaa, ei tehdä vaikeaselkoisten ja läpipääsemättömien matemaattisten kaavojen perusteella. Ymmärrettävyys, läpinäkyvyys, vastuullisuus ja vastuuvelvollisuus ovat Euroopan unionissa kehitettävän ja käytettävän tekoälyn olennaisia piirteitä.

 

Lyhyesti sanottuna Euroopan unioni pyrkii siihen, että unionissa vallitsee tasapaino kansalaisten oikeuksien turvaamisen ja teknologiakehityksen vahvistamisen välillä. Lainsäädäntömme ja sen, miten valvontaelimet sitä kehittävät, on oltava esimerkkinä muulle maailmalle ja ensimmäinen vaihe, jotta varmistettaisiin tämän globaalin ilmiön asianmukainen hallinta.  


 

 

 

ULKOASIAINVALIOKUNNAN LAUSUNTO (24.6.2020)

<CommissionInt>oikeudellisten asioiden valiokunnalle</CommissionInt>


<Titre>suosituksista komissiolle tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien eettisten näkökohtien kehyksestä</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Valmistelija (*): <Depute>Urmas Paet</Depute>

(*) Valiokuntien yhteistyömenettely – työjärjestyksen 57 artikla

(Aloite – työjärjestyksen 47 artikla)

 

 

 

 

EHDOTUKSET

Ulkoasiainvaliokunta pyytää asiasta vastaavaa oikeudellisten asioiden valiokuntaa

 sisällyttämään seuraavat ehdotukset päätöslauselmaesitykseen, jonka se myöhemmin hyväksyy:

1. korostaa, että Euroopan unionin ja sen jäsenvaltioiden turvallisuus- ja puolustuspolitiikkaa ohjaavat Euroopan unionin perusoikeuskirjan sekä Yhdistyneiden kansakuntien peruskirjan periaatteet sekä yhteisymmärrys yleismaailmallisista arvoista, joita ovat ihmisen loukkaamattomat ja luovuttamattomat oikeudet, ihmisarvo, vapaus, demokratia, tasa-arvo ja oikeusvaltio; korostaa, että kaikissa unionin puitteissa toteutettavissa puolustukseen liittyvissä toimissa on kunnioitettava näitä yleismaailmallisia arvoja ja edistettävä rauhaa, turvallisuutta ja edistystä Euroopassa ja maailmassa; katsoo, että tekoälyn käytön olisi perustuttava yhteisiin eettisiin periaatteisiin, joiden mukaan käytön olisi oltava vastuullista, tasapuolista, jäljitettävissä olevaa, luotettavaa ja hallittavissa olevaa;

2. suhtautuu myönteisesti siihen, että vuonna 2019 pidetyssä tiettyjä tavanomaisia aseita koskevan Yhdistyneiden kansakuntien yleissopimuksen (CCW) korkeiden sopimuspuolten kokouksessa hyväksyttiin 11 ohjaavaa periaatetta autonomisten asejärjestelmien kehittämiseksi ja käyttämiseksi; pitää kuitenkin valitettavana, että tappavia autonomisia aseita sääntelevästä oikeudellisesti sitovasta välineestä ja tehokkaasta täytäntöönpanomekanismista ei ole päästy sopimukseen; pitää myönteisenä ja tukee komission tekoälyä käsittelevän korkean tason asiantuntijaryhmän 9. huhtikuuta 2019 julkaisemia suuntaviivoja ”Ethics Guidelines for Trustworthy AI” ja sen kantaa tappaviin autonomisiin asejärjestelmiin; kehottaa jäsenvaltioita kehittämään kansallisia strategioita tappavien autonomisten aseiden määrittelyä ja asemaa varten, jotta saadaan aikaan kattava unionin tason strategia, ja edistämään yhdessä unionin korkean edustajan/komission varapuheenjohtajan ja neuvoston kanssa keskustelua tappavista autonomisista aseista YK:n CCW-sopimuksen puitteissa ja muilla asiaankuuluvilla foorumeilla sekä täysin autonomisten, puoliautonomisten ja kauko-ohjattujen tappavien asejärjestelmien kehittämisen ja käytön eettisiä ja oikeudellisia parametreja koskevien kansainvälisten normien laatimista; muistuttaa tässä yhteydessä autonomisista asejärjestelmistä 12. syyskuuta 2018 antamastaan päätöslauselmasta ja kehottaa jälleen laatimaan ja hyväksymään pikaisesti yhteisen kannan tappavista autonomisista asejärjestelmistä sekä kieltämään kansainvälisesti sellaisten tappavien autonomisten asejärjestelmien kehittämisen, tuotannon ja käytön, jotka kykenevät iskemään ilman merkityksellistä ihmisen valvontaa ja ilman, että ihmisen osallistumista edellyttävää periaatetta noudatetaan, maailman merkittävimpien tekoälytutkijoiden vuonna 2015 päivätyssä avoimessa kirjeessään antaman lausunnon mukaisesti; pitää myönteisenä neuvoston ja Euroopan parlamentin sopimusta jättää Euroopan puolustusrahastosta rahoitettavien toimien ulkopuolelle tappavat autonomiset aseet, ”joiden osalta ihminen ei voi merkityksellisesti vaikuttaa päätöksiin kohteiden valinnasta ja iskun tekemisestä”; katsoo, että muiden puolustusalan tekoälysovellusten, kuten tiedustelu-, valvonta- ja tiedustelusovellusten tai kyberoperaatioiden, eettisiä näkökohtia ei saa jättää huomiotta ja että on kiinnitettävä erityistä huomiota droonien kehittämiseen ja käyttöönottoon sotilasoperaatioissa;

3. suosittelee, että tekoälyä hyödyntävien järjestelmien puolustuskäyttöä taistelutilanteessa ja sen ulkopuolella sääntelevässä eurooppalaisessa kehyksessä on kunnioitettava kaikkia sovellettavia oikeusjärjestelmiä, erityisesti kansainvälistä humanitaarista oikeutta ja ihmisoikeuksia koskevaa kansainvälistä oikeutta ja että kehyksen on oltava unionin oikeuden, periaatteiden ja arvojen mukainen; korostaa, että unionin olisi toimittava maailmanlaajuisesti johtavassa roolissa tiellä kohti uskottavaa ja sitovaa tekoälyn sääntelykehystä, joka perustuu demokraattisiin arvoihin ja ihmiskeskeiseen lähestymistapaan; kehottaa unionia ja sen jäsenvaltioita kehittämään yhteisiä mekanismeja, joiden avulla voidaan arvioida nopeasti ja perusteellisesti unionin lainsäädännön soveltamiseen liittyviä, tekoälyyn sisältyviä riskejä ja mahdollisuuksia ja jotka perustuvat edistyneempien jäsenvaltioiden parhaisiin käytäntöihin, ja säätämään tarvittaessa välttämättömistä mukautuksista ja täytäntöönpanon valvonnasta ottaen huomioon tekniset ja turvallisuusinfrastruktuurit eri puolilla unionia;

4. toteaa, että toisin kuin puolustusteollisuuden perustat, kriittiset tekoälyyn liittyvät innovaatiot voisivat tulla pienistä jäsenvaltioista, joten YTPP-standardoidulla lähestymistavalla olisi varmistettava, että pienemmät jäsenvaltiot ja pk-yritykset saavat äänensä kuuluviin. korostaa, että EU:n yhteisillä tekoälyvalmiuksilla, jotka on sovitettu jäsenvaltioiden toimintaperiaatteisiin, voidaan antaa teknistä tukea valtioille, joilta ehkä puuttuu asiaankuuluvaa teknologiaa, alan asiantuntemusta tai kykyä panna tekoälyjärjestelmiä täytäntöön puolustusministeriöissään;

5. painottaa, että kyseisen kehyksen maantieteellisen soveltamisalan olisi katettava kaikki unionissa kehitetyn, käyttöön otetun tai käytetyn tekoälyn, robotiikan ja niihin liittyvän teknologian osa-alueet, myös tapauksissa, joissa osa teknologiasta saattaa sijaita unionin ulkopuolella tai sillä ei ole tiettyä sijaintipaikkaa;

6. tähdentää, että uutta tekniikkaa, jota ei säännellä kansainvälisessä oikeudessa, olisi arvioitava ihmisyyden kunnioittamisen periaatteen ja sosiaalisen omantunnon sanelemien velvoitteiden mukaisesti; korostaa, että tekoälyä hyödyntävien järjestelmien käyttöä ja etiikkaa puolustusalalla on arvioitava jatkuvasti ihmisoikeuksien ja etenkin ihmisten turvallisuuden, terveyden ja turvallisuuden, vapauden, yksityisyyden, koskemattomuuden ja ihmisarvon kannalta ja seurattava jatkuvasti erityisesti niiden etuja ja haittoja sekä niiden vaikutusta yleismaailmallisten ihmisoikeuksien suojeluun; katsoo, että tekoälyä hyödyntävien puolustusjärjestelmien teknologiset edut on yhdistettävä laajaan keskusteluun tekoälyn käytöstä ja sen vaikutuksista yhteiskuntiin ja yhteisöihin sekä mahdollisista taloudellisista ja yhteiskunnallisista hyödyistä ja että tekoälyn käyttöön liittyvistä riskeistä on tiedotettava asianmukaisesti;

7. katsoo, että unionin nykyiset ja tulevat puolustukseen liittyvät toimet perustuvat tekoälyyn, robotiikkaan ja itsetoimivuuteen ja niihin liittyviin teknologioihin ja että varmatoimintainen, vakaa ja luottamusta herättävä tekoäly voisi olla erinomainen lisä nykyaikaisen ja tehokkaan armeijan kalustoon; katsoo, että unionin on siksi omaksuttava johtava asema turvallisuus- ja puolustusalan tekoälyjärjestelmien tutkimuksessa ja kehittämisessä; katsoo, että tekoälyä hyödyntävien sovellusten käyttö turvallisuus- ja puolustusalalla voisi tarjota operaation komentajalle useita suoria etuja, kuten laadukkaampi data, parempi tilannetietoisuus, päätöksenteon nopeutuminen, oheisvahinkojen riskin pieneneminen paremman kaapeloinnin ansiosta, joukkojen suojelu paikan päällä sekä puolustustarvikkeiden parempi luotettavuus ja siten ihmisiin ja ihmishenkiin kohdistuvan riskin pieneneminen; painottaa, että luotettavan tekoälyn kehittäminen puolustusalalla on olennaisen tärkeää Euroopan strategisen riippumattomuuden varmistamiseksi voimavarojen ja operaatioiden alalla; muistuttaa, että tekoälyjärjestelmistä on myös tulossa keskeisiä tekijöitä uusien turvallisuusuhkien, kuten kyber- ja hybridisodankäynnin, torjunnassa sekä verkossa että sen ulkopuolella; korostaa samalla kaikkia tekoälyn sääntelemättömän käytön riskejä ja haasteita; toteaa, että tekoäly voi altistua manipuloinnille, virheille ja epätarkkuuksille;

8. kehottaa luomaan synergioita ja verkostoja eri eurooppalaisten tekoälytutkimuskeskusten ja muiden monenvälisten foorumien, kuten Euroopan neuvoston, Yhdistyneiden kansakuntien kasvatus-, tiede- ja kulttuurijärjestön (Unesco), Taloudellisen yhteistyön ja kehityksen järjestön (OECD), Maailman kauppajärjestön (WTO) ja Kansainvälisen televiestintäliiton (ITU), välille, jotta niiden toimet voidaan sovittaa yhteen ja koordinoida paremmin tekoälyteknologian kehittämistä;

9. korostaa, että tekoälyteknologiat ovat pohjimmiltaan kaksikäyttöisiä ja että tekoälyn kehittäminen puolustukseen liittyvässä toiminnassa hyötyy sotilas- ja siviiliteknologian välisestä vaihdosta; korostaa, että tekoäly puolustukseen liittyvässä toiminnassa on monialainen murroksellinen teknologia, jonka kehittäminen voi tarjota mahdollisuuksia unionin kilpailukyvylle ja strategiselle riippumattomuudelle;

10. korostaa, että koska 8. huhtikuuta 2019 annetun komission tiedonannon ”Luottamuksen rakentaminen ihmiskeskeiseen tekoälyyn” mukaan teknologialla kunnioitetaan täysimääräisesti ihmisoikeuksia ja ihmisillä säilyy auktoriteetti automatisoituihin päätöksentekojärjestelmiin nähden samalla kun teknologialla täydennetään ja tuetaan ihmisen riippumattomuutta ja päätöksentekoa, unioni tarvitsee vankan tekoälyn sääntelykehyksen, jossa keskitytään turvallisuuteen ja puolustukseen ja noudatetaan vastuullisuutta ja avoimuutta, suojellaan kansalaisiamme ja heidän tietojaan ja puolustetaan arvojamme ja jonka mukaan sen toimintapolitiikoilla pyritään säilyttämään rauha, ehkäisemään konflikteja ja vahvistamaan kansainvälistä turvallisuutta, samalla kun tartutaan kyseisten teknologioiden tarjoamiin mahdollisuuksiin sekä ymmärretään, että tekoälyä hyödyntävät järjestelmät tulevat olemaan keskeinen osatekijä tulevaisuuden puolustusalan kehityksessä ja valmiuksissa;

11. kehottaa jäsenvaltioita ja komissiota varmistamaan, että puolustusjärjestelmissä käytettäviin algoritmeihin sovelletaan avoimuuden periaatetta, johon sisältyy tekoälyn käytön tuloksia koskeva selkeä vastuujärjestelmä, samalla kun säilytetään tarvittava luottamuksellisuus; painottaa, että näitä kriteerejä on jatkuvasti mukautettava tekoälyteknologian kehitykseen;

12. korostaa, että unionin on oltava eturintamassa tuettaessa YK:n CCW-sopimuksen hallitusten asiantuntijaryhmän ja muiden asiaankuuluvien foorumien puitteissa monenvälisiä pyrkimyksiä keskustella tehokkaasta kansainvälisestä sääntelykehyksestä, jolla varmistetaan, että ihmiset valvovat tarkoituksenmukaisesti autonomisia asejärjestelmiä, jotta kyseisiä teknologioita voidaan hallita ottamalla käyttöön hyvin määriteltyjä, vertailuarvoihin perustuvia prosesseja ja hyväksymällä lainsäädäntöä niiden eettistä käyttöä varten kuullen armeijan, teollisuuden, lainvalvonnan, tiedemaailman ja kansalaisyhteiskunnan sidosryhmiä, jotta ymmärretään asiaan liittyvät eettiset näkökohdat ja hillitään tällaisten teknologioiden käyttöön liittyviä riskejä ja estetään niiden käyttö haitallisiin tarkoituksiin; toteaa, että näihin kuuluvat erityisesti henkilöille tahattomasti aiheutettu aineeton tai aineeton haitta, kuten perusoikeuksien loukkaaminen tai fyysinen vahingonteko; toteaa, että unionin on yhteistyössä jäsenvaltioiden kanssa määritettävä asianmukaiset vastuujärjestelmät, joita sovelletaan tekoälyn ja muiden immersiivisten teknologioiden innovaatioihin turvallisuuden ja puolustuksen alalla, ja luotava siten oikeusperusta vastuuvelvollisuus- ja jäljitettävyysmekanismeille; korostaa, että mitkään tulevat teknologiset edistysaskeleet, tekoälyn kehitys ja uudet sodankäynnin menetelmät eivät saa ohittaa unionin lainsäädäntöä ja normatiivisia kehyksiä ja että siksi niitä on tuettava tarkoituksenmukaisilla seurantajärjestelmillä, joita mukautetaan jatkuvasti oikeudellisten porsaanreikien tai harmaiden alueiden estämiseksi; korostaa, että tekoälyn tutkimuksen ja kehittämisen jatkamisella olisi varmistettava, että tekoälyä hyödyntävillä järjestelmillä on paremmat lähtökohdat ainutlaatuisten olosuhteiden ymmärtämiseen;

13. kannattaa ”sisäänrakennettua eettisyyttä” koskevaa perusperiaatetta, jossa eettiset periaatteet sisällytetään tekoälytuotteisiin ja -palveluihin jo suunnitteluprosessin alussa.

14. muistuttaa, että useimmat maailman nykyisistä sotilasmahdeista ovat jo ryhtyneet merkittäviin tutkimis- ja kehittämistoimiin, jotka liittyvät tekoälyn sotilaalliseen ulottuvuuteen; katsoo, että unionin on huolehdittava siitä, ettei se ole tässä suhteessa jäljessä; korostaa, että tekoälyä hyödyntävien järjestelmien puolustussovelluksia varten unionin olisi ”sisäänrakennetun turvallisuuden” periaatteen mukaisesti vahvistettava tekniset ja organisatoriset standardit, jotka mahdollistavat ihmisen suorittaman valvonnan, jotta voidaan varmistaa tällaisten järjestelmien sietokyky sellaisia haavoittuvuuksia vastaan, joita voidaan hyödyntää ulkoisilla hyökkäyksillä, kyberhyökkäyksillä ja digitaalisella vaikutuksella, jotka kohdistuvat tietoihin, malliin tai taustalla olevaan infrastruktuuriin, sekä ohjelmistoihin että laitteistoihin, sekä niiden mahdollisimman korkeaa luotettavuutta koskevien vaatimusten noudattaminen, aktiivinen seuranta ja valvonta koko elinkaaren kattavan operatiivisen tiedon keräämisen, tallentamisen ja hyödyntämisen osalta; korostaa tekoälyalgoritmien avoimuuden ja vastuuvelvollisuuden merkitystä; panee merkille merkittävän eron algoritmien avoimuuden ja algoritmien käytön avoimuuden välillä; korostaa, että tekoälyjärjestelmien ja -sovellusten, jotka on tarkoitettu tietojen poimimiseen ja syntetisointiin sekä niiden tulosten ekstrapolointiin puolustukseen ja kansalliseen turvallisuuteen liittyviä päätöksiä varten, on oltava soveltamisalaltaan erityisiä ja niiden on noudatettava nykyisessä sääntelykehyksessä vahvistettuja tietojen keräämistä ja käsittelyä koskevia säännöksiä; korostaa, että tekoälysovelluksissa, jotka on suunniteltu käsittelemään tietoja tiedustelutarkoituksiin puolustukseen liittyvässä toiminnassa, olisi noudatettava tietojenkäsittelystandardeja, jotta vältetään tahattoman valvonnan riski tai yksilön oikeuksien loukkaaminen; toteaa, että unionin on varmistettava, että tekoälyä hyödyntävien teknologioiden, kuten kasvontunnistuksen, suuririskisten sovellusten, joissa ei ole lopullista sääntelykehystä EU:n tasolla, kehittäminen ja käyttöönotto on oikeutettua ja oikeasuhteista ja että niissä kunnioitetaan yksilöiden oikeuksia; painottaa, että toimivaltaisten kansallisten lainvalvontaviranomaisten on noudatettava asiaankuuluvaa lainsäädäntöä kehittäessään ja ottaessaan käyttöön tekoälyä hyödyntäviä järjestelmiä ja teknologioita yleisen järjestyksen ylläpitämiseksi, jotta voidaan vähentää ennustettavaan poliisitoimintaan liittyviä suhteettomia riskejä; toteaa, että euroatlanttisen turvallisuuden ensisijainen takaaja on Nato, ja kehottaa lisäämään Naton puitteissa yhteistyötä yhteisten standardien ja tekoälyjärjestelmien yhteentoimivuuden luomiseksi puolustusalalla; korostaa, että transatlanttiset suhteet ovat ratkaisevan tärkeitä yhteisten arvojen säilyttämiseksi ja tulevien ja uusien uhkien torjumiseksi;

15. korostaa tarvetta hyväksyä selkeät luotettavuutta, turvallisuutta ja turvatoimia koskevat määräykset ja vaatimukset sekä asianmukaiset sertifioinnit turvallisuus- ja puolustusalan tekoälyjärjestelmille, ottaa käyttöön avoimuutta koskevat kriteerit eri vaiheissa eli suunnittelussa, tuotannossa ja toiminnassa sekä suorittaa jatkuvaa seurantaa, säännöllisiä testejä ja todentamisia koko elinkaaren ajan; painottaa, että on varmistettava sovellettavien standardien ja hankittujen sertifiointien noudattaminen silloin, kun tekoäly muuttaa esimerkiksi koneoppimisen avulla niiden järjestelmien toimintoja ja käyttäytymistä, joihin se on integroitu, jotta voidaan varmistaa tekoälyn avulla tehtyjen päätösten ja niiden tulosten täydellinen jäljitettävyys, selvitettävyys ja vastuuvelvollisuus sekä merkityksellinen ihmisen suorittama valvonta, jos järjestelmät kykenevät tappamaan ihmisiä;

16. kehottaa komissiota sisällyttämään kyberturvallisuusvalmiuksien kehittämisen teollisuuspolitiikkaansa, jotta voidaan varmistaa turvallisten, sietokykyisten ja vakaiden tekoälyä hyödyntävien ja robottijärjestelmien kehittäminen ja käyttöönotto; kehottaa komissiota tutkimaan lohkoketjuun perustuvien kyberturvallisuusprotokollien ja -sovellusten käyttöä parantamaan tekoälyinfrastruktuurien kestokykyä, luottamusta ja vakautta muiden kuin välitettyjen tiedonsalausmallien avulla; kannustaa eurooppalaisia sidosryhmiä tutkimaan ja kehittämään edistyneitä ominaisuuksia, jotka helpottaisivat sellaisten korruptoituneiden ja vihamielisten tekoälyä hyödyntävien järjestelmien ja robotiikkajärjestelmien havaitsemista, jotka voisivat heikentää unionin ja kansalaisten turvallisuutta;

17. korostaa, että kaikilla puolustusalan tekoälyjärjestelmillä on oltava konkreettinen ja hyvin määritelty käyttöala, jossa ihmisillä on päätösvalta havaita, kytkeä irti tai sammuttaa käytössä olevat järjestelmät, jos ne siirtyvät pois ihmiskomentajan määrittelemältä ja niille annetulta käyttöalalta tai jos ne ryhtyvät vaikeuttaviin tai epätoivottuihin toimiin; katsoo, että tekoälyä hyödyntävät sotilaskäyttöön tarkoitetut järjestelmät, tuotteet ja teknologia olisi varustettava mustalla laatikolla, johon kirjataan kaikki koneen suorittamat tietotapahtumat;

18. korostaa, että vastuun ja vastuuvelvollisuuden tekoälyjärjestelmien suunnittelua, kehittämistä, käyttöönottoa ja käyttöä koskevasta päätöksestä on kuuluttava kokonaisuudessaan ihmisille, koska ihmisten on seurattava ja valvottava mielekkäällä tavalla kaikkia asejärjestelmiä ja inhimillisiä aikeita, kun päätetään voimankäytöstä tekoälyä hyödyntäviä asejärjestelmiä koskevien päätösten täytäntöönpanossa, koska niillä voi olla tappavia seurauksia; korostaa, että ihmisten olisi edelleen valvottava tehokkaasti tekoälyä hyödyntävien järjestelmien johtamista ja valvontaa ja pidettävä kiinni ihmisen osallistumista edellyttävästä, ihmisen osallistumisen mahdollistavasta ja ihminen määräysvallan periaatteista sotilasjohdon tasolla; korostaa, että tekoälyä hyödyntävien järjestelmien on mahdollistettava se, että sotilasjohto kantaa täyden vastuunsa tappavan voiman käytöstä ja käyttää tarvittavaa harkintakykyä, jota koneille ei voi antaa, koska päätöksen tappavien tai laajamittaisten tuhoavien toimien toteuttamisesta kyseisillä järjestelmillä on perustuttava erottelukykyyn, suhteellisuuteen ja ennalta varautumiseen; korostaa, että älykkäiden aseiden ja muiden tekoälyä hyödyntävien järjestelmien käyttöönotolle on luotava selkeät ja jäljitettävissä olevat valtuutus- ja vastuuvelvollisuuskehykset, joissa käytetään ainoastaan käyttäjälle yksilöllisiä ominaisuuksia, kuten biometrisiä eritelmiä, jotta yksinomaan valtuutettu henkilöstö voi ottaa ne käyttöön;

19. kehottaa komissiota tekemään yhteistyötä jäsenvaltioiden kansallisten toimivaltaisten viranomaisten ja muiden tekoälyä hyödyntävien järjestelmien, tuotteiden ja teknologioiden kehittämiseen ja käyttöönottoon osallistuvien sidosryhmien kanssa sellaisen turvallisen, varman ja häiriönsietokykyisen kehyksen luomiseksi, jossa tekoälyä hyödyntävien järjestelmien lähdekoodi jaetaan, sitä seurataan ja se todennetaan, jotta voidaan lieventää mahdollisia poikkeamia tekoälyteknologian taustalla turvallisuuden ja puolustuksen alalla olevista periaatteista ja eettisistä puitteista; ehdottaa komissiolle, että unionin on säilytettävä sellaisen unionin rahoittaman tutkimuksen teollis- ja tekijänoikeudet, joka koskee tekoälyä hyödyntäviä järjestelmiä, tuotteita ja teknologioita turvallisuus- ja puolustusalalla;

20. tähdentää, että unionin on edistettävä tekoälyn, robotiikan ja autonomisten toimintojen ja ominaisuuksien, myös Euroopan puolustusteollisuuden potentiaalin, sotilaallisten vaikutusten, etujen, mahdollisuuksien ja heikkouksien parempaa ymmärtämistä toimimalla sotilashenkilöstön rinnalla; katsoo, että unionin on edistettävä teknologian kehittämisprosesseista ja operatiivisista menetelmistä tarvittavien taitojen ja tietämyksen hankkimista koko toimitusketjussa ja tekoälyä hyödyntävien sotilaallisten voimavarojen koko elinkaaren ajan; korostaa, että Euroopan strategista ja teknologista riippumattomuutta on kiireellisesti lisättävä tekoälyä hyödyntävien järjestelmien alalla, mukaan lukien sen perustana oleva kriittinen infrastruktuuri;

21. katsoo, että tarvitaan jäsenvaltioiden ja komission tehostettua yhteistyötä, jotta unionissa voidaan taata yhdenmukaiset ja rajojen yli sovellettavat säännöt, joilla kannustetaan eurooppalaisten teollisuudenalojen yhteistyöhön ja mahdollistetaan tekoälyä hyödyntävän teknologian kehittäminen ja käyttöönotto edellytetyn suojatoimi- ja turvallisuustason vaatimusten ja tekoälyteknologian kehittämistä ja käyttöönottoa säätelevän eettisen kehyksen mukaisesti;

22. toteaa, että nykypäivän hybridisodankäynnin ja edistyneen sodankäynnin yhteydessä tiedon määrä ja nopeus kriisin alkuvaiheissa saattaa olla ylivoimainen ihmisanalyytikoille ja että tekoälyjärjestelmä voisi käsitellä tietoja sen varmistamiseksi, että inhimilliset päätöksentekijät jäljittävät koko tietosarjan asianmukaisessa aikataulussa nopeita toimia varten;

23. korostaa, että on tärkeää investoida tekoälyn inhimillisen pääoman kehittämiseen ja edistää tarvittavia taitoja ja koulutusta turvallisuus- ja puolustusalan tekoälyteknologioiden alalla keskittyen erityisesti osittain autonomisten ja autonomisten operatiivisten järjestelmien etiikkaan, joka perustuu ihmisen vastuuseen tekoälyn mahdollistamassa maailmassa; korostaa erityisesti, että on tärkeää varmistaa, että tämän alan etiikan asiantuntijoilla on asianmukaiset taidot ja että he saavat asianmukaista koulutusta; kehottaa komissiota esittämään mahdollisimman pian ”vahvistetun osaamisohjelman”, josta ilmoitettiin tekoälyä koskevassa valkoisessa kirjassa 19. helmikuuta 2020;

24. korostaa, että kvanttilaskenta voi olla konfliktien mullistavin muutos sitten atomiaseiden käyttöönoton, ja vaatii siksi, että kvanttilaskentateknologian jatkokehittäminen otetaan unionin ja jäsenvaltioiden painopisteeksi; toteaa, että kvanttilaskennan tukemat aggressiiviset toimet, kriittiseen infrastruktuuriin kohdistuvat hyökkäykset mukaan luettuina, luovat konfliktiympäristön, jossa päätöksentekoaika lyhenee dramaattisesti päivistä ja tunneista minuutteihin ja sekunteihin, mikä pakottaa jäsenvaltiot kehittämään itseään suojaavia valmiuksia ja kouluttamaan sekä päätöksentekijät että sotilashenkilöstön reagoimaan tehokkaasti tällaisissa määräajoissa;

25. pitää unionin kannalta tarpeellisena tekoälyyn liittyvän kansallisen lainsäädännön, tutkimuksen, innovoinnin ja asiantuntemuksen hajanaisuuden poistamista, sillä se vaarantaa sisämarkkinoiden toiminnan ja tekoälyn luotettavaa ja turvallista kehitystä Euroopassa koskevan tavoitteen; pitää tässä yhteydessä myönteisenä tekoälyyn liittyvien hankkeiden sisällyttämistä Euroopan puolustusteolliseen kehittämisohjelmaan (EDIDP); katsoo, että tuleva Euroopan puolustusrahasto ja pysyvä rakenteellinen yhteistyö tarjoavat myös hyvin mukautetut puitteet tuleville tekoälyyn liittyville hankkeille, mikä auttaisi virtaviivaistamaan unionin toimia tällä alalla ja edistäisi samanaikaisesti unionin tavoitetta ihmisoikeuksien, kansainvälisen oikeuden ja monenvälisten ratkaisujen vahvistamisesta; korostaa, että nämä hankkeet olisi synkronoitava tekoälyä koskevien EU:n laajempien siviiliohjelmien kanssa. toteaa, että tekoälyä koskevan Euroopan komission valkoisen kirjan mukaisesti tekoälyn tutkimukseen ja kehittämiseen turvallisuus- ja puolustusalalla keskittyvien huippuosaamis- ja testauskeskusten perustamiseen olisi käytettävä tiukkoja vaatimuksia, joilla tuetaan yksityisten sidosryhmien osallistumista ja investointeja;

26. korostaa, että unionin on pyrittävä strategiseen häiriönsietokykyyn, jotta se ei koskaan enää ole valmistautumaton kriisin yllättäessä, ja korostaa, että tämä on ratkaisevan tärkeää erityisesti tekoälyn ja sen puolustus- ja turvallisuussovellusten osalta; korostaa, että puolustus- ja turvallisuusalan tekoälyjärjestelmien toimitusketjuja, jotka voivat johtaa teknologiseen riippuvuuteen, olisi kalibroitava uudelleen ja että tällaiset riippuvuudet olisi poistettava vaiheittain; kehottaa lisäämään investointeja eurooppalaiseen tekoälyyn puolustuksen alalla ja sitä ylläpitävään kriittiseen infrastruktuuriin;

27. korostaa, että perusoikeuksia kunnioittavan ja yleistä etua tukevan tekoälyn kehittäminen edellyttää tietojen strategista yhdistämistä ja jakamista unionissa yksityisten ja julkisten yhteisöjen välillä sekä unionin tekoälyekosysteemin vahvistamista niin, että siihen osallistuvat julkiset, yksityiset ja kansalaisyhteiskunnan sidosryhmät; kehottaa komissiota edistämään vuoropuhelua, tiiviimpää yhteistyötä ja synergioita jäsenvaltioiden, tutkijoiden, tiedemaailman, kansalaisyhteiskunnan toimijoiden ja yksityisen sektorin, erityisesti johtavien yhtiöiden ja yritysten, sekä armeijan välillä, jotta voidaan toteuttaa osallistavia päätöksentekoprosesseja puolustukseen liittyvän tekoälyn sääntelyn alalla, hyödyntää tekoälyn potentiaalia mahdollisimman tehokkaasti ja samalla edistää riskien ja hyötyjen parempaa ymmärtämistä sekä varmistaa mahdollisimman hyvä toimintavarmuus;

28. korostaa, että erityisesti Euroopan ulkopuolisten toimijoiden ajaman laajalle levinneen disinformaatiosodan yhteydessä tekoälyteknologialla voi olla eettisesti haitallisia vaikutuksia, koska siinä kolmas maa voi hyödyntää vääristymiä datassa ja algoritmeissa tai vaihtaa tarkoituksellisesti koulutusdataa, ja se voi myös altistua muunlaiselle vaaralliselle pahantahtoiselle manipuloinnille ennalta arvaamattomilla tavoilla ja seurauksiltaan arvaamattomilla tavoilla; toteaa, että sen vuoksi on yhä tärkeämpää, että unioni jatkaa investoimista tutkimukseen, analysointiin, innovointiin sekä rajat ylittävään ja monialaiseen tietämyksen siirtoon sellaisten tekoälyteknologioiden kehittämiseksi, joissa ei selvästikään esiinny minkäänlaista profilointia, ennakkoluuloja ja syrjintää ja jotka voisivat tehokkaasti edistää valeuutisten ja disinformaation torjuntaa kunnioittaen samalla tietosuojaa ja unionin oikeudellista kehystä;

29. korostaa, että on tärkeää luoda eettiset käytännesäännöt, joilla tuetaan aseistettujen tekoälyä hyödyntävien järjestelmien käyttöä sotilasoperaatioissa ja jotka vastaavat nykyistä kemiallisten ja biologisten aseiden käytön kieltävää sääntelykehystä; toteaa, että komission olisi käynnistettävä tekoälyä hyödyntävien asejärjestelmien käyttöä sodankäynnissä koskevien normien laatiminen kansainvälisen humanitaarisen oikeuden mukaisesti ja että unionin olisi jatkettava tällaisten normien kansainvälistä hyväksymistä; katsoo, että unionin olisi osallistuttava tekoälydiplomatiaan kansainvälisillä foorumeilla samanmielisten kumppanien, esimerkiksi G7:n, G20:n ja OECD:n kanssa;

30. panee merkille 19. helmikuuta 2020 julkaistun komission valkoisen kirjan tekoälystä ja pitää valitettavana, että sotilaallisia näkökohtia ei otettu huomioon; kehottaa komissiota ja korkeaa edustajaa/varapuheenjohtajaa myös osana yleistä lähestymistapaa esittämään unionin kehyksessä puolustukseen liittyvää toimintaa koskevan alakohtaisen tekoälystrategian, jolla varmistetaan sekä kansalaisten oikeuksien että unionin strategisten etujen kunnioittaminen ja joka perustuu johdonmukaiseen lähestymistapaan tekoälyä hyödyntävien järjestelmien perustamisesta niiden sotilaalliseen käyttöön, ja perustamaan tekoälyä käsittelevän korkean tason asiantuntijaryhmän yhteyteen turvallisuutta ja puolustusta käsittelevän työryhmän, jonka olisi käsiteltävä erityisesti tekoälyyn liittyviä poliittisia ja investointikysymyksiä sekä tekoälyn eettisiä näkökohtia turvallisuus- ja puolustuspolitiikassa; kehottaa neuvostoa, Euroopan komissiota ja varapuheenjohtajaa / korkeaa edustajaa aloittamaan tätä varten jäsennellyn vuoropuhelun Euroopan parlamentin kanssa.

TIEDOT HYVÄKSYMISESTÄ
LAUSUNNON ANTAVASSA VALIOKUNNASSA

Hyväksytty (pvä)

22.6.2020

 

 

 

Lopullisen äänestyksen tulos

+:

–:

0:

60

7

2

Lopullisessa äänestyksessä läsnä olleet jäsenet

Alviina Alametsä, Maria Arena, Petras Auštrevičius, Traian Băsescu, Lars Patrick Berg, Anna Bonfrisco, Reinhard Bütikofer, Fabio Massimo Castaldo, Susanna Ceccardi, Włodzimierz Cimoszewicz, Katalin Cseh, Tanja Fajon, Anna Fotyga, Michael Gahler, Kinga Gál, Sunčana Glavak, Raphaël Glucksmann, Klemen Grošelj, Bernard Guetta, Márton Gyöngyösi, Sandra Kalniete, Karol Karski, Dietmar Köster, Stelios Kouloglou, Andrius Kubilius, Ilhan Kyuchyuk, David Lega, Miriam Lexmann, Nathalie Loiseau, Antonio López-Istúriz White, Claudiu Manda, Lukas Mandl, Thierry Mariani, David McAllister, Vangelis Meimarakis, Sven Mikser, Francisco José Millán Mon, Javier Nart, Gheorghe-Vlad Nistor, Urmas Paet, Kostas Papadakis, Tonino Picula, Manu Pineda, Kati Piri, Giuliano Pisapia, Diana Riba i Giner, María Soraya Rodríguez Ramos, Nacho Sánchez Amor, Isabel Santos, Jacek Saryusz-Wolski, Andreas Schieder, Radosław Sikorski, Sergei Stanishev, Tineke Strik, Hermann Tertsch, Hilde Vautmans, Harald Vilimsky, Idoia Villanueva Ruiz, Thomas Waitz, Witold Jan Waszczykowski, Charlie Weimers, Isabel Wiseler-Lima, Željana Zovko

Lopullisessa äänestyksessä läsnä olleet varajäsenet

Katarina Barley, Nicolas Bay, Arnaud Danjean, Katrin Langensiepen, Hannah Neumann, Mick Wallace

 


LOPULLINEN ÄÄNESTYS NIMENHUUTOÄÄNESTYKSENÄ
LAUSUNNON ANTAVASSA VALIOKUNNASSA

60

+

EPP

Traian Băsescu, Arnaud Danjean, Michael Gahler, Kinga Gál, Sunčana Glavak, Sandra Kalniete, Andrius Kubilius, David Lega, Miriam Lexmann, Antonio López‑Istúriz White, Lukas Mandl, David McAllister, Vangelis Meimarakis, Francisco José Millán Mon, Gheorghe‑Vlad Nistor, Radosław Sikorski, Isabel Wiseler‑Lima, Željana Zovko

S&D

Maria Arena, Katarina Barley, Włodzimierz Cimoszewicz, Tanja Fajon, Raphaël Glucksmann, Dietmar Köster, Claudiu Manda, Sven Mikser, Tonino Picula, Kati Piri, Giuliano Pisapia, Nacho Sánchez Amor, Isabel Santos, Andreas Schieder, Sergei Stanishev

RENEW

Petras Auštrevičius, Katalin Cseh, Klemen Grošelj, Bernard Guetta, Ilhan Kyuchyuk, Nathalie Loiseau, Javier Nart, Urmas Paet, María Soraya Rodríguez Ramos, Hilde Vautmans

ID

Anna Bonfrisco, Susanna Ceccardi

VERTS

Alviina Alametsä, Reinhard Bütikofer, Katrin Langensiepen, Hannah Neumann, Diana Riba i Giner, Tineke Strik, Thomas Waitz

ECR

Anna Fotyga, Karol Karski, Jacek Saryusz‑Wolski, Hermann Tertsch, Witold Jan Waszczykowski, Charlie Weimers

NI

Fabio Massimo Castaldo, Márton Gyöngyösi

 

7

-

GUE

Stelios Kouloglou, Manu Pineda, Idoia Villanueva Ruiz, Mick Wallace

ID

Nicolas Bay, Thierry Mariani

NI

Kostas Papadakis

 

2

0

ID

Lars Patrick Berg, Harald Vilimsky

 

Symbolien selitys:

+ : puolesta

- : vastaan

0 : tyhjää

 

 


 

 

SISÄMARKKINA- JA KULUTTAJANSUOJAVALIOKUNNAN LAUSUNTO (8.7.2020)

<CommissionInt>oikeudellisten asioiden valiokunnalle</CommissionInt>


<Titre>suosituksista komissiolle tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien eettisten näkökohtien kehyksestä</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Valmistelija: <Depute>Alexandra Geese </Depute>

(Aloite – työjärjestyksen 47 artikla)

 

(*) Valiokuntien yhteistyömenettely – työjärjestyksen 57 artikla

 

 

 

 

 

EHDOTUKSET

Sisämarkkina- ja kuluttajansuojavaliokunta pyytää asiasta vastaavaa oikeudellisten asioiden valiokuntaa

 sisällyttämään seuraavat ehdotukset päätöslauselmaesitykseen, jonka se myöhemmin hyväksyy:

 

A. toteaa, että eettinen ohjeistus, kuten tekoälyä käsittelevän korkean tason asiantuntijaryhmän hyväksymät periaatteet, on hyvä lähtökohta, mutta se ei riitä varmistamaan, että yritykset toimivat oikeudenmukaisesti ja takaavat tehokkaan kuluttajansuojan;

 

Soveltamisala

1. korostaa, että on tärkeää ottaa käyttöön EU:n sääntelykehys, jossa keskitytään tekoälyn, robotiikan ja niihin liittyvän teknologian eettisiin näkökohtiin ja jota sovelletaan tilanteissa, joissa kuluttajat unionissa käyttävät tai heitä ohjataan käyttämään algoritmista järjestelmää tai he ovat tällaisen järjestelmän piirissä tai kohteena riippumatta siitä, mihin järjestelmää kehittävät, myyvät tai sitä käyttävät yhteisöt ovat sijoittautuneet; katsoo lisäksi, että vahvistettuja sääntöjä olisi oikeusvarmuuden vuoksi sovellettava kaikkiin kehittäjiin ja koko arvoketjuun eli asiaankuuluvien teknologioiden ja niiden osien kehittämiseen, käyttöönottoon ja käyttöön ja että niillä olisi taattava korkeatasoinen kuluttajansuoja; muistuttaa perussopimuksissa tarkoitettujen unionin arvojen merkityksestä henkilötietojen suojan sekä nimenomaisen ja tietoon perustuvan suostumuksen antamisen osalta ja ehdottaa, että näissä säännöissä otetaan huomioon kokemukset, joita on saatu maailmanlaajuisena vertailukohtana pidetyn asetuksen (EU) N:o 2016/679[19] (yleinen tietosuoja-asetus) täytäntöönpanosta; katsoo, että unioniin sijoittautunut laillinen edustaja, jolle voidaan esittää esimerkiksi kuluttajien oikeussuojaa koskevia pyyntöjä, on tärkeä EU:n tulevan sääntelykehyksen täytäntöönpanon kannalta;

 

2. toteaa, että EU:n sääntelykehystä olisi sovellettava algoritmisiin järjestelmiin tekoälyn, esineiden internetin, koneoppimisen, sääntöpohjaisten järjestelmien, automatisoitujen ja koneavusteisten päätöksentekoprosessien ja robotiikan alat mukaan lukien; toteaa lisäksi, että voitaisiin kehittää vakiomuotoisia kuvakkeita, joiden avulla tällaisia järjestelmiä voidaan selittää kuluttajille silloin, kun ne ovat monimutkaisia tai niillä on valta tehdä päätöksiä, jotka vaikuttavat merkittävästi heidän elämäänsä;

 

3. korostaa, että EU:n sääntelykehyksessä on noudatettava ihmiskeskeistä lähestymistapaa ja sen tuloksena on kehitettävä järjestelmiä, joihin on sisäänrakennettu eurooppalaiset eettiset arvot; katsoo, että EU:n sääntelykehys, jossa keskitytään perussopimuksissa tarkoitettuihin unionin arvoihin, toisi lisäarvoa ja antaisi Euroopalle ainutlaatuisen kilpailuedun sekä edistäisi merkittävästi unionin kansalaisten ja yritysten hyvinvointia ja vaurautta sekä vahvistaisi sisämarkkinoita; korostaa, että tekoälyä koskeva eettinen kehys toisi myös lisäarvoa sisämarkkinoilla innovoinnin edistämisen kannalta;

 

4. huomauttaa, että päätöksellä N:o 768/2008/EY[20] käyttöön otetussa lainsäädäntökehyksessä esitetään yhdenmukaistettu luettelo tuottajille, maahantuojille ja jakelijoille asetetuista velvoitteista, kannustetaan standardien käyttöön ja säädetään useista valvonnan tasoista tuotteen vaarallisuuden mukaan; katsoo, että tätä kehystä olisi sovellettava myös tuotteisiin, joihin on sisällytetty tekoäly;

 

5. korostaa, että kaikessa tulevassa sääntelyssä olisi noudatettava eriytettyä riskiperusteista lähestymistapaa, joka mahdollistaa turvallisten ja luotettavien järjestelmien kehittämisen ja käyttöönoton ja jossa on selvät perusteet ja indikaattorit, ja seuraavana vaiheena olisi oltava puolueeton oikeudellinen arviointi, joka perustuu yksilölle ja koko yhteiskunnalle mahdollisesti aiheutuviin haittoihin tai oikeuksien loukkauksiin ja jossa otetaan huomioon kyseisen algoritmisen järjestelmän käyttöyhteys; painottaa, että oikeudellisia velvoitteita ja sertifiointivaatimuksia olisi asteittain lisättävä arvioitua riskitasoa vastaavasti; korostaa, että alhaisimmassa riskiluokassa ei pitäisi olla ylimääräisiä oikeudellisia velvoitteita; toteaa, että alhaisimpaan riskiluokkaan ei voida luokitella sellaisia algoritmisia järjestelmiä, jotka voivat vahingoittaa yksilöä, aiheuttaa yksilön oikeuksien mahdollisia loukkauksia tai vaikuttaa yksilön mahdollisuuksiin saada julkisista varoista myönnettäviä etuuksia; toteaa, että riskiperusteisessa lähestymistavassa olisi noudatettava selkeitä ja avoimia sääntöjä, jotka tarjoavat riittävästi oikeusvarmuutta ja joissa otetaan samalla huomioon tulevaisuuden vaatimukset; kehottaa panemaan riskiluokitusjärjestelmän ja siihen liittyvät oikeudelliset velvoitteet yhdenmukaisesti täytäntöön, jotta varmistetaan tasapuoliset toimintaedellytykset jäsenvaltioiden välillä ja estetään sisämarkkinoiden pirstoutuminen; painottaa, että yksittäisen järjestelmän riskinarviointi on uusittava säännöllisesti;

 

6. muistuttaa, että komission olisi tarkasteltava EU:n nykyistä oikeudellista kehystä ja sen soveltamista, kuluttajansuoja-, tuotevastuu-, tuoteturvallisuus- ja markkinavalvontalainsäädäntö mukaan lukien, jotta voidaan kartoittaa lainsäädännön puutteet ja nykyiset sääntelyvelvoitteet; katsoo, että tämä on tarpeen sen varmistamiseksi, soveltuuko EU:n nykyinen oikeudellinen kehys vastaamaan tekoälyn, robotiikan ja niihin liittyvän teknologian kehittymiseen ja voidaanko sen avulla taata korkeatasoinen kuluttajansuoja;

 

Tiedonhallinta

7. pitää tärkeänä EU:n sääntely- ja eettistä kehystä, johon sisältyy erityisesti säännöksiä, joissa edellytetään korkealaatuisen datan käyttöä algoritmisten järjestelmien kouluttamiseen suhteessa niiden käyttötarkoitukseen; korostaa tässä yhteydessä tarvetta varmistaa käytetyn opetusdatan edustavuus ja, jos mahdollista, datakokonaisuuksien vinoumien korjaaminen sekä ottaa käyttöön dataa ja tietojen koostamista koskevia standardeja, jotta voidaan parantaa algoritmisten järjestelmien tuotosta ja lisätä kuluttajien luottamusta ja hyväksyntää; korostaa, että toimivaltaisten viranomaisten olisi voitava tarkastaa nämä datakokonaisuudet aina kun tahdotaan varmistaa, että ne ovat edellä mainittujen periaatteiden mukaisia;

 

Kuluttajansuoja: algoritmien avoimuus ja selitettävyys

8. korostaa, että kuluttajien luottamus on olennaisen tärkeää tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisessä ja toteuttamisessa ja että näihin teknologioihin voi liittyä luontaisia riskejä silloin, kun ne perustuvat läpinäkymättömiin algoritmeihin ja puolueellisiin datakokonaisuuksiin; katsoo, että kuluttajilla olisi oltava oikeus saada riittävästi ymmärrettävää, oikea-aikaista, standardoitua, paikkansapitävää ja helposti saatavilla olevaa tietoa algoritmisten järjestelmien olemassaolosta, päättelyprosesseista, mahdollisista lopputuloksista ja vaikutuksista kuluttajiin sekä siitä, kuinka saada yhteys päätösvaltaiseen ihmiseen, ja siitä, kuinka järjestelmän tekemiä päätöksiä voidaan tarkistaa ja miten ne voidaan merkityksellisesti riitauttaa ja korjata; muistuttaa, että ihmisillä on aina oltava mahdollisuus kumota automatisoidut päätökset; katsoo, että kuluttajia olisi suojeltava myös antamalla heille oikeus kytkeä personointia käyttävä tekoälyjärjestelmä pois päältä tai rajoittaa sitä, jos se on mahdollista; korostaa, että tällaisen avoimuuskehyksen kehittämisessä on tärkeää ottaa huomioon suhteellisuusperiaate, jotta vältetään tarpeettoman rasitteen aiheuttamista vähäriskisillä aloilla toimiville startup-yrityksille ja pk-yrityksille;

 

9. painottaa tarvetta vastata tehokkaasti algoritmisten järjestelmien aiheuttamiin haasteisiin ja varmistaa, että kuluttajilla on vaikutusmahdollisuuksia ja että heitä suojellaan asianmukaisesti; korostaa tarvetta tarkastella asiaa laajemmin kuin vain perinteisten tiedonsaantia ja tietojen julkistamista koskevien periaatteiden kannalta, joiden varaan kuluttajansuojasäännöstö on rakennettu, sillä kuluttajan oikeuksia on vahvistettava ja algoritmisten järjestelmien kehittämiselle ja käytölle on asetettava selviä rajoituksia, jotta varmistetaan, että teknologia parantaa osaltaan kuluttajien elämää ja kehittyy tavalla, jossa kunnioitetaan perusoikeuksia ja kuluttajan oikeuksia sekä eurooppalaisia arvoja;

 

10. katsoo, että suunnittelussa tarvitaan ehdottomasti arvot huomioon ottavaa lähestymistapaa, jotta tekoälyllä on mahdollisuus saavuttaa yleinen yhteiskunnallinen hyväksyntä kuluttajien keskuudessa; katsoo, että oikeudenmukaisuutta, tarkkuutta, luottamuksellisuutta ja avoimuutta koskevien eettisten arvojen olisi oltava tekoälyn perustana, mikä tarkoittaa tässä yhteydessä sitä, että järjestelmän olisi toimittava niin, ettei se tuota epäoikeudenmukaisesti puolueellisia tuotoksia;

 

11. muistuttaa, että on tärkeää varmistaa tehokkaiden oikeussuojakeinojen saatavuus kuluttajille, ja kehottaa jäsenvaltioita ja kansallisia markkinavalvontaviranomaisia varmistamaan, että käytettävissä on helposti saatavilla olevia, kohtuuhintaisia, riippumattomia ja tehokkaita menettelyjä ja tarkastelumekanismeja, joilla taataan puolueeton ihmisen suorittama tarkastelu aina, kun esitetään väitteitä kuluttajan oikeuksien loukkauksista algoritmisten järjestelmien käytön yhteydessä riippumatta siitä, onko kyse julkisen tai yksityisen sektorin toimijoista; vaatii, että kuluttajien yhteisten etujen suojaamiseksi nostettavista edustajakanteista sekä direktiivin 2009/22/EY kumoamisesta annetun Euroopan parlamentin ja neuvoston direktiivin[21] mukaiset riitojenratkaisumekanismit ja kollektiiviset oikeussuojakeinot olisi asetettava saataville, jotta voidaan riitauttaa sellaisen järjestelmän käyttöönotto tai käyttö, johon liittyy riski kuluttajien oikeuksien loukkaamisesta, tai korjata oikeuksien loukkaus; pyytää komissiota varmistamaan, että kansallisilla ja eurooppalaisilla kuluttajajärjestöillä on riittävästi rahoitusta, jotta ne voivat auttaa kuluttajia käyttämään oikeuttaan oikeussuojakeinoihin tapauksissa, joissa tekoälysovelluksiin perustuvat päätökset loukkaavat kuluttajien oikeuksia;

 

12. korostaa, että kun julkisista lähteistä peräisin olevilla varoilla edistetään merkittävästi algoritmisen järjestelmän kehittämistä tai toteuttamista, avoimen hankintamenettelyn ja avointen sopimusstandardien lisäksi koodi, tuotettu data – siltä osin kuin se ei ole henkilökohtaista – ja opetettu malli voisivat olla oletusarvoisesti julkisia kehittäjän suostumuksella, jotta voidaan taata avoimuus, tehostaa kyberturvallisuutta sekä mahdollista uudelleenkäyttö ja tukea näin innovointia; korostaa, että näin voidaan hyödyntää sisämarkkinoiden koko potentiaalia ja välttää markkinoiden pirstoutuminen;

 

Sisämarkkinat: kuluttajavalistus ja kuluttajien tietoisuus

13. korostaa, että on tärkeää varmistaa, että kaikkien kuluttajien edut otetaan asianmukaisesti huomioon ja ne ovat edustettuina tulevassa EU:n sääntelykehyksessä, mukaan lukien marginalisoitujen tai haavoittuvassa asemassa olevien kuluttajien, kuten vammaisten henkilöiden, edut; toteaa, että algoritmisten järjestelmien kuluttajiin kohdistuvien vaikutusten analysoimiseksi tietojen saatavuutta voitaisiin laajentaa niin, että myös asianmukaisille osapuolille, kuten erityisesti riippumattomille tutkijoille, tiedotusvälineille ja kansalaisjärjestöille, sallittaisiin mahdollisuuksien mukaan pääsy niihin sovellusrajapintojen kautta, samalla kun noudatetaan täysimääräisesti unionin tietosuojalainsäädäntöä sekä yksityisyyden suojaa ja liikesalaisuuksia koskevaa lainsäädäntöä; muistuttaa, että on tärkeää kouluttaa kuluttajia niin, että heillä on entistä paremmat tiedot ja taidot, kun he ovat tekemisissä algoritmisten järjestelmien kanssa, jotta heitä voidaan suojella mahdollisilta riskeiltä ja heidän oikeuksiaan voidaan puolustaa; katsoo, että tekoälyllä, esineiden internetillä ja muilla uusilla teknologioilla on valtava potentiaali tarjota kuluttajille mahdollisuuksia saada monenlaisia mukavuuksia, jotka helpottavat heidän jokapäiväistä elämäänsä monin tavoin, sekä mahdollistaa parempia tuotteita ja palveluja, samalla kun kuluttajat hyötyvät niiden myötä myös paremmasta markkinavalvonnasta, kunhan kaikkia sovellettavia periaatteita, ehtoja (mukaan lukien avoimuus ja tarkastettavuus) ja säännöksiä sovelletaan edelleen;

 

14. korostaa, että on tärkeää saavuttaa korkea yleinen digitaalisen lukutaidon taso ja kouluttaa erittäin päteviä ammattilaisia tälle alalle sekä varmistaa tällaisten tutkintojen vastavuoroinen tunnustaminen kaikkialla unionissa; korostaa, että tarvitaan monimuotoisia kehittäjä- ja insinööriryhmiä, jotka työskentelevät keskeisten yhteiskunnallisten toimijoiden rinnalla, jotta estetään sukupuoleen ja kulttuuriin liittyvien ennakkokäsitysten tahaton sisällyttäminen tekoälyalgoritmeihin, -järjestelmiin ja -sovelluksiin; tukee tekoälyn yhteiskunnallisia, oikeudellisia ja eettisiä vaikutuksia käsittelevien opetusohjelmien ja tiedotustoimien kehittämistä;

 

15. kehottaa komissiota edistämään ja rahoittamaan sellaisen ihmiskeskeisen tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, joilla puututaan ympäristöön ja ilmastoon liittyviin haasteisiin ja joilla varmistetaan yhdenvertaiset mahdollisuudet nauttia perusoikeuksista, ja käyttämään tässä verotukseen tai hankintoihin liittyviä tai muita kannustimia;

 

16. korostaa, että tekoälyn ja algoritmisten järjestelmien olisi oltava sisäänrakennetusti lainmukaisia, luotettavia ja turvallisia; kehottaa komissiota varmistamaan, että algoritmisia järjestelmiä koskeva unionin sääntely sisältää asianmukaisia toimenpiteitä, joilla mahdollistetaan tällaisten järjestelmien riippumaton valvonta ja seuranta;

 

Markkinavalvonta

17. kehottaa perustamaan eurooppalaisen asiantuntijakeskuksen, jolla vahvistetaan unionin valmiuksia ja joka pohjautuu mahdollisimman pitkälti jo olemassa oleviin rakenteisiin, edistämään algoritmisiin järjestelmiin liittyvää tietojenvaihtoa jäsenvaltioiden viranomaisten välillä ja tukemaan yhteisymmärryksen kehittymistä sisämarkkinoilla tarjoamalla ohjeita, lausuntoja ja asiantuntemusta jäsenvaltioiden viranomaisille, seuraamalla asiaa koskevan unionin lainsäädännön täytäntöönpanoa, puuttumalla mahdollisiin kuluttajansuojakysymyksiin, määrittämällä parhaita käytäntöjä koskevia standardeja ja antamalla tarvittaessa suosituksia sääntelytoimenpiteistä; kehottaa lisäksi, että sidosryhmäorganisaatiot, kuten kuluttajansuojajärjestöt, neuvoisivat asianmukaisesti tätä rakennetta, jotta varmistetaan kuluttajien laaja edustus; katsoo, että algoritmisten järjestelmien suhteettomasti naisiin ja vähemmistöihin kohdistuvien vaikutusten vuoksi tällaisen rakenteen päätöksentekotasojen olisi oltava monimuotoisia ja niissä olisi taattava sukupuolten tasapuolinen edustus; korostaa, että jäsenvaltioiden on kehitettävä tekoälyä koskevia riskinhallintastrategioita kansallisten markkinavalvontastrategioidensa yhteydessä;

 

18. kehottaa komissiota ehdottamaan datan jäljitettävyyttä koskevia toimenpiteitä ottaen huomioon sekä datan keräämisen laillisuuden että kuluttajan oikeuksien ja perusoikeuksien suojelun; korostaa samalla, että algoritmisten järjestelmien kehittämisessä ja käyttöönotossa käytetyt datakokonaisuudet, algoritmit ja prosessit, datan kerääminen ja luokittelu mukaan lukien, olisi dokumentoitava toimialan standardien mukaisesti; pitää olennaisena, että riskinarviointia koskeva dokumentaatio, ohjelmistodokumentaatio sekä tekoälyn, robotiikan tai niihin liittyvän teknologian käyttämät tai tuottamat algoritmit ja datakokonaisuudet ovat markkinavalvontaviranomaisten saatavissa ja selitettävissä näille, samalla kun noudatetaan unionin lainsäädäntöä ja kunnioitetaan liikesalaisuuksia; toteaa lisäksi, että algoritmisten järjestelmien kehittämisen eri vaiheisiin osallistuvien tahojen olisi tallennettava tällainen dokumentaatio; katsoo, että markkinavalvontaviranomaisille olisi annettava tässä yhteydessä lisäoikeuksia; katsoo, että nykyisen markkinavalvontalainsäädännön tarkastelu voi olla tarpeen sen vanhentumisen välttämiseksi ja jotta varmistetaan, että se vastaa eettisellä tavalla tekoälyn, robotiikan ja niihin liittyvän teknologian yleistymiseen;

 

19. kehottaa kutakin jäsenvaltiota nimeämään toimivaltaisen kansallisen viranomaisen valvomaan algoritmisia järjestelmiä koskevien säännösten soveltamista ja myöntämään sille riittävän rahoituksen; korostaa, että kansallisia markkinavalvontaviranomaisia on vahvistettava tekoälyyn liittyvien valmiuksien, taitojen ja osaamisen sekä sen erityisiä riskejä koskevan tietämyksen osalta;

 

20. kehottaa koordinoimaan tiiviisti jäsenvaltioiden viranomaisia sekä perustamaan kansallisista viranomaisista koostuvan algoritmisten järjestelmien eurooppalaisen markkinavalvontaryhmän, jotta varmistetaan tehokas valvonta ja tasapuoliset toimintaedellytykset unionissa sekä vältetään sisämarkkinoiden pirstoutuminen;

 

21. panee merkille tekoälyä käsittelevän korkean tason asiantuntijaryhmän arvokkaan työn ja erityisesti ”Luotettavaa tekoälyä koskevat eettiset ohjeet”; ehdottaa, että tämä ryhmä, joka koostuu tiedeyhteisön, kansalaisyhteiskunnan ja teollisuuden sekä eurooppalaisen tekoälyallianssin edustajista, voisi tarjota asiantuntemusta algoritmisten järjestelmien eurooppalaiselle markkinavalvontaryhmälle;

 

22. katsoo, että erityisesti yritysten ja kuluttajien välisillä aloilla järjestelmien olisi oltava käyttäjälähtöisiä ja ne olisi suunniteltava siten, että kaikki ikään, sukupuoleen, taitoihin tai ominaisuuksiin katsomatta voivat käyttää tekoälytuotteita tai -palveluja; pitää erityisen tärkeänä, että vammaiset henkilöt voivat käyttää tätä teknologiaa; katsoo, että tekoälyjärjestelmissä ei pitäisi käyttää yhtä kaikkiin sovellettavaa lähestymistapaa ja että niissä olisi otettava huomioon kaikkia palvelevan suunnittelun periaatteet, joissa otetaan huomioon mahdollisimman erilaiset käyttäjät asianomaisia esteettömyysstandardeja noudattaen; painottaa, että näin mahdollistetaan yksilöille tasa-arvoinen pääsy ja aktiivinen osallistuminen nykyisen ja kehittyvän tietokonevälitteisen inhimillisen toiminnan ja apuvälineteknologian alalla.

 


TIEDOT HYVÄKSYMISESTÄ
LAUSUNNON ANTAVASSA VALIOKUNNASSA

Hyväksytty (pvä)

7.7.2020

 

 

 

Lopullisen äänestyksen tulos

+:

–:

0:

39

1

4

Lopullisessa äänestyksessä läsnä olleet jäsenet

Alex Agius Saliba, Andrus Ansip, Alessandra Basso, Brando Benifei, Adam Bielan, Hynek Blaško, Biljana Borzan, Vlad-Marius Botoş, Markus Buchheit, Dita Charanzová, Deirdre Clune, David Cormand, Petra De Sutter, Carlo Fidanza, Evelyne Gebhardt, Alexandra Geese, Sandro Gozi, Maria Grapini, Svenja Hahn, Virginie Joron, Eugen Jurzyca, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Andrey Kovatchev, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Adriana Maldonado López, Antonius Manders, Beata Mazurek, Leszek Miller, Kris Peeters, Anne-Sophie Pelletier, Christel Schaldemose, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Kim Van Sparrentak, Marion Walsmann, Marco Zullo

Lopullisessa äänestyksessä läsnä olleet varajäsenet

Pascal Arimont, Maria da Graça Carvalho, Edina Tóth, Stéphanie Yon-Courtin


LOPULLINEN ÄÄNESTYS NIMENHUUTOÄÄNESTYKSENÄ
LAUSUNNON ANTAVASSA VALIOKUNNASSA

39

+

EPP

S&D

RENEW

GREENS/EFA

ECR

EUL/NGL

NI

Pascal Arimont, Maria da Graça Carvalho, Deirdre Clune, Arba Kokalari, Andrey Kovatchev, Antonius Manders, Kris Peeters, Andreas Schwab, Tomislav Sokol, Ivan Štefanec, Edina Tóth, Marion Walsmann

Alex Agius Saliba, Brando Benifei, Biljana Borzan, Evelyne Gebhardt, Maria Grapini, MariaManuel LeitãoMarques, Adriana Maldonado López, Leszek Miller, Christel Schaldemose

Andrus Ansip, VladMarius Botoş, Dita Charanzová, Sandro Gozi, Svenja Hahn, Stéphanie YonCourtin

David Cormand, Petra De Sutter, Alexandra Geese, Marcel Kolaja, Kimvan Sparrentak

Adam Bielan, Carlo Fidanza, Eugen Jurzyca, Beata Mazurek

Kateřina Konečná, AnneSophie Pelletier

Marco Zullo

 

1

-

ID

Hynek Blaško

 

4

0

ID

Alessandra Basso, Markus Buchheit, Virginie Joron, JeanLin Lacapelle

 

Symbolien selitys:

+ : puolesta

- : vastaan

0 : tyhjää

 


 

 

LIIKENNE- JA MATKAILUVALIOKUNNAN LAUSUNTO (16.7.2020)

<CommissionInt>oikeudellisten asioiden valiokunnalle</CommissionInt>


<Titre>suosituksista komissiolle tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien eettisten näkökohtien kehyksestä</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Valmistelija: <Depute>Valter Flego</Depute>

(*) Valiokuntien yhteistyömenettely – työjärjestyksen 57 artikla

 

 

(Aloite – työjärjestyksen 47 artikla)

 

 

EHDOTUKSET

Liikenne- ja matkailuvaliokunta pyytää asiasta vastaavaa oikeudellisten asioiden valiokuntaa sisällyttämään seuraavat ehdotukset päätöslauselmaesitykseen, jonka se myöhemmin hyväksyy:

A. ottaa huomioon, että tekoäly on liikennealan kannalta strategisesti tärkeä teknologian osa-alue ja että sen odotetaan hyödyttävän kansalaisia ja yhteiskuntaa parantamalla elämänlaatua ja kaikkien liikennemuotojen turvallisuustasoa sekä luomalla uusia työllistymismahdollisuuksia ja kestävämpiä liiketoimintamalleja; katsoo, että tekoäly voi muuttaa yhteiskuntaa huomattavasti varsinkin, jos siitä tehdään laajalti saatavilla ja käytettävissä oleva teknologia;

B. ottaa huomioon, että tekoälyn täysi potentiaali liikennealalla voidaan hyödyntää vain, jos käyttäjät ovat tietoisia tällaisen teknologian mukanaan tuomista mahdollisista hyödyistä ja haasteista; toteaa, että tämä asia on otettava huomioon koulutuksessa muun muassa digitaalisen osallisuuden edistämisen kannalta ja että unionin tasolla on toteutettava tiedotuskampanjoita, joissa annetaan paikkansapitävä kuva tekoälyn kehityksen kaikista näkökohdista;

C. ottaa huomioon, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevan eurooppalaisen lähestymistavan on oltava eettisten periaatteiden mukainen, jotta varmistetaan, että tekoäly, robotiikka ja niihin liittyvä teknologia ovat ihmiskeskeisiä, parannetaan ihmisten hyvinvointia ja turvallisuutta sekä yhteiskunnan ja ympäristön hyvinvointia, puututaan asiaan liittyviin eettisiin ongelmiin, kunnioitetaan täysin EU:n perusoikeuksia, -arvoja ja -periaatteita sekä noudatetaan täysin unionin yksityisyyden suojaa ja tietosuojaa koskevaa lainsäädäntöä; toteaa, että lähestymistavassa on puututtava myös kysymyksiin algoritmisissa järjestelmissä käytettävien tietojoukkojen laadusta, itse algoritmeista sekä dataa ja tietojen koostamista koskevista standardeista;

D. ottaa huomioon, että luotettavan tekoälyn on perustuttava seuraaviin neljään eettiseen periaatteeseen: ihmisten itsemääräämisoikeuden kunnioittaminen, haittojen ehkäiseminen, oikeudenmukaisuus ja selitettävyys; katsoo, että näiden eettisten periaatteiden noudattaminen edellyttää erityisten sääntöjen ottamista käyttöön EU:n liikennealalla;

E. ottaa huomioon, että inhimillinen virhe on edelleen taustatekijänä noin 95 prosentissa kaikista liikenneonnettomuuksista unionissa; ottaa huomioon, että unionissa pyrittiin vähentämään vuosittaista liikennekuolemien määrää 50 prosentilla vuoteen 2020 mennessä verrattuna vuoteen 2010, mutta kun tavoitteen saavuttamisessa ei juurikaan edistytty, toimia jatkettiin EU:n liikenneturvallisuuspolitiikan puitteissa vuosiksi 2021–2030 – seuraavat vaiheet Vision Zero -tavoitteen saavuttamiseksi; toteaa tässä yhteydessä, että tekoäly, automaatio ja muut uudet teknologiat tarjoavat merkittäviä mahdollisuuksia ja ovat äärimmäisen tärkeitä tieturvallisuuden parantamisen kannalta, koska niiden avulla voidaan vähentää inhimillisten virheiden mahdollisuuksia;

F. ottaa huomioon, että tekoäly, automaatio ja muut uudet teknologiat voivat myös osaltaan vähentää ruuhkia sekä kasvihuonekaasujen ja ilman epäpuhtauksien päästöjä;

G. ottaa huomioon, että eettisesti vastuullisen, ihmiskeskeisen ja teknologisesti luotettavan tekoälyn, robotiikan ja niihin liittyvän teknologian tuottaminen liikennettä varten tarjoaa unionin yrityksille, pk-yritykset mukaan lukien, liiketoimintamahdollisuuden nousta johtaviksi globaaleiksi toimijoiksi tällä alalla;

H. ottaa huomioon, että tällaiset uudet liiketoimintamahdollisuudet voivat myötävaikuttaa unionin teollisuuden elpymiseen nykyisestä terveys- ja talouskriisistä sekä laajamittaisempaan tekoälyteknologian hyödyntämiseen liikennealalla; toteaa, että tällaiset mahdollisuudet luovat uusia työpaikkoja, koska tekoälyn ja siihen liittyvän teknologian käyttöönotto voi lisätä yritysten tuottavuutta ja tuottaa tehokkuushyötyjä; katsoo, että alan innovointiohjelmat voivat mahdollistaa alueellisten klustereiden menestymisen;

I. ottaa huomioon, että eurooppalaisella lähestymistavalla tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämiseen liikennealalla on mahdollista lisätä unionin talouden globaalia kilpailukykyä ja strategista riippumattomuutta;

J. ottaa huomioon, että julkisen liikenteen kaltaisilla aloilla älykkäiden liikennejärjestelmien tekoälyjärjestelmiä voidaan käyttää minimoimaan jonoja, optimoimaan reittien suunnittelua, mahdollistamaan vammaisten henkilöiden suurempi riippumattomuus sekä lisäämään energiatehokkuutta ja siten tehostamaan hiilestä irtautumista ja pienentämään ympäristöjalanjälkeä;

1. korostaa tekoälyn, robotiikan ja niihin liittyvän teknologian käyttömahdollisuuksia kaikessa itseohjautuvassa tie-, raide-, vesi- ja lentoliikenteessä sekä myös niiden potentiaalia edistää liikennemuotosiirtymää ja intermodaalisuutta, koska tällaiset teknologiat voivat auttaa löytämään optimaalisen liikennemuotoyhdistelmän tavaroiden ja matkustajien kuljetuksessa; painottaa lisäksi niiden potentiaalia tehdä liikenteestä, logistiikasta ja liikennevirroista tehokkaampia ja kaikista liikennemuodoista turvallisempia, älykkäämpiä ja ympäristöystävällisempiä; huomauttaa, että eettinen tekoälyä koskeva lähestymistapa voidaan nähdä myös ennakkovaroitusjärjestelmänä erityisesti liikenteen turvallisuuden ja tehokkuuden kannalta;

2. korostaa, että yritysten ja talousalueiden globaali kilpailu tarkoittaa, että unionin on edistettävä liikennealalla toimivien yritysten investointeja ja vahvistettava niiden kansainvälistä kilpailukykyä luomalla tekoälysovellusten ja uusien innovaatioiden kehittämistä ja soveltamista suosivan ympäristön, jossa unioniin sijoittuneista yrityksistä voi kehittyä johtavia toimijoita maailmassa tekoälyteknologian kehittämisen alalla;

3. korostaa, että EU:n liikennealalla tarvitaan päivitettyä sääntelykehystä, joka koskee tällaisia uusia teknologioita ja niiden käyttöä liikennealalla, sekä selkeää eettistä kehystä luotettavan tekoälyn varmistamiseksi niin, että siinä otetaan huomioon turvallisuuteen, ihmisten itsemääräämisoikeuden kunnioittamiseen, valvontaan ja vastuuvelvollisuuteen liittyvät näkökohdat, sillä näin lisätään kaikille yhteisesti koituvia hyötyjä ja pystytään edistämään investointeja tutkimukseen ja innovointiin, osaamisen kehittämistä sekä tekoälyn käyttöönottoa julkisissa palveluissa ja pk-, startup- ja muissa yrityksissä, samalla kun varmistetaan tietosuoja ja yhteentoimivuus ilman tarpeetonta hallinnollista rasitusta yrityksille ja kuluttajille; korostaa, että on olennaisen tärkeää varmistaa, että näitä uusia teknologioita koskevat sääntelykehyksen päivitykset perustuvat aina todelliseen tarpeeseen ja niissä noudatetaan paremman sääntelyn periaatetta, ja tähän liittyen

a) kehottaa komissiota esittämään selkeän eettisten periaatteiden kehyksen tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä, käyttöönottoa ja käyttöä varten liikennealalla; katsoo, että kaikkea tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa liikennealalla on kehitettävä, otettava käyttöön ja käytettävä näiden eettisten periaatteiden mukaisesti;

b) suosittelee kehittämään suuntaviivat tekoälyyn perustuvien teknologioiden yhdenmukaistettua riskiluokitusta varten kaikkien kuljetusmuotojen osalta ja ottamaan niissä huomioon, mitkä ajoneuvon toiminnot ovat ihmisten ja mitkä tekoälyn vastuulla, sekä selventämään turvallisuuteen liittyviä vastuita ja vaatimuksia;

c) kehottaa komissiota tarkastelemaan nykyisen algoritmisten järjestelmien eurooppalaisen markkinavalvontarakenteen käyttöä, siihen liittyvät tietosuojasäännökset mukaan lukien, ja tarjoamaan ohjeita, lausuntoja ja asiantuntemusta jäsenvaltioiden viranomaisille muun muassa yhteentoimivuudesta;

d) kehottaa komissiota perustamaan tekoälyä koskevan riskiluokitusjärjestelmän älykkäille liikennejärjestelmille korkean tason asiantuntijaryhmän tekemien arviointien mukaisesti, jotta liikennealan tuleviin tarpeisiin pystytään vastaamaan paremmin;

e) kehottaa komissiota kiinnittämään erityistä huomiota pk-yritysten tilanteeseen ja suunnittelemaan tulevan lainsäädännön siten, että sillä parannetaan tällaisten yritysten mahdollisuuksia kehittää ja käyttää tekoälyteknologiaa;

f) pitää tarpeellisena antaa loppukäyttäjille yksityiskohtaisia tietoja liikennejärjestelmien ja tekoälypohjaisten ajoneuvojen toiminnasta;

4. korostaa, että tekoälyteknologiaa koskevan eurooppalaisen lähestymistavan olisi turvattava ihmisten luottamus, palveltava yleistä etua ja lujitettava jaettua yhteiskunnallista vastuuta; pitää luotettavan, eettisesti vastuullisen ja teknisesti vakaan tekoälyn kehittämistä tärkeänä turvallisen ja esteettömän kestävän ja älykkään liikkuvuuden mahdollistamisen kannalta; kehottaa tässä yhteydessä komissiota jatkamaan tekoälyn käyttöönoton edistämistä liikennealalla ja ehdottamaan asiaankuuluvia muutoksia unionin lainsäädäntöön viivästyksettä ja läheisessä yhteistyössä liikennealan kaikkien sidosryhmien kanssa, jotta varmistetaan, että unionin perusoikeuksia kunnioitetaan;

5. korostaa, että tekoälyn kehittäminen ja käyttöönotto mahdollistavat turvalliset ja esteettömät liikennepalvelut;

6. suosittelee, että kaikille liikennemuodoille, autoteollisuus mukaan lukien, sekä tekoälyä hyödyntävien ajoneuvojen ja niihin liittyvien tuotteiden ja palvelujen testaamista varten kehitetään unionin laajuiset luotettavaa tekoälyä koskevat standardit, jotka koskevat turvallisuutta, yhteentoimivuutta, teknistä luotettavuutta, laitteistojen korjattavuutta ja kierrätettävyyttä ottaen huomioon myös resurssitehokkuuteen liittyvät kysymykset, yksityisyyttä, tietosuojaa ja avoimuutta;

7. kehottaa komissiota toimimaan tiiviisti yhteistyössä jäsenvaltioiden kanssa luotettavaa tekoälyä koskevien unionin standardien suunnittelemiseksi, toteuttamiseksi ja täytäntöönpanemiseksi; toteaa, että unionilla on mahdollisuus nousta globaaliin johtoasemaan tekoälyteknologiaa ja sen käyttöä koskevan yhteiskunnallisesti vastuullisen ja kestävän lähestymistavan edistäjänä;

8. kehottaa komissiota tutkimaan mahdollisuutta antaa seuranta-, täytäntöönpano- ja seuraamusmekanismit yhden tai useamman nykyisen asiaankuuluvan unionin tason viraston, toimielimen tai elimen vastuulle ja tarkastelemaan, miten nykyisiä liikennealan valvontavälineitä voidaan hyödyntää ja niiden pohjalta toteuttaa toimia, jotta varmistetaan unionin tason valvonta ja jotta komissio voi ryhtyä toimenpiteisiin, jos liikennekäytössä oleva tekoälyjärjestelmä toimii vastoin perusoikeuksia tai unionin eettistä kehystä ja turvallisuuspuitteita;

9. kehottaa komissiota tukemaan edelleen luotettavien tekoälyjärjestelmien kehittämistä, jotta liikenteestä voidaan tehdä turvallisempaa, tehokkaampaa, esteetöntä, kohtuuhintaista ja kaikki käyttäjät, myös liikuntarajoitteiset ja erityisesti vammaiset henkilöt, huomioivaa ottaen huomioon Euroopan parlamentin ja neuvoston direktiivin (EU) 2019/882[22] ja matkustajien oikeuksia koskevan unionin lainsäädännön;

10. pyytää kiinnittämään huomiota itseohjautuvien ajoneuvojen liikuntarajoitteisille henkilöille tarjoamaan korkeaan lisäarvoon, sillä tällaisten ajoneuvojen ansiosta heidän mahdollisuutensa yksityisautoiluun paranevat, mikä helpottaa heidän arkeaan;

 

11. korostaa esteettömyyden merkitystä etenkin kun suunnitellaan MaaS-järjestelmiä (liikkuminen palveluna);

 

12. korostaa datatieteen ratkaisevaa merkitystä, jotta voidaan kehittää syrjimättömiä tekoälyjärjestelmiä ja ehkäistä vaurioituneen datan käyttöä; suosittelee lisäksi, että tietojenkäsittelyssä noudatetaan yleisen tietosuoja-asetuksen mukaisia menettelyjä ja kunnioitetaan luottamuksellisuuden ja syrjimättömyyden periaatteita;

 

13. toteaa, että tekoälyjärjestelmät voisivat auttaa vähentämään liikennekuolemia merkittävästi esimerkiksi parantamalla reaktioaikoja ja sääntöjen noudattamista; pitää kuitenkin mahdottomana, että itseohjautuvien ajoneuvojen käyttö johtaisi kaikkien onnettomuuksien häviämiseen, ja korostaa, että tämä tekee tekoälyn tekemien päätösten selitettävyydestä entistä tärkeämpää, jotta tekoälyn tekemien päätösten puutteet ja tahattomat seuraukset pystytään perustelemaan;

 

14. katsoo, että tekoälyn tekemät päätökset sekä päätösten taustalla oleva ja niihin vaikuttava data on aina voitava selittää yleistajuisesti loppukäyttäjille ja muille sidosryhmille;

 

15. toteaa, että tekoälyn kehittäminen ja käyttöönottaminen liikennealalla ei ole mahdollista ilman modernia infrastruktuuria, joka on olennainen osa älykkäitä liikennejärjestelmiä; korostaa, että jäsenvaltioiden välillä sitkeästi vallitsevat erot kehitystasossa aiheuttavat riskin, että vähiten kehittyneet alueet ja niiden asukkaat jäävät paitsi itseohjautuvan liikenteen kehittämisen tuomista hyödyistä; kehottaa arvioimaan työmarkkinoille tulevaisuudessa aiheutuvia haasteita, jotka johtuvat tekoälyteknologian kehittämisestä liikennealalla, ja osoittamaan riittävästi varoja unionin infrastruktuurin nykyaikaistamiseen, mukaan lukien sen integrointiin osaksi 5G-verkkoa.


TIEDOT HYVÄKSYMISESTÄ
LAUSUNNON ANTAVASSA VALIOKUNNASSA

Hyväksytty (pvä)

14.7.2020

 

 

 

Lopullisen äänestyksen tulos

+:

–:

0:

49

0

0

Lopullisessa äänestyksessä läsnä olleet jäsenet

Magdalena Adamowicz, Andris Ameriks, José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Marco Campomenosi, Ciarán Cuffe, Jakop G. Dalunde, Johan Danielsson, Andor Deli, Karima Delli, Anna Deparnay-Grunenberg, Ismail Ertug, Gheorghe Falcă, Giuseppe Ferrandino, Mario Furore, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Elena Kountoura, Julie Lechanteux, Bogusław Liberadzki, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian-Jean Marinescu, Tilly Metz, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Caroline Nagtegaal, Jan-Christoph Oetjen, Philippe Olivier, Rovana Plumb, Dominique Riquet, Dorien Rookmaker, Massimiliano Salini, Barbara Thaler, István Ujhelyi, Elissavet Vozemberg-Vrionidi, Lucia Vuolo, Roberts Zīle, Kosma Złotowski

Lopullisessa äänestyksessä läsnä olleet varajäsenet

Leila Chaibi, Angel Dzhambazki, Markus Ferber, Carlo Fidanza, Maria Grapini, Roman Haider, Alessandra Moretti

 


 

LOPULLINEN ÄÄNESTYS NIMENHUUTOÄÄNESTYKSENÄ
LAUSUNNON ANTAVASSA VALIOKUNNASSA

49

+

ECR Group

Angel Dzhambazki, Carlo Fidanza, Roberts Zīle, Kosma Złotowski

GUE/NGL Group

Leila Chaibi, Kateřina Konečná, Elena Kountoura

ID Group

Marco Campomenosi, Roman Haider, Julie Lechanteux, Philippe Olivier, Lucia Vuolo

NI

Dorien Rookmaker, Mario Furore,

PPE Group

Magdalena Adamowicz, Andor Deli, Gheorghe Falcă, Markus Ferber, Jens Gieseke, Benoît Lutgen, Marian‑Jean Marinescu, Giuseppe Milazzo, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Elissavet Vozemberg‑Vrionidi, Elżbieta Katarzyna Łukacijewska

Renew Group

José Ramón Bauzá Díaz, Izaskun Bilbao Barandica, Søren Gade, Elsi Katainen, Caroline Nagtegaal, Jan‑Christoph Oetjen, Dominique Riquet

S&D Group

Andris Ameriks, Johan Danielsson, Ismail Ertug, Giuseppe Ferrandino, Isabel García Muñoz, Maria Grapini, Bogusław Liberadzki, Alessandra Moretti, Rovana Plumb, István Ujhelyi

Verts/ALE Group

Ciarán Cuffe, Jakop G. Dalunde, Karima Delli, Anna Deparnay‑Grunenberg, Tilly Metz

 

0

-

 

 

 

0

0

 

 

 

Symbolien selitys:

+ : puolesta

- : vastaan

0 : tyhjää

 


 

 

KANSALAISVAPAUKSIEN SEKÄ OIKEUS- JA SISÄASIOIDEN VALIOKUNNAN LAUSUNTO (22.9.2020)

<CommissionInt>oikeudellisten asioiden valiokunnalle</CommissionInt>


<Titre>suosituksista komissiolle tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien eettisten näkökohtien kehyksestä</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Valmistelija (*): <Depute>Assita Kanko</Depute>

(*) Valiokuntien yhteistyömenettely – työjärjestyksen 57 artikla

 

 

(Aloite – työjärjestyksen 47 artikla)

 

 

EHDOTUKSET

Kansalaisvapauksien sekä oikeus- ja sisäasioiden valiokunta pyytää asiasta vastaavaa oikeudellisten asioiden valiokuntaa sisällyttämään seuraavat ehdotukset päätöslauselmaesitykseen, jonka se myöhemmin hyväksyy:

 ottaa huomioon Euroopan unionista tehdyn sopimuksen (SEU) 2 ja 3 artiklan,

 ottaa huomioon Euroopan unionin toiminnasta tehdyn sopimuksen (SEUT) 10, 19, 21 ja 167 artiklan,

 ottaa huomioon SEUT-sopimuksen 20 ja 227 artiklassa ja Euroopan unionin perusoikeuskirjan 44 artiklassa vahvistetun oikeuden esittää vetoomus,

 ottaa huomioon Euroopan unionin perusoikeuskirjan 21 ja 22 artiklan,

 ottaa huomioon SEU-sopimuksen johdanto-osan,

 ottaa huomioon kansallisten vähemmistöjen suojelua koskevan Euroopan neuvoston puiteyleissopimuksen, ihmisoikeuksien ja perusvapauksien suojaamista koskevan yleissopimuksen kahdennentoista lisäpöytäkirjan ja alueellisia kieliä ja vähemmistökieliä koskevan eurooppalaisen peruskirjan,

 ottaa huomioon rodusta tai etnisestä alkuperästä riippumattoman yhdenvertaisen kohtelun periaatteen täytäntöönpanosta 29. kesäkuuta 2000 annetun neuvoston direktiivin[23] (direktiivi rotujen välisestä tasa-arvosta) 2000/43/EY,

 ottaa huomioon yhdenvertaista kohtelua työssä ja ammatissa koskevista yleisistä puitteista 27. marraskuuta 2000 annetun neuvoston direktiivin 2000/78/EY[24] (yhdenvertaista kohtelua työssä koskeva direktiivi),

 ottaa huomioon luonnollisten henkilöiden suojelusta henkilötietojen käsittelyssä sekä näiden tietojen vapaasta liikkuvuudesta ja direktiivin 95/46/EY kumoamisesta 27. huhtikuuta 2016 annetun Euroopan parlamentin ja neuvoston asetuksen (EU) 2016/679[25] (yleinen tietosuoja-asetus) ja luonnollisten henkilöiden suojelusta toimivaltaisten viranomaisten suorittamassa henkilötietojen käsittelyssä rikosten ennalta estämistä, tutkimista, paljastamista tai rikoksiin liittyviä syytetoimia tai rikosoikeudellisten seuraamusten täytäntöönpanoa varten sekä näiden tietojen vapaasta liikkuvuudesta ja neuvoston puitepäätöksen 2008/977/YOS kumoamisesta 27. huhtikuuta 2016 annetun Euroopan parlamentin ja neuvoston direktiivin (EU) 2016/680[26],

 ottaa huomioon 11. joulukuuta 2019 annetun komission tiedonannon Euroopan parlamentille, neuvostolle, Euroopan talous- ja sosiaalikomitealle sekä alueiden komitealle Euroopan vihreän kehityksen ohjelmasta,

 ottaa huomioon 16. helmikuuta 2017 antamansa päätöslauselman[27] suosituksista komissiolle robotiikkaa koskevista yksityisoikeudellisista säännöistä,

 ottaa huomioon 22. toukokuuta 2019 annetun OECD:n neuvoston suosituksen tekoälystä,

A. ottaa huomioon, että ihmiset vastaavat niin kutsutun tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämisestä ja suunnittelusta ja heidän valintansa määrittävät, miten teknologialla voidaan hyödyttää yhteiskuntaa;

B. toteaa, että algoritmeja koskevalla vastuuvelvollisuudella olisi tarkoitettava sellaisten teknisten ja operatiivisten toimenpiteiden täytäntöönpanoa, joilla varmistetaan avoimuus, selvästi määritellyt vastuuketjut ja syrjimättömyys automatisoidussa päätöksenteossa tai yksilöiden käyttäytymisen todennäköisyyksien laskennassa; katsoo, että avoimuuden olisi merkittävä sitä, että ihmiset saavat merkityksellistä tietoa sovelletusta logiikasta, sen merkityksestä ja ennakoiduista seurauksista; katsoo, että tämän olisi koskettava myös tietoa tekoälykoulutuksessa käytetystä datasta, jotta ihmiset voisivat ymmärtää ja valvoa heihin vaikuttavia päätöksiä;

C.  toteaa, että on olemassa vakavaa huolta siitä, että EU:n nykyisellä oikeudellisella kehyksellä, mukaan lukien kuluttajansuojalainsäädäntö ja tuoteturvallisuutta ja markkinavalvontaa koskeva lainsäädäntö sekä syrjinnän vastainen lainsäädäntö, ei aina pystytä torjumaan tehokkaasti tekoälyn, robotiikan ja niihin liittyvän teknologian aiheuttamia riskejä;

D. toteaa, että tekoälyllä, robotiikalla ja niihin liittyvällä teknologialla voi olla vakavia vaikutuksia ihmisten, ryhmien ja koko yhteiskunnan aineellisiin ja aineettomiin hyödykkeisiin ja tällainen yksilöille tai yhteisölle aiheutuva vahinko on otettava huomioon lainsäädäntötoimissa;

E. ottaa huomioon, että hallintokysymyksiä, jotka liittyvät tekoälyn käyttöönottoon julkisella sektorilla, on tarkasteltava asianmukaisesti ottaen huomioon tekoälyn vaikutukset demokratiaan, erityisesti demokraattiseen legitiimiyteen, vastuuvelvollisuuteen, kansalaisten merkitykselliseen osallistumiseen ja valvontaan;

F. katsoo, että data-analyysit ja tekoäly vaikuttavat yhä enemmän kansalaisten saatavilla olevaan tietoon; katsoo, että tällaisten teknologioiden väärinkäyttö saattaa vaarantaa tiedonsaantia koskevat perusoikeudet sekä tiedotusvälineiden vapauden ja moniarvoisuuden;

G. toteaa, että eettinen ohjaus, kuten tekoälyä käsittelevän korkean tason asiantuntijaryhmän hyväksymät periaatteet, on hyvä lähtökohta, mutta se ei riitä varmistamaan, että yritykset toimivat oikeudenmukaisesti ja takaavat tehokkaan yksilöiden suojan;

1. korostaa, että kansalaiset, julkinen ja yksityinen sektori sekä tiedemaailma ja -yhteisö voivat hyödyntää tekoälyn näkymiä ja mahdollisuuksia täysimääräisesti vasta sitten, kun julkinen luottamus näihin teknologioihin on varmistettu siten, että valvotaan tiukasti perusoikeuksien toteutumista, noudatetaan EU:n voimassa olevaa tietosuojalainsäädäntöä ja taataan oikeusvarmuus kaikille toimijoille; korostaa, että henkilötietoja saa käsitellä vain asetuksen (EU) 2016/679 6 artiklassa vahvistettujen oikeusperustojen nojalla; katsoo, että avoimuus ja riittävä tiedottaminen asiaankuuluvalle yleisölle ovat olennaisen tärkeitä kansalaisten luottamuksen rakentamisessa ja yksilöiden oikeuksien suojelussa;

2. painottaa, että voimassa olevan tietosuojalainsäädännön ja tiukkojen tieteellisten, eettisten ja oikeudellisten normien noudattaminen sekä demokraattisen valvonnan menetelmät ovat keskeisiä tekijöitä, kun rakennetaan luottamusta tekoälyratkaisuihin ja varmistetaan niiden luotettavuus; korostaa lisäksi, että tekoälyn esiin tuoma tieto ei tarjoa puolueetonta yleiskuvaa mistään aiheesta ja on vain niin luotettavaa kuin taustalla oleva tieto sallii; korostaa, että tekoälyyn perustuva ennustava analyysi voi tarjota vain tilastollisen todennäköisyyden eikä siksi voi aina tarkasti ennustaa yksilön käyttäytymistä; korostaa näin ollen, että tarvitaan tiukkoja tieteellisiä, eettisiä ja oikeudellisia normeja tietojen keräämisen valvomiseksi ja tällaisten tietoälyanalyysien tulosten arvioimiseksi;

3. katsoo, että tekoälyn, robotiikan ja niihin liittyvien teknologioiden kehittämistä, käyttöönottoa ja käyttöä koskevien eettisten periaatteiden puitteissa olisi noudatettava täysimääräisesti EU:n perusoikeuskirjaa ja siten kunnioitettava ihmisarvoa, itsemääräämisoikeutta ja yksilön itsemääräämisoikeutta, estettävä vahingon tuottaminen, edistettävä oikeudenmukaisuutta, osallisuutta ja avoimuutta, poistettava ennakkoluuloja ja syrjintää myös vähemmistöryhmien keskuudessa sekä kunnioitettava ja noudatettava periaatteita, jotka koskevat käytetyn teknologian kielteisten ulkoisvaikutusten rajoittamista, teknologian selitettävyyttä ja takeita siitä, että teknologiat palvelevat ihmisiä eivätkä korvaa heitä tai päätä heidän puolestaan, vaan lopullisena päämääränä on kaikkien ihmisten hyvinvoinnin lisääminen;

4. painottaa tekoälyteknologian käyttäjien sekä tekoälyteknologiaa vuorovaikutteisesti käyttävien tai sen kohteena olevien välistä epäsymmetriaa; korostaa tässä yhteydessä, että kansalaisten luottamus tekoälyyn voi perustua ainoastaan oletusarvoista ja sisäänrakennettua etiikkaa koskevan kehykseen, jolla varmistetaan, että kaikissa käyttöön otetuissa tekoälysovelluksissa noudatetaan täysin Euroopan unionin perusoikeuskirjaa, unionin oikeutta ja perussopimuksia; katsoo , että tämän olisi oltava sopusoinnussa EU:n lainsäädäntöä ohjaavan ennalta varautumisen periaatteen kanssa ja oltava tekoälyä koskevan kehyksen ytimessä; kehottaa tässä yhteydessä ottamaan käyttöön selkeän ja johdonmukaisen hallintomallin, jonka avulla yritykset ja innovoijat voivat kehittää edelleen tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa;

5. esittää eettisenä vaatimuksena, että Euroopan unionin ja jäsenvaltioiden on edistettävä kansalaisten tietoisuutta tekoälyn käytön riskeistä ja mahdollisuuksista;

6. katsoo, että erityisesti suojaa, yksityisyyttä ja henkilötietoja koskevaa unionin nykyistä oikeudellista kehystä on sovellettava täysimääräisesti tekoälyyn, robotiikkaan ja niihin liittyviin teknologioihin ja että sitä on tarkasteltava uudelleen ja päivitettävä säännöllisesti ja tarvittaessa, jotta voidaan puuttua tehokkaasti tekoälyn, robotiikan ja niihin liittyvien teknologioiden aiheuttamiin riskeihin, ja katsoo, että tässä yhteydessä sitä olisi hyödyllistä täydentää vankoilla ohjaavilla eettisillä periaatteilla; huomauttaa, että tilanteissa, joissa säädösten antaminen olisi ennenaikaista, olisi käytettävä ei-sitovia sääntelypuitteita;

7. odottaa, että komissio sisällyttää vankan eettisen kehyksen tulevaan lainsäädäntöehdotukseen, joka on tekoälyä koskevaan valkoiseen kirjaan perustuva jatkotoimi ja joka koskee muun muassa turvallisuutta, vastuuvelvollisuutta ja perusoikeuksia; toteaa, että ehdotuksella maksimoidaan tekoälyteknologian mahdollisuudet ja minimoidaan sen riskit; odottaa, että tulevaan lainsäädäntöehdotukseen sisällytetään poliittisia ratkaisuja suurimpiin tunnistettuihin tekoälyyn liittyviin riskeihin, jotka koskevat muun muassa massadatan eettistä keruuta ja käyttöä sekä algoritmien läpinäkyvyyteen ja algoritmien vinoumiin liittyvää kysymystä; kehottaa komissiota kehittämään tekoälyteknologian merkitsemistä koskevia kriteerejä ja indikaattoreita, jotta voidaan lisätä avoimuutta, toteutettavuutta ja vastuuvelvollisuutta ja kannustaa kehittäjiä toteuttamaan täydentäviä varotoimia; korostaa tarvetta investoida sosiaaliseen kontekstiin mukautettujen muiden kuin teknisten tieteenalojen sisällyttämiseen tekoälyn tutkimukseen;

8. muistuttaa, että tekoäly voi sen mukaan, miten sitä kehitetään, käytetään ja sovelletaan, luoda ja vahvistaa vinoumia, myös taustatietoaineistoihin luontaisesti sisältyvien vinoutumien kautta, ja siten synnyttää erilaisia automatisoidun syrjinnän muotoja, myös epäsuoraa syrjintää, joka kohdistuu erityisesti ominaisuuksiltaan samankaltaisiin ihmisryhmiin; kehottaa komissiota ja jäsenvaltioita ryhtymään kaikkiin mahdollisiin toimiin tällaisten vinoumienvälttämiseksi ja perusoikeuksien täysimääräisen suojelun varmistamiseksi;

9. toteaa, että tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskeva ala on silmiinpistävän homogeeninen ja sille on ominaista monimuotoisuuden puuttuminen; toteaa, että on tarpeen varmistaa, että tällaisten järjestelmien suunnittelusta, kehittämisestä, testaamisesta, ylläpidosta, käyttöönotosta ja hankinnasta vastaavissa työryhmissä otetaan huomioon järjestelmien käytön ja yleensä yhteiskunnan monimuotoisuus sen varmistamiseksi, ettei tällaisessa teknologiassa ole tahattomasti sisäänrakennettuja vinoumia;

10. katsoo, että tehokas rajat ylittävä yhteistyö ja eettiset normit voidaan saavuttaa vain, jos kaikki sidosryhmät sitoutuvat varmistamaan inhimillisen osallistumisen ja valvonnan, teknisen vakauden ja turvallisuuden, avoimuuden ja vastuuvelvollisuuden, monimuotoisuuden, syrjimättömyyden ja oikeudenmukaisuuden, yhteiskunnallisen ja ympäristöön liittyvän hyvinvoinnin ja noudattavat yksityisyyden, tietohallinnon ja tietosuojan vakiintuneita periaatteita, jotka on vahvistettu erityisesti asetuksessa (EU) 2016/679 (yleinen tietosuoja-asetus);

11. kehottaa soveltamaan tekoälyn, robotiikan ja niihin liittyvien teknologioiden sääntelyyn riskiperusteista ja tulevaisuuteen suuntautuvaa lähestymistapaa, mukaan lukien teknologianeutraalit standardit kaikilla aloilla, sekä tarvittaessa alakohtaisia standardeja; on vahvasti sitä mieltä, että pirstaloitumisen välttämiseksi EU:n laajuista toimivaa eettistä kehystä olisi sovellettava kaikkiin, jotka aikovat kehittää tai käyttää tekoälysovelluksia EU:ssa; kehottaa unionia edistämään vahvaa ja avointa yhteistyötä ja tiedon jakamista julkisen ja yksityisen sektorin välillä parhaan käytännön luomiseksi ja riskialttiiden tekoälysovellusten tunnistamiseksi;

12. kannattaa yritysten digitaalista vastuuta, joka perustuu vapaaehtoisuuteen; katsoo, että unionin olisi tuettava yrityksiä, jotka vapaaehtoisesti käyttävät digitaaliteknologiaa ja tekoälyä eettisellä tavalla; katsoo, että unionin olisi kannustettava yrityksiä toimimaan ennakoivasti perustamalla niitä varten foorumi, jossa ne voivat jakaa eettiseen digitalisointiin liittyviä kokemuksiaan, sekä koordinoimalla osallistuvien yritysten toimia ja strategioita;

13. korostaa, että toisiinsa liitettyjen tekoäly- ja robotiikkaverkostojen suojelu on tärkeää ja että vahvoilla toimenpiteillä on estettävä tietoturvaloukkaukset, tietovuodot, tietojen korruptointi, kyberhyökkäykset ja henkilötietojen väärinkäyttö ja että tämä edellyttää sitä, että sekä unionin tason että kansallisen tason asiaankuuluvat virastot, elimet ja toimielimet toimivat yhdessä ja tekevät yhteistyötä tällaisen teknologian loppukäyttäjien kanssa; kehottaa komissiota ja jäsenvaltioita varmistamaan, että eurooppalaisia arvoja ja perusoikeuksia kunnioitetaan aina tekoälyteknologian kehittämisessä ja käyttöönotossa, jotta voidaan varmistaa EU:n digitaalisen infrastruktuurin turvallisuus ja häiriönsietokyky;

14. panee tässä yhteydessä merkille Euroopan kyberturvallisuusvirasto ENISAsta ja kyberturvallisuudesta annetun Euroopan parlamentin ja neuvoston asetuksen 2019/881 ja erityisesti ENISAn roolin, kun lisätään suuren yleisön tietoisuutta ja järjestetään loppukäyttäjille suunnattuja tiedotuskampanjoita muun muassa mahdollisista kyberuhkista ja kyberrikollisuudesta sekä edistetään keskeisiä tietosuojatoimenpiteitä; tunnustaa Euroopan kyberturvallisuusviraston tuoman lisäarvon tässä yhteydessä;

15. painottaa, että tekoälyn vahingollinen käyttö voi vaarantaa demokraattiset arvomme ja Euroopan unionin kansalaisten perusoikeudet; kehottaa komissiota ehdottamaan kehystä, jonka avulla rangaistaan niitä, jotka käyttävät tällaista teknologiaa antaakseen vääristetyn kuvan todellisuudesta disinformaatiokampanjoissa tai jotka aiheuttavat kyberhyökkäyksiä digitaalisen kyberturvallisuuden loukkaamiseksi;

16. toteaa, että tekoäly, robotiikka ja niihin liittyvät teknologiat lainvalvonnan ja rajavalvonnan alalla voisivat parantaa yleistä turvallisuutta, mutta ne edellyttävät myös laajaa ja tiukkaa julkista valvontaa ja mahdollisimman suurta avoimuutta ja yksittäisten sovellusten riskinarviointia sekä yleiskäsitystä tekoälyn, robotiikan ja niihin liittyvien teknologioiden käytöstä lainvalvonnan ja rajavalvonnan alalla; ottaa huomioon, että näihin teknologioihin liittyy merkittäviä eettisiä riskejä, joihin on puututtava asianmukaisesti, kun pidetään mielessä mahdolliset kielteiset vaikutukset yksilöihin, erityisesti heidän oikeutensa yksityisyyteen, tietosuojaan ja syrjimättömyyteen; korostaa, että niiden väärinkäytöstä voi tulla suora uhka demokratialle ja että niiden käyttöönotossa ja käytössä on noudatettava suhteellisuus- ja tarpeellisuusperiaatteita, perusoikeuskirjaa sekä asiaankuuluvaa unionin johdettua oikeutta, kuten EU:n tietosuojasääntöjä; korostaa, että tekoäly ei saisi koskaan korvata ihmisiä tuomioiden antajana; päätöksiin, kuten takuita tai koeaikaa koskeviin päätöksiin, tai yksinomaan automaattiseen käsittelyyn perustuviin päätöksiin, joilla on yksilöitä koskevia oikeusvaikutuksia tai jotka vaikuttavat heihin merkittävästi, on aina sisällyttävä mielekäs arviointi ja ihmisen harkinta;

17. varoittaa, että lainvalvontaviranomaisten päätökset ja toimenpiteet menevät – muun muassa tietojenkäsittelyä ja tekoälyä käytettäessä – pitkälle puuttuessaan kansalaisten elämään ja oikeuksiin, ja sen vuoksi on noudatettava mahdollisimman suurta varovaisuutta, jotta estetään lainvastainen syrjintä ja tiettyjen, etnisen profiloinnin tai voimakkaampien lainvalvontatoimien kohteeksi usein joutuvien yksilöiden tai ihmisryhmien kohdentaminen rodun, ihonvärin, etnisen tai yhteiskunnallisen alkuperän, geneettisten ominaisuuksien, kielen, uskonnon tai vakaumuksen, poliittisten tai muiden näkemysten, varallisuuden, syntyperän, vammaisuuden, iän, sukupuolen, sukupuolen ilmaisun tai sukupuoli-identiteetin, sukupuolisen suuntautumisen, oleskeluaseman, terveydentilan tai tiettyyn kansalliseen vähemmistöön kuulumisen perusteella sekä sellaisten yksilöiden kohdentaminen, joita tietyn erityisominaisuudet määritelevät; kehottaa järjestämään etulinjassa oleville tietojen kerääjille ja tekoälyn avulla hankittujen tietojen käyttäjille asianmukaista koulutusta;

18. korostaa, että koska näiden teknologioiden ansiosta henkilötietoja ja muita kuin henkilötietoja voidaan käyttää ihmisten luokitteluun ja mikrokohdentamiseen, ihmisten haavoittuvaisuuksien selville saamiseen tai täsmällisen ennustetiedon hyödyntämiseen, vastapainona on otettava käyttöön tehokkaasti toimeenpannut tietosuojan ja yksityisyydensuojan periaatteet, jotka koskevat esimerkiksi tietojen minimointia, oikeutta vastustaa profilointia ja valvoa tietojaan, oikeutta saada selitys automatisoituun käsittelyyn perustuvaan päätökseen, sisäänrakennettua yksityisyyden suojaa sekä oikeasuhteisuutta, tarpeellisuutta ja tarkasti määritettyyn käyttötarkoitukseen perustuvaa rajoittamista; huomauttaa, että vaikka tietyissä ennakoivan poliisitoiminnan malleissa yksityisyyttä kunnioitetaan joitakin muita malleja paremmin, esimerkiksi silloin, kun todennäköisyyteen perustuvia ennusteita tehdään paikoista tai tapahtumista eikä yksittäisistä henkilöistä, ennakoivan poliisitoiminnan järjestelmien on todettu kärjistävän liiallisia poliisitoimia olemassa olevien vinoumien, kuten rotuun perustuvan profiloinnin, tai maahanmuuttaja- tai työläistaustan perusteella jopa tapauksissa, joissa ei ole olemassa yhteyttä rikosten tosiasiallisiin määriin;

19. korostaa, että kansalaisilla on oikeus luottaa käyttämäänsä teknologiaan ja muiden käyttämään teknologiaan; korostaa, että tekoäly ja robotiikka eivät ole suojassa virheiltä, ja korostaa siksi, että on tärkeää saada selitys silloin, kun henkilöihin sovelletaan algoritmista päätöksentekoa, ja että algoritmien on oltava avoimia, koska algoritmin taustalla olevan logiikan avoimuus on erittäin merkityksellistä vaikutuksen kohteina oleville henkilöille, jotta heidän perusoikeuksiaan voidaan suojella täysimääräisesti; katsoo, että lainsäätäjien on pohdittava monimutkaista vastuukysymystä ja että kaikkiin tekoälysovelluksiin liittyvän vastuun olisi aina kuuluttava joko luonnolliselle henkilölle tai oikeushenkilölle;

20. korostaa, että tekoäly, robotiikka ja niihin liittyvä teknologia ovat maailmanlaajuisia teknologioita ja että nämä standardit on hyväksyttävä kaikkialla maailmassa, jotta voidaan varmistaa, että niitä kehitetään tulevaisuudessa eurooppalaisten arvojen ja eettisten standardien mukaisesti; kehottaa komissiota osallistumaan kansainvälisillä foorumeilla tekoälyä koskevaan diplomatiaan yhdessä samanmielisten kumppaneiden, kuten Yhdysvaltojen, G7-ryhmän, G20-ryhmän ja OECD:n, kanssa, jotta voidaan luoda yhteisiä eettisiä standardeja ja ohjeita tekoälyn, robotiikan ja niihin liittyvän teknologian kehittämistä varten;

21 korostaa, että on luotava selkeät puitteet tekoälyn käytölle sosiaalisen median alustoilla sekä käytettyjen algoritmien avoimuusvaatimuksille ja niiden kalibroinnille, jotta estetään sisällön liiallinen poistaminen ja kaikenlainen internetin suodatus tai sensuuri;

22 toteaa, että tekoälyä voidaan käyttää manipuloimaan kasvokuvia ja audiovisuaalisia piirteitä, mistä käytetään usein nimitystä ’deepfake’; muistuttaa, että tätä tekniikkaa voidaan käyttää vaalien manipulointiin, disinformaation levittämiseen ja muuhun ei-toivottuun toimintaan; kehottaa sen vuoksi komissiota määräämään eettisen kehyksen avulla velvoitteen, jonka mukaan kaikessa deepfake-aineistossa tai muissa realistisen oloisesti tehdyissä videoissa, joissa on käytetty keinokuvasignaaleja, on ilmoitettava, että ne eivät ole alkuperäisiä, ja ottamaan käyttöön tiukan rajoituksen niiden käytöstä vaalikampanjoihin liittyvissä tarkoituksissa;

23. kehottaa perustamaan osaamiskeskuksen, jossa on mukana yliopistoja, tutkimuskeskuksia ja teollisuuslaitoksia sekä yksittäisiä asiantuntijoita unionin tasolla joko kiinteänä osana tällaista virastoa tai sen yhteistyökumppanina, jotta voidaan edistää tietojen ja teknisen asiantuntemuksen vaihtoa sekä helpottaa yhteistyötä EU:ssa ja sen ulkopuolella;

24. muistuttaa kielellisen ja kulttuurisen moninaisuuden merkityksestä; kehottaa sen vuoksi komissiota käyttämään eettistä kehystään ja estämään sen, että tekoälyllä kavennetaan tätä monimuotoisuutta, ja varmistamaan sen sijaan, että saatavilla on edelleen monipuolista sisältöä, joka ei edusta liiaksi vain yhtä kieltä ja/tai kulttuurimallia, sekä tuomitsemaan kaikki algoritmipohjaiset pyrkimykset rajoittaa tätä monimuotoisuutta ja tarjota vain sisältöä, joka vastaa tiettyjä ennalta määriteltyjä malleja tai saattaa muodostaa ’kuplan’, joka ehkäisee monimuotoisemman sisällön löytämistä;

25. kehottaa komissiota osoittamaan, että se on selvästi tarkistanut, arvioinut ja korjannut tekoälyä koskevan koordinoidun suunnitelmansa, jotta voidaan puuttua tekoälyn vakaviin perusoikeuksia koskeviin vaikutuksiin ja selvittää, miten tämäntyyppisiä riskejä voidaan lieventää EU:n lainsäädännöllisessä lähestymistavassa ja jäsenvaltioiden kansallisten strategioiden täytäntöönpanossa.

 


TIEDOT HYVÄKSYMISESTÄ LAUSUNNON ANTAVASSA VALIOKUNNASSA

Hyväksytty (pvä)

22.9.2020

 

 

 

Lopullisen äänestyksen tulos

+:

–:

0:

55

5

7

Lopullisessa äänestyksessä läsnä olleet jäsenet

Magdalena Adamowicz, Malik Azmani, Katarina Barley, Pernando Barrena Arza, Pietro Bartolo, Nicolas Bay, Vladimír Bilčík, Vasile Blaga, Ioan-Rareş Bogdan, Patrick Breyer, Saskia Bricmont, Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Damien Carême, Anna Júlia Donáth, Lena Düpont, Cornelia Ernst, Laura Ferrara, Nicolaus Fest, Jean-Paul Garraud, Maria Grapini, Sylvie Guillaume, Andrzej Halicki, Balázs Hidvéghi, Evin Incir, Sophia in ‘t Veld, Patryk Jaki, Lívia Járóka, Marina Kaljurand, Assita Kanko, Fabienne Keller, Peter Kofod, Moritz Körner, Alice Kuhnke, Jeroen Lenaers, Juan Fernando López Aguilar, Nuno Melo, Roberta Metsola, Nadine Morano, Javier Moreno Sánchez, Maite Pagazaurtundúa, Nicola Procaccini, Paulo Rangel, Diana Riba i Giner, Ralf Seekatz, Michal Šimečka, Birgit Sippel, Sylwia Spurek, Tineke Strik, Ramona Strugariu, Annalisa Tardino, Tomas Tobé, Dragoş Tudorache, Milan Uhrík, Tom Vandendriessche, Bettina Vollath, Jadwiga Wiśniewska, Elena Yoncheva

Lopullisessa äänestyksessä läsnä olleet varajäsenet

Delara Burkhardt, Gwendoline Delbos-Corfield, Kostas Papadakis, Kris Peeters, Anne-Sophie Pelletier, Sira Rego, Rob Rooken, Paul Tang, Tomáš Zdechovský

Lopullisessa äänestyksessä läsnä olleet sijaiset (209 art. 7 kohta)

Isabel Benjumea Benjumea

 


LOPULLINEN ÄÄNESTYS NIMENHUUTOÄÄNESTYKSENÄ LAUSUNNON ANTAVASSA VALIOKUNNASSA

55

+

EPP

Magdalena Adamowicz, Isabel Benjumea Benjumea, Vladimír Bilčík, Vasile Blaga, Ioan‑Rareş Bogdan, Lena Düpont, Andrzej Halicki, Balázs Hidvéghi, Lívia Járóka, Jeroen Lenaers, Nuno Melo, Roberta Metsola, Nadine Morano, Kris Peeters, Paulo Rangel, Ralf Seekatz, Tomas Tobé, Tomáš Zdechovský

S&D

Katarina Barley, Pietro Bartolo, Delara Burkhardt, Maria Grapini, Sylvie Guillaume, Evin Incir, Marina Kaljurand, Juan Fernando López Aguilar, Javier Moreno Sánchez, Birgit Sippel, Sylwia Spurek, Paul Tang, Bettina Vollath, Elena Yoncheva

RENEW

Malik Azmani, Anna Júlia Donáth, Sophia In 'T Veld, Fabienne Keller, Moritz Körner, Maite Pagazaurtundúa, Michal Šimečka, Ramona Strugariu, Dragoş Tudorache

ID

Peter Kofod

GREENS/EFA

Patrick Breyer, Saskia Bricmont, Damien Carême, Gwendoline Delbos-Corfield, Alice Kuhnke, Diana Riba I Giner, Tineke Strik

ECR

Joachim Stanisław Brudziński, Jorge Buxadé Villalba, Assita Kanko, Nicola Procaccini, Jadwiga Wiśniewska

NI

Laura Ferrara

 

5

-

EUL/NGL

Pernando Barrena Arza, Cornelia Ernst, Anne-Sophie Pelletier, Sira Rego

NI

Kostas Papadakis

 

7

0

ID

Nicolas Bay, Nicolaus Fest, Jean-Paul Garraud, Annalisa Tardino, Tom Vandendriessche

ECR

Rob Rooken

NI

Milan Uhrík

 

Symbolien selitys:

+ : puolesta

- : vastaan

0 : tyhjää

 

 


 

 

TYÖLLISYYDEN JA SOSIAALIASIOIDEN VALIOKUNNAN LAUSUNTO (7.9.2020)

<CommissionInt>oikeudellisten asioiden valiokunnalle</CommissionInt>


<Titre>suosituksista komissiolle tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien eettisten näkökohtien kehyksestä</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Valmistelija: <Depute>Lina Gálvez Muñoz</Depute>

(Aloite – työjärjestyksen 47 artikla)

 

 

 

EHDOTUKSET

Työllisyyden ja sosiaaliasioiden valiokunta pyytää asiasta vastaavaa oikeudellisten asioiden valiokuntaa sisällyttämään seuraavat ehdotukset päätöslauselmaesitykseen, jonka se myöhemmin hyväksyy:

A. ottaa huomioon, että tekoälyn, robotiikan ja niihin liittyvien teknologioiden soveltaminen arkielämässä ja työpaikoilla lisääntyy jatkuvasti, mikä muuttaa merkittävästi nykyisiä sosioekonomisia rakenteita; katsoo, että tekoälyn olisi hyödytettävä kansalaisia ja yhteiskuntaa parantamalla elämänlaatua, luomalla uusia työllistymismahdollisuuksia ja parantamalla unionin kilpailukykyä; ottaa huomioon, että tekoäly on olennainen osa digitaalitaloutta ja että oikein käytettynä se voi edistää vaurautta ja helpottaa siirtymistä kestävään talouteen;

B. ottaa huomioon, että tekoälyllä tarkoitetaan älykkäästi toimivia järjestelmiä, jotka pyrkivät saavuttamaan asetettuja tavoitteita analysoimalla ympäristöään ja toimimalla osittain itsenäisesti; ottaa huomioon, että tekoälyjärjestelmät voivat olla täysin ohjelmistopohjaisia ja toimia virtuaalimaailmassa, esimerkiksi äänikomennoilla ohjattavina digiapulaisina, kuva-analyysiohjelmistoina, hakuohjelmistoina tai puheen- ja kasvojentunnistusohjelmistoina, tai ne voivat toimia laitteistojen osina, esimerkiksi edistyneissä roboteissa, itseohjautuvissa autoissa, miehittämättömissä ilma-aluksissa (droonit) tai esineiden internetin sovelluksissa;[28]

C. ottaa huomioon, että tekoäly on strateginen painopiste, jonka koko potentiaalia voidaan hyödyntää vain, jos käyttäjät ja kuluttajat ovat tietoisia sen mahdollisista hyödyistä ja haasteista; ottaa huomioon, että yritykset sekä työntekijät ja heidän edustajansa eivät useinkaan ole tietoisia tekoälysovelluksista eivätkä niiden taustalla olevista toiminnoista ja tiedoista; ottaa huomioon, että on tapauksia, joissa tekoälysovellukset rikkovat voimassa olevia säännöksiä, kuten tietosuojaa;

D. ottaa huomioon, että tekoäly voi tarjota taloudellisia ja yhteiskunnallisia etuja sekä uusia mahdollisuuksia yrityksille ja työntekijöille, mutta samalla se aiheuttaa monia eettisiä, oikeudellisia ja työllisyyteen liittyviä haasteita; ottaa huomioon, että tekoälyn soveltaminen työpaikoilla voi edistää osallisuutta edistäviä työmarkkinoita ja vaikuttaa työterveyteen ja -turvallisuuteen ja että toisaalta sitä voidaan käyttää myös työntekijöiden suoritusten seurantaan, arviointiin, ennakoimiseen ja ohjaamiseen, millä on suoria ja välillisiä seurauksia heidän uriensa kannalta; toteaa, että tekoälyllä olisi oltava myönteinen vaikutus työoloihin ja että sen olisi perustuttava ihmisoikeuksien sekä unionin perusoikeuksien ja arvojen kunnioittamiseen; katsoo, että tekoälyn olisi oltava ihmiskeskeistä, sen olisi parannettava ihmisten ja yhteiskunnan hyvinvointia ja edistettävä oikeudenmukaista ja tasapuolista siirtymää;

E. toteaa, että tekoälyllä on merkittävä vaikutus työmarkkinoihin[29]; toteaa, että se voi mahdollisesti korvata työntekijöitä, jotka tekevät toistuvia työtehtäviä, helpottaa ihmisen ja koneen väliseen yhteistyöhön perustuvia työjärjestelmiä, lisätä kilpailukykyä ja vaurautta sekä luoda uusia työmahdollisuuksia päteville työntekijöille; ottaa huomioon, että työmarkkinat kehittyvät nopeasti niin, että arviolta 65 prosenttia nykylapsista tulee työskentelemään täysin uudentyyppisissä töissä, ja että tarvitaan työntekijöiden uudelleen- ja täydennyskoulutusta ja ammattitaidon parantamista erityisesti digitaalisten taitojen osalta, jotta voidaan varmistaa, että ketään ei jätetä jälkeen ja että tarjolla on riittävästi erikoistunutta työvoimaa[30];

F. ottaa huomioon, että Cedefopin mukaan noin 43 prosenttia unionin aikuisista työntekijöistä on kohdannut uutta teknologiaa työssä; ottaa huomioon, että noin seitsemän kymmenestä unionin alueen työntekijästä tarvitsee vähintään kohtalaisia digitaalisia taitoja työnsä suorittamiseen;[31] ottaa huomioon, että keskimäärin noin neljäsosalla unionin kansalaisista ei ole lainkaan digitaalisia taitoja tai ne ovat heikot; ottaa huomioon, että digitaaliseen kuiluun liittyy erityisiä sosioekonomisia, sukupuoleen, ikään, maantieteelliseen sijaintiin ja saavutettavuuteen liittyviä näkökohtia, joihin on puututtava; ottaa huomioon, että tekoälyä liiketoiminnassaan soveltavien yritysten työntekijöistä 42 prosenttia uskoo, että tällainen toiminta johtaa eettisiin kysymyksiin, joihin on puututtava; ottaa huomioon, että 28 prosenttia työnantajista katsoo, että tekoälyn soveltaminen ei ole kehittynyt täysimittaisesti, koska asiasta ei ole annettu eettisiä sääntöjä;[32]

G. ottaa huomioon, että covid-19-pandemia korosti digitaalisten ratkaisujen, myös etätyön, merkitystä sekä sen teknisiä ja sosiaalisia vaikutuksia; ottaa huomioon, että unionin tasolla ei ole yhteisiä säännöksiä tekoälyn soveltamisesta työpaikalla, mikä saattaa johtaa markkinoiden vääristymiseen ja kilpailuhaittoihin; toteaa, että tekoälylle olisi oltava asianmukainen sääntelykehys;

H. ottaa huomioon, että OECD on laatinut tekoälyä koskevia suosituksia[33];

I. ottaa huomioon, että Euroopan unionin neuvosto kannustaa edistämään eettistä ja ihmiskeskeistä lähestymistapaa tekoälyyn[34];

J. ottaa huomioon, että unionin tason työmarkkinaosapuolet ovat tehneet digitalisaatiota koskevan puitesopimuksen, johon sisältyy muun muassa tekoälyä ja inhimillisen valvonnan periaatteen takaamista koskeva luku[35];

K. ottaa huomioon, että joissakin jäsenvaltioissa on jo perustettu erityiselimiä seuraamaan ja arvioimaan tekoälyn vaikutusta työpaikoilla;

L. katsoo, että toimet sukupuolittuneiden käytäntöjen ja eriarvoisuuden torjumiseksi digitaalialalla ovat riittämättömiä; ottaa huomioon, että sukupuolten välinen kuilu vallitsee edelleen kaikilla digitaaliteknologian aloilla ja erityisesti tekoälyn alalla, mikä vahvistaa digitaalialan miehiä suosivaa kehityspolkua lähitulevaisuudessa;

1. korostaa tarvetta arvioida perusteellisesti niitä mahdollisuuksia ja haasteita, joita tekoälysovellukset tarjoavat yksityisille ja julkisille yrityksille sekä julkishallinnolle työpaikkojen ja työntekijöiden osalta, mukaan lukien niiden vaikutus työ- ja yksityiselämän tasapainoon, työn organisointiin ja työnkulkuun; pitää välttämättömänä, että työmarkkinaosapuolten vuoropuhelua ei sivuuteta ja että työntekijöitä ja heidän edustajiaan kuullaan ja että he saavat riittävästi tietoa heti päätöksentekoprosessin alusta lähtien; korostaa, että tekoälyn käyttöönoton on oltava avointa ja että työpaikoilla käytettävien tekoälyjärjestelmien on kunnioitettava työntekijöiden yksityisyyttä ja ihmisarvoa;

2. huomauttaa, että ennen tekoälyjärjestelmien kehittämistä, käyttöönottoa ja käyttöä olisi tehtävä kattava riskinarviointi, jossa arvioidaan niiden vaikutusta perusoikeuksiin ja työoloihin, myös työterveyden ja -turvallisuuden osalta, sekä niiden sosiaalisia seurauksia; katsoo, että arvioinneissa olisi otettava huomioon inhimilliseen päätöksentekoon ja sosiaaliseen syrjintään liittyvät riskit sekä työperäisten riskien arviointi;

3. huomauttaa, että tekoälyratkaisuilla voidaan parantaa työoloja ja elämänlaatua, mukaan lukien työ- ja yksityiselämän parempi tasapaino ja parempi esteettömyys vammaisille henkilöille, ennustaa työmarkkinoiden kehitystä ja tukea henkilöstöhallintoa inhimillisten ennakkoluulojen ehkäisemisessä, mutta ne voivat myös herättää huolta yksityisyydestä sekä työterveydestä ja -turvallisuudesta, kuten oikeudesta olla tavoittamattomissa, ja johtaa työntekijöiden suhteettomaan ja laittomaan valvontaan ja seurantaan, joka loukkaa heidän ihmisarvoaan ja yksityisyyttään, sekä syrjivään kohteluun esimerkiksi työhönottomenettelyissä puolueellisten algoritmien seurauksena, jos algoritmeissa on esimerkiksi sukupuoleen tai etniseen taustaan liittyviä vinoumia[36] tai ne aiheuttavat haittaa heikoimmassa asemassa oleville ryhmille; on lisäksi huolissaan siitä, että tekoäly voi heikentää ihmisten vapautta ja autonomiaa ja lisätä työntekijöiden mielenterveysongelmia, kuten työuupumusta, ”teknostressiä”, psykologista ylikuormitusta ja väsymystä; korostaa, että työpaikoilla käytettävien tekoälyratkaisujen on oltava avoimia ja oikeudenmukaisia ja että niissä on vältettävä työntekijöihin kohdistuvia kielteisiä vaikutuksia;

4. korostaa, että toimivaltaisten viranomaisten olisi saatava käyttöönsä kaikki tiedot, jotka koskevat tekoälyratkaisuihin liittyvää opetusdataa, tilastollisia malleja ja teoreettisia periaatteita sekä tiedot niiden tulosten empiirisestä paikkansapitävyydestä;

5. katsoo, että tekoäly voi auttaa hyödyntämään paremmin vammaisten henkilöiden taitoja ja valmiuksia ja että tekoälyn soveltaminen työpaikoilla voi edistää osallisuutta edistäviä työmarkkinoita ja parantaa vammaisten henkilöiden työllisyysastetta;

6. korostaa, että tekoälyn kaltaiset uudet teknologiset mahdollisuudet ja työn tehokkuuden arvostaminen eivät saa johtaa epätasa-arvoisiin teknologisiin parannuksiin eivätkä epäinhimilliseen digitaaliseen tulevaisuuteen; korostaa, että innovoinnin etiikassa on noudatettava humanistista lähestymistapaa;

7. katsoo, että käyttäjille, myös työntekijöille, ja kuluttajille pitäisi olla pakollista ilmoittaa, kun järjestelmä käyttää tekoälyä, erityisesti personoitujen tuotteiden tai palvelujen tapauksessa, ja heidän olisi saatava merkityksellistä tietoa helposti ymmärrettävässä ja helposti saatavilla olevassa muodossa kaikista tekoälysovellusten heitä koskevista eettisistä näkökohdista, jotta he pystyvät tekemään tietoon perustuvia päätöksiä; pitää erityisen tärkeänä ymmärtää, miten algoritmit prosessoivat ja arvottavat dataa ja miten niiden toimintaa voidaan rajoittaa tai pysäyttää; korostaa, että valmiuksia on kehitettävä kouluttamalla työntekijöitä ja heidän edustajiaan tekoälyn käytöstä työpaikalla, jotta voidaan ymmärtää paremmin tekoälyratkaisujen vaikutuksia;

8. korostaa, että hakijoille ja työntekijöille on ilmoitettava asianmukaisesti ja kirjallisesti tekoälyn käytöstä palvelukseenottomenettelyissä ja muissa henkilöstöpäätöksissä ja siitä, miten tässä tapauksessa voidaan pyytää ihmisen suorittamaa arviointia automatisoidun päätöksen kumoamiseksi;

9. korostaa, että on varmistettava, että tekoälyn ja robotiikan kehittämisestä ja käytöstä saatavat tuottavuuden lisäykset hyödyttävät paitsi yritysten omistajia ja osakkaita myös yrityksiä ja niiden työntekijöitä parempien työehtojen, palkkojen, talouskasvun ja kehityksen muodossa, sekä hyödyttävät myös koko yhteiskuntaa erityisesti silloin, kun tällaiset hyödyt saavutetaan työpaikkojen kustannuksella; kehottaa jäsenvaltioita tutkimaan huolellisesti tekoälyn mahdollisia vaikutuksia työmarkkinoihin ja sosiaaliturvajärjestelmiin ja kehittämään strategioita, joilla varmistetaan pitkän aikavälin vakaus uudistamalla veroja ja maksuja sekä muita toimenpiteitä, jos julkiset tulot pienenevät;

10. korostaa, että yritysten on tärkeää investoida viralliseen ja epäviralliseen koulutukseen ja elinikäiseen oppimiseen, jotta voidaan tukea oikeudenmukaista siirtymistä digitaalitalouteen; korostaa tässä yhteydessä, että tekoälyä hyödyntävien yritysten velvollisuutena on tarjota asianmukaista uudelleenkoulutusta ja ammattitaidon parantamista kaikille asianomaisille työntekijöille, jotta he oppivat käyttämään digitaalisia välineitä ja työskentelemään yhteistyörobottien ja muiden uusien teknologioiden kanssa, jotta he voivat mukautua työmarkkinoiden muuttuviin tarpeisiin ja pysyä työelämässä;

11. kehottaa soveltamaan ennalta varautumisen periaatetta tekoälyyn perustuviin uusiin teknologioihin; korostaa perusperiaatetta, jonka mukaan koneiden ja tekoälyn on aina oltava ihmisten valvonnassa, ja tekoälyä koskevan päätöksenteon on oltava vastuullista, kyseenalaistettavissa ja tarvittaessa peruutettavissa; korostaa, että tekoälyn turvallisuusnormeja on noudatettava, ja korostaa tässä yhteydessä säännöllisten tarkastusten ja valvonnan merkitystä tekoälyn virhetuotosten estämiseksi; muistuttaa, että tekoälyn käyttöä koskeva vastuu on määriteltävä selkeästi sekä työtapaturmien että kolmansille osapuolille aiheutuvien vahinkojen varalta;

12. korostaa, että tekoälyn on oltava ihmiskeskeistä, avointa, turvallista ja turvattua ja sen käytössä on koko järjestelmän elinkaaren ajan noudatettava perusoikeuksia ja sovellettavia lakeja ja asetuksia, yleinen tietosuoja-asetus mukaan luettuna, erityisesti kun sitä käytetään työpaikalla; kehottaa kehittämään luotettavan sertifiointijärjestelmän, joka perustuu testausmenettelyihin ja toimii ennalta varautumisen periaatteen pohjalta ja jonka avulla yritykset voivat osoittaa, että niiden tekoälytuotteet ovat perusoikeuksien ja unionin normien mukaisia;

13. muistuttaa, että tekoälyyn sovelletaan täysimääräisesti unionin työllisyys- ja sosiaalialan säännöstöä, ja kehottaa komissiota ja jäsenvaltioita varmistamaan asianmukaisen täytäntöönpanon ja korjaamaan mahdolliset lainsäädännön puutteet; toteaa, että unioni voi olla maailmanlaajuinen edelläkävijä tekoälyn sosiaalisesti vastuullisen käytön edistämisessä;

14. korostaa yhteisen eurooppalaisen lähestymistavan merkitystä tekoälyn eettisten näkökohtien osalta; korostaa, että kaikkien tähän liittyvien sääntelypuitteiden on oltava asianmukaisia ja perustuttava kattavaan vaikutustenarviointiin, jotta ei haitata tulevia innovaatioita ja työpaikkojen luomista; kehottaa tässä yhteydessä luomaan tekoälyn eettisiä näkökohtia koskevan eurooppalaisen sääntelykehyksen, joka on oikeasuhteinen ja jossa keskitytään erityisesti työelämään, työntekijöiden oikeudet ja työolot mukaan luettuina; toteaa, että erityistä huomiota olisi kiinnitettävä työn uusiin muotoihin, kuten keikka- ja alustatyöhön, jotka ovat seurausta uusien teknologioiden soveltamisesta tässä yhteydessä; katsoo, että tekoälyn vaikutus on otettava huomioon myös lainsäädäntökehyksessä, jonka tavoitteena on säännellä etätyöehtoja kaikkialla unionissa ja varmistaa ihmisarvoiset työolot ja -ehdot digitaalitaloudessa; kehottaa komissiota kuulemaan tässä yhteydessä työmarkkinaosapuolia, tekoälyn kehittäjiä, tutkijoita ja muita sidosryhmiä;

15. korostaa, että tekoäly ja siihen liittyvä lainsäädäntö eivät saa millään tavoin vaikuttaa jäsenvaltioissa ja unionin tasolla tunnustettujen perusoikeuksien harjoittamiseen, mukaan lukien oikeuteen tai vapauteen ryhtyä lakkoon tai muuhun jäsenvaltioiden työmarkkinasuhteiden järjestelmien piiriin kuuluvaan toimeen, kansallisen lainsäädännön ja/tai käytännön mukaisesti, eivätkä vaikuttaa oikeuteen neuvotella, tehdä ja panna täytäntöön työehtosopimuksia tai ryhtyä työtaistelutoimiin kansallisen lainsäädännön ja/tai käytännön mukaisesti;

16. korostaa, että erityistä huomiota on kiinnitettävä työpaikalla tekoälyn avulla kerättyihin tietoihin varsinkin, jos niitä käytetään henkilöresursseja koskeviin päätöksiin; kehottaa työmarkkinaosapuolia yritystasolla analysoimaan ja seuraamaan yhdessä tekoälyn käyttöönottoa; kehottaa komissiota ja työmarkkinaosapuolia analysoimaan, tarvitaanko tekoälyn yhteydessä erityisiä tietosuojasäännöksiä työpaikoilla; korostaa, että työntekijät ovat tietojensa omistajia myös työsuhteen päättymisen jälkeen;

17. katsoo, että Euroopan uudessa osaamisohjelmassa on vastattava haasteisiin, jotka liittyvät pätevyyksien ja tietojen mukauttamiseen ja hankkimiseen, kun otetaan huomioon ekologinen ja digitaalinen siirtymä sekä tekoälyn eettiset näkökohdat; pitää tärkeänä, että tekoälyn eettisistä näkökohdista ja eettisten taitojen kehittämisestä on tehtävä olennainen osa kaikkia kehittäjille ja tekoälyn parissa työskenteleville suunnattuja koulutusohjelmia; muistuttaa, että kehittäjien, ohjelmoijien, päätöksentekijöiden ja tekoälyä käsittelevien yritysten on oltava tietoisia eettisestä vastuustaan; pitää myös tärkeänä varmistaa, että loppukäyttäjät ja kuluttajat saavat kattavaa tietoa ja että kaikki asiaan liittyvät sidosryhmät vaihtavat säännöllisesti tietoja aiheesta;

18. toistaa, että koulutus ja jatkuva oppiminen ovat tärkeitä, jotta voidaan kehittää digitaalisella aikakaudella tarvittavia pätevyyksiä ja torjua digitaalista syrjäytymistä; kehottaa jäsenvaltioita investoimaan laadukkaisiin, nopeasti mukautuviin ja osallistaviin koulutus-, ammattikoulutus- ja elinikäisen oppimisen järjestelmiin sekä työntekijöiden uudelleen- ja täydennyskoulutustoimiin aloilla, joihin tekoäly saattaa vaikuttaa vakavasti; korostaa tarvetta tarjota nykyiselle ja tulevalle työvoimalle tarvittavat luku- ja kirjoitustaito, laskutaito ja digitaaliset taidot sekä luonnontieteiden, teknologian, insinööritieteiden ja matematiikan alan taidot ja monialaisia pehmeitä taitoja, kuten kriittistä ajattelua, luovuutta ja yrittäjyyttä; korostaa, että tässä yhteydessä on kiinnitettävä erityistä huomiota muita heikommassa asemassa olevien ryhmien osallistamiseen;

19. korostaa, että tekoäly ei saa vahvistaa sukupuolten eriarvoisuutta ja stereotypioita muuttamalla analogiset vinoumat ja ennakkoluulot digitaalisiksi algoritmien avulla;

20. korostaa tarvetta varmistaa, että taustaltaan erilaiset ihmiset, kuten naiset, nuoret, tummaihoiset ja vammaiset henkilöt otetaan mukaan tekoälyn kehittämiseen, käyttöönottoon ja käyttöön; muistuttaa, että tekoälyyn perustuvan teknologian on oltava kaikkien käytettävissä työpaikalla kaikkia palvelevan suunnittelun periaatteen mukaisesti;

21. huomauttaa, että tekoälyratkaisujen saatavuus liittyy läheisesti nopeiden internetyhteyksien saatavuuteen, minkä vuoksi laajakaistan kattavuuden olisi oltava ensisijainen tavoite, jotta vältetään syrjintä ja eriarvoisuus näiden teknologioiden saatavuuden suhteen;

22. panee merkille, että tekoälyratkaisujen tarjoamat mahdollisuudet perustuvat massadataan ja että algoritmien kouluttamiseen ja tulosten tarkentamiseen tarvitaan tietty vähimmäismäärä dataa; pitää tässä yhteydessä myönteisenä komission ehdotusta yhteisen data-avaruuden perustamisesta unioniin tiedonvaihdon tehostamiseksi ja tutkimuksen tukemiseksi eurooppalaisia tietosuojasääntöjä täysimääräisesti noudattaen.

 


TIEDOT HYVÄKSYMISESTÄ
LAUSUNNON ANTAVASSA VALIOKUNNASSA

Hyväksytty (pvä)

7.9.2020

 

 

 

Lopullisen äänestyksen tulos

+:

–:

0:

46

6

1

Lopullisessa äänestyksessä läsnä olleet jäsenet

Atidzhe Alieva-Veli, Abir Al-Sahlani, Marc Angel, Dominique Bilde, Gabriele Bischoff, Vilija Blinkevičiūtė, Andrea Bocskor, Milan Brglez, Sylvie Brunet, David Casa, Leila Chaibi, Margarita de la Pisa Carrión, Özlem Demirel, Klára Dobrev, Jarosław Duda, Estrella Durá Ferrandis, Lucia Ďuriš Nicholsonová, Rosa Estaràs Ferragut, Nicolaus Fest, Loucas Fourlas, Cindy Franssen, Heléne Fritzon, Elisabetta Gualmini, France Jamet, Agnes Jongerius, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Katrin Langensiepen, Miriam Lexmann, Elena Lizzi, Radka Maxová, Kira Marie Peter-Hansen, Dragoș Pîslaru, Manuel Pizarro, Dennis Radtke, Elżbieta Rafalska, Guido Reil, Daniela Rondinelli, Mounir Satouri, Monica Semedo, Beata Szydło, Eugen Tomac, Romana Tomc, Yana Toom, Marie-Pierre Vedrenne, Nikolaj Villumsen, Marianne Vind, Maria Walsh, Stefania Zambelli, Tomáš Zdechovský

Lopullisessa äänestyksessä läsnä olleet varajäsenet

Lina Gálvez Muñoz, Eugenia Rodríguez Palop

 


LOPULLINEN ÄÄNESTYS NIMENHUUTOÄÄNESTYKSENÄ
LAUSUNNON ANTAVASSA VALIOKUNNASSA

46

+

ECR

Lucia Ďuriš Nicholsonová, Elżbieta Rafalska, Beata Szydło, Margarita de la Pisa Carrión

GUE/NGL

Leila Chaibi, Özlem Demirel, Eugenia Rodríguez Palop, Nikolaj Villumsen

NI

Daniela Rondinelli

PPE

Andrea Bocskor, David Casa, Jarosław Duda, Rosa Estaràs Ferragut, Loucas Fourlas, Cindy Franssen, Radan Kanev, Ádám Kósa, Stelios Kympouropoulos, Miriam Lexmann, Dennis Radtke, Eugen Tomac, Romana Tomc, Maria Walsh, Tomáš Zdechovský

Renew

Abir Al‑Sahlani, Atidzhe Alieva‑Veli, Sylvie Brunet, Dragoș Pîslaru, Monica Semedo, Yana Toom, Marie‑Pierre Vedrenne

S&D

Marc Angel, Gabriele Bischoff, Vilija Blinkevičiūtė, Milan Brglez, Klára Dobrev, Estrella Durá Ferrandis, Heléne Fritzon, Lina Gálvez Muñoz, Elisabetta Gualmini, Agnes Jongerius, Manuel Pizarro, Marianne Vind

Verts/ALE

Katrin Langensiepen, Kira Marie Peter‑Hansen, Mounir Satouri

 

6

-

ID

Dominique Bilde, Nicolaus Fest, France Jamet, Elena Lizzi, Guido Reil, Stefania Zambelli

 

1

0

Renew

Radka Maxová

 

Symbolien selitys:

+ : puolesta

- : vastaan

0 : tyhjää

 

 


 

 

YMPÄRISTÖN, KANSANTERVEYDEN JA ELINTARVIKKEIDEN TURVALLISUUDEN VALIOKUNNAN LAUSUNTO (16.9.2020)

<CommissionInt>oikeudellisten asioiden valiokunnalle</CommissionInt>


<Titre>suosituksista komissiolle tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien eettisten näkökohtien kehyksestä</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Valmistelija: <Depute>Adam Jarubas</Depute> (Aloite – työjärjestyksen 47 artikla)

 

 

EHDOTUKSET

Ympäristön, kansanterveyden ja elintarvikkeiden turvallisuuden valiokunta pyytää asiasta vastaavaa oikeudellisten asioiden valiokuntaa

 sisällyttämään seuraavat ehdotukset päätöslauselmaesitykseen, jonka se myöhemmin hyväksyy:

A. ottaa huomioon, että unionin perustana ovat Euroopan unionista tehdyn sopimuksen 2 artiklassa mainitut arvot ja Euroopan unionin toiminnasta tehdyn sopimuksen 191 artiklan 2 kohdassa vahvistetun ennalta varautumisen periaatteen kunnioittaminen;

B. ottaa huomioon, että SEUT:n 16 artiklassa todetaan, että jokaisella on oikeus henkilötietojensa suojaan; ottaa huomioon, että Euroopan parlamentin ja neuvoston asetuksen (EU) 2016/679[37] 22 artiklassa viitataan tilanteeseen, jossa tietoja käsitellään ainoastaan automaattisesti, ja tunnustetaan rekisteröidyn oikeus olla joutumatta sellaisen päätöksen kohteeksi, joka perustuu pelkästään automaattiseen käsittelyyn;

C. ottaa huomioon, että kilpailu maailmanlaajuisesta johtoasemasta tekoälyn kehittämisen alalla kiristyy jatkuvasti ja tulee vaikuttamaan siihen, mikä taho määrittää alaa maailmanlaajuisesti ohjaavat eettiset arvot ja normit, ja katsoo, että unionin olisi näytettävä esimerkkiä muulle maailmalle kehittämällä asianmukaisen sääntelykehyksen, jolla myös ehkäistään mahdollinen kilpailu alhaisimmasta sääntelytasosta kansallisten määräysten osalta;

D. katsoo, että tätä maailmanlaajuista kilpailua ei pitäisi erottaa eettisistä arvoista ja normeista;

E.  ottaa huomioon, että tutkimuksen ja innovoinnin nopea kehitys on tuonut esiin useita merkittäviä eettisiä, oikeudellisia ja sosiaalisia kysymyksiä, jotka vaikuttavat tieteen ja yhteiskunnan suhteeseen; toteaa, että eurooppalaisten tutkimusohjelmien määräysten mukaisesti tässä tutkimus- ja innovointitoiminnassa on noudatettava eettisiä periaatteita sekä asiaan liittyvää kansallista, unionin ja kansainvälistä oikeutta, joihin sisältyvät Euroopan unionin perusoikeuskirja sekä ihmisoikeuksien ja perusvapauksien suojaamista koskeva yleissopimus;

F. toteaa, että massadatan ja tekoälyteknologioiden integrointi osaksi julkisia terveydenhuoltojärjestelmiä ja muita aloja edellyttää asianmukaisia sääntöjä, normeja ja säädöksiä, joilla suojellaan yksilöiden perusoikeuksia ja ratkaistaan uudet eettiset haasteet;

G. ottaa huomioon, että patenttien ja investointien osalta unionin ja maailman muiden osien välinen ero on tällä hetkellä huomattava;

H. ottaa huomioon, että tekoälyratkaisut ja muut uudet digitaaliset ratkaisut voivat hyödyttää yhteiskuntaa muun muassa vihreän siirtymän, ympäristön ja luonnon monimuotoisuuden suojelun, maatalouden tehokkuuden parantamisen, jätehuollon, kiertotalouden, ilmastonmuutoksen hillitsemisen ja siihen sopeutumisen, erilaisten teollisuusprosessien viherryttämisen, energian ja liikenteen hallinnan ja tehokkuuden, veden ja ilman laadun (esimerkiksi älykkäiden verkkojen sekä sähköisen liikkuvuuden myötä) riskinhallinnan sekä maanhavainnoinnin (jolla alalla unionin Copernicus-ohjelma on yksi parhaista) aloilla;

I. toteaa, että tekoälyä voidaan soveltaa lähes millä tahansa lääketieteen alalla: biolääketieteellisessä tutkimuksessa, josta esimerkkinä voidaan mainita tekoälyn avulla löydetty antibiootti halisiini tai tekoälyn osuus syöpien ehkäisemisessä, nopeampien, varhaisempien ja tarkempien diagnoosien saamisessa ja uusien hoitomuotojen kehittämisessä esimerkiksi ehkäisevän lääketieteen ja genomiikkalääketieteen menetelmien avulla, lääketieteen koulutuksessa, hoitajien avustamisessa, vanhustenhoidon tukemisessa, potilaiden terveydentilan seurannassa, lääkkeiden tehokkaammassa kehittämisessä, kohdennetummassa hoidossa, kliinisessä päätöksenteossa, yksilöllistetyssä hoidossa, psykiatrisessa diagnosoinnissa ja hoidossa, robottiproteesien ja tukijärjestelmien mullistamisessa, etälääketieteessä ja etäkirurgiassa sekä terveydenhuoltojärjestelmien yleisen tehokkuuden ja yhteentoimivuuden lisäämisessä;

J.  toteaa, että digitaalinen kehitys edellyttää hoito- ja hallintohenkilöstön asianmukaista koulutusta ja valmistautumista, jotta ehkäistään digitaalisen kahtiajaon muodostuminen, ja katsoo, että samalla on otettava huomioon ikääntyvät yhteiskuntamme ja mahdolliset terveydenhuoltojärjestelmiin kohdistuvat haasteet;

K. katsoo, että koneiden autonomiaan liittyy vakavia eettisiä huolia;

L. ottaa huomioon, että digitaalinen terveydenhuolto ei saisi epäinhimillistää hoitoa eikä vahingoittaa lääkäreiden ja potilaiden välisiä suhteita, vaan sillä olisi autettava lääkäreitä diagnosoimaan ja/tai hoitamaan potilaita tehokkaammin;

M. katsoo, että tekoälyteknologia nopeuttaa teollisuuden digitaalista muutosta ja on olennainen osa digitaalisen talouden menestystä yhä tiiviimmin verkottuneessa maailmassa;

N. ottaa huomioon, että jotkin tekoälysovelluksiin liittyvät ja komission tekoälystä julkaisemassa valkoisessa kirjassa mainitut eettiset haasteet on jo ratkaistu voimassa olevassa unionin oikeudellisessa kehyksessä ja eettisissä ohjeissa, joissa on esimerkiksi säädetty sisämarkkinoilla käytettäviä tekoälypohjaisia terveydenhuoltoratkaisuja koskevista riskinarviointiprosesseista; ottaa huomioon, että muilla osa-alueilla on jääty jälkeen eettisistä haasteista, jotka on yksilöitävä ja joita on pienennettävä, koska tekoäly voi vakavasti uhata potilaiden valintoja, turvallisuutta ja yksityisyyttä; toteaa, että potilaiden hoitoon liittyvät terveydenhoidon ammattilaisten ja koneiden tehtävien rajat on määritettävä, robottien valvotun autonomian periaate mukaan luettuna, ja että sekä terveydenhuollon työntekijöille että potilaille on annettava tietoa asiasta;

O. katsoo, että unionin tietosuojasääntöjä olisi mukautettava, jotta otetaan huomioon sellaisten hoivarobottien ja lääketieteellisten robottien kasvava kompleksisuus ja yhteenliitettävyys, jotka saattavat käsitellä erittäin arkaluonteisia henkilötietoja ja potilastietoja ja joissa olisi noudatettava tietosuoja-asetuksen (EU) 2016/679 mukaista sisäänrakennettua yksityisyyden suojaa;

P. katsoo, että ratkaisut, jotka painottavat tarvetta sisällyttää tieteellinen tutkimus kehitysstrategioiden pohjaksi luomalla lääketieteellisiä (esim. neurologisen ja kardiologisen tiedon) data-arkistoja , ja tästä tutkimuksesta saatavien tietojen jakaminen voivat tuottaa selkeitä yhteiskunnallisia hyötyjä yleisen turvallisuuden ja kansanterveyden kannalta;

Q. ottaa huomioon, että tekoälyratkaisut voivat hyödyttää yhteiskuntaa elintarviketurvallisuuden alalla muun muassa vähentämällä torjunta-aineiden käyttöä, tukemalla täsmäviljelyä tai yleisemmin Maatalous 2.0 -hanketta, jossa unionilla on johtoasema tekoälysovellusten osalta (esimerkiksi sääennusteisiin tai tautien tunnistamiseen liittyvät koneiden automatisoidut mukautukset); toteaa, että tällaiset sovellukset mahdollistavat vihreän kehityksen ohjelman painopisteiden mukaisesti tehokkaamman tuotannon yhdistämisen tiukempiin ympäristövaatimuksiin ja resurssien parempaan hyödyntämiseen erityisesti sellaisilla alueilla, joilla on niukasti vesivaroja ja joihin ilmastonmuutos vaikuttaa vakavalla tavalla;

R. toteaa, että tämän kehyksen soveltamisalan olisi oltava riittävä, oikeasuhtainen ja perusteellisesti arvioitu; katsoo, että sen olisi katettava laaja valikoima teknologioita ja niiden osia, mukaan lukien tekoälyn käyttämät tai tuottamat algoritmit, ohjelmistot ja data; katsoo, että suuren riskin käsitteeseen perustuva kohdennettu lähestymistapa on tarpeen, jotta ei heikennetä tulevien innovaatioiden mahdollisuuksia tarjota kansalaisille tekoälysovellusten tuomia hyötyjä esimerkiksi terveydenhuollon, ympäristönsuojelun ja elintarvikkeiden laadun osalta;

S. katsoo, että on olennaisen tärkeää tunnistaa tehokkaat keinot varmistaa luotettavat digitaaliset teknologiat ja mahdollistettava niiden hyötyjen saavuttaminen samalla, kun suojellaan perusoikeuksia ja kannustetaan epämuodollisten, avoimien, suvaitsevaisten ja oikeudenmukaisten yhteiskuntien luomiseen; katsoo, että tämä on erityisen tärkeää ihmisten ja tekoälyn yhteistoimintaan perustuvien hybridijärjestelmien tapauksessa;

T. toteaa, että ihmisten ja teknisten esineiden väliset rajat hämärtyvät robottikoneiden myötä; toteaa, että sen lisäksi, että niihin liittyy yhteiskunnallisia vaikutuksia, joita on arvioitava eettiseltä kannalta, ne myös asettavat kyseenalaisiksi jopa samat eettiset kehykset, joiden pohjalta niitä pyritään arvioimaan; toteaa, että kuten maailmanlaajuisen tieteellisen tutkimuksen ja tekniikan eettisen komission (COMEST) raportissa muistutetaan, on kiinnitettävä erityisesti huomiota lääketieteellisten robottien, sairaanhoitorobottien, ikääntyneiden ihmisten hoidossa käytettyjen robottien ja seurarobottien käyttöön;

U. ottaa huomioon, että sosiaalisten robottien ja seurarobottien käyttö lisääntyy nopeasti terveydenhuoltoalalla ja erityisesti ikääntyneiden ihmisten hoidossa; ottaa huomioon, että ikääntyneiden ihmisten hoidossa käytetyillä roboteilla ja seuraroboteilla voi olla toiminnallinen ja tunne-elämään liittyvä rooli; ottaa huomioon näiden robottien mahdollisen roolin, kun vähennetään ikääntyneiden ihmisten yksinäisyyttä, ehkäistään dementiaan liittyvää käyttäytymistä, stimuloidaan hermoston rappeutumissairauteen sairastuneiden potilaiden kognitiivista toimintaa tai hoidetaan arkiaskareita, joita ikääntyneiden ihmisten on vaikea hoitaa; toteaa, että seurarobotit saattavat näin herättää perusteettomia, näennäisiä ja yksipuolisia tunteita ja siten harhaanjohtaa ja infantilisoida ikääntyneitä ihmisiä;

V. ottaa huomioon, että seurarobotteja saatetaan entistä enemmän käyttää seksuaalisiin tarkoituksiin; ottaa huomioon erityisen huolestuttavat eettiset näkökohdat, joita liittyy sellaisten seksirobottien käyttöön, jotka näyttävät lapsilta tai jotka on ohjelmoitu hyväksikäyttöä varten;

Tekoälyn käytön oikeudellinen ja eettinen kehys

1. korostaa, että unionin on ryhdyttävä kaikki tarvittaviin toimiin taatakseen, että sen eettisiä arvoja, jotka on vahvistettu unionin säännöstössä, sovelletaan unionissa tehokkaasti kaikilla tekoälyn aloilla, ja edistääkseen normejaan maailmanlaajuisesti; korostaa tässä yhteydessä, että tekoälyn teknologisen kehityksen täytyy aina hyödyttää ihmiskuntaa;

2. korostaa, että unionin on ryhdyttävä kaikkiin tarpeellisiin toimiin, joilla lisätään yhteiskunnan luottamusta tekoälyn, robotiikan ja niihin liittyvien teknologioiden kehittämiseen ja täytäntöönpanoon, kun otetaan huomioon näiden teknologioiden merkittävät vaikutukset kansalaisiin; kehottaa komissiota noudattamaan luotettavaa tekoälyä koskevia eettisiä ohjeita ja ehdottamaan asianmukaisia toimenpiteitä sen varmistamiseksi, että nämä teknologiat eivät tuota epäoikeudenmukaisesti puolueellisia tuloksia kansalaisille;

3. korostaa, että lainsäädäntöön perustuva EU:n tekoälyä koskeva luottamuksen ekosysteemi – olivatpa kyseessä sitten ympäristönsuojelun, terveyden tai elintarviketurvallisuuden sovellukset – täydennettynä unionin tekoälyä koskevalla eettisellä kehyksellä parantaa oikeusvarmuutta ja ennakoitavuutta, kannustaa sidosryhmiä osallistumaan, lisää luovutettujen tietojen määrää ja käyttöä markkinoilla, mahdollistaa mittakaavaedut ja tukee huippuosaamisen ekosysteemiä näillä aloilla; katsoo, että tämä vahvistaa unionin tekoälyalan maailmanlaajuista kilpailukykyä ja mahdollisuuksia edistää unionin arvoja ja normeja;

4 toteaa, että koska lainsäädäntö vastaa paremmin nykyisiin hyvin määriteltyihin haasteisiin ja koska tekoälyn nopean kehityksen vuoksi odotettavissa on epävarmuutta, tekoälyä koskevalla unionin yhteisellä, oikeudellisesti hyvin perustellulla ja täytäntöönpanokelpoisella eettisellä kehyksellä laajennetaan komission valkoisessa kirjassa määritelty luottamuksen ekosysteemi kaikkiin sidosryhmiin, erityisesti ympäristön- ja kansanterveyden suojelun, aiempaa terveellisempien ympäristöjen luomisen, terveydenhuoltoresurssien ja -palveluiden parantamisen tai elintarviketurvallisuuteen liittyvien sovellusten aloilla, ja tuetaan siten oikeusvarmuuden ja ennustettavuuden avulla huippuosaamisen ekosysteemiä ja vastataan tehokkaasti haasteisiin, joita ei ole vielä käsitelty esimerkiksi oikeusistuimissa, johdon kokouksissa tai tieteellisissä laboratorioissa;

5. toteaa, että tekoälyn määritelmää on vielä kehitettävä; korostaa siksi, että ihmiskeskeinen lähestymistapa ja tekoälyn kehittymistä sekä eettistä kehystä koskevat säännölliset arvioinnit ovat tärkeitä, jotta voidaan edistää ennakoivaa sääntelyä ja taata sen käyttökelpoisuus pitkällä aikavälillä ja uusista kehityksistä huolimatta; korostaa, että edistyneempien tekoälyteknologioiden seurauksena syntyy monenlaisia riskitasoja, jotka muuttuvat ajan myötä; korostaa, että tarvitaan oikeasuhtainen lainsäädäntökehys, jonka olisi kehityttävä teknologisen kehityksen tahdissa; huomauttaa, että Copernicus-ohjelma voi toimia parhaana käytäntönä kehitettäessä laadukkaita suuria tietojoukkoja, joita syötetään tekoälymalleihin;

6. korostaa tarvetta sääntelykehykselle, jossa määritetään eettiset periaatteet, joita sovelletaan tämän teknologian suunnittelussa, kehittämisessä, käyttöönotossa ja toiminnassa – tietojen saannista tiukkaan tulosten valvontaan;

7. korostaa, että sääntelyyn on löydettävä tasapainoinen lähestymistapa, jolla varmistetaan ennen muuta, että arvomme eivät vaarannu ja jolla samalla vältetään tarpeettoman hallinnollisen rasitteen muodostuminen erityisesti pk-yrityksille ja startup-yrityksille; korostaa tässä yhteydessä, että tekoälyalan globaalit kilpailijat eivät aina noudata samoja eettisiä periaatteita kuin unioni; painottaa, että tekoälyä ja siihen liittyviä teknologioita ei pitäisi jättää pelkästään kevyen itsesääntelyn varaan; pitää olennaisen tärkeänä, että unionin lainsäädäntökehykseltä edellytetään oikeasuhteisuutta ja sitä, että se tarjoaa tukea; muistuttaa, että monet kolmannet maat työstävät eettisiä kehyksiään ja että maailmanlaajuisella tasolla on esitetty useita ehdotuksia; on tietoinen siitä, että suurin eettisiä periaatteita koskeva ongelma voi liittyä tällaisten periaatteiden määrittämisen sijasta niiden täytäntöönpanoon;

8. tukee näkemystä, jonka mukaan tekoälyä käsittelevän korkean tason asiantuntijaryhmän julkaisemissa luotettavaa tekoälyä koskevissa eettisissä ohjeissa määritetyt seitsemän tekoälylle asetettua vaatimusta muodostavat vankan perustan tekoälyä koskevalle ja asianmukaisesti oikeudellisesti perustellulle unionin yhteiselle eettiselle kehykselle, jossa on määrä käsitellä muun muassa ympäristön, terveyden ja elintarvikkeiden suojelun alojen tekoälysovellusten eettisiä näkökohtia; kehottaa parantamaan avoimuutta, jäljitettävyyttä ja ihmisen suorittamaa valvontaa koskevaa unionin säännöstöä, sillä 350 organisaation ohjeista antamassa palautteessa näiden osa-alueiden katsottiin kaipaavan lisäparannuksia; kannustaa lisäksi luomaan tekoälyä koskevan unionin eettisen kehyksen avoimuuden hengessä ottaen huomioon muiden unionin arvot jakavien kansainvälisten kumppaneiden työn, esimerkkeinä YK, Euroopan neuvosto, joka julkaisi vuonna 2019 tekoälyä ja tietosuojaa koskevat ohjeet[38] ja on laatinut eurooppalaisen eettisen peruskirjan tekoälyn käytöstä oikeusjärjestelmissä ja jonka oikeudellinen tutkimuskeskus on tehnyt merkittävää työtä, Euroopan neuvoston tekoälyä käsittelevä komitea (CAHAI), OECD:n jäsenten toukokuussa 2019 allekirjoittamat tekoälyn periaatteet[39], G20-ministerikokouksen vuoden 2019 kauppaa ja digitaalista taloutta koskeva julkilausuma, jonka liitteet sisältävät tekoälyä koskevat periaatteet, sekä IEEE:n maailmanlaajuinen aloite autonomisia ja älykkäitä järjestelmiä koskevista eettisistä kysymyksistä[40];

9.  tukee voimakkaasti komission toimia tekoälyä koskevan unionin yhteisen eettisen kehyksen vahvistamiseksi, jotta voidaan korjata puutteet, jotka johtuvat tekoälyn sisämarkkinoiden hajanaisuudesta, ympäristö-, terveydenhuolto- ja elintarviketurvallisuussovelluksiin liittyvä tutkimus, innovointi ja asiantuntemus mukaan luettuina, ja jotta voidaan estää kahdentyyppisten sääntöjen soveltaminen eri jäsenvaltioissa yhtäältä unionissa ja toisaalta sen ulkopuolella kehitettyyn tekoälyyn muun muassa seuraavilla aloilla: kuluttajatietojen hallinta, suojelu ja yksityisyys älykkäissä verkoissa, jätehuolto, palvelujen ja teknologioiden yhdenvertainen saatavuus, potilaiden ja lääkäreiden välisiin suhteisiin sovellettavat vaatimukset, tietosuojaa ja yksityisyyden suojaa koskeva lainsäädäntö, niiden vuorovaikutus tutkimustoimien ja lääkkeiden kehittämisen kanssa mukaan luettuna, siviilioikeudellinen vastuu tapauksissa, joissa julkisessa terveydenhuollossa on käytetty apuna tekoälyä, sekä itseohjautuviin ajoneuvoihin tai autonomisiin koneisiin liittyvä siviilioikeudellinen vastuu; panee merkille, että kansallisella tasolla jäsenvaltioiden lainsäädäntö ei sisällä yhdenmukaistettuja vastuusääntöjä, joita sovellettaisiin digitaalisista ja käyttäytymisperusteisista teknologioista mahdollisesti aiheutuviin vahinkoihin tai vammoihin; kehottaa ankkuroimaan ja asemoimaan tällaisen unionin tekoälyä koskevan eettisen kehyksen oikeudellisesti asianmukaisella tavalla;

10. muistuttaa tässä yhteydessä, että robotiikkaa koskevista yksityisoikeudellisista säännöistä 16. helmikuuta 2017 annetussa parlamentin päätöslauselmassa[41] pyydettiin komissiota harkitsemaan sitä, että se perustaisi EU:n tekoälyviraston, jonka tehtävänä olisi muun muassa varmistaa yhdenmukainen lähestymistapa kaikkialla unionissa, laatia yhteiset perusteet ja hakuprosessi eettisten sääntöjen noudattamista koskevan eurooppalaisen sertifioinnin myöntämistä varten ja käsitellä uusia mahdollisuuksia ja haasteita, erityisesti rajatylittäviä haasteita, jotka ovat seurausta meneillään olevasta teknologisesta kehityksestä; pyytää komissiota tarkastelemaan, riittävätkö nykyiset unionin elimet ja toimielimet hoitamaan kyseiset tehtävät vai onko tarpeen perustaa uusi elin tekoälykysymyksiä varten;

11. katsoo, että kaikissa unionissa ja sen ulkopuolella kehitetyissä tekoälysovelluksissa on taattava unionissa sama suojelutaso kuin kaikissa muissakin teknologioissa, mihin sisältyvät tekoälyjärjestelmien kielteisistä vaikutuksista kärsiville osapuolille tarjottavat tehokkaat oikeussuojakeinot, kun taas teknologisen innovoinnin on annettava kehittyä edelleen; katsoo lisäksi, että tämä tekoälyn riskialue on ratkaisevan tärkeä esimerkiksi terveyspalvelujen, autonomisia ajoneuvoja hyödyntävän liikenteen ja elintarviketurvallisuuden kannalta; kehottaa jakamaan selkeästi velvollisuudet, oikeudet ja vastuut tekoälysovellusten toimittamiseen osallistuvien talouden toimijoiden kesken ja osoittamaan kunkin velvoitteen sellaisille toimijoille, joilla on parhaat mahdollisuudet torjua mahdollisia riskejä, olipa kyseessä sitten kehittäjä, käyttöönottaja, tuottaja, jakelija, maahantuoja, palveluntarjoaja tai ammattimainen tai yksityinen käyttäjä, ja pyytää tässä yhteydessä tarkistamaan asianmukaisesti asiaan liittyvän EU:n lainsäädännön, kuten tuotevastuudirektiivin, ja yhdenmukaistamaan kansallisen lainsäädännön; tukee valkoisessa kirjassa esitettyä komission kantaa, jonka mukaan tekoälyjärjestelmien monimutkaisuuden vuoksi tehokkaan suojelun ja oikeussuojakeinojen tason varmistaminen voi edellyttää sitä, että kansallisissa säännöissä tekoälysovellusten toiminnasta aiheutuvien vahinkojen korvausvastuun osalta edellytettävää todistustaakkaa on mukautettava; katsoo, että selkeys oikeudellisesta vastuusta tekoälyalalla vahvistaa unionin säännöstöön sisältyvien unionin eettisten arvojen täytäntöönpanoa, oikeusvarmuutta ja ennustettavuutta sekä unionin tekoälyalan huippuosaamisen ekosysteemin kehittämistä tukevaa yhteiskunnallista hyväksyntää kokoamalla yhteen sijoittajat ja parantamalla markkinoille saattamista;

12. korostaa, että monet unionin ulkopuolisten maiden ja kansainvälisten järjestöjen ehdotukset käsittelevät seuraavia tekoälyä koskevia yhteisiä periaatteita tai käsitteitä: ihmiskeskeisyys, luotettavuus, ihmisten itsemääräämisoikeuden kunnioittaminen, haittojen ehkäiseminen, oikeudenmukaisuus, ”ketään ei jätetä jälkeen” ja selitettävyys; katsoo, että näihin periaatteisiin perustuva kansainvälinen eettinen kehys olisi erittäin toivottava; on huolissaan, että tekoälyn edistyminen ja innovaatiot johtavat sosiaaliseen eriarvoisuuteen, jos toimiin ei ryhdytä; kehottaa siksi komissiota ja jäsenvaltioita ryhtymään tarvittaviin toimenpiteisiin, jotta ketään ei jätetä jälkeen siirryttäessä digitaaliseen Eurooppaan, ja takaamaan näiden innovaatioiden oikeudenmukaisen, kohtuuhintaisen ja tasapuolisen saatavuuden erityisesti terveydenhuollon kaltaisilla aloilla;

13. suosittelee täydentämään riskiperusteista lähestymistapaa algoritmien vaikutustenarvioinnilla, jossa hyödynnetään esimerkiksi säädösten vaikutusten analysoinnista, yleisen tietosuoja-asetuksen riskinarviointimenettelystä sekä ihmisoikeusvaikutusten arvioinnista saatavia tietoja ja julkaistaan saadut tulokset;

14. pitää myönteisenä, että 19. helmikuuta 2020 annetussa komission valkoisessa kirjassa[42] määritellyssä riskiperusteisen lähestymistavan menetelmässä terveydenhuolto, liikenne ja energia tunnustetaan oletusarvoisesti suuririskisiksi aloiksi ja että siinä otetaan käyttöön näiden alojen osalta nykyisiä unionin sääntöjä pidemmälle menevien tekoälyvaatimusten luetteloja, paitsi jos tekoälyn käyttötapaan ei liity merkittävää riskiä; korostaa, että tekoälyä koskevassa unionin eettisessä kehyksessä olisi käsiteltävä erityisesti edellä mainittuja suuririskisiä aloja;

15. kehottaa määrittelemään unionin tasolla selkeät, objektiiviset ja avoimet menettelyt sellaisten tekoälyä käyttävien korkean riskin sovellusten julkisen luettelon laatimiseksi, joihin liittyy säännöllinen uudelleentarkastelu- ja päivitysmekanismi; kehottaa harkitsemaan, että todistustaakka asetettaisiin tällaisissa menettelyissä kaikkien alojen kaikkien tekoälysovellusten osalta sille taholle, joka pyrkii kehittämään tai ottamaan käyttöön tekoälyjärjestelmän, jotta luettelo voidaan pitää avoinna innovoinnille ja otetaan huomioon se riski, että tekoälysovellukset luokiteltaisiin muuksi kuin suuririskisiksi;

16. katsoo, että suuririskisen tekoälyn, robotiikan ja niihin liittyvien teknologioiden kehittämiseen, käyttöönottoon ja käyttöön, mukaan lukien ohjelmistoihin, algoritmeihin ja tällaisten teknologioiden käyttämiin tai tuottamiin tietoihin, liittyy vinoutumien ja syrjinnän riskejä; muistuttaa, että näissä teknologioissa olisi kaikissa olosuhteissa kunnioitettava ihmisarvoa ja varmistettava yhdenvertainen kohtelu kaikille; katsoo, että tällaisiin mahdollisiin vinoutumiin voitaisiin puuttua laatimalla tietojen käsittelyä koskevia sääntöjä ja määrittämällä asianmukaiset suojatoimet, jotka suojaisivat sosiaalisiin, taloudellisiin tai etnisiin tekijöihin, rotuun, seksuaaliseen, sukupuoleen, vammaisuuteen tai muihin tekijöihin perustuvilta vinoutumilta ja syrjinnän muodoilta; varoittaa tekoälyä käyttävien diagnostiikkasovellusten mahdollisesta väärinkäytöstä ja kehottaa luomaan tekoälyn valmiuksia koskevia ja vaikuttimiin liittyviä suojatoimia;

17 suhtautuu myönteisesti vapaaehtoisia merkintöjä koskevaan aloitteeseen muun kuin suuririskisen tekoälyn osalta;

18. suosittaa ottamaan käyttöön keinoja, joilla kannustetaan kaikkien tekoälyn etiikkaan liittyvien sidosryhmien yksityiseltä sektorilta, kuluttajaryhmistä ja akatemiasta mukaan ottamiseen, kun laaditaan eettistä säännöstöä, joka on sovitettu teknologiseen, yhteiskunnalliseen ja poliittiseen kehitykseen;

19. muistuttaa, että robotit käyttävät päätöksenteossa algoritmeja mallintamaan arvoja ja eettisiä kehyksiä ja että niiden käytöllä on merkittäviä eettisiä seurauksia terveydenhuollon ja sosiaalisten suhteiden kannalta; on erityisen huolestunut seurarobottien käytöstä pedofiliaan ja seksuaaliseen hyväksikäyttöön liittyviin tarkoituksiin; katsoo, että eettiset näkökohdat olisi otettava huomioon, kun kehitetään robottitekniikkaa; kehottaa sisällyttämään koneiden kehitysprosessiin eettisiä näkökulmia noudattaen esimerkiksi arvot huomioon ottavaa lähestymistapaa suunnittelussa, erityisesti ikääntyneiden ihmisten hoidossa käytettävien robottien ja seurarobottien osalta; painottaa, että tätä lähestymistapaa olisi myös mukautettava eläinten hyvinvoinnin huomioon ottamiseksi;

20. korostaa, että vastuukysymyksiä koskevien selkeiden sääntelyllisten vaatimusten lisäksi on myös varmistettava algoritmien avoimuus, jotta on mahdollista jäljittää se hetki, jolloin ”asiat menivät pieleen” ja jotta asiantuntijat voivat ryhtyä oikea-aikaisiin toimiin; katsoo, että algoritmien avoimuus on ratkaisevan tärkeää, jotta vältytään tilanteilta, joissa päätöksenteko tapahtuu ”mustan laatikon” sisällä; korostaa, että ei selitettävissä olevia päätöksiä tekevät mustan laatikon algoritmit eivät ole hyväksyttäviä millään alalla, mutta algoritmin epäonnistumisen seuraukset voivat olla vakavia erityisesti silloin, jos tekoälyyn perustuvalla päätöksenteolla on vaikutusta elämää tai kuolemaa koskeviin päätöksiin; kehottaa komissiota ja jäsenvaltioita käynnistämään vuoropuhelun lääketieteen, tietotekniikan, matematiikan, fysiikan, lääketieteellisiä tietoja koskevan teknologian, kliinisen psykologian, biotekniikan ja lääketutkimuksen alojen keskeisten sidosryhmien kanssa, jotta voidaan luoda vuoropuheluja rakentavia alustoja ja arvioida potilaiden ja lääkäreiden välisiin suhteisiin kohdistuvia vaikutuksia ja lääkehoidon epäinhimillistymistä;

21. kehottaa unionia käynnistämään ohjaavia aloitteita, joilla edistetään tulkittavissa olevia algoritmeja, selitettävissä olevaa tekoälyä (xAI), symbolista päättelyä käyttävää tekoälyä ja tekoälyn white box -testaustekniikoita osoittamalla, että nämä teknologiat voidaan yhdistää syviin neuroverkkoihin, ja osoittamalla niiden oikeudelliset, eettiset ja usein liiketoiminnalliset edut sekä edistämällä menetelmiä, joilla voidaan määrittää erilaisiin teknologisiin vaihtoehtoihin liittyvät riskit käyttämällä muun muassa Yhdistyneen kuningaskunnan tietosuojavaltuutetun viraston saamia kokemuksia ja Alan Turing Instituten suuntaviivoja aiheesta ”Explaining decisions made with AI”, ja osoittamalla, että jopa erittäin monimutkaisia neuroverkkoihin perustuvia tekoälyjärjestelmiä on mahdollista tulkita riittävissä määrin;

22. kehottaa varmistamaan avoimuuden, vastuullisuuden, tarkastettavuuden, ennustettavuuden ja vastuuvelvollisuuden, koska kansalaisille, potilaille ja käyttäjille olisi ilmoitettava, kun he ovat vuorovaikutuksessa tekoälyä käyttävän järjestelmän kanssa, kertomalla selvästi ja ymmärrettävästi käytetyistä tiedoista, algoritmin toimintatavasta sekä sen tarkoituksesta, tuloksista ja mahdollisista vaaroista; korostaa, että avoimuus ja selitettävyys ovat olennaisen tärkeitä, jotta voidaan varmistaa luottamus näihin teknologioihin; katsoo, että selitystä olisi täydennettävä tarkastettavuudella ja jäljitettävyydellä, sillä tällaisten periaatteiden noudattaminen on keino taata vastuuvelvollisuus; huomauttaa, että tekoälysovellukset voivat suoriutua ihmisiä paremmin suppeista erityistehtävistä kuitenkin epäonnistuen laajemmissa analyyseissä; vaatii ihmisten suorittamaa valvontaa, ammatillista vastuuta ja järjestelmän ennakoitavuutta sekä mahdollisuutta ohittaa tekoälyjärjestelmä;

23. katsoo, että kaikkien luonnollisten henkilöiden ja oikeushenkilöiden olisi voitava hakea muutosta päätökseen, jonka korkean riskin tekoäly, robotiikka tai niihin liittyvä teknologia on tehnyt hänen vahingokseen, ja että tekoälyn tekemiin päätöksiin olisi sovellettava tiukkaa ihmisten toimesta tehtävää varmentamista ja oikeudenmukaista menettelyä; ehdottaa korkean riskin tekoälyn, robotiikan ja niihin liittyvien teknologioiden käyttöön julkisen vallan päätöksissä liittyvien suojatoimien käyttöönottoa, mukaan lukien säännölliset arvioinnit ja mahdollinen sääntelykehyksen tarkistaminen, jotta pysytään teknologian kehityksen tasalla, ja ehdottaa sitovien suuntaviivojen laatimista vaatimustenmukaisuuden arvioinnin menettelyistä, joita kansallisten valvontaviranomaisten on noudatettava, ja ohjeellisten suuntaviivojen laatimista kehittäjille, käyttöönottajille ja käyttäjille;

24. suhtautuu myönteisesti Euroopan datastrategiaan, jolla vastataan haasteisiin, joita unionilla on edessään tällä tekoälyn kehittymisen kannalta keskeisellä alalla, ja pyritään löytämään eurooppalaisia kilpailuetuja uudessa datataloudessa, erityisesti teollisuudesta, liike-elämästä ja julkiselta sektorilta sekä verkon reunalla olevista laitteista peräisin olevien hajautettujen muiden kuin henkilötietojen kasvavalla alalla, jonka odotetaan muodostavan 80 prosenttia 175 tsettatavusta vuonna 2025 ja kääntävän nykyiset osuudet päinvastaisiksi;

25. kehottaa varmistamaan riittävän rahoituksen unionin tekoälymuutokselle; tukee komission valkoisessa kirjassa esitettyä tavoitetta houkutella unioniin seuraavien 10 vuoden aikana 200 miljardin euron arvosta julkisia ja yksityisiä investointeja tekoälyyn; suhtautuu myönteisesti siihen, että kiinnitetään huomiota vähemmän kehittyneiden alueiden tekoälyekosysteemien puutteisiin sekä pk-yritysten ja startup-yritysten tarpeisiin; kehottaa komissiota yksilöimään julkisen infrastruktuurin puutteet ja helpottamaan tekoälyn rahoitusta ilmastonmuutoksen hillitsemisen ja siihen sopeutumisen, uusiutuvien energialähteiden ja terveydenhuollon aloilla sekä edistämään kaiken tekoälyä koskevan rahoituksen maantieteellisesti tasapainoista saatavuutta myös pk-yrityksille ja startup-yrityksille; painottaa, että unionin uudet tavoitteet eivät saa heikentää sitoutumista sen painopisteisiin, kuten YMP:hen, koheesiopolitiikkaan, vihreän kehityksen ohjelmaan ja covid-19-elvytyssuunnitelmaan (Next Generation EU);

26 kehottaa komissiota edistämään ja rahoittamaan sellaisten ihmiskeskeisten tekoälyn, robotiikan ja niihin liittyvien teknologioiden kehittämistä, joilla puututaan ympäristöön ja ilmastoon liittyviin haasteisiin ja varmistetaan yhdenvertaiset mahdollisuudet nauttia perusoikeuksista, verotuksen, vihreiden julkisten hankintojen tai muiden kannustimien avulla;

Tekoälyn hiilijalanjälki

27. panee merkille, että komissio toteaa 19. helmikuuta 2020 julkaisemassaan digitaalipaketissa, että tieto- ja viestintätekniikan osuus maailmanlaajuisesta sähkönkulutuksesta on nykyään 5–9 prosenttia ja hiilidioksidipäästöistä 2 prosenttia ja että siirrettyjen ja tallennettujen tietojen määrä kasvaa edelleen eksponentiaalisesti tulevina vuosina ja että tähän liittyviä ratkaisuja on löydettävä; toteaa myös, että yhteisen tutkimuskeskuksen vuonna 2018 aiheesta ”Artificial Intelligence – A European Perspective” tekemässä tutkimuksessa arvioidaan, että datakeskusten ja tiedonsiirron osuus unionin kaikesta sähkönkulutuksesta voi olla 3–4 prosenttia;

28. pitää myönteisenä, että Euroopan digitaalistrategiassa ehdotetaan vihreitä muutostoimenpiteitä digitaalisia aloja varten;

29. korostaa, että vaikka syväoppimisen ja tekoälyn nykyinen hiilijalanjälki on suuri, nämä teknologiat voivat osaltaan pienentää tieto- ja viestintätekniikan alan sekä tekoälyn, robotiikan, automatisoidun päätöksenteon ja koneoppimisen kehittämisen nykyistä ympäristöjalanjälkeä; korostaa, että näiden ja muiden asianmukaisesti säänneltyjen asiaan liittyvien teknologioiden olisi oltava ratkaisevia osatekijöitä vihreän kehityksen ohjelman, YK:n kestävän kehityksen tavoitteiden ja Pariisin sopimuksen tavoitteiden saavuttamisessa monilla eri aloilla ja että niillä olisi tehostettava ympäristönsuojelua edistävien toimintapolitiikkojen vaikutusta esimerkiksi jätteen vähentämisen ja ympäristön tilan heikkenemisen osalta;

30. kehottaa komissiota tekemään tutkimuksen tekoälyteknologian hiilijalanjäljen vaikutuksesta sekä kuluttajien tekoälyteknologian käyttöön siirtymisen myönteisistä ja kielteisistä vaikutuksista;

31. toteaa, että koska laskenta-, varastointi- ja energiaresursseja edellyttäviä tekoälysovelluksia kehitetään yhä enemmän, myös tekoälyjärjestelmien ympäristövaikutukset olisi otettava huomioon järjestelmien elinkaaren aikana;

Tekoälyn vaikutus terveydenhuoltoalaan ja potilaiden oikeuksiin

32. on tietoinen tekoälyn mahdollisesta merkittävästä roolista terveyden alalla ja korostaa, että terveydenhuollon tekoälysovellusten olisi aina pyrittävä maksimoimaan niiden tarjoamat mahdollisuudet – kuten yksittäisten potilaiden terveyden ja jäsenvaltioiden julkisten terveydenhuoltojärjestelmien suorituskyvyn parantaminen – heikentämättä eettisiä normeja ja vaarantamatta kansalaisten yksityisyyttä tai turvallisuutta;

33. suhtautuu myönteisesti valkoisessa kirjassa ilmoitettuun sitoumukseen, jonka mukaan komissio tarkastelee erityisesti terveydenhuollon turvallisuuteen ja vastuuvelvollisuuteen liittyviä haasteita, jotka liittyvät esimerkiksi erikoistunutta lääketieteellistä tietoa lääkäreille tai suoraan potilaille tarjoaviin tekoälyjärjestelmiin ja lääketieteellisiä tehtäviä suoraan potilaalle tekeviin tekoälyjärjestelmiin; kehottaa tarkastelemaan vastaavasti muita lueteltuja aloja, jotka ovat oletusarvoisesti korkean riskin aloja;

34. katsoo, että esimerkiksi terveyden alalla vastuun on viime kädessä oltava luonnollisella henkilöllä tai oikeushenkilöllä; korostaa, että algoritmeja varten tarvitaan jäljitettävää ja julkisesti saatavilla olevaa opetusdataa;

35. kehottaa komissiota aloittamaan avoimen alakohtaisen vuoropuhelun, jossa annetaan etusija terveydenhuollolle, jotta sen perusteella esitetään toimintasuunnitelma, jolla edistetään tekoälyn kehittämistä, testausta ja käyttöönottoa tutkimuksessa ja innovoinnissa ja sen laajaa soveltamista julkisen terveydenhuollon palveluissa;

36. varoittaa yrityksistä antaa koneille jonkinlainen ”persoonallisuus”, mikä voi johtaa vastuun siirtämiseen pois ihmisiltä hoitovirheiden tapauksessa;

37. tukee vahvasti sitä, että perustettaisiin komission ehdottama eurooppalainen terveysdata‑avaruus[43], jolla pyritään edistämään terveystietojen vaihtoa ja tukemaan tutkimusta tietosuojaa täysimääräisesti kunnioittaen muun muassa käsittelemällä tietoja tekoälyteknologian avulla ja jolla tehostetaan ja laajennetaan terveystietojen käyttöä ja uudelleenkäyttöä; kehottaa laajentamaan terveystietojen vaihtoa rajojen yli sekä linkittämään ja käyttämään turvallisten federoitujen tietovarastojen kautta tietyntyyppisiä terveystietoja, kuten eurooppalaisia terveystietoja, genomitietoja ja digitaalisia lääketieteellisiä kuvia, jotta voidaan edistää unionin laajuisia yhteentoimivia rekistereitä tai tietokantoja tutkimuksen, tieteen ja terveydenhuollon kaltaisilla aloilla;

38. korostaa, että potilaiden olisi tiedettävä, milloin ja miten he ovat vuorovaikutuksessa ihmisammattilaisen kanssa ja milloin eivät; vaatii, että potilailla olisi oltava vapaus päättää tästä vuorovaikutuksesta ja että heille olisi tarjottava samantasoinen vaihtoehto;

39. katsoo, että erityisesti terveydenhuoltoalalla mobiilisovelluksista voi olla apua tautien seurannassa ja roboteista on hyötyä, jos ne tukevat lääkärien ja hoitajien työtä diagnosoinnin ja hoidon parantamiseksi, kun samalla varmistetaan, että lääketiedettä ja potilaille annettuja hoitoja ei pidä epäinhimillistää;

40. kehottaa standardoimaan sähköisten terveyssovellusten yhteentoimivuuden EU:ssa ja kehittämään yhteisen eurooppalaisen ratkaisun, joka mahdollistaa reseptien, diagnoosien ja lääketieteellisten kertomustensaatavuuden helposti kaikille unionin kansalaisille kaikissa jäsenvaltioissa;

41. toteaa jälleen, että näihin teknologioihin luontaisesti liittyvillä mahdollisuuksilla ja riskeillä on maailmanlaajuinen ulottuvuus, joka edellyttää yhdenmukaista lähestymistapaa kansainvälisellä tasolla; kehottaa komissiota työskentelemään kahdenvälisissä ja monenvälisissä yhteyksissä eettisten normien noudattamisen edistämiseksi ja varmistamiseksi;

42. korostaa tekoälyn tarjoamia etuja tautien ehkäisyssä, hoidossa ja hallinnassa, mistä esimerkkinä on se, että tekoäly ennusti covid-19-epidemian puhkeamisen jo ennen WHO:ta; kehottaa komissiota varmistamaan asianmukaisesti Euroopan tartuntatautivirastolle oikeudellisen kehyksen ja resurssit, jotka mahdollistavat tarvittavien anonymisoitujen, reaaliaikaisten ja maailmanlaajuisten terveystietojen itsenäisen keräämisen yhteistyössä jäsenvaltioiden kanssa, jotta muun muassa covid‑19‑pandemian esiin tuomiin ongelmiin voidaan puuttua;

43. huomauttaa, että viranomaisten covid-19-pandemian ja muiden mahdollisten kansanterveydellisten hätätilanteiden aikana käyttämät seuranta- ja kontaktien jäljitysteknologiat voivat olla ristiriidassa tietosuojan kanssa; palauttaa tässä yhteydessä mieliin 17. huhtikuuta 2020 julkistetun komission tiedonannon covid-19-pandemian torjuntaa tukevien sovellusten tietosuojaa koskevista ohjeista[44] ja sen, että tällaisten sovellusten on noudatettava suhteellisuusperiaatetta ja aikarajoituksia ja ne on sovitettava yhteen eurooppalaisten arvojen sekä ihmisarvon ja perusoikeuksien kunnioittamisen kanssa;

44. katsoo, että tekoäly ja robotiikka voivat parantaa merkittävästi lääkinnällisten laitteiden valvontaa ja helpottaa terveydenhuollon ammattilaisten jokapäiväistä työtä; katsoo, että kriittisten lääkinnällisten laitteiden osalta on oltava käytössä varajärjestelmä, jolla valvotaan ja varmistetaan laitteen toimivuus kaikissa mahdollisissa häiriötilanteissa, ja että mahdolliset tällaisten laitteiden valvontaan liittyvät kyberuhat on otettava huomioon ja niitä on hillittävä; korostaa, että hakkereiden ja ulkopuolisten uhkien lisäksi kyberuhat voivat johtua myös inhimillisistä virheistä tai järjestelmävirheistä ja että käytössä ja toiminnassa on oltava riittävät varajärjestelmät; katsoo lisäksi, että unionin olisi laadittava tekoälyn varajärjestelmien kehittämistä koskeva etenemissuunnitelma, jonka avulla ratkaistaan mahdolliset ongelmat, jotka liittyvät tekoälyjärjestelmän hallintalaitteiden virheisiin;

45. huomauttaa, että Euroopan parlamentin ja neuvoston asetuksessa (EU) 2017/745[45] asetetut turvallisuusstandardit eivät välttämättä ole riittäviä vastaamaan tekoälyjärjestelmien käyttöön liittyviin haasteisiin; kehottaa komissiota valvomaan tämän alan haasteita ja antamaan tarvittaessa ehdotuksia;

46. korostaa, että on tarpeen varmistaa, että tekoälyyn pohjautuvat lääkinnälliset laitteet täyttävät asetuksessa (EU) 2017/745 vahvistetut turvallisuutta ja suorituskykyä koskevat vaatimukset; kehottaa komissiota ja jäsenvaltioita varmistamaan, että asetus (EU) 2017/745 pannaan täytäntöön näiden teknologioiden osalta; katsoo, että ohjelmistojen, tekoälyn ja syväoppimista hyödyntävien laitteiden turvallisuuden ja tehokkuuden arvioimiseksi koko käyttöajalta tarvitaan uusia suuntaviivoja ja eritelmiä;

47. kehottaa varmistamaan Euroopan lääkeviraston ja lääkeasioissa toimivaltaisten kansallisten viranomaisten selkeämmän oikeudellisen toimivallan ja riittävän rahoituksen, jotta voidaan tukea innovointia ja kansanterveydellisiä näkökohtia, jotka liittyvät tekoälyn hyödyntämiseen lääkkeiden elinkaaressa, erityisesti sellaisten tosielämän terveystietojen keräämistä ja analysointia, jotka voivat tarjota lisätodisteita lääkinnällisistä tuotteista tutkimus- ja kehitystyön tukemiseksi ja nykyisten lääkkeiden turvallisen ja tehokkaan käytön optimoimiseksi potilaiden ja eurooppalaisten terveydenhuoltojärjestelmien edun mukaisesti;

48. painottaa, että vakuutusyhtiöiden tai muiden palveluntarjoajien ei pitäisi saada käyttöönsä sähköisistä terveydenhuoltosovelluksista peräisin olevia tietoja, jotta ne eivät voi syrjiä asiakkaita hintojen määrittelyn yhteydessä, ottaen huomioon, että se olisi vastoin mahdollisimman hyvää terveyttä koskevaa perusoikeutta;

Tekoäly ja tietosuoja

49.  suhtautuu myönteisesti komission äskettäin julkaisemaan asetuksen (EU) 2016/679 uudelleentarkasteluun[46] ja panee merkille, että jäsenvaltioiden lainsäädännössä noudatetaan erilaisia lähestymistapoja liittyen tietojen yksityiskohtaisuuteen ja sovellettaviin suojatoimiin, kun ne panevat täytäntöön erityisten henkilötietoryhmien yleistä käsittelykieltoa koskevia poikkeuksia esimerkiksi terveyteen liittyviä tarkoituksia varten; toteaa siksi, että päätöksentekovastuun olisi säilyttävä viime kädessä ihmisillä erityisesti terveydenhuollon kaltaisilla aloilla, joilla panokset ja riskit ovat suuret;

50. on tyytyväinen komission aikomukseen seurata asetuksen (EU) 2016/679 soveltamista uusiin teknologioihin, mukaan luettuina mahdolliset tulevat tekoälyn alalla ja datastrategian puitteissa käynnistettävät aloitteet, ja tukee komission Euroopan tietosuojaneuvostolle esittämää kehotusta antaa asetuksen (EU) 2016/679 soveltamista koskevia suuntaviivoja tieteellisen tutkimuksen, tekoälyn, lohkoketjujen ja muun mahdollisen teknologisen kehityksen alalla;

51. kehottaa lisäämään kansalaisten ja potilaiden vaikutusmahdollisuuksia heidän henkilötietojensa osalta, jotta varmistetaan tietosuojaa ja yksityisyyttä koskevan unionin oikeudellisen kehyksen täysimääräinen täytäntöönpano ja yhdenmukainen soveltaminen erityisesti terveydenhuollon tekoälysovellusten ja muiden asiaan liittyvien arkaluonteisten tietojen osalta; kehottaa kunnioittamaan täysimääräisesti asetuksen (EU) 2016/679 17 artiklassa tarkoitettua ”oikeutta tulla unohdetuksi” ja vahvistamaan asetuksen (EU) 2016/679 22 artiklassa tarkoitettua oikeutta esittää kantansa sekä tiukentamaan suuririskisen tekoälyn tulkittavuutta koskevia vaatimuksia;

52. korostaa, että tekoälyä koskevan eettisen kehyksen olisi sisällettävä oikeus saada selitys automatisoituun käsittelyyn perustuvasta päätöksestä, kun kyse on tällaisten päätösten kohteena olevista henkilöistä;

53. kehottaa löytämään oikean tasapainon yksityisyyden, tietosuojan ja tietojen käytettävyyden välillä; katsoo, että tieteellisen kehityksen kannalta on tärkeää varmistaa, että terveystietoja voidaan jakaa ja käsitellä riittävän perusteellisesti ja yksityiskohtaisesti; kehottaa varmistamaan tietojen anonymisoinnin siten, että samalla vältetään tietojen liiallinen minimointi; kehottaa luomaan unionin tasolla yhteentoimivia ja soveltuvia tietokantoja, rekistereitä ja tietovarastoja, jotta helpotetaan terveystietojen käyttöä terveyden, ympäristön ja elintarviketurvallisuuden aloilla;

54. korostaa tarvetta varmistaa, että terveystiedot ja heikommassa asemassa olevia ryhmiä koskevat tiedot ovat suojattuja, ja huomauttaa, että siltä osin kuin tekoälysovelluksissa käsitellään terveystietoja rekisteröidyn suostumuksen perusteella, asetuksen (EU) 2016/679 7 artiklassa säädettyjen edellytysten on täytyttävä;

55. painottaa, että tuotetuilla tiedoilla ei saisi millään tavoin edistää minkäänlaista syrjintää; vaatii takeita siitä, että tietojen keruun ja saatavuuden osalta noudatetaan aina unionin oikeudellista kehystä;

56. huomauttaa, että vilpillisessä tarkoituksessa tehdyn tietojen muuttamisen ja manipuloinnin sekä mahdollisten tietomurtojen tai tietovarkauksien vaara voi olla erityisen vakava terveysalalla ja että niiden tarkoituksena voi olla yksittäisen henkilön vahingoittaminen tai tämän maineen mustaaminen tai tästä hyötyminen; korostaa, että asianomaisiin verkkoihin on sovellettava kaikkein korkeimpia kyberturvallisuusnormeja;

Tekoälyn vaikutus työelämään ja sosiaaliseen ympäristöön

57. muistuttaa, että OECD:n eettisessä kehyksessä otetaan huomioon työmarkkinoiden mullistukset; korostaa, että tekoälyyn yhdistetty automatisointi lisää tuottavuutta ja siten myös tuotosta; huomauttaa, että jotkin työpaikat korvataan uusilla, kuten edellisten tekniikan vallankumousten yhteydessä; korostaa, että robotiikan ja tekoälyn käytön lisäämisen olisi myös vähennettävä ihmisten altistumista haitallisille ja vaarallisille olosuhteille, ja sen olisi myös autettava luomaan entistä laadukkaampia ja ihmisarvoisempia työpaikkoja ja lisäämään tuottavuutta; muistuttaa OECD:n tekemästä työstä, jossa painotetaan, että automatisointi saattaa mahdollistaa sellaisen yhteiskuntamallin käyttöönoton, jossa vähennetään työtuntien määrää ja parannetaan siten työntekijöiden elin- ja terveysoloja;

58. kiinnittää laajemmin huomiota OECD:n suosituksiin, joiden mukaan viranomaisten on tiiviissä yhteistyössä eri sidosryhmien kanssa edistettävä tekoälyn vastuullista käyttöä työpaikoilla, vahvistettava työntekijöiden turvallisuutta ja työpaikkojen laadukkuutta sekä valvottava, että tekoälyn edut jakautuvat laajasti ja tasapuolisesti; korostaa tässä yhteydessä, että keskeisten toimijoiden rinnalla työskentelevät erilaiset kehittäjä- ja insinööriryhmät voivat myötävaikuttaa sukupuoleen ja kulttuuriin liittyvien ennakkoluulojen ehkäisemiseen ja sen varmistamiseen, että tekoälyalgoritmeissa, ‑järjestelmissä ja -sovelluksissa otetaan huomioon työntekijöiden fyysinen ja henkinen hyvinvointi;

59. korostaa, että tekoälysovellusten kehittäminen voisi alentaa kustannuksia ja lisätä saatavilla olevien palvelujen, kuten terveydenhuoltopalvelujen, julkisen liikenteen ja Maatalous 2.0 -palvelujen, määrää, jolloin niistä tulisi edullisempia laajemmalle yhteiskunnalle; korostaa, että tekoälysovellukset voivat myös lisätä työttömyyttä, aiheuttaa sosiaaliturvajärjestelmiin kohdistuvia paineita ja lisätä köyhyyttä; korostaa Euroopan unionista tehdyn sopimuksen 3 artiklassa vahvistettujen arvojen mukaisesti, että unionin tekoälyyn siirtyminen on sovitettava yhteen sosioekonomisten valmiuksien, riittävän sosiaalisen suojautumisen, koulutuksen ja vaihtoehtoisten työpaikkojen luomisen kanssa; kehottaa harkitsemaan tekoälyyn sopeutumista koskevan unionin rahaston perustamista Euroopan globalisaatiorahastosta (EGR) tai parhaillaan kehitteillä olevasta oikeudenmukaisen siirtymän rahastosta saatujen kokemusten pohjalta;

60. korostaa myös työmarkkinaosapuolten vuoropuhelun merkitystä, jotta tekoälyn käyttöönotosta kärsimään joutuneiden työntekijöiden siirtyminen työelämän uusiin realiteetteihin voidaan toteuttaa oikeudenmukaisesti ja osallistavasti ja jotta voidaan ottaa huomioon yritysten tarve investoida henkilöstönsä koulutukseen ja uudelleenkoulutukseen;

61. kehottaa jäsenvaltioita mukauttamaan ympäristönsuojelu-, terveys- ja elintarviketurvallisuusalan koulutusta tekoälyn kehitykseen ja lisäämään tietoisuutta tekoälyyn liittyvistä riskeistä ja eettisistä haasteista;

62. suhtautuu myönteisesti valkoisessa kirjassa ehdotettuihin suuririskisen tekoälyn koulutuksessa käytettävää opetusdataa koskeviin vaatimuksiin, jotka liittyvät myös turvallisuuteen – riittävän laajat datajoukot, jotta ne kattavat kaikki asiaankuuluvat skenaariot, jotta vältytään syrjinnän kaltaisilta vaarallisilta tilanteilta – ja tietojen riittävään edustavuuteen, jotta ne vastaavat hyvin sitä yhteiskunnallista ympäristöä, johon niitä sovelletaan;

63. korostaa, että julkisen sektorin olisi keskityttävä ratkaisemaan yhteiskunnallisia ongelmia sen sijaan, että se edistäisi tekoälyn käyttöönottoa sen itsensä vuoksi; kehottaa parantamaan unionin julkisia hankintoja koskevia määräyksiä ja suuntaviivoja, ympäristöä säästävät julkiset hankinnat Euroopan unionissa mukaan luettuina, jotta tarjouksia koskevissa asianmukaisissa arviointimenettelyissä otetaan huomioon, edellyttääkö tietty ongelma tekoälyjärjestelmän käyttöä, ja mahdollistetaan vaihtoehtoisen toteutuspolun noudattaminen tapauksissa, joissa arvioinnin perusteella yhteiskunnallinen ongelma voidaan ratkaista paremmin muun kuin tekoälyratkaisun avulla.

 


 

TIEDOT HYVÄKSYMISESTÄ LAUSUNNON ANTAVASSA VALIOKUNNASSA

Hyväksytty (pvä)

10.9.2020

 

 

 

Lopullisen äänestyksen tulos

+:

–:

0:

77

2

2

Lopullisessa äänestyksessä läsnä olleet jäsenet

Nikos Androulakis, Bartosz Arłukowicz, Margrete Auken, Simona Baldassarre, Marek Paweł Balt, Traian Băsescu, Aurelia Beigneux, Monika Beňová, Sergio Berlato, Alexander Bernhuber, Malin Björk, Simona Bonafè, Delara Burkhardt, Pascal Canfin, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Nathalie Colin-Oesterlé, Miriam Dalli, Esther de Lange, Christian Doleschal, Marco Dreosto, Bas Eickhout, Eleonora Evi, Agnès Evren, Fredrick Federley, Pietro Fiocchi, Andreas Glück, Catherine Griset, Jytte Guteland, Teuvo Hakkarainen, Martin Hojsík, Pär Holmgren, Jan Huitema, Yannick Jadot, Adam Jarubas, Petros Kokkalis, Athanasios Konstantinou, Ewa Kopacz, Joanna Kopcińska, Ryszard Antoni Legutko, Peter Liese, Sylvia Limmer, Javi López, César Luena, Fulvio Martusciello, Liudas Mažylis, Joëlle Mélin, Tilly Metz, Silvia Modig, Dolors Montserrat, Alessandra Moretti, Dan-Ștefan Motreanu, Ville Niinistö, Ljudmila Novak, Jutta Paulus, Stanislav Polčák, Jessica Polfjärd, Luisa Regimenti, Frédérique Ries, María Soraya Rodríguez Ramos, Sándor Rónai, Rob Rooken, Silvia Sardone, Christine Schneider, Günther Sidl, Ivan Vilibor Sinčić, Linea Søgaard-Lidell, Nicolae Ştefănuță, Nils Torvalds, Edina Tóth, Véronique Trillet-Lenoir, Alexandr Vondra, Mick Wallace, Pernille Weiss, Michal Wiezik, Tiemo Wölken, Anna Zalewska

Lopullisessa äänestyksessä läsnä olleet varajäsenet

Michael Bloss, Manuel Bompard, Christel Schaldemose

 


 

 

LOPULLINEN ÄÄNESTYS NIMENHUUTOÄÄNESTYKSENÄ LAUSUNNON ANTAVASSA VALIOKUNNASSA

77

+

#PPE#

Bartosz Arłukowicz, Alexander Bernhuber, Traian Băsescu, Nathalie Colin‑Oesterlé, Christian Doleschal, Agnès Evren, Adam Jarubas, Ewa Kopacz, Peter Liese, Fulvio Martusciello, Liudas Mažylis, Dolors Montserrat, Dan‑Ștefan Motreanu, Ljudmila Novak, Jessica Polfjärd, Stanislav Polčák, Christine Schneider, Edina Tóth, Pernille Weiss, Michal Wiezik, Esther de Lange

S&D

Nikos Androulakis, Marek Paweł Balt, Monika Beňová, Simona Bonafè, Delara Burkhardt, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Miriam Dalli, Jytte Guteland, César Luena, Javi López, Alessandra Moretti, Sándor Rónai, Christel Schaldemose, Günther Sidl, Tiemo Wölken

Renew

Pascal Canfin, Fredrick Federley, Andreas Glück, Martin Hojsík, Jan Huitema, Frédérique Ries, María Soraya Rodríguez Ramos, Linea Søgaard‑Lidell, Nils Torvalds, Véronique Trillet‑Lenoir, Nicolae Ştefănuță

ID

Simona Baldassarre, Aurelia Beigneux, Marco Dreosto, Catherine Griset, Joëlle Mélin, Luisa Regimenti, Silvia Sardone

Verts/ALE

Margrete Auken, Michael Bloss, Bas Eickhout, Pär Holmgren, Yannick Jadot, Tilly Metz, Ville Niinistö, Jutta Paulus

ECR

Sergio Berlato, Pietro Fiocchi, Joanna Kopcińska, Ryszard Antoni Legutko, Alexandr Vondra, Anna Zalewska

GUE/NGL

Malin Björk, Manuel Bompard, Petros Kokkalis, Silvia Modig, Mick Wallace

NI

Eleonora Evi, Athanasios Konstantinou

 

2

-

ID

Sylvia Limmer

ECR

Rob Rooken

 

2

0

ID

Teuvo Hakkarainen

NI

Ivan Vilibor Sinčić

 

Symbolien selitys:

+ : puolesta

- : vastaan

0 : tyhjää

 

 


 

 

KULTTUURI- JA KOULUTUSVALIOKUNNAN LAUSUNTO (3.9.2020)

<CommissionInt>oikeudellisten asioiden valiokunnalle</CommissionInt>


<Titre>suosituksista komissiolle tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevien eettisten näkökohtien kehyksestä</Titre>

<DocRef>(2020/2012(INL))</DocRef>

Valmistelija: <Depute>Łukasz Kohut</Depute>

(Aloite – työjärjestyksen 47 artikla)

 

 

EHDOTUKSET

Kulttuuri- ja koulutusvaliokunta pyytää asiasta vastaavaa oikeudellisten asioiden valiokuntaa

 sisällyttämään seuraavat ehdotukset päätöslauselmaesitykseen, jonka se myöhemmin hyväksyy:

1. muistuttaa, että tekoälyn kehittäminen, käyttöönotto ja käyttö kulttuurialalla ja luovilla aloilla sekä koulutuksen, median, nuorison ja tiedotuspolitiikan aloilla voi herättää ja herättääkin nyt ja tulevaisuudessa monenlaisia eettisiä kysymyksiä, joihin on vastattava; korostaa, että unionin olisi toimittava tiennäyttäjänä, kun kehitetään eettistä tekoälyä, joka on sidottu eurooppalaisiin arvoihin, ja varmistettava ihmisarvon suojelu ja perusoikeudet demokraattisessa, oikeudenmukaisessa ja kestävässä Euroopassa; kehottaa EU:n toimielimiä pohtimaan pitkällä aikavälillä tekoälyn vaikutusta demokraattiseen keskusteluun, yhteiskuntiimme ja jopa ihmisten luonteeseen, jotta voidaan viitoittaa tietä tekoälyteknologialle, joka kunnioittaa ihmisten vapautta, ei häiritse innovointia eikä rajoita ilmaisunvapautta;

2. on vahvasti sitä mieltä, että pitäisi tarkastella, miten ihmisoikeuskehykset ja -velvoitteet voivat ohjata uusiin ja kehitteillä oleviin digitaaliteknologioihin liittyviä toimia ja toimintapolitiikkaa niin, että voidaan taata näiden teknologioiden ihmiskeskeinen lähestymistapa ja niiden hyötyjen saatavuus kaikille; toteaa, että on varmistettava, että tekoälyn kehittämiseen, käyttöönottoon ja käyttöön ei liity syrjintää tai vinoutunutta profilointia ja että siinä otetaan huomioon kaikki yhteiskunnan olennaiset osatekijät; panee merkille, että tekoäly ja automaatio voivat vaikuttaa globalisoituneeseen talouteen tavalla, joka saattaa vakiinnuttaa jo olemassa olevaa eriarvoisuutta;

3. korostaa tarvetta kehittää räätälöityjä kriteerejä tekoälyn kehittämiselle, käyttöönotolle ja käytölle koulutuksen, median, nuorison ja tutkimuksen aloilla sekä kulttuurialalla ja luovilla aloilla kehittämällä arviointiperusteita ja määrittelemällä periaatteita tekoälyteknologioiden eettisesti vastuulliselle ja hyväksytylle käytölle näillä aloilla, mukaan lukien selkeä vastuujärjestelmä tekoälyn käytöstä syntyville tuotteille; korostaa, että näiden kriteerien on oltava joustavia, ja niitä on mukautettava jatkuvasti tekoälyteknologian kehitykseen, jotta mahdollistetaan myös tekoälyn koko potentiaalin vastuullinen hyödyntäminen; korostaa erityisesti tarvetta tarkastella käyttäjien henkilökohtaisten tietojen keräämistä ja yksityisyyteen liittyviä kysymyksiä sekä vastuukysymyksiä tapauksissa, joissa automatisoidut prosessit johtavat ei-toivottuihin tuloksiin; muistuttaa, että tällaisten kriteerien vakaan perustan varmistamiseksi on tarpeen edellyttää, että noudatetaan periaatetta, että järjestelmän on vastattava siitä annettua kuvausta, sekä avoimuuden, vilpittömän mielen ja tasapuolisuuden periaatteita, ja että tässä yhteydessä kuullaan asiasta vastaavia eettisiä toimikuntia, joiden tehtävänä on auttaa pohjustamaan näitä kriteerejä Euroopan unionin kulttuuristen arvojen ja oikeudellisen kehyksen säännösten mukaisesti; panee merkille, että tekoälyjärjestelmät ovat ohjelmistopohjaisia ja osoittavat älykästä käyttäytymistä analysoimalla ympäristöään ja toimimalla sen pohjalta; korostaa, että tämä analyysi perustuu tilastollisiin malleihin, joihin sisältyy väistämättä virheitä; korostaa tarvetta varmistaa, että käytössä on järjestelmiä ja menetelmiä, jotka mahdollistavat algoritmin todentamisen ja selitettävyyden sekä oikeussuojakeinojen saatavuuden; korostaa tarvetta varmistaa, että käytössä on myös sitovat säännöt, joilla varmistetaan avoimuuden, vastuuvelvollisuuden ja syrjimättömyyden periaatteiden noudattaminen; palauttaa mieliin vuonna 2019 annetut luotettavaa tekoälyä koskevat eettiset ohjeet sekä seitsemän tekoälyn luotettavuutta koskevaa keskeistä vaatimusta;

4. toteaa, että jokaisella lapsella on oikeus laadukkaaseen julkiseen koulutukseen kaikilla tasoilla; kehottaa siksi kehittämään, ottamaan käyttöön ja käyttämään laadukkaita tekoälyjärjestelmiä, jotka auttavat ja tarjoavat kaikille laadukkaita oppimisvälineitä kaikilla tasoilla, ja korostaa, että uusien tekoälyjärjestelmien käyttöönotto kouluissa ei saisi johtaa laajempaan digitaaliseen kuiluun yhteiskunnassa;

5. panee merkille, että tekoälyyn perustuvia personoituja oppimisjärjestelmiä otetaan jatkuvasti enemmän käyttöön kouluissa ja yliopistoissa, mikä muuttaa opettajien roolia oppimisprosessissa; painottaa, että tätä muutosta olisi arvioitava perusteellisesti, se olisi otettava huomioon opetussuunnitelmissa, ja sen olisi perustuttava ihmiskeskeisiin arvoihin; toteaa, että tekoäly ja robotiikka tarjoavat valtavia mahdollisuuksia koulutuksen alalla; toteaa, että tekoälyyn perustuvat personoidut oppimisjärjestelmät eivät saisi korvata opetussuhteita opettajien kanssa ja että perinteisiä koulutusmuotoja ei pitäisi unohtaa, ja muistuttaa samalla, että opettajille, jotka pyrkivät hankkimaan asianmukaisia taitoja, jotta he voivat sopeutua teknologisiin muutoksiin ja paitsi hyödyntää tekoälyn tarjoamia mahdollisuuksia myös ymmärtää sen rajoituksia, olisi tarjottava taloudellista, teknistä ja koulutuksellista tukea, tieto- ja viestintätekniikan alan erikoiskoulutus mukaan lukien;

6. korostaa, että jos opiskelijavalintamenettelyissä käytetään koneoppimista, vaaditaan asianmukaisia suojatoimia, kuten tiedottamista hakijoille näistä menettelyistä ja heidän oikeuksistaan niihin liittyen; toteaa, että käytettäviä algoritmeja on koulutettava laajojen tietoaineistojen avulla, jotta ehkäistään mahdollisuus, että algoritmit syrjisivät epäoikeudenmukaisesti tiettyjä ryhmiä; katsoo, että automatisoitujen prosessien avustuksella tehtyjen päätösten on oltava selitettävissä, tarvittaessa myös hylätyille opiskelijoille;

7. kehottaa kehittämään unionin tasolla tekoälyä, robotiikkaa ja niihin liittyvää teknologiaa koskevan strategian, jonka avulla voidaan edistää koulutusjärjestelmiemme muuttamista ja päivittämistä, valmistaa oppilaitoksia kaikilla tasoilla ja tarjota opettajille ja oppilaille tarvittavat taidot ja kyvyt; katsoo, että koulutusta varten tarvitaan eettinen kehys; suosittelee, että kansalaisyhteiskunta, yliopistot, ammattiliitot ja työnantajajärjestöt osallistuvat tällaisen kehyksen laatimiseen; toteaa, että unionissa kehitettyjen, käyttöön otettujen ja käytettyjen tekoälyjärjestelmien on heijastettava unionin kulttuurista monimuotoisuutta ja monikielisyyttä; painottaa, että muita heikommassa asemassa oleviin ryhmiin kuuluville teknologian kehittäjille ja edunsaajille sekä vammaisille henkilöille olisi tarjottava erityistä tukea;

8. katsoo, että alaikäisten oikeuksien kunnioittaminen edellyttää erityistä huomiota ja suojelua, kun otetaan huomioon, miten nimenomaan koulutus vaikuttaa heidän tulevaisuuteensa, ja että erityisesti on pidettävä huolta oikeudesta yksityisyyteen, laadukkaan koulutuksen saatavuudesta sekä yhtäläisten mahdollisuuksien takaamisesta kaikissa tapauksissa; korostaa, että oppilaitosten olisi käytettävä koulutustarkoituksiin ainoastaan tarkastettuja ja eettisiksi, hyödyllisiksi ja ihmisoikeusperiaatteiden mukaisesti toimiviksi sertifioituja tekoälyjärjestelmiä; kehottaa komissiota ja jäsenvaltioita edistämään julkisen ja yksityisen sektorin sekä tiedemaailman välistä yhteistyötä tietämyksen jakamisen ja avointen lähteiden vahvistamiseksi;

9. toteaa, että on tarpeen selventää taiteiden sekä kulttuuriteosten ja luovien teosten käsitteitä sekä ihmisten roolia luovan työn tekijöinä ja taiteilijoina; korostaa, että digitoinnin ja uusien teknologioiden tarjoamat mahdollisuudet eivät saa johtaa yleisellä tasolla työpaikkojen vähenemiseen kulttuurialalla ja luovilla aloilla, originaalien säilyttämisen laiminlyöntiin tai siihen, että perinteisiä tapoja tutustua kulttuuriperintöön väheksytään, vaan niitä olisi suosittava yhtäläisesti;

10. tunnustaa tekoälyn kasvavan potentiaalin informaation, median ja verkkoalustojen alalla, myös tehokkaana välineenä disinformaation torjunnassa; on kuitenkin huolissaan siitä, että tekoälyä voidaan käyttää väärin yleisen mielipiteen manipuloimiseksi verkossa; painottaa, että jos tekoälyä ei säännellä, sillä voi olla myös eettisesti haitallisia vaikutuksia, koska datassa ja algoritmeissa esiintyviä vinoumia voidaan käyttää hyväksi ja niiden pohjalta voidaan levittää disinformaatiota, luoda informaatiokuplia ja hyödyntää tekoälyalgoritmeihin siirtyneitä vinoumia; muistuttaa, että riittävä koulutus on välttämätön edellytys sille, että tiedonvälityksen vapautta sekä mielipiteen- ja sananvapautta koskevat kansalaisten oikeudet voidaan turvata, ja kehottaa käyttämään tekoälyteknologiaa eettisesti media-alalla; varoittaa teknologiaan perustuvan sensuurin riskeistä ja siitä, että sananvapauden suojelemiseksi tarvitaan eettinen kehys;

11. katsoo, että tietyntyyppisten tekoälyjärjestelmien käytöllä, kuten kasvojentunnistuksella sekä tunteita ja käyttäytymistä havainnoivilla järjestelmillä, voi olla vahingollisia vaikutuksia, etenkin tiedotusvälineiden ja toimittajien rooliin demokratian vahtikoirina ja sitä kautta demokraattisiin prosesseihin; korostaa tästä syystä, että näiden järjestelmien käyttöä julkisissa tiloissa olisi rajoitettava tai se olisi kiellettävä aina tarpeen niin vaatiessa; painottaa, että on jatkettava työtä valeuutisten ja deepfake-videoiden kaltaisten tekniikoiden, samoin kuin sensuurin ja automatisoidun valvonnan torjumiseksi;

12. korostaa tarvetta lisätä virallisen ja epävirallisen koulutuksen avulla, humanistiset tieteet mukaan lukien, suuren yleisön tietoisuutta ja ymmärrystä tekoälyn roolista ja vaikutuksista, erityisesti algoritmien käytöstä ja niiden vaikutuksesta muun muassa työpaikkoihin ja yksityisyyteen sekä tietojärjestelmien roolista datan valinnassa, tulkinnassa, tallentamisessa ja esittämisessä; kannattaa digitaalisen lukutaidon työkalujen ottamista käyttöön kaikilla koulutustasoilla ja kehottaa siksi jäsenvaltioita ja EU:n toimielimiä investoimaan informaatio- ja medialukutaitoon, -kasvatukseen ja -koulutukseen; katsoo, että informaatio- ja mediataidot ovat ratkaisevan tärkeitä kaikille kansalaisille, myös haavoittuvassa asemassa oleville yhteiskuntaryhmille, jotta he voivat arvioida kriittisesti ja ymmärtää uusia suuntauksia, kuten tekoälyn toimintaa ja sille ominaisia vinoumia, ja siten kehittää uusia kriittisen ajattelun muotoja; suosittelee, että komissio edistää tekoälyyn, robotiikkaan ja teknologiaan liittyviä koulutusmuotoja ja jatkokoulutusta;

13. panee merkille tärkeän eron algoritmien läpinäkyvyyden ja algoritmien käytön läpinäkyvyyden välillä; korostaa videonjakoalustojen ja suoratoistoalustojen käyttämien algoritmien läpinäkyvyyden ja niihin liittyvän vastuuvelvollisuuden merkitystä, jotta varmistetaan kulttuurisesti ja kielellisesti monimuotoisen sisällön saatavuus ja vältetään epätasaista suosimista; katsoo, että kaikille käyttäjille olisi tiedotettava asianmukaisesti, kun algoritmia käytetään sisällön suositteluun, ja heidän pitäisi pystyä optimoimaan suositukset omien valintojensa mukaisesti, eivätkä tällaiset algoritmit saisi rajoittaa käyttäjän valinnanvaraa; katsoo, että kaikkien käyttäjien olisi pystyttävä myös estämään tekoälyn käyttö sisällön suositteluun; korostaa, että tällaiset algoritmit olisi suunniteltava niin, että ne heijastavat yhteiskuntiemme kulttuurista moninaisuutta ja takaavat aidon kulttuurisen avoimuuden ja luomisen vapauden; vaatii, että tekoälyn keräämiä käyttäjätietoja, kuten kulttuurisia mieltymyksiä tai oppimistuloksia, ei saa siirtää tai käyttää omistajan tietämättä;

14. toteaa, että urheilussa on aina suhtauduttu myönteisesti teknologisiin innovaatioihin; katsoo kuitenkin, että tekoälyteknologian käyttö, joka on leviämässä nopeasti urheilukilpailuihin, herättää enenevässä määrin kysymyksiä reilusta kilpailusta urheilussa, kun varakkaimmat joukkueet pystyvät hankkimaan parasta teknologiaa, mikä voi antaa niille epäoikeudenmukaista etua; painottaa, että tätä kehitystä on seurattava tiiviisti, ja korostaa, että alalla tarvitaan sääntelykehys, jossa sovelletaan eettisiä ja ihmiskeskeisiä kriteerejä tekoälyteknologian kehittämiseen ja käyttöön; edellyttää täyttä avoimuutta urheilussa käytettävien algoritmien ja teknologioiden suhteen, jotta voidaan varmistaa tasapuoliset kilpailuedellytykset.


 

 

TIEDOT HYVÄKSYMISESTÄ
LAUSUNNON ANTAVASSA VALIOKUNNASSA

Hyväksytty (pvä)

31.8.2020

 

 

 

Lopullisen äänestyksen tulos

+:

–:

0:

28

0

2

Lopullisessa äänestyksessä läsnä olleet jäsenet

Isabella Adinolfi, Christine Anderson, Ilana Cicurel, Gilbert Collard, Gianantonio Da Re, Laurence Farreng, Tomasz Frankowski, Romeo Franz, Hannes Heide, Irena Joveva, Petra Kammerevert, Niyazi Kizilyürek, Predrag Fred Matić, Dace Melbārde, Victor Negrescu, Peter Pollák, Marcos Ros Sempere, Andrey Slabakov, Massimiliano Smeriglio, Michaela Šojdrová, Sabine Verheyen, Salima Yenbou, Milan Zver

Lopullisessa äänestyksessä läsnä olleet varajäsenet

Isabel Benjumea Benjumea, Christian Ehler, Ibán García Del Blanco, Bernard Guetta, Marcel Kolaja, Elżbieta Kruk, Martina Michels

 

 


 

LOPULLINEN ÄÄNESTYS NIMENHUUTOÄÄNESTYKSENÄ
LAUSUNNON ANTAVASSA VALIOKUNNASSA

 

28

+

PPE

Isabel Benjumea Benjumea, Christian Ehler, Tomasz Frankowski, Peter Pollák, Michaela Šojdrová, Sabine Verheyen, Milan Zver

S&D

Ibán García del Blanco, Hannes Heide, Petra Kammerevert, Predrag Fred Matić, Victor Negrescu, Marcos Ros Sempere, Massimiliano Smeriglio

RENEW

Ilana Cicurel, Laurence Farreng, Bernard Guetta, Irena Joveva

ID

Gilbert Collard

VERTS/ALE

Romeo Franz, Marcel Kolaja, Salima Yenbou

ECR

Elżbieta Kruk, Dace Melbārde, Andrey Slabakov

GUE/NGL

Niyazi Kizilyürek, Martina Michels

NI

Isabella Adinolfi

 

0

-

-

-

 

2

0

ID

Christine Anderson, Gianantonio Da Re

 

Symbolien selitys:

+ : puolesta

- : vastaan

0 : tyhjää

 

 

 

 

 


 

TIEDOT HYVÄKSYMISESTÄ ASIASTA VASTAAVASSA VALIOKUNNASSA

Hyväksytty (pvä)

1.10.2020

 

 

 

Lopullisen äänestyksen tulos

+:

–:

0:

20

0

4

Lopullisessa äänestyksessä läsnä olleet jäsenet

Manon Aubry, Gunnar Beck, Geoffroy Didier, Angel Dzhambazki, Ibán García Del Blanco, Jean-Paul Garraud, Esteban González Pons, Mislav Kolakušić, Gilles Lebreton, Karen Melchior, Jiří Pospíšil, Franco Roberti, Marcos Ros Sempere, Liesje Schreinemacher, Stéphane Séjourné, Raffaele Stancanelli, József Szájer, Marie Toussaint, Adrián Vázquez Lázara, Axel Voss, Tiemo Wölken, Javier Zarzalejos

Lopullisessa äänestyksessä läsnä olleet varajäsenet

Patrick Breyer, Evelyne Gebhardt

 


 

LOPULLINEN ÄÄNESTYS NIMENHUUTOÄÄNESTYKSENÄ ASIASTA VASTAAVASSA VALIOKUNNASSA

20

+

EPP

Geoffroy Didier, Esteban González Pons, Jiří Pospíšil, József Szájer, Axel Voss, Javier Zarzalejos

S&D

Ibán García Del Blanco, Evelyne Gebhardt, Franco Roberti, Marcos Ros Sempere, Tiemo Wölken

RENEW

Karen Melchior, Liesje Schreinemacher, Stéphane Séjourné, Adrián Vázquez Lázara

VERTS/ALE

Patrick Breyer, Marie Toussaint

ECR

Angel Dzhambazki, Raffaele Stancanelli

NI

Mislav Kolakušić

 

0

-

 

 

 

 

 

4

0

ID

Gunnar Beck, Jean Paul Garraud, Gilles Lebreton

GUE/NGL

Manon Aubry

 

Symbolien selitys:

+ : puolesta

- : vastaan

0 : tyhjää

 

 

[1] EUVL L 252, 8.10.2018, s. 1.

[2] EYVL L 180, 19.7.2000, s. 22.

[3] EYVL L 303, 2.12.2000, s. 16.

[4] EUVL L 119, 4.5.2016, s. 1.

[5] EUVL L 119, 4.5.2016, s. 89.

[6] EUVL L 123, 12.5.2016, s. 1.

[7] EUVL C 252, 18.7.2018, s. 239.

[8] EUVL C 307, 30.8.2018, s. 163.

[9] EUVL C 433, 23.12.2019, s. 86.

[10] Hyväksytyt tekstit, P8_TA(2018)0332.

[11] Hyväksytyt tekstit, P8_TA(2019)0081.

[12] Komission tiedonanto Euroopan parlamentille, neuvostolle, Euroopan talous- ja sosiaalikomitealle ja alueiden komitealle ”Euroopan datastrategia” (COM(2020)0066).

[13] Kansainvälisessä standardissa SAE J3016, joka on viimeksi päivitetty vuonna 2018 standardiin J3016_201806, on ehdotettu kuutta automaation tasoa ajoneuvojen automatisoituun ajoon. https://www.sae.org/standards/content/j3016_201806/

[14]  Euroopan parlamentin ja neuvoston asetus (EU) 2016/679, annettu 27 päivänä huhtikuuta 2016, luonnollisten henkilöiden suojelusta henkilötietojen käsittelyssä sekä näiden tietojen vapaasta liikkuvuudesta ja direktiivin 95/46/EY kumoamisesta (yleinen tietosuoja-asetus) (EUVL L 119, 4.5.2016, s. 1).

[15]  Euroopan parlamentin ja neuvoston direktiivi 2002/58/EY, annettu 12 päivänä heinäkuuta 2002, henkilötietojen käsittelystä ja yksityisyyden suojasta sähköisen viestinnän alalla (sähköisen viestinnän tietosuojadirektiivi) (EYVL L 201, 31.7.2002, s. 37).

[16] Määritelmä mukautettuna Euroopan komission tiedonannosta COM(2018) 237 final, 25.4.2018, s. 1.

[17] ISO 8373 -standardin teollisuusrobottien määritelmästä.

[18]  Euroopan parlamentin ja neuvoston direktiivi (EU) 2019/1937, annettu 23 päivänä lokakuuta 2019, unionin oikeuden rikkomisesta ilmoittavien henkilöiden suojelusta (EUVL L 305, 26.11.2019, s. 17).

[19]  Euroopan parlamentin ja neuvoston asetus (EU) 2016/679, annettu 27. huhtikuuta 2016, luonnollisten henkilöiden suojelusta henkilötietojen käsittelyssä sekä näiden tietojen vapaasta liikkuvuudesta ja direktiivin 95/46/EY kumoamisesta (yleinen tietosuoja-asetus) (EUVL L 119, 4.5.2016, s. 1).

[20]  Euroopan parlamentin ja neuvoston päätös N:o 768/2008/EY, tehty 9. heinäkuuta 2008, tuotteiden kaupan pitämiseen liittyvistä yhteisistä puitteista ja päätöksen 93/465/ETY kumoamisesta (EUVL L 218, 13.8.2008, s. 82).

[21]  COD (2018)0089, ei vielä julkaistu.

[22]  Euroopan parlamentin ja neuvoston direktiivi (EU) 2019/882, annettu 17. huhtikuuta 2019, tuotteiden ja palvelujen esteettömyysvaatimuksista (EUVL L 151, 7.6.2019, s. 70).

[23] EYVL L 180, 19.7.2000, s. 22.

[24] EYVL L 303, 2.12.2000, s. 16.

[25] EUVL L 119, 4.5.2016, s. 1.

[26] EUVL L 119, 4.5.2016, s. 89.

[27] EUVL C 252, 18.7.2018, s. 239.

[28] Komission tiedonanto ”Tekoäly Euroopassa” (COM(2018) 237 final).

[29] STOA, ”The ethics of artificial intelligence: issues and initiatives”, maaliskuu 2020.

[30] Euroopan parlamentti, ”Encouraging STEM Studies for the labour market”, maaliskuu 2015.

[31] Cedefop, ”European Skills and Jobs survey”.

[32] Capgemini Research Institute,Why addressing ethical questions in AI will benefit organisations”, heinäkuu 2019.

[33] OECD, ”Recommendation of the Council on Artial Intelligence”, 2019, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449.

[34] Euroopan unionin neuvoston päätelmät Euroopan digitaalisen tulevaisuuden rakentamisesta, kesäkuu 2020.

[35] Euroopan tason työmarkkinaosapuolten puitesopimus digitalisaatiosta, kesäkuu 2020.

[36] Euroopan parlamentti: ”Education and employment of women in science, technology and the digital economy, including AI and its influence on gender equality”, huhtikuu 2020.

[37] Euroopan parlamentin ja neuvoston asetus (EU) 2016/679, annettu 27. huhtikuuta 2016, luonnollisten henkilöiden suojelusta henkilötietojen käsittelyssä sekä näiden tietojen vapaasta liikkuvuudesta ja direktiivin 95/46/EY kumoamisesta (yleinen tietosuoja-asetus) (EUVL L 119, 4.5.2016, s. 1).

[38] https://rm.coe.int/guidelines-on-artificial-intelligence-and-data-protection/168091f9d8

[39] https://legalinstruments.oecd.org/api/print?ids=648=en

[40] https://ethicsinaction.ieee.org

[41] EUVL C 252, 18.7.2018, s. 239.

[42] Valkoinen kirja tekoälystä – Eurooppalainen lähestymistapa huippuosaamiseen ja luottamukseen, COM(2020)0065.

[43] Komission tiedonanto Euroopan parlamentille, neuvostolle, Euroopan talous- ja sosiaalikomitealle ja alueiden komitealle aiheesta Euroopan datastrategia, COM(2020)0066.

[44] EUVL C 124I, 17.4.2020, s. 1.

[45] Euroopan parlamentin ja neuvoston asetus (EU) 2017/745, annettu 5. huhtikuuta 2017, lääkinnällisistä laitteista, direktiivin 2001/83/EY, asetuksen (EY) N:o 178/2002 ja asetuksen (EY) N:o 1223/2009 muuttamisesta sekä neuvoston direktiivien 90/385/ETY ja 93/42/ETY kumoamisesta (EUVL L 117, 5.5.2017, s. 1).

[46] Komission tiedonanto Euroopan parlamentille ja neuvostolle aiheesta ”Tietosuojasäännöt kansalaisten vaikutusmahdollisuuksien ja EU:n digitaalisen muutoksen edistäjänä – yleistä tietosuoja-asetusta sovellettu kaksi vuotta” (COM(2020)0264).

Päivitetty viimeksi: 19. lokakuuta 2020Oikeudellinen huomautus - Tietosuojakäytäntö