EU:n tekoälysäädös on ensimmäinen laatuaan

Tekoälyn käyttöä säädellään EU:ssa maailman ensimmäisellä kattavalla tekoälylailla. Lue, miten se suojelee sinua.

Mies seisoo tietokoneella luodun hahmon edessä, taustalla ohjelmointikieltä
Tämän kuvituskuvan on luonut tekoäly

Osana digitaalista strategiaansa EU haluaa säädellä tekoälyä varmistaakseen, että tätä innovatiivista teknologiaa käytetään ja kehitetään parhaalla mahdollisella tavalla. Tekoälystä voi olla hyötyä monilla aloilla, kuten terveydenhuollossa, liikenteen kehittämisessä turvallisemmaksi ja puhtaammaksi, tuotannon tehostamisessa sekä edullisemman ja kestävämmän energian tuottamisessa.

Tekoälysäädös Euroopassa: ensimmäiset kattavat säännöt

Euroopan komissio ehdotti huhtikuussa 2021 ensimmäistä EU:n tekoälylakia, jolla perustetaan riskiperusteinen tekoälyluokitusjärjestelmä. Tekoälyjärjestelmät, joita voidaan käyttää eri sovelluksissa, analysoidaan ja luokitellaan käyttäjille aiheutuvan riskin mukaan. Eri tason riskit tarkoittavat enemmän tai vähemmän vaatimuksia tekoälylle.

Mitä parlamentti halusi tekoälylainsäädännöltä

Parlamentin prioriteetti tekoälylainsäädännölle oli varmistaa, että EU:ssa käytetyt tekoälyjärjestelmät ovat turvallisia, läpinäkyviä, jäljitettäviä, tasa-arvoisia ja ympäristöystävällisiä. Tekoälyn valvonnan tulee olla ihmisen valvonnassa eikä automaattista, jotta voidaan varmistaa sen turvallisuus.

Parlamentti halusi myös luoda tekoälylle teknologiasta riippumattoman, yhtenäisen määritelmän, jota voidaan soveltaa myös tuleviin tekoälyjärjestelmiin.

Tekoälysäädös: eri säännöt eri tason riskeille

Uusissa säännöissä asetetaan velvoitteita tekoälyjärjestelmien valmistajille ja käyttäjille riippuen niiden riskiluokituksesta. Monien tekoälyjärjestelmien aiheuttama riski on minimaalinen, mutta se pitää silti arvioida.

Ei hyväksyttävissä oleva riski

EU:ssa kiellettyihin tekoälysovelluksiin kuuluvat muun muassa:

  • yksilöiden tai tiettyjen heikossa asemassa olevien ryhmien käytöksen manipuloiminen: esimerkiksi ääniaktivoituvat lelut, jotka kannustavat lapsia vaaralliseen käytökseen
  • sosiaalinen pisteytys tekoälyn avulla: ihmisten jakaminen ryhmiin käytöksen, sosioekonomisen aseman tai henkilökohtaisten ominaisuuksien perusteella
  • luonnollisten henkilöiden biometrinen tunnistaminen ja luokittelu
  • reaaliaikainen ja etäisyydeltä tapahtuva biometristen tunnistusjärjestelmien käyttö, kuten kasvojentunnistus, julkisissa tiloissa

Joitain poikkeuksia voidaan sallia lainvalvonnan tarkoituksiin. Reaaliaikaiset, etäisyydeltä toimivat biometriset tunnistusjärjetelmät sallitaan pienessä määrässä vakavia tapauksia, ja biometristen tunnistusjärjestelmien käyttö voidaan sallia tapauksissa, joissa tutkitaan vakavaa rikosta, tunnistaminen tapahtuu merkittävästi tapahtumien jälkeen ja käytölle on oikeuden päätös.

Suuri riski

Tekoälyjärjestelmät, jotka vaikuttavat kielteisesti turvallisuuteen tai perusoikeuksiin, luokitellaan suuririskisiksi. Ne jaetaan kahteen alakategoriaan.

1. Tekoälyjärjestelmät, joita käytetään EU:n tuoteturvallisuusdirektiivin alle kuuluvissa tuotteissa. Tähän kategoriaan kuuluvat esimerkiksi lelut, ilmailu, autot, lääkinnälliset laitteet ja hissit.

2. Tietyille aloille kuuluvat tekoälyjärjestelmät, jotka tulee rekisteröidä EU-tietokantaan:

  • kriittisen infrastruktuurin hallinta ja käsittely
  • yleissivistävä ja ammatillinen koulutus
  • työllistäminen, henkilöstöhallinto sekä itsenäisen ammatinharjoittamisen mahdollistaminen
  • olennaisten yksityisten palvelujen ja julkisten palvelujen ja etujen saatavuus ja käyttö
  • lainvalvonta
  • muuttoliikkeen hallinta, turvapaikka-asiat ja rajavalvonta
  • oikeudenhoito ja demokraattiset prosessit

Kaikki suuririskiset tekoälyjärjestelmät tulee arvioida ennen kuin ne pääsevät markkinoille sekä toistuvasti niiden koko elinkaaren ajan. Kansalaiset voivat lisäksi tehdä valituksia tekoälyjärjestelmistä määrätyille kansallisille viranomaisille.

Avoimuusvaatimukset

Generatiivista tai sisältöä tuottavaa tekoälyä, kuten ChatGPT:tä, ei luokitella suuren riskin järjestelmäksi, mutta sen tulee noudattaa tiettyjä avoimuusvaatimuksia sekä EU:n tekijänoikeuslakia, eli:

  • kertoa, että sisällön on tuottanut tekoäly
  • kehittää järjestelmä siten, että laittoman sisällön tuottaminen estetään
  • julkaista yhteenvetoja tekijänoikeuksin suojatusta datasta, jota käytetään kouluttamiseen

Yleiskäyttöiset tekoälyjärjestelmät, joilla on suuri vaikutus ja jotka voivat aiheuttaa järjestelmällistä uhkaa, kuten edistyneempi tekoälymalli GPT-4, joutuisivat läpikäymään perinpohjaisen selvityksen. Niiden tulee myös raportoida kaikista vakavista tapauksista komissiolle.

Tekoälyn luoma tai muokkaama sisältö (esimerkiksi kuvat, ääniraidat tai videot) tulee merkitä selvästi, jotta käyttäjät tietävät, milloin kuluttavat tekoälyyn pohjautuvaa sisältöä.


Tekoälyinnovaatioiden ja startup-yritysten tukeminen Euroopassa

Lain tavoitteena on tukea tekoälyyn liittyvää innovointia ja startup-yrityksiä Euroopassa, jotta yritykset voivat kehittää ja testata yleiskäyttöisiä tekoälymalleja ennen niiden julkistamista.

Sen vuoksi lakitekstissä vaaditaan, että kansalliset viranomaiset tarjoavat yrityksille tosielämää mukailevan testiympäristön. Tämä auttaa pieniä ja keskisuuria yrityksiä (pk-yrityksiä) kilpailemaan EU:n kasvavilla tekoälymarkkinoilla.


Toimeenpano

Parlamentti on perustanut työryhmän valvomaan tekoälysäädöksen täytäntöönpanoa ja noudattamisen valvontaa. Mepit haluavat varmistaa, että hyväksytyt tekoälysäännöt edistävät digitaalialan kehitystä Euroopassa.

Ryhmä tekee yhteistyötä Euroopan komission yhteydessä toimivan EU:n tekoälytoimiston kanssa, joka perustettiin selventämään säädöksen keskeisiä säännöksiä.


EU:n tekoälylainsäädännön toimeenpanon aikataulu

EU hyväksyi maailman ensimmäisen tekoälylainsäädännön kesäkuussa 2024. Lakia aletaan soveltaa täysin 24 kuukautta sen voimaan astumisen jälkeen, mutta osaa säännöistä tulee soveltaa jo aiemmin:

  • niiden tekoälyjärjestelmien, joiden riskiä ei voi hyväksyä, kielto astui voimaan 2. helmikuuta 2025
  • käytännesääntöjä sovelletaan yhdeksän kuukautta lain voimaanastumisen jälkeen
  • yleiskäyttöisiä tekoälyjärjestelmiä ja hallintoa koskevia sääntöjä sovelletaan 12 kuukautta lain voimaanastumisen jälkeen


Korkean riskin järjestelmillä on enemmän aikaa alkaa noudattaa lain vaatimuksia: niiden osalta sääntöjä sovelletaan 36 kuukautta lain voimaanastumisen jälkeen.

Lingvistijuristit tarkistavat vielä asetuksen. Virallisesti se hyväksytään ennen vaalikauden loppua niin sanotussa oikaisumenettelyssä. Myös neuvoston on vielä annettava virallinen hyväksyntänsä.


Lue lisää EU:n toimista digialalla:

Kryptovaluuttojen riskit ja EU−lainsäädännön edut

Kyberrikollisuuden torjunta: EU:n uudet kyberturvallisuussäädökset

EU:n digimarkkinasäädös ja digipalvelusäädös lyhyesti

Viisi tapaa, joilla Euroopan parlamentti haluaa suojella verkkopelien pelaajia