ES MI akts: pirmā regula mākslīgā intelekta pārvaldībai

Mākslīgā intelekta izmantošanu Eiropas Savienībā noteiks Mākslīgā intelekta akts, pasaulē pirmais visaptverošais mākslīgā intelekta likums. Uzzini, kā tas tevi pasargās.

Vīrietis sarunājas ar datora ģenerētu būtni. Bildes fonā ir programmēšanas valoda.
Šo ilustrāciju ir radījis mākslīgais intelekts

Digitālās pārveides ietvaros Eiropas Savienība vēlas regulēt mākslīgo intelektu (MI), lai radītu labākus apstākļus šīs novatoriskās tehnoloģijas attīstībai un izmantošanai. MI spēj uzlabot veselības aprūpi un padarīt transportlīdzekļus drošākus un dabai draudzīgākus, kā arī paaugstināt ražošanas procesu efektivitāti un nodrošināt lētākus un ilgtspējīgākus enerģijas avotus.


2021. gada aprīlī Eiropas Komisija ierosināja pirmo ES normatīvo regulējumu par mākslīgo intelektu. Tajā norādīts, ka MI sistēmas, kuras var izmantot dažādās lietojumprogrammās, jāanalizē un jāiedala atbilstoši riskam, ko tās rada lietotājiem. Noteikumi, kas MI tehnoloģijām jāievēro, atšķirsies atkarībā no katras tehnoloģijas riska līmeņa. Pēc noteikumu apstiprināšanas tie kļūs par pasaulē pirmo MI regulu.


Uzzini vairāk par to, kas ir mākslīgais intelekts un kur to izmanto.



Ko Parlaments vēlas MI tiesību aktos

Parlamenta prioritāte ir nodrošināt, lai Eiropas Savienībā izmantotās mākslīgā intelekta sistēmas būtu drošas, pārredzamas, izsekojamas, nediskriminējošas un videi draudzīgas. Lai novērstu kaitīgas sekas, MI sistēmas ir jāpārrauga cilvēkiem, nevis datorprogrammām.


Parlaments arī vēlas izveidot tehnoloģiski neitrālu, vienotu definīciju terminam "mākslīgais intelekts", ko varētu piemērot arī nākotnes MI sistēmām.


Uzzini vairāk par Parlamenta ierosinātajiem MI noteikumiem
un vīziju par MI nākotni.

MI akts: dažādi noteikumi dažādiem riska līmeņiem


Jaunie noteikumi izvirza pienākumus pakalpojumu sniedzējiem un lietotājiem atkarībā no MI radītā riska līmeņa. Lai gan daudzu mākslīgā intelekta sistēmu radītais risks ir minimāls, tās ir sistemātiski jāizvērtē.



Nepieņemama riska līmenis

Nepieņemama riska MI sistēmas ir sistēmas, kas tiek uzskatītas par cilvēku apdraudējumu un tiks aizliegtas. Tās ietver:

  • cilvēku un it īpaši noteiktu neaizsargātu grupu kognitīvo uzvedību manipulējošas sistēmas, piemēram, ar balsi aktivizējamas rotaļlietas, kas bērnos veicina bīstamu uzvedību;
  • "sociālo reitingu" sistēmas, proti, cilvēku klasificēšana, pamatojoties uz uzvedību, sociāli ekonomisko stāvokli vai personiskajām īpašībām;
  • fizisko personu biometriskā identifikācija un iedalīšana kategorijās;
  • reāllaika un attālinātās biometriskās identifikācijas sistēmas, piemēram, seju atpazīšana.


Tiesību aizsardzības nolūkos noteikumi ietver dažus izņēmumus. Ierobežotā skaitā nopietnu gadījumu būs atļautas reāllaika attālinātās biometriskās identifikācijas sistēmas. Savukārt smagu kriminālnoziegumu izpētē pēc tiesas apstiprinājuma varēs izmantot "pagātnes" attālinātās biometriskās identifikācijas sistēmas, lai identificētu cilvēkus ievērojamu laiku pēc kriminālnozieguma izdarīšanas.



Augsta riska līmenis

MI sistēmām, kas negatīvi ietekmē drošību vai pamattiesības, tiks noteikts augsta riska līmenis. Tās tiks iedalītas divās kategorijās:


1) MI sistēmas, ko izmanto produktos, uz kuriem attiecas ES tiesību akti par produktu drošību, piemēram, rotaļlietas, ar aviāciju saistītie produkti, automašīnas, medicīniskās ierīces un lifti.


2) MI sistēmas, kas ietilpst noteiktās jomās, kuras būs jāreģistrē ES datubāzē:


  • kritiskās infrastruktūras vadība un darbība;
  • izglītība un profesionālā apmācība;
  • nodarbinātība, darbinieku vadība un piekļuve pašnodarbinātībai;
  • piekļuve būtiskiem privātiem un sabiedriskiem pakalpojumiem un priekšrocībām;
  • tiesībaizsardzība;
  • migrācijas, patvēruma un robežkontroles pārvaldība;
  • palīdzība tiesību aktu juridiskajā interpretācijā un piemērošanā.


Visas augsta riska MI sistēmas tiks novērtētas pirms laišanas tirgū, kā arī atkārtoti vērtētas visa to dzīves cikla laikā. 



Universālais un ģeneratīvais MI

Ģeneratīvajam MI, piemēram, ChatGPT, būtu jāatbilst pārredzamības prasībām:

  • jāatklāj tas, ka saturu ir radījis MI;
  • jāizstrādā modelis, lai novērstu nelegāla satura radīšanu;
  • jāpublicē MI apmācībai izmantoto ar autortiesībām aizsargāto datu kopsavilkums.


Augstas ietekmes universāliem MI modeļiem, kas varētu radīt sistēmisku risku, piemēram, progresīvajam mākslīgā intelekta modelim GPT-4, būtu jāiztur rūpīga izvērtēšana un par jebkādiem nopietniem atgadījumiem būtu jāziņo Komisijai.



Ierobežota riska līmenis

Ierobežota riska MI sistēmām būtu jāatbilst minimālām pārredzamības prasībām, kas ļautu lietotājiem pieņemt pamatotus lēmumus. Pēc saskarsmes ar lietojumprogrammu tās lietotājs var izlemt, vai turpināt programmas izmantošanu. Lietotājiem jābūt informētiem par savu saskarsmi ar mākslīgo intelektu, it īpaši ar mākslīgā intelekta sistēmām, kas ģenerē attēlus, audio vai video saturu un manipulē ar tiem, piemēram, deepfakes.

Turpmākie soļi


2023. gada 9. decembrī Parlaments panāca provizorisku vienošanos ar Padomi par MI aktu. Teksts, par kuru panākta vienošanās, tagad būs oficiāli jāpieņem gan Parlamentam, gan Padomei, lai tas kļūtu par ES tiesību aktu.


Parlamenta Iekšējā tirgus un Pilsoņu brīvību komitejas par vienošanos balsos kādā no nākamajām sanāksmēm.

Saistītie raksti