ES dirbtinio intelekto aktas: kaip jis jus apsaugos

Dirbtinio intelekto (DI) naudojimą ES reglamentuos Dirbtinio intelekto aktas. Tai pirmosios pasaulyje DI veiklos taisyklės. Sužinokite, kaip jos jus apsaugos.

Vyras bendrauja su dirbtinio intelekto sukurtu asmeniu
Dirbtinio intelekto sukurta nuotrauka

ES, įgyvendindama savo skaitmeninę strategiją, nori reglamentuoti DI, kad užtikrintų geresnes šios novatoriškos technologijos kūrimo ir naudojimo sąlygas. Dirbtinis intelektas gali atnešti daug naudos, pvz., užtikrinti geresnę sveikatos priežiūrą, saugesnį ir švaresnį transportą, efektyvesnę gamybą ir pigesnį bei tvaresnį energijos vartojimą.

2021 m. balandžio mėn. Europos Komisija pasiūlė pirmąją ES dirbtinio intelekto reguliavimo sistemą. Joje siūloma DI sistemas, kurios gali būti naudojamos įvairiose programose, analizuoti ir klasifikuoti pagal jų keliamą riziką naudotojams. Skirtingi rizikos lygiai reikš didesnį arba mažesnį reguliavimą. Patvirtinus jas, tai bus pirmosios pasaulyje dirbtinio intelekto taisyklės.

Sužinokite daugiau apie tai, kas yra dirbtinis intelektas ir kaip jis naudojamas.

Ko siekia Europos Parlamentas DI teisėkūroje?


Europarlamento prioritetas yra užtikrinti, kad ES naudojamos dirbtinio intelekto sistemos būtų saugios, skaidrios, atsekamos, nediskriminuojančios ir nekenksmingos aplinkai. Kad būtų išvengta žalingų padarinių, dirbtinio intelekto sistemas turėtų prižiūrėti žmonės, o ne automatizavimas.

Parlamentas taip pat nori nustatyti technologiškai neutralią, vienodą dirbtinio intelekto apibrėžtį, kurią būtų galima taikyti būsimoms DI sistemoms.

Sužinokite daugiau apie Europarlamento veiklą DI srityje ir apie jo dirbtinio intelekto ateities viziją.

DI aktas: skirtingos taisyklės skirtingiems rizikos lygiams


Naujosiose taisyklėse nustatytos paslaugų teikėjų ir naudotojų pareigos, atsižvelgiant į dirbtinio intelekto keliamą riziką. Nors daugelis dirbtinio intelekto sistemų kelia minimalią riziką, jas vis tiek reikia įvertinti.

Nepriimtina rizika


Nepriimtinos DI rizikos – tai sistemos, kurios laikomos keliančiomis grėsmę žmonėms ir jos bus draudžiamos. Joms priskiriamos šios sistemos:

  • kognityvinis asmenų ar konkrečių pažeidžiamų grupių elgesio manipuliavimas (pvz., balsu aktyvuojami žaislai, skatinantys pavojingą vaikų elgesį);
  • socialinių balų suteikimas, t. y. žmonių klasifikavimas pagal elgesį, socialinį ir ekonominį statusą, asmenines savybes;
  • biometrinė identifikacija ir asmenų skirstymas į kategorijas;
  • realiuoju laiku ir nuotoliniu būdu veikiančios biometrinės atpažinimo sistemos, pvz., veido atpažinimas.


Gali būti leistinos tam tikros išimtys teisėsaugo tikslais. Nuotolinę biometrinę identifikavimo sustemą realiu laiku bus leidžiama pasitelkti ribotame skaičiuje rimtų bylų, o nuotolinio biometrinio atpažinimo sistemos, kai atpažinimas atliekamas gerokai po tam tikro laiko, bus leidžiamos vykdant baudžiamąjį persekiojimą už sunkius nusikaltimus ir tik gavus teismo leidimą.

Didelė rizika


Neigiamą poveikį saugumui ar pagrindinėms žmogaus teisėms darančios sistemos bus laikomos didelę DI riziką keliančiomis ir bus skirstomos į dvi kategorijas.

Pirmoji, tai DI sistemos, naudojamos produktuose, kuriems taikomi ES produktų saugos teisės aktai. Tai apima žaislus, aviaciją, automobilius, medicinos prietaisus ir keltuvus.

Antroji, tai DI sistemos, patenkančios į konkrečias sritis, kurios turės būti registruojamos ES duomenų bazėje:

  • ypatingos svarbos infrastruktūros valdymas ir veikimas;
  • švietimas ir profesinis mokymas;
  • įdarbinimas, darbuotojų valdymas ir galimybė dirbti savarankiškai;
  • galimybė pasinaudoti pagrindinėmis privačiomis ir viešosiomis paslaugomis bei išmokomis;
  • teisėsauga;
  • migracijos, prieglobsčio ir sienų kontrolės valdymas;
  • pagalba aiškinant ir taikant įstatymus.


Visos didelės rizikos DI sistemos bus vertinamos prieš patenkant joms į rinką ir per visą jų gyvavimo laikotarpį.

Bendrosios paskirties ir generatyvinis dirbtinis intelektas


Generatyvinis dirbtinis intelektas, kaip „ChatGPT“, turės atitikti skaidrumo reikalavimus:

  • atskleisti, kad turinys sukurtas naudojant dirbtinį intelektą;
  • sukurti modelį, kuris neleistų kurti neteisėto turinio;
  • skelbti mokymui naudotų duomenų, apsaugotų autorių teisėmis, santraukas.

Didelio poveikio bendrosios paskirties dirbtinio intelekto modeliai, galintys kelti sisteminę riziką (pvz., pažangesnis dirbtinio intelekto modelis GPT-4), turėtų būti nuodugniai vertinami, o įvykus rimtiems incidentams apie juos turėtų būti pranešta Europos Komisijai.

 

Ribota rizika


Ribotos rizikos dirbtinio intelekto sistemos turėtų atitikti minimalius skaidrumo reikalavimus, kurie leistų naudotojams priimti šia informacija pagrįstus sprendimus. Po sąveikos su programomis vartotojas galės nuspręsti, ar nori toliau jomis naudotis. Vartotojai turėtų būti informuojami, kai sąveikauja su dirbtiniu intelektu. Tai apima DI sistemas, kurios generuoja arba manipuliuoja garso ar vaizdo turiniu (pvz., išmanusis vaizdo ir garso klastojimas, angl. deepfake).

Susiję straipsniai