Zákon o AI: prvá regulácia umelej inteligencie

Používanie umelej inteligencie v EÚ bude regulované zákonom o umelej inteligencii, ktorý je prvým komplexným zákonom o umelej inteligencii na svete. Zistite, ako vás bude chrániť.

Muž čelí počítačom vytvorenej postave s programovacím jazykom v pozadí
Táto ilustrácia umelej inteligencie je vytvorená umelou inteligenciou

EÚ chce v rámci svojej digitálnej stratégie regulovať umelú inteligenciu (AI) tak, aby zabezpečila lepšie podmienky pre vývoj a využívanie tejto inovatívnej technológie. Umelá inteligencia prináša mnohé výhody, napríklad lepšiu zdravotnú starostlivosť, bezpečnejšiu a čistejšiu dopravu, efektívnejšiu výrobu a lacnejšiu a udržateľnejšiu energiu.

V apríli 2021 Komisia navrhla prvý regulačný rámec EÚ pre AI. Navrhuje, aby sa systémy AI, ktoré sa môžu používať v rôznych aplikáciách, analyzovali a klasifikovali podľa rizika, ktoré predstavujú pre používateľov. Rôzne úrovne rizika budú znamenať väčšiu alebo menšiu reguláciu.

Čo chce Parlament v právnych predpisoch o umelej inteligencii


Prioritou Parlamentu je zabezpečiť, aby systémy umelej inteligencie používané v EÚ boli bezpečné, transparentné, sledovateľné, nediskriminačné a šetrné k životnému prostrediu. Na systémy AI by mali dohliadať ľudia, a nie automatizácia, aby sa predišlo škodlivým dôsledkom.

Parlament chce tiež stanoviť technologicky neutrálnu a jednotnú definíciu umelej inteligencie, ktorá by sa mohla uplatňovať na budúce systémy AI.

Zákon o AI: rôzne pravidlá pre rôzne úrovne rizika


Nové pravidlá stanovujú povinnosti pre poskytovateľov a používateľov v závislosti od úrovne rizika vyplývajúceho z AI. Hoci mnohé systémy umelej inteligencie predstavujú minimálne riziko, je potrebné ich posúdiť.

Neprijateľné riziko

Systémy AI s neprijateľným rizikom sú systémy, ktoré sa považujú za hrozbu pre ľudí a budú zakázané. Patria medzi ne napr:

  • kognitívna manipulácia správania osôb alebo špecifických zraniteľných skupín: napríklad hlasom aktivované hračky, ktoré podporujú nebezpečné správanie detí
  • sociálne bodovanie: klasifikácia ľudí na základe správania, sociálno-ekonomického postavenia, osobných charakteristík
  • biometrická identifikácia a kategorizácia osôb
  • biometrické identifikačné systémy v reálnom čase a na diaľku, ako je napríklad rozpoznávanie tváre


Niektoré výnimky môžu byť povolené v prípade uplatňovania zákona. Systémy diaľkovej biometrickej identifikácie "v reálnom čase" budú povolené len v obmedzenom počte v závažných prípadoch, zatiaľ čo systémy "následnej" diaľkovej biometrickej identifikácie, pri ktorých sa identifikácia uskutočňuje so značným oneskorením, budú povolené na stíhanie závažných trestných činov a len po schválení súdom.

Vysoké riziko

Systémy AI, ktoré majú negatívny vplyv na bezpečnosť alebo základné práva, sa budú považovať za vysoko rizikové a budú rozdelené do dvoch kategórií.

1. Systémy AI, ktoré sa používajú vo výrobkoch, na ktoré sa vzťahujú právne predpisy EÚ o bezpečnosti výrobkov. Patria sem hračky, letectvo, autá, zdravotnícke pomôcky a výťahy.

2. Systémy umelej inteligencie spadajúce do ôsmich špecifických oblastí, ktoré budú musieť byť zaregistrované v databáze EÚ:

  • biometrická identifikácia a kategorizácia fyzických osôb
  • riadenie a prevádzka kritickej infraštruktúry
  • vzdelávanie a odborná príprava
  • zamestnanosť, riadenie pracovníkov a prístup k samostatnej zárobkovej činnosti
  • prístup k základným súkromným službám a verejným službám a výhodám a ich využívanie
  • presadzovanie práva
  • riadenie migrácie, azylu a kontroly hraníc
  • pomoc pri právnom výklade a uplatňovaní práva.


Všetky vysokorizikové systémy umelej inteligencie sa budú posudzovať pred uvedením na trh a počas celého ich životného cyklu. Občania budú mať právo podávať sťažnosti na systémy umelej inteligencie určeným vnútroštátnym orgánom.

Požiadavky na transparentnosť

Generatívna umelá inteligencia, ako napríklad ChatGPT, nebude klasifikovaná ako vysoko riziková, avšak bude musieť spĺňať požiadavky na transparentnosť a súlad s autorskými právami EÚ:

  • zverejniť, že obsah bol vygenerovaný umelou inteligenciou
  • navrhnúť model tak, aby sa zabránilo vytváraniu nezákonného obsahu
  • zverejňovať súhrny údajov chránených autorským právom, ktoré sa použili na tréning umelej inteligencie


Modely AI s vysokým vplyvom na všeobecné použitie, ktoré by mohli predstavovať systémové riziko, ako napríklad pokročilejší model AI GPT-4, by museli prejsť dôkladným hodnotením a oznámiť Komisii všetky závažné incidenty.

Obsah, ktorý je vytvorený alebo upravený pomocou umelej inteligencie - obrázky, zvukové alebo video súbory (napr. deepfakes), musí byť jasne označený ako vytvorený umelou inteligenciou, aby používatelia vedeli, keď narazia na takýto obsah.

Podpora inovácií


Cieľom zákona je ponúknuť malým a stredným podnikom a začínajúcim podnikom príležitosti na vývoj a tréning modelov umelej inteligencie pred ich sprístupnením širokej verejnosti.

Preto sa v ňom vyžaduje, aby vnútroštátne orgány poskytli spoločnostiam testovacie prostredie, ktoré simuluje podmienky blízke reálnemu svetu.

Ďalšie kroky


Parlament prijal zákon o umelej inteligencii v marci 2024 a Rada nasledovala so schválením v máji 2024. Zákon bude plne uplatniteľný 24 mesiacov po nadobudnutí platnosti, ale niektoré časti budú uplatniteľné skôr:

  • zákaz systémov umelej inteligencie, ktoré predstavujú neprijateľné riziko, sa bude uplatňovať šesť mesiacov po nadobudnutí účinnosti
  • kódexy postupov sa budú uplatňovať deväť mesiacov po nadobudnutí účinnosti
  • pravidlá týkajúce sa systémov AI na všeobecné účely, ktoré musia spĺňať požiadavky na transparentnosť, sa začnú uplatňovať 12 mesiacov po nadobudnutí účinnosti


Vysoko rizikové systémy budú mať na splnenie požiadaviek viac času, keďže povinnosti týkajúce sa týchto systémov sa začnú uplatňovať 36 mesiacov po nadobudnutí účinnosti.

Viac informácií o digitálnych opatreniach EÚ: