Akt EU o umělé inteligenci: První nařízení o AI na světe

Používání umělé inteligence v EU bude upraveno takzavným aktem o umělé inteligenci, prvním komplexním zákonem o AI na světě. Zjistěte, jak vás bude chránit.

Muž stojí tváří v tvář počítačem vytvořené postavě s programovacím jazykem v pozadí.
Tato ilustrace AI je vytvořena umělou inteligencí.

EU chce v rámci své digitální strategie regulovat umělou inteligenci (artifical intelligence v angličtině, AI ve zkratce), aby zajistila lepší podmínky pro rozvoj a využívání této inovativní technologie v Evropě. Kde všude umělou inteligenci používáme? Jaké výhody nám přináší? Kromě lepší zdravotní péče stojí například i za bezpečnější a čistší dopravou, efektivnější výrobou a levnější a udržitelnější energií.

V dubnu 2021 Komise představila pro AI první unijní regulační rámec. Navrhuje, aby systémy AI, které mohou být využívány v různých aplikacích, byly analyzovány a klasifikovány podle rizika, které představují pro uživatele. Různé úrovně rizika budou znamenat větší nebo menší regulaci. Po schválení půjde o první pravidla pro umělou inteligence na světě.

Zjistěte více o tom, co je umělá inteligence a jak se využívá.

Co Parlament požaduje od právních předpisů týkajících se umělé inteligence?


Prioritou Parlamentu je zajistit, aby systémy umělé inteligence používané v EU byly bezpečné, transparentní, sledovatelné, nediskriminační a šetrné k životnímu prostředí. Na systémy umělé inteligence by měli dohlížet lidé, nikoliv automatizace, aby se předešlo škodlivým následkům.


Parlament chce rovněž stanovit technologicky neutrální a jednotnou definici umělé inteligence, kterou by bylo možné použít pro budoucí systémy umělé inteligence.


Přečtěte si více opráci Parlamentu v oblasti umělé inteligence a jeho vizi budoucnosti AI.

Akt o AI: různá pravidla pro různé úrovně rizika


Nová pravidla stanovují pro poskytovatele a uživatele celou řadu povinností, a to v závislosti na úrovni rizika plynoucího z AI. Ačkoli mnoho systémů umělé inteligence představuje minimální riziko, je třeba je kategorizovat a posoudit.

Nepřijatelné riziko


Systémy AI s nepřijatelným rizikem jsou systémy, které jsou považovány za hrozbu pro člověka a budou zakázány. Patří mezi ně např:

  • kognitivní manipulace s chováním lidí nebo specifických zranitelných skupin (např. hlasem aktivované hračky, které podporují nebezpečné chování dětí)
  • přidělování sociálního kreditu (klasifikace lidí na základě chování, socioekonomického statusu, osobních charakteristik)
  • biometrické identifikační systémy v reálném čase a na dálku (např. rozpoznávání obličeje)


Mohou být povoleny některé výjimky: například systémy biometrické identifikace na dálku, keré probíhají „zpětně“, kdy k identifikaci dochází se značným zpožděním, budou povoleny pro stíhání závažných trestných činů a pouze po schválení soudem.

Vysoké riziko


Systémy UI, které mají negativní dopad na bezpečnost nebo základní práva, budou považovány za vysoce rizikové a budou rozděleny do dvou kategorií.

1. Systémy AI, které se používají ve výrobcích, na něž se vztahují právní předpisy EU o bezpečnosti výrobků. Patří sem hračky, letecký a kosmický průmysl, automobily, zdravotnické prostředky a výtahy.

2. Systémy AI spadající do osmi specifických oblastí, které budou muset být registrovány v databázi EU:

  • biometrická identifikace a kategorizace fyzických osob
  • správa a provoz kritické infrastruktury
  • vzdělávání a odborná příprava
  • zaměstnanost, řízení pracovní síly a přístup k samostatné výdělečné činnosti
  • přístup k základním soukromým a veřejným službám a dávkám a jejich využívání
  • vymáhání práva
  • řízení migrace, azylu a ochrany hranic
  • pomoc s právním výkladem a vymáháním práva

Všechny vysoce rizikové systémy AI budou posuzovány před uvedením na trh a v průběhu celého životního cyklu.

Generativní umělá inteligence


Generativní umělá inteligence, jako je ChatGPT, bude muset splňovat požadavky na transparentnost:

  • zveřejnit, že obsah byl vygenerován umělou inteligencí.
  • navrhnout model tak, aby zabránil vytváření nezákonného obsahu
  • zveřejňovat shrnutí dat chráněných autorským právem, která byla použita k tréninku umělé inteligence

Omezené riziko


Systémy umělé inteligence s omezeným rizikem by měly splňovat minimální požadavky na transparentnost, aby uživatelé mohli činit informovaná rozhodnutí. Po interakci s aplikacemi se uživatel může rozhodnout, zda je chce dále používat. Uživatelé by měli být informováni o tom, že interagují s AI. To zahrnuje systémy umělé inteligence, které generují nebo manipulují s obrazovým, zvukovým nebo video obsahem (např. deepfakes).

Další kroky


Během plenárního zasedání 14. června 2023 přijali poslanci EP svůj vyjednávací postoj k aktu o umělé inteligenci. Nyní začnou jednání se zeměmi EU v Radě o konečné podobě zákona.

Cílem je dosáhnout dohody do konce tohoto roku.

Přečtěte si více o digitálních opatřeních EU: