Akt EU o umělé inteligenci: první nařízení o umělé inteligenci

Používání umělé inteligence v EU upravuje akt o umělé inteligenci, první komplexní zákon o umělé inteligenci na světě. Zjistěte, jak vás chrání.

Muž stojí tváří v tvář počítačem vytvořené postavě s programovacím jazykem v pozadí
Tato ilustrace umělé inteligence byla ve skutečnosti vytvořena umělou inteligencí

V rámci své digitální strategie chtěla EU regulovat umělou inteligenci, aby zajistila lepší podmínky pro rozvoj a využívání této inovativní technologie. Umělá inteligence může přinést mnoho výhod, například lepší zdravotní péči, bezpečnější a čistší dopravu, efektivnější výrobu a levnější a udržitelnější energii.

Regulace AI v Evropě: první komplexní rámec


V dubnu 2021 navrhla Evropská komise první právní předpis EU o umělé inteligenci, který zavádí systém klasifikace umělé inteligence založený na rizicích. Systémy umělé inteligence, které mohou být využívány v různých aplikacích, jsou analyzovány a klasifikovány podle rizika, které představují pro uživatele. Různé úrovně rizika znamenají větší či menší požadavky na dodržování předpisů v oblasti AI (z anglického výrazu artifical intelligence = umělá inteligence).

Co Parlament chtěl v právních předpisech o umělé inteligenci


Prioritou Parlamentu bylo zajistit, aby systémy umělé inteligence používané v EU byly bezpečné, transparentní, sledovatelné, nediskriminační a šetrné k životnímu prostředí. Na systémy AI by měli dohlížet lidé, nikoliv automatizace, aby se předešlo škodlivým následkům.

Parlament chtěl rovněž stanovit technologicky neutrální a jednotnou definici AI, kterou by bylo možné použít pro budoucí systémy umělé inteligence.

Akt o umělé inteligenci: různá pravidla pro různé úrovně rizika


Nová pravidla stanovují povinnosti poskytovatelů a uživatelů v závislosti na úrovni rizika kvalifikace rizika AI. Přestože mnoho systémů AI představuje minimální riziko, je třeba je posoudit.

Nepřijatelné riziko


Mezi zakázané aplikace AI v EU patří např:

  • kognitivní manipulace s chováním lidí nebo specifických zranitelných skupin: například hlasem aktivované hračky, které podporují nebezpečné chování u dětí
  • AI se sociálním skórováním: klasifikace lidí na základě chování, socioekonomického statusu nebo osobních charakteristik
  • biometrická identifikace a kategorizace osob
  • systémy biometrické identifikace v reálném čase a na dálku, například rozpoznávání obličeje na veřejných místech

Některé výjimky mohou být povoleny pro účely vymáhání práva. Systémy dálkové biometrické identifikace „v reálném čase“ budou povoleny v omezeném počtu závažných případů, zatímco pozdější systémy dálkové biometrické identifikace, kdy k identifikaci dochází se značným zpožděním, budou povoleny pro stíhání závažných trestných činů a pouze po schválení soudem.

Vysoké riziko


Systémy AI, které negativně ovlivňují bezpečnost nebo základní práva, budou považovány za vysoce rizikové a budou rozděleny do dvou kategorií:

1) Systémy umělé inteligence, které se používají ve výrobcích, na něž se vztahují právní předpisy EU o bezpečnosti výrobků. Patří sem hračky, letectví, automobily, zdravotnické prostředky a výtahy.

2) Systémy AI spadající do specifických oblastí, které budou muset být registrovány v databázi EU:

  • správa a provoz kritické infrastruktury
  • vzdělávání a odborná příprava
  • zaměstnávání, řízení pracovníků a přístup k samostatné výdělečné činnosti
  • přístup k základním soukromým službám a veřejným službám a dávkám a jejich využívání
  • vymáhání práva
  • migrace, azyl a řízení ochrany hranic
  • pomoc při právním výkladu a uplatňování práva

Všechny vysoce rizikové systémy AI budou posuzovány před uvedením na trh a také v průběhu jejich životního cyklu. Lidé budou mít právo podávat stížnosti na systémy AI určeným vnitrostátním orgánům.

Požadavky na transparentnost


Generativní umělá inteligence, jako je ChatGPT, nebude klasifikována jako vysoce riziková, ale bude muset splňovat požadavky na transparentnost a autorské právo EU, a tedy:

  • zveřejnit, že obsah byl vygenerován umělou inteligencí
  • navrhnout model tak, aby se zabránilo generování nelegálního obsahu
  • zveřejňovat shrnutí dat chráněných autorským právem, která byla použita k tréninku

Modely AI s vysokým dopadem pro všeobecné použití, které by mohly představovat systémové riziko, jako je například pokročilejší model AI GPT-4, by musely být podrobeny důkladnému hodnocení a případné závažné incidenty by musely být hlášeny Evropské komisi.

Obsah, který je buď generován, nebo upraven pomocí umělé inteligence – obrázky, zvukové nebo video soubory (například deepfakes) – musí být jasně označen jako vytvořený umělou inteligencí, aby si toho uživatelé byli vědomi, když na takový obsah narazí.

Podpora inovací a start-upů v oblasti umělé inteligence v Evropě


Cílem zákona je podpořit inovace a začínající podniky v oblasti umělé inteligence v Evropě a umožnit společnostem vyvíjet a testovat modely umělé inteligence pro všeobecné použití před jejich zveřejněním.

Proto požaduje, aby vnitrostátní orgány poskytly společnostem testovací prostředí pro AI, které simuluje podmínky blízké reálnému světu. To pomůže malým a středním podnikům (MSP) konkurovat na rostoucím trhu umělé inteligence v EU.

Implementace


Parlament zřídil pracovní skupinu, která bude dohlížet na implementaci a prosazování aktu o umělé inteligenci. Poslanci chtějí zajistit, aby přijatá pravidla o umělé inteligenci přispěla k rozvoji digitálního odvětví v Evropě.

Skupina spolupracuje s úřadem Evropské komise pro umělou inteligenci, který byl zřízen za účelem vyjasnění klíčových ustanovení zákona.

Časový plán dodržování zákona EU o umělé inteligenci


V červnu 2024 přijala EU první pravidla pro umělou inteligenci na světě. Akt o umělé inteligenci bude plně účinný 24 měsíců po vstupu v platnost, ale některé části budou použitelné dříve:

  • Zákaz systémů umělé inteligence, které představují nepřijatelná rizika, začal platit 2. února 2025.
  • Kodexy postupů se začnou uplatňovat devět měsíců po vstupu v platnost.
  • Pravidla týkající se systémů AI pro všeobecné účely, které musí splňovat požadavky na transparentnost, se začnou uplatňovat 12 měsíců po vstupu v platnost.

Systémy s vysokým rizikem budou mít na splnění požadavků více času, neboť povinnosti týkající se těchto systémů se začnou uplatňovat 36 měsíců po vstupu v platnost.

Více informací o digitálních opatřeních EU