Umělá inteligence: rizika i příležitosti
Umělá inteligence se dostává do všech aspektů našeho života. V čem spočívají rizika a jaké jsou naopak příležitosti?
Umělá inteligence se stává součástí našeho každodenního života, proto je nezbytné stanovit pravidla. Parlament chce určit rámec, který lidem umožní využívat jejích výhod a současně minimalizovat rizika.
Růst a prosperita Evropy jsou úzce spjaty s tím, jak budeme využívat data a s nimi související technologie. Umělá inteligence může v našich životech znamenat výraznou změnu, ať už k lepšímu či horšímu. Evropský parlament proto založil zvláštní výbor pro zkoumání jejích dopadů a vyzval, aby pravidla pro umělou inteligenci byla zaměřená především na člověka a byla připravená na různé budoucí scénáře. Níže jsou nastíněny některé z hlavních příležitostí a hrozeb spojených s budoucím využíváním umělé inteligence (anglicky artificial intelligence – AI).
Přečtěte si více o tom, co umělá inteligence je a jak ji využíváme.
Výhody umělé inteligence
Země Evropské unie jsou v digitálním průmyslu a v digitalizaci podnikání silnými hráči. Vzhledem k existenci vysoce kvalitní digitální infrastruktury a regulačního rámce, který chrání soukromí a svobodu projevu, by se EU mohla v datové ekonomii a jejím využívání stát celosvětovým lídrem.
Přínosy v běžném životě
AI nám může zlepšit zdravotní péči, může přinést bezpečnější auta a další dopravní prostředky a v neposlední řadě i levnější produkty s delší životností a služby přizpůsobené lidem na míru. Usnadnit může i přístup k informacím, vzdělání a odborné přípravě – právě toto hledisko se dostalo do popředí zejména s přechodem na distanční způsoby výuky během pandemie Covid-19. Vzhledem k tomu, že roboti mohou být využíváni pro nebezpečné práce, dokáže umělá inteligence zároveň zvýšit bezpečnost na pracovišti a nabídnout nové pracovní příležitosti v rostoucím a vyvíjejícím se odvětví průmyslu řízeném pomocí AI.
Příležitosti umělé inteligence pro podniky
V podnicích umožňuje AI vývoj nové generace produktů a služeb, a to i v těch odvětvích, ve kterých mají evropské společnosti již nyní silné postavení: zelená a oběhová ekonomika, strojírenství, zemědělství, zdravotní péče, móda, cestovní ruch. Umělá inteligence pomůže s optimalizací a plynulostí prodeje, může zlepšit údržbu strojů, zvýšit výkon a kvalitu produkce, úroveň služeb pro zákazníky a rovněž ušetří energii.
Příležitosti AI ve veřejných službách
Umělá inteligence využívaná ve veřejných službách může snížit náklady a nabídnout nové možnosti ve veřejné dopravě, vzdělávání, energetice a při nakládání s odpady a zároveň zlepšit udržitelnost produktů. Právě proto by mohla mimo jiné přispět k naplnění cílů Zelené dohody pro Evropu.
Prevence dezinformací
Řízení založené na datech, prevence dezinformací a kybernetických útoků a zajištění přístupu ke kvalitním informacím: z těchto důvodů může AI účinně posílit demokracii. Zároveň lze jejím prostřednictvím podpořit diverzitu a otevřenost, a to například zmírněním předsudků při přijímání nových zaměstnanců skrze využívání primárně analytických dat.
Umělá inteligence, bezpečnost a ochrana
Lze předpokládat, že AI bude stále častěji využívána i pro prevenci kriminality a v systému trestního soudnictví. Masivní soubory dat dokáže umělá inteligence zpracovat rychleji, rizika útěku vězňů hodnotí přesněji a dokáže předvídat a předcházet nejen trestné činnosti, ale i teroristickým útokům. Online platformy ji v současné době využívají hlavně pro detekci nezákonného a nevhodného online chování.
V oblasti vojenství by mohla být umělá inteligence využita k obranným a útočným strategiím proti hackování a phishingu (technika pro získávání citlivých údajů v elektronické komunikaci) či k cílení na klíčové systémy v kybernetické válce.
Hrozby a výzvy spojené s umělou inteligencí
Zvyšující se závislost na systémech umělé inteligence nicméně představuje určitá rizika.
Nedostatečné využívání a nadužívání AI
Za hlavní hrozbu je považováno především nedostatečné využívání umělé inteligence: promarněné příležitosti mohou pro EU znamenat špatnou implementaci zásadních programů, jako je například Zelená dohoda pro Evropu, ale i ztrátu konkurenční výhod oproti jiným regionům a hospodářskou stagnaci. Nedostatečné využití AI může pramenit z obecné nedůvěry veřejnosti a podniků v umělou inteligenci, ale i z nevyhovující infrastruktury, nízkých investic či fragmentace digitálních trhů (a to vzhledem ke skutečnosti, že proces učení umělé inteligence je závislý na datech).
Podobně problematické však může být nadužívání AI. Příkladem je investování do aplikací, které se ukázaly být nepoužitelnými, nebo použití umělé inteligence tam, kde není vhodná – například k vysvětlování složitých a značně komplexních společenských jevů.
Odpovědnost: Kdo nese vinu za škody způsobené AI?
Důležité je určit, kdo je zodpovědný za škodu způsobenou zařízením nebo službou ovládanou umělou inteligencí. Pokud kupříkladu dojde k nehodě automobilu řízeného AI, hradí škody majitel, výrobce automobilu nebo programátor?
Pokud by byl producent zbaven odpovědnosti, neexistoval by žádný podnět k poskytování kvalitního produktu a služby, což by mohlo zásadně poškodit důvěru lidí v technologie. Na stranu druhou, i samotné regulace mohou být příliš striktní a potlačovat inovativní růst.
Hrozby AI pro základní práva a demokracii
Výsledky produkované umělou inteligencí závisí na tom, jak je navržena a jaká data používá. Jak návrh samotný, tak i data mohou být záměrně či neúmyslně ovlivněny. Některé klíčové aspekty určitého problému například nemusí být vůbec do algoritmu zakomponovány nebo mohou být naprogramovány tak, že reflektují a replikují strukturální předsudky. Zároveň s tím by použití čísel k reprezentaci a vyjádření komplexní sociální reality mohlo způsobit, že se umělá inteligence bude jevit jako faktická a přesná, i když tomu tak ve skutečnosti není. Tento fenomén je označován jako tzv. „mathwashing“ (z anglického „math“ = matematika a „washing“ = mytí).
V případě nesprávného provedení by tak umělá inteligence mohla činit negativně zaujatá rozhodnutí ovlivněná etnickým původem, pohlavím či věkem a zpochybnit objektivnost procesů při najímání či propouštění zaměstnanců, při nabízení půjček, či dokonce v trestním řízení.
AI by mohla vážně ovlivnit právo na soukromí a ochranu údajů – může být například využita v zařízeních pro rozpoznávání tváří, pro online sledování a profilování jednotlivců. Umělá inteligence navíc umožňuje slučování poskytnutých informací, čímž vytváří nová data – tato skutečnost může mnohdy vést k neočekávaným výsledkům.
V umělé inteligenci lze navíc spatřovat potenciální hrozbu i pro demokracii. Již v minulosti jí bylo přisuzováno vytváření tzv. komnat ozvěn založených na zobrazování obsahu, který koresponduje s přechozím online chováním dané osoby. AI tak nevytváří dostatečný prostor pro pluralistickou, rovnoměrně přístupnou a inkluzivní veřejnou debatu. Může být dokonce využita k vytváření falešných, leč extrémně realistických videí, audio nahrávek a obrázků, též známých jako tzv. „deepfakes“. Ty mohou představovat značná finanční rizika, poškozovat dobré jméno a zpochybnit rozhodování. To vše může následně vést k rozdělení a polarizaci veřejné sféry a k ovlivňování samotných voleb.
AI by mohla svou roli sehrát i při upírání svobody shromažďování a protestů, neboť ji lze využít k sledování a profilování jedinců spojených s určitým přesvědčením nebo činy.
Dopad umělé inteligence na pracovní místa
Očekává se, že využívání AI na pracovišti povede k rušení velkého počtu pracovních míst. Ačkoliv se zároveň předpokládá, že umělá inteligence vytvoří nová a lepší pracovní místa, skutečností je, že vzdělání a odborný výcvik budou hrát klíčovou roli při prevenci dlouhodobé nezaměstnanosti a při zajišťování kvalifikovaných pracovníků.
Hospodářská soutěž a konkurenceschopnost
Shromažďování informací může mimo jiné vést k narušení hospodářské soutěže – aktéři s větším množstvím informací mohou nad svými oponenty získat výhodu a konkurenci účinně eliminovat.
Bezpečnostní rizika
Veškeré způsoby využití umělé inteligence, které jsou v přímém fyzickém kontaktu s lidmi nebo přímo integrované do lidského těla, mohou představovat bezpečnostní rizika. Existuje možnost chybného návrhu, zneužití či hacknutí. Nedostatečná regulace při používání AI ve zbraních může vést ke ztrátě kontroly nad nebezpečnými zbraněmi.
Otázka transparentnosti
Riziko spočívá také v nerovnováze v přístupu k informacím. Na základě chování lidí v online prostředí a díky dalším datům může bez vědomí dotčených osob dojít například k cílenému přizpůsobování politických kampaní člověku na míru či předvídání toho, kolik je daná osoba u online prodejce ochotna utratit. Dalším problémem transparentnosti je skutečnost, že ne vždy je lidem jasné, zda interagují s umělou inteligencí či reálnou osobou.
Přečtěte si více o tom, jak chtějí europoslanci utvářet legislativu v oblasti dat, aby podpořili inovace a zajistili bezpečnost.
Odkazy
- Evropská komise: Bílá kniha o umělé inteligenci - evropský přístup k excelenci a důvěře otevře se v novém okně
- Studie Think tanku EP: Artificial intelligence: How does it work, why does it matter, and what can we do about it? (anglicky)
- Artificial intelligence: how does it work, why does it matter and what can we do about it?
- Think Tank Evropského parlamentu: Opportunities of artificial intelligence (anglicky)
- Council of Europe study: algorithms and human rights otevře se v novém okně
- Artificial intelligence: legal and ethical reflections