Sztuczna inteligencja: szanse i zagrożenia

Sztuczna inteligencja ma coraz większy wpływ na nasze życie. Przeczytaj o szansach i zagrożeniach, które ze sobą niesie.

W miarę jak sztuczna inteligencja staje się częścią naszego życia codziennego, wzrasta potrzeba ustalenia zasad, które będą ją kontrolować.

Wzrost i zamożność Europy są ściśle powiązane ze sposobem, w jaki będzie ona wykorzystywać dane i połączone z nimi technologie. Sztuczna inteligencja może znacznie zmienić na nasze życie - na lepsze lub na gorsze. W czerwcu 2023 r. Parlament Europejski przyjął swoje stanowisko negocjacyjne w sprawie aktu o sztucznej inteligencji – pierwszego na świecie zestawu kompleksowych przepisów dla zarządzania ryzykiem związanym z AI.

Poniżej przedstawiamy kilka kluczowych szans i zagrożeń związanych z przyszłymi zastosowaniami sztucznej inteligencji.

Sztuczna inteligencja: co to jest i jakie ma zastosowania?

Korzyści ze sztucznej inteligencji

Kraje UE już teraz mają silną pozycję w branży cyfrowej i aplikacjach typu B2B. Dzięki wysokiej jakości infrastrukturze cyfrowej i ramom regulacyjnym chroniącym prywatność i wolność słowa, UE mogłaby stać się światowym liderem w gospodarce opartej na danych i jej zastosowaniach.


Dla ludzi

Sztuczna inteligencja może pomagać ludziom ulepszając opiekę zdrowotną, sprawiając, że samochody i inne systemy transportu będą bezpieczniejsze, a produkty i usługi bardziej dostosowane do użytkownika, tańsze i trwalsze. Może ułatwić dostęp do informacji, edukacji i szkoleń, co stało się szczególnie ważne w dobie pandemii koronawirusa, gdy potrzeba edukacji na odległość wzrosła. Sztuczna inteligencja może również sprawić, że miejsca pracy będą bezpieczniejsze, ponieważ do niebezpiecznych zadań mogą służyć roboty, a nowe stanowiska pracy będą powstawać w miarę rozwoju i zmian branż opartych na sztucznej inteligencji.

11-37%

Szacowany wzrost wydajności pracy do 2035 r. związany ze sztuczną inteligencją (Think Tank Parlamentu Europejskiego, 2020)

Dla biznesu

Jeśli chodzi o firmy, sztuczna inteligencja może umożliwić im rozwój nowej generacji produktów i usług, w tym w sektorach, w których przedsiębiorstwa europejskie mają już ugruntowaną pozycję, takich jak gospodarka ekologiczna i o obiegu zamkniętym, produkcja maszyn, rolnictwo, opieka zdrowotna, moda czy turystyka. Może zwiększyć sprzedaż, poprawić konserwację maszyn, wydajność i jakość produkcji, obsługę klienta, a także oszczędzać energię.

Dla usług publicznych

Sztuczna inteligencja stosowana w usługach publicznych może obniżyć koszty i zaoferować nowe możliwości dla transportu publicznego, edukacji, energetyki i gospodarowania odpadami, a także poprawić zrównoważony charakter produktów, co mogłoby przyczynić się do osiągnięcia celów Europejskiego Zielonego Ładu.

1,5-4%

Szacunkowy stopień, w jakim sztuczna inteligencja może pomóc zmniejszyć globalne emisje gazów cieplarnianych do 2030 r. (Think Tank Parlamentu Europejskiego, 2020)

Wzmocnienie demokracji

Demokrację można by wzmocnić, stosując kontrolę opartą na danych, zapobiegając dezinformacji i cyberatakom oraz zapewniając dostęp do informacji wysokiej jakości. Sztuczna inteligencja może również wspierać różnorodność i otwartość, np. minimalizująć możliwość uprzedzeń w podejmowaniu decyzji rekrutacyjnych i wykorzystując zamiast tego dane analityczne.


Ochrona i bezpieczeństwo

Przewiduje się, że sztuczna inteligencja będzie częściej wykorzystywana w zapobieganiu przestępczości i w wymiarze sprawiedliwości w sprawach karnych, ponieważ mogłaby szyciej przetwarzać ogromne zbiory danych, dokładniej oceniać ryzyko ucieczki więźniów oraz przewidywać i zapobiegać przestępstwom lub nawet atakom terrorystycznym. Jest już używana przez platformy internetowe do wykrywania niezgodnych z prawem i niewłaściwych zachowań online oraz reagowania na nie.


W kwestiach wojskowych sztuczna inteligencja mogłaby być wykorzystywana do obrony i strategii ataku w hakowaniu i phishingu lub do atakowania ważnych systemów w cyberwojnach.

175 zettabajtów

Oczekiwana ilośc danych wytwarzanych na świecie w 2025 r.; wzrost z 33 zettabajtów w 2018 r. (Jeden zettabajt to tysiąc miliardów gigabajtów)

Zagrożenia i wyzwania związane ze sztuczną inteligencją

Rosnące uzależnienie od systemów sztucznej inteligencji niesie ze sobą również potencjalne zagrożenia.


Niepełne wykorzystanie i nadużywanie

Niewystarczające wykorzystanie możliwości sztucznej inteligencji jest uważane za duże zagrożenie: dla UE, stracone szanse mogą oznaczać słabą realizację ważnych programów, takich jak Zielony Ład; utratę przewagi konkurencyjnej nad innymi częściami świata; stagnację gospodarczą i gorsze możliwości dla obywateli. Niewystarczające wykorzystanie może wynikać z braku zaufania społeczeństwa i biznesu do sztucznej inteligencji, słabej infrastruktury, braku inicjatywy, niskich inwestycji lub, ponieważ uczenie maszynowe zależy od danych, z fragmentarycznych rynków cyfrowych.

Nadmierne wykorzystanie może być również problematyczne: inwestowanie w zastosowania sztucznej inteligencji, które okażą się nieprzydatne, lub stosowanie sztucznej inteligencji do zadań, do których się nie nadaje, np. do wyjaśniania złożonych problemów społecznych.


Odpowiedzialność: kto odpowiada za wyrządzone szkody?

Ważnym wyzwaniem jest ustalenie, kto jest odpowiedzialny za szkody spowodowane przez urządzenie lub usługę sterowane przez sztuczną inteligencję: na przykład w wypadku z udziałem samosterującego samochodu, czy szkoda powinna być pokryta przez właściciela, producenta samochodu czy programistę?

Gdyby producent był całkowicie zwolniony od odpowiedzialności, mogłoby nie być zachęty do dostarczania dobrego produktu lub usługi, co mogłoby zaszkodzić zaufaniu ludzi do technologii; ale przepisy mogą być również zbyt surowe i hamować innowacje.


Zagrożenia dla praw podstawowych i demokracji

Rezultaty dostarczane przez sztuczną inteligencję zależą od tego, jak została zaprojektowana i jakich danych używa. Zarówno projekt, jak i dane mogą być tendencyjne, celowo lub nieumyślnie. Na przykład ważne aspekty danej kwestii mogą nie być zaprogramowane w algorytmie lub mogą być zaprogramowane dla odzwierciedlenia i odtworzenia błędów strukturalnych. Ponadto użycie liczb do reprezentowania złożonej rzeczywistości społecznej może sprawić, że sztuczna inteligencja będzie sprawiać niesłuszne wrażenie, że jest oparta na faktach i precyzyjna.


Sztuczna inteligencja może poważnie wpłynąć na prawo do prywatności i ochronę danych - może być na przykład użyta w sprzęcie do rozpoznawania twarzy lub do śledzenia i profilowania osób w internecie. Ponadto sztuczna inteligencja umożliwia łączenie informacji, które osoba podała, w nowe dane, co może prowadzić do wyników, których dana osoba nie spodziewałaby się.


Może również zagrażać demokracji - sztuczną inteligencję obwiniano już o tworzenie tzw. 'baniek informacyjnych' online. Takie bańki są oparte na wcześniejszych zachowaniach danej osoby w internecie i wyświetlają tylko treści, które mogą spodobać się danej osobie, zamiast wspierać pluralistyczną, równo dostępną i otwartą debatę publiczną. Sztuczną inteligencję można też używać do tworzenia niezwykle realistycznych fałszywych filmów, nagrań dźwiękowych i obrazów - za pomocą techniki znanej jako deepfake - które mogą stanowić ryzyko finansowe, szkodzić reputacji i utrudniać podejmowanie decyzji. Wszystko to może prowadzić do podzialów i polaryzacji w sferze publicznej oraz manipulowania wyborami.


Sztuczna inteligencja może również zagrażać wolności zgromadzeń i protestu, ponieważ dzięki niej można śledzić i profilować osoby powiązane z określonymi przekonaniami lub działaniami.


Wpływ na miejsca pracy

Oczekuje się, że wykorzystanie sztucznej inteligencji doprowadzi do wyeliminowania dużej liczby miejsc pracy. Chociaż sztuczna inteligencja prawdopodobnie stworzy również lepsze możliwości zatrudnienia, edukacja i szkolenia będą odgrywać kluczową rolę w zapobieganiu długotrwałemu bezrobociu i w zapewnieniu wykwalifikowanej siły roboczej.

14%

miejsc pracy w krajach OECD można w wysokim stopniu zautomatyzować, a kolejne 32% może stanąć w obliczu poważnych zmian (szacunki Think Tanku Parlamentu Europejskiego, 2020).

Konkurencja

Gromadzenie informacji może również prowadzić do zakłóceń konkurencji, ponieważ przedsiębiorstwa dysponujące większą ilością informacji mogłyby uzyskać przewagę nad konkurentami i skutecznie ich wyeliminować.


Zagrożenia dla bezpieczeństwa

Aplikacje sztucznej inteligencji, które mają fizyczny kontakt z ludźmi lub są zintegrowane z ludzkim ciałem, mogą stanowić zagrożenie dla bezpieczeństwa, ponieważ mogą być źle zaprojektowane, niewłaściwie używane lub zhakowane. Źle uregulowane użycie sztucznej inteligencji w broni może doprowadzić do utraty kontroli człowieka nad nią.


Wyzwania związane z przejrzystością

Nierówności w dostępie do informacji mogą być wykorzystywane. Na przykład na podstawie zachowania danej osoby w internecie lub innych danych i bez jej wiedzy, sprzedawca internetowy może wykorzystać sztuczną inteligencję do przewidywania, ile ta osoba jest skłonna zapłacić, a kampania polityczna dostosować dla niej swój przekaz. Inną kwestią związaną z przejrzystością jest to, że czasami dla może być niejasne dla ludzi, czy wchodzą w interakcję ze sztuczną inteligencją, czy z osobą.

Przeczytaj więcej o tym, jak posłowie chcą kształtować przepisy dotyczące danych, aby pobudzić innowacje i zapewnić bezpieczeństwo.