Roboti prihajajo: nam res grozijo izguba služb in nova varnostna tveganja?

Od kamene dobe preko industrijske revolucije do dobe interneta: človeštvo se je skozi vso svojo zgodovino izpopolnjevalo v rabi vse bolj zapletenih orodij. Že nekaj časa je v vzponu robotika: igrače, brezpilotna letala in avtomobili so naprave, ki jih danes upravljajo tudi roboti. Na plenarnem zasedanju bodo poslanci 15. februarja razpravljali, dan kasneje pa še glasovali o prvi zakonodaji EU za področje robotike. O njej smo se nedavno pogovarjali s poročevalko Mady Delvaux (S&D, Luksemburg).

Interview with Mady Delvaux
Mady Delvaux

Katere robote bo pokrila nova zakonodaja?

 

Ne gre za orožje. Robote definiramo kot oprijemljive stroje, ki so opremljeni s senzorji in povezani z drugimi napravami, tako da lahko obdelujejo podatke. Nove generacije robotov se bodo lahko vse bolj učile same. Najbolj prestižni so samovozni avtomobili. Potem so tukaj še brezpilotna letala, industrijski roboti, roboti za oskrbo ljudi, roboti v zabavni industriji in kmetijstvu, roboti-igrače in roboti-gasilci,...


Bi roboti morali imeti pravni status, neke vrste elektronsko osebnost?

 

Ko se bodo pojavili roboti, ki se bodo učili sami, bomo morali poiskati pravne rešitve. Evropska komisija naj preuči možnosti. Ena izmed njih je, da bi robotom dali omejeno e-osebnost - to bi bilo koristno v primerih, ko bi roboti naredili škodo, ki bi jo bilo treba povrniti. Podobna ureditev je sedaj v veljavi, ko gre za podjetja: ta so pravne osebe. Ko tožiš podjetje, ne tožiš njegovih lastnikov.


Oblikovati moramo pravni okvir za robote, ki so trenutno na trgu in ki bodo na trg prišli v naslednjih 10 do 15 letih.


Kdo bo torej odgovarjal za škodo, ki jo bodo naredili roboti? Lastnik, proizvajalec, oblikovalec ali programer?

 

Imamo dve možnosti. Ena je, da bi v skladu z načelom stroge odgovornosti moral za morebitno škodo odgovarjati proizvajalec, saj ta najbolje ve, kaj proizvaja. Nato lahko proizvajalec od svojih dobaviteljev in podizvajalcev izterja denar.


Druga možnost je ocenjevanje tveganj, kar najprej zahteva testiranje proizvodov, nato pa v primeru škode razporeditev stroškov na vse vpletene. Predlagamo tudi obvezno zavarovanje, vsaj za velike robote.


V poročilu omenjate, da se lahko ranljivi ljudje čustveno navežejo na robote, ki skrbijo zanje. Kako preprečiti zlorabo teh čustev?

 

Ljudi je treba vedno znova opozarjati, da roboti niso ljudje in nikoli ne bodo. Ne želimo robotov, ki zgledajo kot ljudje, kakor na Japonskem. Predlagali smo listino, ki bi od proizvajalcev zahtevala, naj robotov ne oblikujejo tako, da bi ljudje od njih postali čustveno odvisni. Lahko si od njih fizično odvisen, kar pa ni isto, kot če misliš, da te ima robot rad ali s tabo sočustvuje.


Zakaj se mudi s sprejemom zakonodaje o robotih?

 

Če zakonodajo sprejmemo, bomo vzpostavili enotna, evropska načela in pravni okvir, še preden vsaka država članica sprejme svojo zakonodajo. Standardizacija bo podprla trg robotike - če želi biti Evropa na tem področju vodilna, mora oblikovati evropska pravila za sektor robotike.


Uporabniki robotov bodo v primeru škode, povzročene s strani robotov, zavarovani. Tudi varnost in zaščita podatkov sta velika izziva. Roboti ne morejo delovati brez izmenjave podatkov: treba je določiti, kdo bo imel dostop do njih.


Ljudje se bojijo, da bodo zaradi robotov izgubili službe. Je ta strah upravičen?

 

Gre za največji izziv, ki se ga bo morala lotiti naša družba in njen izobraževalni sistem. Ne vemo, kaj se bo zgodilo. Nizko kvalificirana dela bodo vedno na voljo. Roboti ne bodo nadomestili ljudi, šlo bo za sodelovanje. Evropsko komisijo smo zaprosili, naj naredi študijo o tem, katera dela bodo prevzeli roboti. Za težka dela, npr. gašenje požarov ali delo pod vodo, pa bodo roboti zelo uporabni.


V poročilu se dotikamo tudi sprememb v sistemih socialne varnosti. Treba je razmisliti o univerzalnem temeljnem dohodku, tako da bodo v primeru visoke brezposelnosti ljudje imeli dovolj za dostojno življenje. O tem morajo premisliti države članice, saj to ne spada v pristojnost EU.

Več